“(...)Diferentemente dos programas de computador tradicionais, as IAs são projetadas para explorar e desenvolver novas abordagens para tarefas sobre as quais seus engenheiros humanos não lhes falaram explicitamente (...)”
A equipe do Google olhava perplexa para as telas de
seus computadores.
Eles haviam passado vários meses aperfeiçoando um
algoritmo desenvolvido para conduzir um balão de hélio não tripulado de Porto
Rico ao Peru. Mas algo estava errado.
O balão, controlado por inteligência artificial (IA),
continuava desviando da rota.
Salvatore Candido, do agora extinto Projeto Loon, do
Google, que tinha como objetivo levar acesso à internet a áreas remotas do
planeta por meio de balões, não conseguia explicar a trajetória da aeronave.
Seus colegas assumiram manualmente o controle do
sistema e o colocaram de volta na rota.
Só mais tarde eles perceberam o que estava
acontecendo. Inesperadamente, a inteligência artificial a bordo do balão havia
aprendido a recriar uma antiga técnica de navegação desenvolvida por humanos há
séculos, senão milhares de anos.
A técnica envolve conduzir a embarcação em ziguezague
contra o vento, de modo que seja possível avançar mais ou menos na direção
desejada.
Sob condições climáticas desfavoráveis, os balões
autônomos aprenderam a se virar sozinhos. O fato de terem feito isso, de forma
espontânea, surpreendeu a todos, inclusive aos pesquisadores que trabalhavam no
projeto.
"Rapidamente percebemos que tinham sido mais
espertos que a gente, quando o primeiro balão autorizado a executar totalmente
essa técnica bateu um recorde de tempo de voo de Porto Rico ao Peru",
escreveu Candido em um blog sobre o projeto.
"Nunca me senti tão inteligente e tão burro ao
mesmo tempo."
Este é exatamente o tipo de coisa que pode acontecer
quando a inteligência artificial é deixada à sua própria sorte.
Diferentemente dos programas de computador
tradicionais, as IAs são projetadas para explorar e desenvolver novas
abordagens para tarefas sobre as quais seus engenheiros humanos não lhes
falaram explicitamente.
Mas enquanto aprendem como fazer essas tarefas, as IAs
às vezes apresentam uma abordagem tão inovadora que pode surpreender até mesmo
as pessoas que trabalham com esses sistemas o tempo todo.
Isso pode ser algo bom, mas também pode tornar as
coisas controladas por inteligência artificial perigosamente imprevisíveis —
robôs e carros autônomos podem acabar tomando decisões que colocam os humanos
em perigo.
Como é possível para um sistema de inteligência
artificial "superar" seus mestres humanos? E será que poderíamos
controlar as mentes das máquinas de alguma forma, para garantir que não
aconteça nenhum desastre imprevisto?
Na comunidade de IA, há um caso de criatividade que
parece ser mais citado do que qualquer outro.
O momento que realmente empolgou as pessoas sobre o
que a inteligência artificial pode fazer, diz Mark Riedl, do Instituto de
Tecnologia da Geórgia, nos EUA, foi quando o DeepMind, laboratório de IA do
Google, mostrou como um sistema de machine learning (aprendizagem automática)
dominou o antigo jogo de tabuleiro Go — e depois derrotou um dos melhores
jogadores humanos do mundo.
"Isso acabou demonstrando que havia novas
estratégias ou táticas para contra-atacar um jogador que ninguém realmente
havia usado antes — ou pelo menos muitas pessoas não sabiam a respeito",
explica Riedl.
E ainda assim, um inocente jogo de Go desperta
sentimentos diferentes entre as pessoas.
Riscos
Por um lado, o DeepMind descreveu orgulhosamente as
maneiras pelas quais seu sistema, o AlphaGo, foi capaz de "inovar" e
revelar novas abordagens para um jogo que os humanos vêm jogando há milênios.
Por outro lado, alguns questionaram se uma
inteligência artificial tão inovadora poderia um dia representar um sério risco
para os humanos.
"É ridículo pensar que seremos capazes de prever
ou gerenciar o pior comportamento das inteligências artificiais quando não
podemos, na verdade, imaginar seu possível comportamento", escreveu
Jonathan Tapson, da Universidade de Western Sydney, na Austrália, após a
vitória histórica do AlphaGo.
É importante lembrar, diz Riedl, que as inteligências
artificiais não pensam realmente como os humanos. Suas redes neurais são, de
fato, vagamente inspiradas em cérebros de animais, mas podem ser melhor
descritas como "dispositivos de exploração".
Quando tentam resolver uma tarefa ou problema, elas
não trazem consigo muitas, se é que alguma, ideia preconcebida sobre o mundo em
geral. Simplesmente tentam — às vezes, milhões de vezes — encontrar uma
solução.
"Nós, humanos, trazemos conosco muita bagagem
mental, pensamos nas regras", explica Riedl.
"Os sistemas de inteligência artificial nem
sequer entendem as regras, então eles mexem nas coisas de maneira muito
aleatória."
Dessa forma, as IAs poderiam ser descritas como o
equivalente em silício de pessoas com Síndrome do Sábio (ou de Savant),
acrescenta Riedl, citando a condição em que um indivíduo tem uma deficiência
mental grave, mas também possui uma habilidade extraordinária, geralmente
relacionada à memória.
Uma maneira pela qual as IAs podem nos surpreender
envolve sua capacidade de lidar com problemas radicalmente diferentes, mas
usando o mesmo sistema básico.
Recentemente, uma ferramenta de machine learning
desenvolvida para gerar parágrafos de texto foi requisitada a executar uma
função muito diferente: jogar uma partida de xadrez.
O sistema em questão se chama GPT-2 e foi criado pela
OpenAI. Treinado por meio de milhões de artigos de notícias online e páginas da
web, o GPT-2 é capaz de prever a próxima palavra em uma frase com base nas
palavras anteriores.
Uma vez que os movimentos de xadrez podem ser
representados em caracteres alfanuméricos, "Be5" para mover um bispo,
por exemplo, o desenvolvedor Shawn Presser pensou que se ele treinasse o
algoritmo por meio de registros de partidas de xadrez, a ferramenta poderia
aprender como jogar ao descobrir sequências desejáveis de movimentos.
Presser treinou o sistema com 2,4 milhões de jogos de
xadrez.
"Foi muito bacana ver o mecanismo de xadrez
ganhando vida", diz ele.
"Eu não tinha certeza se iria funcionar."
Mas deu certo. Não é tão bom quanto computadores
especialmente projetados para xadrez — mas é capaz de jogar partidas difíceis
com sucesso.
Segundo Presser, o experimento mostra que o sistema
GPT-2 tem muitos recursos inexplorados. Um "sábio" com dom para o
xadrez.
Uma versão posterior do mesmo software surpreendeu os
web designers quando um desenvolvedor o treinou brevemente para produzir
códigos para exibir itens em uma página, como textos e botões.
A inteligência artificial gerou o código apropriado,
embora tudo o que tinha para seguir adiante eram descrições simples como
"texto em vermelho que diz 'eu te amo' e um botão com 'ok' nele".
Claramente, ela adquiriu a essência básica de web
design, mas após um treinamento surpreendentemente curto.
Uma área em que as IAs há muito tempo impressionam é
na de videogames.
Há inúmeros casos na comunidade de inteligência
artificial sobre coisas surpreendentes que os algoritmos têm feito em ambientes
virtuais.
Os algoritmos costumam ser testados e aperfeiçoados,
para ver o quão capazes eles realmente são, em espaços semelhantes aos de
videogames.
Em 2019, a OpenAI ganhou as manchetes com um vídeo
sobre um jogo de pique-esconde jogado por personagens controlados por machine
learning.
Para a surpresa dos pesquisadores, aqueles que estavam
"procurando" acabaram aprendendo que podiam pular em cima dos itens e
"surfá-los" para ter acesso aos recintos onde havia personagens
escondidos. Em outras palavras, aprenderam a burlar as regras do jogo a seu
favor.
Uma estratégia de tentativa e erro pode resultar em
todos os tipos de comportamentos interessantes. Mas nem sempre levam ao
sucesso.
Dois anos atrás, Victoria Krakovna, pesquisadora da
DeepMind, pediu aos leitores de seu blog que compartilhassem histórias em que
as IAs resolveram problemas complicados — mas de maneiras imprevisivelmente
inaceitáveis.
A longa lista de exemplos que ela reuniu é fascinante.
Entre eles, está um algoritmo de jogo que aprendeu a se matar no final da
primeira fase — para evitar morrer na segunda fase. O objetivo de não morrer na
segunda fase foi alcançado, mas não de uma forma particularmente
impressionante.
Outro algoritmo descobriu que poderia pular de um
penhasco em um jogo e levar um oponente consigo para a morte. Isso deu à IA
pontos suficientes para ganhar uma vida extra e continuar repetindo essa tática
suicida em um loop infinito.
O pesquisador de inteligência artificial de videogame
Julian Togelius, da Escola de Engenharia Tandon da Universidade de Nova York,
nos EUA, pode explicar o que está acontecendo.
Ele diz que esses são exemplos clássicos de erros de
"alocação de recompensa". Quando uma inteligência artificial é
solicitada a realizar algo, ela pode descobrir métodos estranhos e inesperados
de atingir seu objetivo, onde o fim sempre justifica os meios.
Nós, humanos, raramente adotamos tal postura. Os meios
e as regras que preveem como devemos jogar são importantes.
Togelius e seus colegas descobriram que esse viés
voltado a objetivos pode ser exposto em sistemas de inteligência artificial
quando eles são colocados à prova em condições especiais.
Em experimentos recentes, sua equipe descobriu que uma
IA solicitada a investir dinheiro em um banco, correria para um canto próximo
do saguão do banco virtual e esperaria para receber um retorno sobre o
investimento.
Togelius diz que o algoritmo aprendeu a associar correr
para o canto com a obtenção de uma recompensa financeira, embora não houvesse
nenhuma relação real entre seu movimento e o quanto era pago.
Isso, segundo ele, é mais ou menos como se a
inteligência artificial desenvolvesse uma superstição: "Você recebeu uma
recompensa ou punição por algo — mas por que você recebeu?"
Essa é uma das armadilhas do "aprendizado por
reforço", em que uma inteligência artificial acaba planejando uma
estratégia equivocada com base no que encontra em seu ambiente.
A inteligência artificial não sabe por que teve
sucesso, ela só pode basear suas ações em associações aprendidas. Um pouco como
as primeiras culturas humanas que começaram a associar rituais a mudanças no
clima, por exemplo. Ou os pombos.
Em 1948, um psicólogo americano publicou um artigo
descrevendo um experimento incomum em que colocava pombos em gaiolas e os
recompensava com comida de forma intermitente.
Os pombos começaram a associar a comida a o que quer
que estivessem fazendo na ocasião — seja batendo as asas ou executando
movimentos semelhantes a uma dança. Eles então repetiam esses comportamentos,
aparentemente na expectativa de que viria uma recompensa a seguir.
Há uma grande diferença entre as IAs dos jogos
testados por Togelius e os animais vivos usados pelo psicólogo,
mas Togelius sugere que o mesmo fenômeno
parece estar em ação: a recompensa se torna erroneamente associada a um
comportamento particular.
Embora os pesquisadores de inteligência artificial
possam se surpreender com os caminhos trilhados pelos sistemas de machine
learning, isso não significa necessariamente que tenham admiração por eles.
"Nunca tive a sensação de que esses agentes
pensem por si só", afirma Raia Hadsell, do DeepMind.
Hadsell fez experiências com muitas IAs que encontraram
soluções interessantes e inovadoras para problemas não previstos por ela ou
seus colegas.
Ela destaca que é exatamente por isso que os
pesquisadores procuram aperfeiçoar as IAs em primeiro lugar — para que possam
alcançar coisas que os humanos não conseguem por conta própria.
E ela argumenta que os produtos que usam inteligência
artificial, como carros autônomos, podem ser rigorosamente testados para
garantir que qualquer imprevisibilidade esteja dentro de certos limites
aceitáveis.
"Você pode dar garantias razoáveis sobre o
comportamento com base em evidências empíricas",
diz ela.
O tempo dirá se todas as empresas que vendem produtos
construídos com inteligência artificial são escrupulosas nesse aspecto.
Mas, ao mesmo tempo, é importante observar que as IAs
que demonstram comportamentos inesperados não estão de forma alguma confinadas
a ambientes de pesquisa. Elas já estão atuando em produtos comerciais.
No ano passado, um braço robótico que trabalhava em
uma fábrica em Berlim, desenvolvido pela empresa americana Covariant,
apresentou maneiras inesperadas de classificar os itens à medida que eles
passavam em uma esteira rolante.
Apesar de não ter sido especialmente programada para
isso, a inteligência artificial que controla o braço aprendeu a mirar no centro
dos itens em embalagens transparentes para ajudar a garantir que os pegaria com
sucesso todas as vezes.
Como esses objetos podem se confundir quando se
sobrepõem, devido ao material transparente, mirar com menos precisão significa
que o robô pode não conseguir pegar o item.
"Isso evita a sobreposição de objetos nos cantos
e, em vez disso, mira na superfície mais fácil de agarrar", afirma Peter
Chen, cofundador e presidente-executivo da Covariant.
"Isso realmente nos surpreendeu."
Em paralelo, Hadsell diz que sua equipe testou
recentemente um braço robótico que passa diferentes blocos por meio de
orifícios de formatos variados.
A mão do robô era bastante desajeitada, então a
inteligência artificial que o controlava aprendeu que, pegando e soltando
repetidamente o bloco, poderia colocá-lo na posição certa para então agarrá-lo
e passá-lo facilmente pelo orifício apropriado — em vez de tentar manobrá-lo
usando a garra.
Tudo isso ilustra uma questão levantada por Jeff
Clune, da OpenAI, que recentemente colaborou com pesquisadores do mundo todo
para coletar exemplos de IAs que desenvolveram soluções inteligentes para
problemas.
Clune diz que a natureza exploratória da inteligência
artificial é
fundamental para seu sucesso futuro.
"Conforme estamos ampliando esses sistemas de
inteligência artificial, o que estamos vendo é que as coisas que eles fazem de
maneira criativa e impressionante não são mais curiosidades acadêmicas",
afirma.
Como as IAs encontram formas melhores de diagnosticar
doenças ou entregar suprimentos de emergência, elas até salvam vidas graças à
sua capacidade de encontrar novas maneiras de resolver velhos problemas,
acrescenta Clune.
Mas ele acredita que aqueles que desenvolvem tais
sistemas precisam ser abertos e honestos sobre sua natureza imprevisível, para
ajudar a população a entender como a inteligência artificial funciona.
Afinal, é uma faca de dois gumes — a promessa e a
ameaça da inteligência artificial fazem parte do mesmo pacote. O que será que
elas vão inventar a seguir?
Por
Chris Baraniuk, na BBC Future
- - - -
Adquira o seu livro na amazon.com.br. Para saber mais, clique aqui. |
- - - - -
A Coleção Mundo Contemporâneo: os livros infantis para pirralhos, adultos e idosos que preservam uma criança dentro de si.
A Coleção Mundo Contemporâneo contém 10 livros infantis. Cada um dos volumes aborda uma questão estratégica para o avanço da civilização.
O objetivo é oferecer às crianças e à juventude uma panorâmica sobre questões candentes da contemporaneidade, desafios que exigem atitude e posicionamento por parte dos que, amanhã, serão responsáveis por conduzir a humanidade e o planeta em direção à sustentabilidade.
Veja aqui as obras da Coleção:
1 - O sapinho Krock na luta contra a pandemia
2 - A onça pintada enfrenta as queimadas na Amazônia e no Pantanal
3 - A ariranha combate a pobreza e a desigualdade
4 - A hárpia confronta o racismo
5 - O boto exige democracia e cidadania
6 - O jacaré debate educação e oportunidades
7 - O puma explica trabalho e renda
8 - A anta luta contra o aquecimento global
9 - O tucano denuncia a corrupção e os narcoterroristas
10 - O bicho preguiça e a migração
Clicando aqui, você acessa a coleção em inglês.
A Coleção
No mecanismo de busca do site amazon.com.br, digite "Coleção Mundo Contemporâneo” e acesse os 10 livros da coleção.
O autor
No mecanismo de busca do site amazon.com.br, digite "Antônio Carlos dos Santos" e acesse dezenas de obras do autor.
- - - - -
A coleção da bruxinha serelepe:
1. Planejar
2. Organizar
3. Estudar
4. Exercitar
5. Leitura
6. Cultura
7. Meditar
8. Interagir
9. Fazer amigos
10. Respeito e motivação
No mecanismo de busca do site amazon.com.br, digite " A Bruxinha de Mil Caras ensina a viver melhor” e acesse os 10 livros da coleção.
No mecanismo de busca do site amazon.com.br, digite "Antônio Carlos dos Santos" e acesse dezenas de obras do autor.
- - - - - - - - -
Veja os vinte livros da Coleção Ciência e espiritualidade para crianças:
Livro 2 - Panda Zen e o verdadeiro valor
Livro 3 - Panda Zen e as mudanças
Livro 4 - Panda Zen e a Maria vai com as outras
Livro 5 - Panda Zen e a estrelinha cintilante
Livro 6 - Panda Zen e a verdade absoluta
Livro 7 - Panda Zen e o teste das três peneiras
Livro 8 - Panda Zen e os ensinamentos da vovó
Livro 9 - Panda Zen e os cabelos penteados
Livro 10 - Panda Zen e a magia da vida feliz
Livro 11 - Panda Zen e as paixões enganosas
Livro 12 - Panda Zen entre a reflexão e a ação
Livro 13 - Panda Zen e o mais importante
Livro 14 - Panda Zen, a gota e o oceano
Livro 15 - Panda Zen e a indecisão
Livro 16 - Panda Zen e o vaga-lume
Livro 17 - Panda Zen e a busca da identidade
Livro 18 - Panda Zen entre o arbítrio e a omissão
Livro 19 - Panda Zen e o trabalho
Livro 20 - Panda Zen e a falsa realidade
Para saber mais, clique aqui. |
Click here to learn more. |
-----------
Para saber mais, clique aqui. |
Para saber mais, clique aqui. |
Coleção Greco-romana com 4 livros; saiba aqui. |
Coleção Educação e Democracia com 4 livros, saiba aqui. |
Coleção Educação e História com 4 livros, saiba mais. |
Para saber sobre a Coleção do Ratinho Lélis, clique aqui. |
Para saber sobre a "Coleção Cidadania para crianças", clique aqui. |
Para saber sobre esta Coleção, clique aqui. |
Para saber mais, clique aqui. |
Para saber mais, clique aqui. |
Para saber mais, clique aqui. |
Para saber mais, clique aqui. |
Para saber mais, clique aqui. |