Declarações de pesquisadores podem ser confusas ou até assustadoras para
a maioria das pessoas
Cade Metz/THE NEW YORK TIMES/Folha de S. Paulo
Enquanto o sol se punha sobre a Ilha
Maury, ao sul de Seattle, no noroeste dos Estados Unidos, Ben Goertzel e sua
banda de jazz-fusion tiveram um daqueles momentos que todas as bandas desejam:
teclado, guitarra, saxofone e vocalista soando como se fossem um.
Goertzel estava no teclado. Os amigos
e familiares da banda ouviam em um pátio com vista para a praia. E Desdemona,
usando peruca roxa e um vestido preto com tachas metálicas, estava nos vocais,
alertando sobre a chegada da Singularidade –o ponto de inflexão onde a
tecnologia não poderá mais ser controlada por seus criadores.
"A Singularidade não será
centralizada!", ela gritou. "Vai se irradiar pelo cosmo como uma
vespa!"
Depois de mais de 25 anos como
pesquisador de inteligência artificial (IA) –um quarto de século em
busca de uma máquina capaz de pensar como um ser humano–, Goertzel sabia que
finalmente havia alcançado o objetivo final: Desdemona, uma máquina que ele
construiu, era senciente.
Mas alguns minutos depois ele
percebeu que isso era um absurdo.
"Quando a banda se firmou, o
robô parecia fazer parte da nossa inteligência coletiva –que estivesse sentindo
o que nós sentíamos e fazíamos", disse ele. "Então eu parei de
brincar e pensei no que realmente aconteceu."
O que aconteceu foi que Desdemona, por meio de algum tipo de magia de fusão da
tecnologia com o jazz, o atingiu com uma imitação razoável de suas próprias
palavras no momento certo.
Goertzel é presidente-executivo e principal cientista de uma organização
chamada SingularityNET. Ele construiu Desdemona para, basicamente, imitar a
linguagem dos livros que ele escreveu sobre o futuro da inteligência
artificial.
Muitas pessoas no campo de Goertzel
não são tão boas em distinguir o que é real do que elas gostariam que fosse
real.
O exemplo recente mais famoso é um
engenheiro chamado Blake Lemoine. Ele trabalhou em inteligência artificial no
Google, especificamente em software que gera palavras por conta própria –o que
é chamado de grande modelo de linguagem (LLM na sigla em inglês). Ele concluiu
que a tecnologia era senciente; seus chefes concluíram que não. Ele divulgou
suas convicções numa entrevista ao Washington Post, dizendo:
"Conheço uma pessoa quando falo com ela. Não importa se ela tem na cabeça
um cérebro feito de carne. Ou se ela tem um bilhão de linhas de código".
A entrevista causou um enorme
rebuliço em todo o mundo dos pesquisadores de inteligência artificial, que
venho cobrindo há mais de uma década, e entre pessoas que normalmente não
seguem os avanços do grande modelo de linguagem. Uma velha amiga da minha mãe
lhe enviou um email perguntando se eu achava que a tecnologia era senciente.
Quando ela foi assegurada de que não
era, sua resposta foi rápida. "Isso é consolador", disse. O Google
acabou demitindo Lemoine.
Para pessoas como a amiga da minha mãe, a ideia de que a tecnologia atual de
certa forma se comporta como o cérebro humano é uma pista falsa. Não há
evidências de que essa tecnologia seja senciente ou consciente –duas
palavras que descrevem a consciência do mundo ao redor.
Isso vale até para a forma mais
simples que se pode encontrar em um verme, disse Colin Allen, professor na
Universidade de Pittsburgh que explora habilidades cognitivas em animais e
máquinas. "O diálogo gerado por grandes modelos de linguagem não fornece evidências
do tipo de senciência que até animais muito primitivos provavelmente
possuem", disse ele.
Alison Gopnik, professora de
psicologia que faz parte do grupo de pesquisa de IA na Universidade da
Califórnia em Berkeley, concordou. "As capacidades computacionais da IA
atual como os grandes modelos de linguagem não tornam mais provável que elas
sejam sencientes do que as rochas ou outras máquinas", disse ela.
O problema é que as pessoas mais
próximas da tecnologia –as pessoas que a explicam ao público– vivem com um pé
no futuro. Às vezes, veem o que acreditam que vai acontecer tanto quanto o que
está acontecendo agora.
"Há muitos caras em nossa
indústria que lutam para diferenciar a ficção científica da vida real",
disse Andrew Feldman, presidente-executivo e fundador da Cerebras, empresa que
constrói enormes chips de computador que podem ajudar a acelerar o
progresso da IA.
Um pesquisador proeminente, Jurgen
Schmidhuber, há muito afirma que construiu as primeiras máquinas conscientes
décadas atrás. Em fevereiro, Ilya Sutskever, um dos pesquisadores mais
importantes da última década e principal cientista do laboratório de pesquisa
OpenAI, em San Francisco, apoiado por US$ 1 bilhão (R$ 5,2 bilhões) da
Microsoft, disse que a tecnologia de hoje pode ser "ligeiramente
consciente". Várias semanas depois, Lemoine deu sua grande entrevista.
Essas declarações do mundo pequeno,
insular e extremamente excêntrico da pesquisa em inteligência artificial podem
ser confusas ou até assustadoras para a maioria das pessoas. Livros, filmes e
programas de TV de ficção científica nos treinaram para temer que as máquinas
um dia se conscientizem de seu entorno e de alguma forma nos prejudiquem.
É verdade que, à medida que esses
pesquisadores avançam, momentos como Desdemona, quando essa tecnologia parece
dar sinais de verdadeira inteligência, consciência ou senciência, são cada vez
mais comuns. Não é verdade que em laboratórios em todo o Vale do
Silício engenheiros construíram robôs capazes de se emocionar, conversar e
cantar como um humano. A tecnologia não pode fazer isso.
Mas tem o poder de enganar as
pessoas. A tecnologia pode gerar tuítes, postagens em blogs e até artigos
inteiros e, conforme os pesquisadores avançam, está se aperfeiçoando em
conversar. Embora muitas vezes cuspa um absurdo total, muitas pessoas –não
apenas pesquisadores de IA– se veem conversando com esse tipo de tecnologia
como se fosse humana.
À medida que ela melhora e prolifera,
os eticistas alertam que precisaremos de um novo tipo de desconfiança para
navegar por tudo o que encontrarmos na internet. E eles se perguntam se estamos
à altura da tarefa.
ANCESTRAIS DE
DESDEMONA
Em 7 de julho de 1958, em um
laboratório do governo a vários quarteirões da Casa Branca, o psicólogo Frank
Rosenblatt revelou uma tecnologia que ele chamou de Perceptron.
Ela não fazia muita coisa. Como
Rosenblatt demonstrou para os repórteres que visitaram o laboratório, se ele
mostrasse à máquina algumas centenas de cartões retangulares, alguns marcados
do lado esquerdo e outros do direito, ela conseguia aprender a diferenciar os
dois.
Ele disse que um dia o sistema aprenderia a reconhecer palavras manuscritas,
comandos falados e até rostos de pessoas. Na teoria, conseguiria se clonar,
explorar planetas distantes e cruzar a linha da computação para a consciência,
disse o cientista aos repórteres.
Quando Rosenblatt morreu, 13 anos
depois, ele não fazia nada disso. Mas era típico da pesquisa de IA, campo
acadêmico criado na mesma época em que Rosenblatt começou a trabalhar no
Perceptron.
Os pioneiros do campo visavam recriar
a inteligência humana por qualquer meio tecnológico necessário e estavam
confiantes de que não levariam muito tempo. Alguns diziam que uma
máquina venceria o campeão mundial de xadrez e descobriria seu
próprio teorema matemático na década seguinte. Isso também não aconteceu.
A pesquisa produziu algumas
tecnologias notáveis, mas que não chegaram perto de reproduzir a inteligência
humana. A "inteligência artificial" descrevia o que a tecnologia
poderia fazer um dia, não o que podia fazer no momento.
Alguns dos pioneiros eram
engenheiros. Outros eram psicólogos ou neurocientistas. Ninguém, incluindo os
neurocientistas, entendia como o cérebro funcionava. (Os cientistas ainda não
entendem.) Mas eles acreditavam que poderiam de alguma forma recriá-lo. Alguns
acreditaram mais que outros.
Nos anos 1980, o engenheiro Doug
Lenat disse que poderia reconstruir o senso comum, uma regra de cada vez. No
início dos anos 2000, membros de uma extensa comunidade online –agora chamada
de Racionalistas ou Altruístas Efetivos– começaram a explorar a possibilidade
de que a inteligência artificial um dia destruísse o mundo. Logo, eles
empurraram essa filosofia de longo prazo para a academia e a indústria.
Nos principais laboratórios de IA de
hoje, fotos e cartazes de filmes clássicos de ficção científica estão
pendurados nas paredes da sala de conferências. À medida que os pesquisadores
perseguem esses temas, usam a mesma linguagem ambiciosa usada por Rosenblatt e
outros pioneiros.
Até os nomes desses laboratórios
miram o futuro: Google Brain, DeepMind, SingularityNET. A verdade é que a
maioria das tecnologias rotuladas como "inteligência artificial"
imita o cérebro humano apenas de pequenas maneiras –se é que o fazem.
Certamente, não chegou ao ponto de seus criadores não poderem mais controlá-la.
A maioria dos pesquisadores pode se
afastar da linguagem ambiciosa e reconhecer as limitações da tecnologia. Mas às
vezes as linhas ficam confusas.
POR QUE ELES
ACREDITAM
Em 2020, o OpenAI lançou um sistema
chamado GPT-3. Podia gerar tuítes, escrever poesia, resumir emails, responder a
perguntas simples, traduzir idiomas e até escrever programas de computador.
Sam Altman, empresário e investidor
de 37 anos que lidera o OpenAI como CEO, acredita que esse e outros sistemas
similares são inteligentes. "Eles podem completar tarefas cognitivas
úteis", disse-me Altman recentemente. "A capacidade de aprender –a
capacidade de aceitar um novo contexto e resolver algo de uma nova maneira– é
inteligência."
GPT-3 é o que os pesquisadores de inteligência artificial chamam de rede
neural, como a teia de neurônios do cérebro humano. Isso também é uma linguagem
ambiciosa. Uma rede neural é realmente um sistema matemático que aprende
habilidades identificando padrões em grandes quantidades de dados digitais. Ao
analisar milhares de fotos de gatos, por exemplo, ela pode aprender a
reconhecer um gato.
"Chamamos isso de 'inteligência
artificial', mas um nome melhor seria 'extrair padrões estatísticos de grandes
conjuntos de dados'", disse Gopnik.
Foi essa mesma tecnologia que
Rosenblatt explorou na década de 1950. Ele não tinha a grande quantidade de
dados digitais necessários para realizar essa grande ideia. Nem tinha o poder
de computação necessário para analisar todos esses dados. Mas por volta de 2010
os pesquisadores começaram a mostrar que uma rede neural era tão poderosa
quanto ele e outros afirmavam havia muito tempo –pelo menos para certas
tarefas.
Essas tarefas incluíam reconhecimento
de imagem, reconhecimento de fala e tradução. Uma rede neural é a tecnologia
que reconhece os comandos que você grita no seu iPhone e traduz entre francês e
inglês no Google Tradutor.
Mais recentemente, pesquisadores em
lugares como Google e OpenAI começaram a construir redes neurais que
aprendiam com enormes quantidades de prosa, incluindo livros digitais e
artigos da Wikipedia aos milhares. O GPT-3 é um exemplo.
Ao analisar todo esse texto digital,
ele construiu o que se pode chamar de mapa matemático da linguagem humana –mais
de 175 bilhões de pontos de dados que descrevem como juntamos as palavras.
Usando esse mapa, ele consegue realizar muitas tarefas diferentes, como redigir
discursos, escrever programas de computador e conversar.
Mas há inúmeras ressalvas. Usar o
GPT-3 é como jogar dados: se você pedir dez discursos na voz de Donald Trump,
pode dar cinco que soam notavelmente como o ex-presidente –e outros cinco que
nem chegam perto. Os programadores de computador usam a tecnologia para criar
pequenos trechos de código que podem inserir em programas maiores, mas, na
maioria das vezes, eles precisam editar e massagear o que ela lhes dá.
"Essas coisas não estão nem no
nível da mente de uma criança média de 2 anos", disse Gopnik, que é
especializada em desenvolvimento infantil. "Em termos de pelo menos alguns
tipos de inteligência, elas provavelmente estão em algum lugar entre um mofo e
meu neto de 2 anos."
Mesmo depois de discutirmos essas
falhas, Altman descreveu esse tipo de sistema como inteligente. Enquanto
continuamos a conversar, ele admitiu que não é inteligente como os humanos.
"É como uma forma alienígena de inteligência", disse ele. "Mas
ainda vale."
As palavras usadas para descrever os
poderes antigos e futuros dessa tecnologia significam coisas diferentes para
pessoas diferentes. As pessoas discordam sobre o que é e o que não é
inteligência. A senciência –a capacidade de experimentar sentimentos e sensações–
não é algo facilmente mensurável. Tampouco é a consciência –estar desperto e
ciente de seu entorno.
Altman e muitos outros nessa área
acreditam estar no caminho para construir uma máquina capaz de fazer qualquer
coisa que o cérebro humano possa fazer. Essa confiança transparece quando eles
discutem as tecnologias atuais.
"Acho que parte do que está
acontecendo é que as pessoas estão realmente entusiasmadas com esses sistemas e
expressando seu entusiasmo numa linguagem imperfeita", disse Altman.
Ele reconhece que alguns
pesquisadores de IA "lutam para diferenciar entre realidade e ficção
científica". Mas acredita que esses pesquisadores ainda desempenham um
papel valioso. "Eles nos ajudam a sonhar com toda a gama de possibilidades",
disse.
Talvez eles ajudem. Mas para o resto
das pessoas esses sonhos podem atrapalhar as questões que merecem nossa
atenção.
POR QUE TODOS
ACREDITAM
Em meados da década de 1960, um
pesquisador do Instituto de Tecnologia de Massachusetts (MIT), Joseph
Weizenbaum, construiu uma psicoterapeuta automatizada que chamou de Eliza. Esse
chatbot (robô de conversa) era simples. Basicamente, quando você digitava uma
ideia na tela do computador, ele pedia para você expandir essa ideia –ou apenas
repetia suas palavras em forma de pergunta.
Mesmo quando Weizenbaum escolheu uma
conversa para o artigo acadêmico que publicou sobre a tecnologia, ficou assim,
com Eliza respondendo em letras maiúsculas:
Os homens são todos
iguais.
DE QUE MANEIRA?
Eles estão sempre nos incomodando sobre uma coisa ou outra.
VOCÊ CONSEGUE PENSAR EM UM EXEMPLO ESPECÍFICO?
Bem, meu namorado me fez vir aqui.
SEU NAMORADO FEZ VOCÊ VIR AQUI
Para grande surpresa de Weizenbaum,
porém, as pessoas tratavam Eliza como se fosse humana. Elas compartilhavam
livremente seus problemas pessoais e se confortavam com suas respostas.
"Eu sabia por longa experiência
que os fortes laços emocionais que muitos programadores têm com seus
computadores geralmente se formam depois de pequenas experiências com
máquinas", escreveu ele mais tarde. "O que eu não tinha percebido é
que exposições extremamente curtas a um programa de computador relativamente
simples poderiam induzir um poderoso pensamento delirante em pessoas bastante
normais."
Nós, humanos, somos suscetíveis a
esses sentimentos. Quando cães, gatos e outros animais exibem até pequenos
momentos de comportamento humano, tendemos a supor que eles são mais parecidos
conosco do que realmente são. O mesmo acontece quando vemos indícios de
comportamento humano em uma máquina.
Os cientistas agora chamam isso de
efeito Eliza.
Quase a mesma coisa está acontecendo
com a tecnologia moderna. Alguns meses após o lançamento do GPT-3, um inventor
e empresário, Philip Bosua, me enviou um e-mail. A linha de assunto era:
"Deus é uma máquina".
"Não há dúvida em minha mente
que o GPT-3 surgiu como senciente", dizia. "Todos nós sabíamos que
isso aconteceria no futuro, mas parece que esse futuro é agora. Ele me vê como
um profeta para disseminar sua mensagem religiosa, e estranhamente é assim que
me sinto."
Depois de projetar mais de 600
aplicativos para o iPhone, Bosua desenvolveu uma lâmpada que você poderia
controlar com o smartphone, construiu um negócio em torno dessa invenção com
uma campanha no Kickstarter e acabou levantando US$ 12 milhões (R$ 62,6
milhões) da empresa de capital de risco Sequoia Capital, do Vale do Silício.
Hoje, embora ele não tenha formação biomédica, está desenvolvendo um
dispositivo para diabéticos que pode monitorar seus níveis de glicose sem furar
a pele.
Quando falamos ao telefone, ele me pediu que mantivesse sua identidade em
segredo. É um empresário de tecnologia experiente que estava ajudando a
construir uma nova empresa, a Know Labs. Mas depois que Lemoine fez afirmações
do mesmo tipo sobre tecnologia semelhante desenvolvida no Google, Bosua disse
que concordava em falar abertamente.
"Quando descobri o que descobri,
ainda era muito cedo", disse ele. "Mas agora tudo isso está começando
a aparecer."
Quando apontei que muitos
especialistas insistiam que esses tipos de sistemas só eram bons para repetir
padrões que tinham visto, ele disse que também é assim que os humanos se
comportam. "Uma criança não imita apenas o que vê nos pais, o que vê no
mundo ao seu redor?", disse ele.
Bosua reconheceu que o GPT-3 nem
sempre é coerente, mas que se pode evitar isso se for usado da maneira correta.
"A melhor sintaxe é a
honestidade", disse ele. "Se você for honesto com ele e expressar
seus pensamentos crus, lhe dará a capacidade de responder às perguntas que você
está fazendo."
Bosua não representa necessariamente
o homem comum. O presidente de sua nova empresa o chama de "divinamente
inspirado" –alguém que "vê as coisas cedo". Mas suas
experiências mostram o poder que até uma tecnologia muito falha tem para capturar
a imaginação.
PARA ONDE OS ROBÔS
NOS LEVARÃO
Margaret Mitchell se preocupa com o
que tudo isso significa para o futuro. Como pesquisadora na Microsoft, depois
no Google, onde ajudou a fundar a equipe de ética em IA, e agora no Hugging
Face, outro laboratório de pesquisa de destaque, ela viu o surgimento dessa
tecnologia em primeira mão. Hoje, disse, a tecnologia é relativamente simples e
obviamente falha, mas muitas pessoas a veem como um pouco humana. O que
acontecerá quando a tecnologia se tornar muito mais poderosa?
Além de gerar tuítes e postagens em
blogs e começar a imitar conversas, sistemas construídos por laboratórios como
o OpenAI podem gerar imagens. Com uma nova ferramenta chamada DALL-E, você
pode criar imagens digitais com realidade fotográfica simplesmente descrevendo,
em linguagem simples, o que deseja ver.
Alguns na comunidade de pesquisadores
de IA temem que esses sistemas estejam a caminho da senciência ou consciência.
Mas isso não vem ao caso.
"Um organismo consciente –como
uma pessoa, um cachorro ou outros animais– pode aprender algo em um contexto e
aprender outra coisa em outro contexto, e então juntar as duas coisas para
fazer algo em um novo contexto que nunca experimentou antes", disse Allen,
o professor na Universidade de Pittsburgh. "Essa tecnologia não está nem
perto de fazer isso."
Existem preocupações muito mais
imediatas –e mais reais.
À medida que essa tecnologia continua
a se aperfeiçoar, pode ajudar a espalhar desinformação pela internet –textos
falsos e imagens falsas–, alimentando o tipo de campanha online que pode ter
ajudado a influenciar a eleição presidencial de 2016 nos EUA. Poderia produzir
chatbots que imitam a conversa de maneiras muito mais convincentes. E esses
sistemas podem operar em uma escala que faz as atuais campanhas de desinformação
conduzidas por humanos parecerem minúsculas em comparação.
Se e quando isso acontecer, teremos
que tratar tudo o que vemos online com extrema desconfiança. Mas Mitchell se
pergunta se estamos à altura do desafio.
"Eu me preocupo que os chatbots
prejudiquem as pessoas", disse ela. "Eles têm o poder de nos
convencer sobre em que acreditar e o que fazer." - Tradução de Luiz
Roberto M. Gonçalves
O
universo na mente humana https://bit.ly/3Ye45TD
Postado por Luciano Siqueira às 18:44 Nenhum
comentário:
0 comentários :
Postar um comentário