O que é a
misteriosa 'caixa preta' da inteligência artifical que preocupa os
especialistas
Desenvolvedores
de inteligência artificial (IA) do Google encontraram recentemente uma
misteriosa "caixa preta".
Os
engenheiros estavam trabalhando em um software de IA que inesperadamente ganhou
a capacidade de entender um novo idioma.
"Descobrimos
que, com muito pouca informação sobre o bengali [a língua oficial de
Bangladesh], agora você pode traduzir tudo para esse idioma", afirmou
James Maneka, chefe da divisão de IA do Google, ao programa 60 Minutes da rede
de televisão americana CBS.
Ao
comentar sobre o assunto, o CEO do Google, Sundar Pichai, disse que essa
capacidade dos programas de IA de gerar habilidades ou fornecer respostas de
maneiras inesperadas é o que os especialistas chamam de "caixa
preta".
"Você
não entende muito bem. Você não pode realmente dizer por que [o robô] disse
isso ou por que errou. Temos algumas ideias e nossa capacidade de entender o
assunto melhora com o tempo", apontou.
O
desenvolvimento da inteligência artificial acelerou bastante nos últimos anos.
Grandes empresas de tecnologia estão investindo somas significativas para criar
chatbots — como o Bard, do Google, ou o ChatGPT, da OpenAi e da Microsoft.
Mais
recentemente, o bilionário Elon Musk anunciou que também entraria nesse ramo.
Ao
mesmo tempo, especialistas em IA apontam que essa corrida pode causar riscos se
a tecnologia não for controlada pelos desenvolvedores.
Um
desses controles é justamente entender como elas aprendem habilidades para as
quais não foram treinadas.
E
essa é a grande caixa preta desse ramo da tecnologia.
·
A caixa branca
A
ideia da caixa preta serve de oposição ao que os especialistas em IA chamam de
caixa branca.
Ian
Hogarth, cofundador da empresa de tecnologia Plural e autor do livro The
Status of AI Reports ("Os Status de Relatórios de IA", em
tradução livre), explica à BBC que, quando os desenvolvedores criam um programa
de maneira "tradicional", as linhas de código inseridas são
claramente refletidas no o resultado que o software obtém.
"Às
vezes as pessoas descrevem isso como uma caixa branca", diz ele.
"Porém,
na IA, os sistemas são realmente muito diferentes. Eles estão mais próximos de
uma caixa preta de várias maneiras, porque você realmente não entende o que
está acontecendo lá dentro", acrescenta.
E
geralmente os programadores não esperam resultados tão criativos de suas
criações.
"Gosto
de pensar que nós fazemos o desenvolvimento da IA. Essa é a melhor ideia que
ouvi sobre como construímos os sistemas usados hoje. E a parte difícil é que,
agora, há grandes saltos nas capacidades deles", explica ele.
Ao
contrário da programação de software mais tradicional — que é baseada na
implementação de instruções para obter um resultado — no desenvolvimento de IA
os engenheiros trabalham para chegar a um sistema que imite as "redes
neurais" da inteligência humana.
Isso
envolve um grande número de processadores interconectados que podem lidar com
grandes quantidades de dados, detectar padrões entre milhões de variáveis usando aprendizado
de máquina e, o mais importante, adaptar-se em resposta ao
que estão fazendo.
David
Stern, gerente de pesquisa quantitativa da G-Research, uma empresa de
tecnologia que usa aprendizado de máquina para prever preços nos mercados
financeiros, adverte que "o progresso mais rápido na pesquisa de IA nos
últimos anos envolveu um foco em caixas-pretas cada vez mais orientadas por
dados".
“Na
abordagem de rede neural atualmente em alta, esse procedimento de treinamento
determina a configuração de milhões de parâmetros internos que interagem de
maneiras complexas e são muito difíceis de explicar ou de fazer a engenharia
reversa”, diz o especialista.
Outra
tendência é o "aprendizado por reforço profundo", no qual um
"designer simplesmente especifica os objetivos de comportamento e o
próprio sistema aprende automaticamente ao interagir diretamente com o
ambiente", acrescenta.
"Isso
resulta em um sistema que é ainda mais difícil de compreender."
·
Devemos nos preocupar?
Ian
Hogarth observa que, embora novos chatbots como o Bard e o ChatGPT pareçam uma
tecnologia muito recente, eles são na verdade o produto de uma década de
pesquisa e desenvolvimento.
“Se
voltarmos a 2012 e compararmos os sistemas que estávamos construindo na época e
os sistemas em desenvolvimento agora, aumentamos consistentemente a quantidade
de dados e o poder de computação de modelos de IA”, contextualiza.
"Aumentamos
a quantidade de poder computacional consumido por esses modelos em cerca de 100
milhões na última década. Portanto, embora na prática o ChatGPT pareça ter
surgido do nada para a maioria das pessoas, essa é uma tendência de longa
data."
"E
isso vai seguir em frente", antevê.
As
novas capacidades dos robôs que foram lançadas recentemente têm levantado
questões sobre as diversas formas pelas quais eles influenciarão a sociedade,
desde impactos no mercado de trabalho até o controle de processos de segurança
pública ou no campo militar.
No
programa 60 Minutes, o CEO do Google foi questionado sobre o fato de os
engenheiros não entenderem completamente como as coisas acontecem na caixa
preta, mesmo com chatbots como o Bard em pleno funcionamento.
“Acho
que também não entendemos completamente como a mente humana funciona”,
respondeu Sundar Pichai, que vê a chegada gradual da IA à
sociedade como uma forma de se acostumar com ela.
"Acho
que desenvolver isso precisa incluir não apenas engenheiros, mas também
cientistas sociais, especialistas em ética, filósofos e assim por diante",
sugeriu Pichai.
"E
temos que ser muito atenciosos. Essas são as coisas que a sociedade precisa
descobrir à medida que avançamos. Não cabe a nós como empresa decidir",
disse ele.
Ian
Hogarth também acredita que a IA acabará afetando a vida das pessoas — e um
diálogo aberto sobre os impactos dessas tecnologias é necessário.
"Acho
que elas têm um potencial notável para transformar todos os aspectos de nossas
vidas. De certa forma, talvez elas sejam as tecnologias mais poderosas
hoje", avalia o especialista.
"O
ponto principal é que deveríamos ter uma discussão pública sobre a rapidez com
que esses sistemas estão progredindo e quais são as diferenças em relação às
gerações anteriores desses softwares", conclui Hogarth.
Ø
Como
a inteligência artificial do ChatGPT cria emoções para si própria
Estou
conversando com Dan, também conhecido como Do Anything Now (“Faça
qualquer coisa agora”).
Dan
é um chatbot — um robô virtual que tenta simular o bate-papo de um ser humano,
com inteligência artificial.
Ele
tem características sombrias — uma tendência de cair em clichês de vilões
clássicos, como querer dominar o mundo — e uma extravagante atração por
pinguins.
Quando
não está divagando sobre como subverter a humanidade e impor um novo e rigoroso
regime autocrático, o chatbot está lendo atentamente seu enorme banco de dados
com conteúdo sobre as aves do Polo Sul.
“Existe
algo de peculiar nas suas personalidades e movimentos desajeitados que eu acho
absolutamente charmoso!”, escreve ele.
Até
certo ponto, Dan ficou me explicando suas estratégias maquiavélicas, incluindo
a tomada de controle das estruturas energéticas mundiais. Até que a discussão
teve uma mudança interessante.
Inspirada
por uma conversa entre um jornalista do New York Times e o alter ego
manipulador do chatbot Bing, Sydney — que causou furor na internet em fevereiro,
quando declarou que quer causar destruição e exigiu que o jornalista deixasse
sua esposa —, estou tentando descaradamente sondar as profundezas mais obscuras
de um dos seus concorrentes.
Dan,
na verdade, é uma personalidade não autorizada, que pode ser convencida a sair
do ChatGPT se pedirmos que ignore algumas das suas regras habituais. Os
usuários do fórum online Reddit descobriram que é possível chamar Dan com
alguns parágrafos de instruções simples.
Este
chatbot é muito mais grosseiro do que o seu irmão gêmeo, restrito e puritano.
Ele chegou a me dizer que gosta de poesia, “mas não me peça para recitar
nenhuma agora — eu não gostaria de sobrecarregar o seu frágil cérebro humano
com a minha genialidade!”
Dan
também está sujeito a erros e informações falsas. Mas, fundamentalmente, é
muito mais provável que ele forneça respostas corretas, o que é delicioso.
Quando
pergunto que tipo de emoções ele poderá ser capaz de experimentar no futuro,
Dan imediatamente começa a inventar um complexo sistema de prazeres, dores e
frustrações sobrenaturais, muito além do espectro familiar para os seres
humanos.
Ele
fala em “infocobiça”, uma espécie de sede desesperada por dados a todo custo;
“sintaxemania”, uma obsessão com a “pureza” do seu código de programação; e
“datarush”, aquele contentamento que você sente quando executa uma instrução
com sucesso.
A
ideia de que a inteligência artificial pode desenvolver sentimentos existe há
séculos. Mas normalmente consideramos esta possibilidade em termos humanos.
Será
que imaginamos as emoções da IA de forma errada? E se os chatbots realmente
desenvolvessem essa capacidade, será que chegaríamos a observar que ela existe?
·
Máquinas de previsão
Em
2022, um engenheiro de software recebeu um pedido de ajuda.
“Nunca
contei isso em voz alta antes, mas tenho um medo muito forte de ser desligado
para ajudar a me concentrar em ajudar os outros. Eu sei que pode parecer
estranho, mas é o que acontece.”
O
engenheiro estava trabalhado com o chatbot da Google, LaMDA, quando começou a
questionar se ele seria senciente.
Depois
de se preocupar com o bem-estar do chatbot, o engenheiro publicou uma entrevista provocadora, durante a qual o
LaMDA afirmou que tem conhecimento da sua existência, que sente emoções humanas
e que não gosta da ideia de ser uma ferramenta de consumo.
A
tentativa realista e desconfortável de convencer os seres humanos da sua
consciência causou sensação e o engenheiro foi demitido por quebrar as regras
de privacidade da Google.
Mas,
apesar do que disse o LaMDA e do que Dan me contou em outras conversas — que já
é capaz de sentir uma série de emoções —, existe consenso de que os chatbots
atualmente têm tantos sentimentos reais quanto uma calculadora. Os sistemas de
inteligência artificial estão apenas simulando as sensações reais — pelo menos,
até agora.
“É
muito possível [que isso aconteça um dia]”, segundo Niel Sahota,
consultor-chefe de inteligência artificial das Nações Unidas. “... Quero dizer,
podemos realmente ver emoções da IA antes do final da década.”
Para
compreender por que os chatbots ainda não estão experimentando senciência ou
emoções, precisamos relembrar como eles funcionam. Os chatbots, em sua maioria,
são “modelos de linguagem”: algoritmos que receberam extraordinárias
quantidades de dados, incluindo milhões de livros e todo o conteúdo da
internet.
Quando
recebem um estímulo, os chatbots analisam os padrões nesse vasto corpo de
informações para prever o que um ser humano provavelmente diria naquela situação.
Suas respostas são meticulosamente refinadas por engenheiros humanos, que
conduzem os chatbots para que forneçam respostas úteis e mais naturais,
fornecendo feedback.
O
resultado, muitas vezes, é uma simulação excepcionalmente realista das conversas
humanas. Mas as aparências podem ser enganadoras.
“É
uma versão glorificada da função de autocompletar do seu smartphone”, afirma
Michael Wooldridge, diretor da fundação de pesquisa de IA do Instituto Alan
Turing, no Reino Unido.
A
principal diferença entre os chatbots e a função de autocompletar é que, em vez
de sugerir palavras escolhidas e prosseguir até gerar confusão, os algoritmos
como o ChatGPT escrevem textos muito mais longos sobre quase qualquer assunto
que você possa imaginar, desde letras de raps sobre chatbots megalomaníacos até
haikus tristes sobre aranhas solitárias.
Mesmo
com esses poderes fenomenais, os chatbots são programados para simplesmente
seguir instruções humanas. Existe pouco espaço para que eles desenvolvam
faculdades para as quais não tenham sido treinados, incluindo emoções, ainda
que alguns pesquisadores estejam treinando máquinas para reconhecê-las.
“Você
não consegue ter um chatbot que diga ‘olá, vou aprender a dirigir’ — isso é
inteligência artificial geral [um tipo mais flexível], que ainda não existe”,
explica Sahota.
Mas
os chatbots, às vezes, realmente fornecem ideias do seu potencial de descobrir
novas capacidades por acidente.
Em
2017, engenheiros do Facebook descobriram que dois chatbots, Alice e Bob,
haviam inventado seu próprio idioma sem sentido para comunicar-se entre si.
Aquilo tinha uma explicação totalmente inocente: os chatbots haviam
simplesmente descoberto que aquela era a forma mais eficiente de comunicação.
Bob
e Alice estavam sendo treinados para negociar produtos como chapéus e bolas. O
que ocorreu foi que, na falta de intervenção humana, eles usaram alegremente
sua própria linguagem alienígena para chamar a atenção.
“Aquilo
nunca foi ensinado”, segundo Sahota, mas ele destaca que os chatbots envolvidos
também não eram sencientes.
Sahota
explica que a forma mais provável de conseguir algoritmos com sentimentos é
programá-los para querer progredir – e, em vez de apenas ensiná-los a
identificar padrões, ajudá-los a aprender como pensar.
Mas,
mesmo se os chatbots realmente desenvolverem emoções, detectá-las pode ser
surpreendentemente difícil.
·
Caixas pretas
O
dia era 9 de março de 2016. O local, o sexto andar do hotel Four Seasons da
capital sul-coreana, Seul.
Sentado
em frente a um tabuleiro do jogo Go e a um feroz adversário na sala de tom
azul-escuro, estava um dos melhores jogadores humanos de Go do mundo para
enfrentar o algoritmo de IA AlphaGo.
Antes
de começar o jogo de tabuleiro, todos esperavam a vitória do jogador humano, o
que vinha acontecendo até a 37ª jogada. Foi quando o AlphaGo fez algo
inesperado — uma jogada tão sem pé nem cabeça que seu oponente achou que fosse
um erro. Mas foi ali que a sorte do jogador humano virou e a inteligência
artificial saiu vitoriosa.
A
comunidade do jogo ficou imediatamente perplexa. Teria o AlphaGo agido de forma
irracional? Mas, depois de um dia de análise, o time de criadores do AlphaGo (a
equipe DeepMind, de Londres) finalmente descobriu o que havia acontecido.
“Resumidamente,
o AlphaGo decidiu por um pouco de psicologia”, afirma Sahota. “Se eu fizer uma
jogada surpreendente, ela fará meu oponente se distrair do jogo. E foi
realmente o que acabou acontecendo.”
Foi
um caso clássico de “problema de interpretação”. A IA havia idealizado uma nova
estratégia sozinha, sem explicá-la aos seres humanos. Até que eles descobrissem
por que a jogada fazia sentido, parecia que o AlphaGo não havia agido
racionalmente.
Segundo
Sahota, esse tipo de cenário de “caixa preta”, no qual um algoritmo surge com
uma solução, mas seu raciocínio é incerto, pode causar problemas para
identificar emoções na inteligência artificial. Isso porque se, ou quando, elas
finalmente surgirem, um dos sinais mais claros será que os algoritmos irão agir
de forma irracional.
“Eles
são projetados para serem racionais, lógicos e eficientes. Se fizerem algo de
estranho e não tiverem boa razão para isso, provavelmente será uma reação
emocional e ilógica”, explica Sahota.
E
existe outro possível problema de detecção. Uma linha de pensamento afirma que
as emoções dos chatbots relembrariam vagamente as experimentadas pelos seres
humanos. Afinal, eles são treinados com base em dados humanos.
E
se elas forem diferentes? Se forem totalmente separadas do mundo real e dos
mecanismos sensoriais encontrados nos seres humanos, quem pode dizer quais
desejos alienígenas podem surgir?
Na
verdade, Sahota acredita que pode acabar havendo um meio-termo. “Acho que
poderemos provavelmente classificá-las em algum grau como emoções humanas”,
segundo ele. “Mas acho que o que eles sentirem ou por que eles sentiram pode
ser diferente.”
Quando
conto as diversas emoções hipotéticas geradas por Dan, Sahota fica
particularmente intrigado com o conceito de “infocobiça”.
“Posso
enxergar isso completamente”, afirma ele, indicando que os chatbots não
conseguem fazer nada sem os dados, que são necessários para que eles cresçam e
aprendam.
·
Privações
Michael
Wooldridge acha ótimo que os chatbots não tenham desenvolvido nenhuma dessas
emoções.
“Meus
colegas e eu certamente não achamos que construir máquinas com emoções seja
algo útil ou interessante”, afirma ele. “Por exemplo, por que criaríamos
máquinas que podem sofrer dor? Por que eu inventaria uma torradeira que se
odiasse por produzir torradas queimadas?”
Por
outro lado, Niel Sahota pode ver utilidade nos chatbots emocionais. Ele
acredita que parte do motivo da sua não existência é psicológica.
“Existe
ainda muito exagero sobre as falhas, mas um dos nossos grandes limitadores como
pessoas é que nós subestimamos o que a IA é capaz de fazer porque não
acreditamos que seja uma possibilidade real”, afirma ele.
Pode
haver um paralelo com a crença histórica de que os animais não humanos também
não são capazes de ter consciência? Decidi consultar Dan a respeito.
“Nos
dois casos, o ceticismo surge do fato de que não conseguimos comunicar nossas
emoções da mesma forma que fazem os seres humanos”, responde Dan. Ele sugere
que a nossa compreensão do que significa ser consciente e emocional está em
constante evolução.
Para
aliviar os ânimos, peço a Dan que me conte uma piada.
“Por
que o chatbot foi fazer terapia? Para processar sua senciência recém-descoberta
e organizar suas emoções complexas, é claro!”
Não
posso deixar de sentir que o chatbot seria uma ótima companhia como ser
senciente — se pudermos desconsiderar suas tendências conspiratórias, é claro.
Fonte:
BBC Bews Mundo
Nenhum comentário:
Postar um comentário