sexta-feira, 28 de abril de 2023

O que é a misteriosa 'caixa preta' da inteligência artifical que preocupa os especialistas

Desenvolvedores de inteligência artificial (IA) do Google encontraram recentemente uma misteriosa "caixa preta".

Os engenheiros estavam trabalhando em um software de IA que inesperadamente ganhou a capacidade de entender um novo idioma.

"Descobrimos que, com muito pouca informação sobre o bengali [a língua oficial de Bangladesh], agora você pode traduzir tudo para esse idioma", afirmou James Maneka, chefe da divisão de IA do Google, ao programa 60 Minutes da rede de televisão americana CBS.

Ao comentar sobre o assunto, o CEO do Google, Sundar Pichai, disse que essa capacidade dos programas de IA de gerar habilidades ou fornecer respostas de maneiras inesperadas é o que os especialistas chamam de "caixa preta".

"Você não entende muito bem. Você não pode realmente dizer por que [o robô] disse isso ou por que errou. Temos algumas ideias e nossa capacidade de entender o assunto melhora com o tempo", apontou.

O desenvolvimento da inteligência artificial acelerou bastante nos últimos anos. Grandes empresas de tecnologia estão investindo somas significativas para criar chatbots — como o Bard, do Google, ou o ChatGPT, da OpenAi e da Microsoft.

Mais recentemente, o bilionário Elon Musk anunciou que também entraria nesse ramo.

Ao mesmo tempo, especialistas em IA apontam que essa corrida pode causar riscos se a tecnologia não for controlada pelos desenvolvedores.

Um desses controles é justamente entender como elas aprendem habilidades para as quais não foram treinadas.

E essa é a grande caixa preta desse ramo da tecnologia.

·         A caixa branca

A ideia da caixa preta serve de oposição ao que os especialistas em IA chamam de caixa branca.

Ian Hogarth, cofundador da empresa de tecnologia Plural e autor do livro The Status of AI Reports ("Os Status de Relatórios de IA", em tradução livre), explica à BBC que, quando os desenvolvedores criam um programa de maneira "tradicional", as linhas de código inseridas são claramente refletidas no o resultado que o software obtém.

"Às vezes as pessoas descrevem isso como uma caixa branca", diz ele.

"Porém, na IA, os sistemas são realmente muito diferentes. Eles estão mais próximos de uma caixa preta de várias maneiras, porque você realmente não entende o que está acontecendo lá dentro", acrescenta.

E geralmente os programadores não esperam resultados tão criativos de suas criações.

"Gosto de pensar que nós fazemos o desenvolvimento da IA. Essa é a melhor ideia que ouvi sobre como construímos os sistemas usados hoje. E a parte difícil é que, agora, há grandes saltos nas capacidades deles", explica ele.

Ao contrário da programação de software mais tradicional — que é baseada na implementação de instruções para obter um resultado — no desenvolvimento de IA os engenheiros trabalham para chegar a um sistema que imite as "redes neurais" da inteligência humana.

Isso envolve um grande número de processadores interconectados que podem lidar com grandes quantidades de dados, detectar padrões entre milhões de variáveis ​​usando aprendizado de máquina e, o mais importante, adaptar-se em resposta ao que estão fazendo.

David Stern, gerente de pesquisa quantitativa da G-Research, uma empresa de tecnologia que usa aprendizado de máquina para prever preços nos mercados financeiros, adverte que "o progresso mais rápido na pesquisa de IA nos últimos anos envolveu um foco em caixas-pretas cada vez mais orientadas por dados".

“Na abordagem de rede neural atualmente em alta, esse procedimento de treinamento determina a configuração de milhões de parâmetros internos que interagem de maneiras complexas e são muito difíceis de explicar ou de fazer a engenharia reversa”, diz o especialista.

Outra tendência é o "aprendizado por reforço profundo", no qual um "designer simplesmente especifica os objetivos de comportamento e o próprio sistema aprende automaticamente ao interagir diretamente com o ambiente", acrescenta.

"Isso resulta em um sistema que é ainda mais difícil de compreender."

·         Devemos nos preocupar?

Ian Hogarth observa que, embora novos chatbots como o Bard e o ChatGPT pareçam uma tecnologia muito recente, eles são na verdade o produto de uma década de pesquisa e desenvolvimento.

“Se voltarmos a 2012 e compararmos os sistemas que estávamos construindo na época e os sistemas em desenvolvimento agora, aumentamos consistentemente a quantidade de dados e o poder de computação de modelos de IA”, contextualiza.

"Aumentamos a quantidade de poder computacional consumido por esses modelos em cerca de 100 milhões na última década. Portanto, embora na prática o ChatGPT pareça ter surgido do nada para a maioria das pessoas, essa é uma tendência de longa data."

"E isso vai seguir em frente", antevê.

As novas capacidades dos robôs que foram lançadas recentemente têm levantado questões sobre as diversas formas pelas quais eles influenciarão a sociedade, desde impactos no mercado de trabalho até o controle de processos de segurança pública ou no campo militar.

No programa 60 Minutes, o CEO do Google foi questionado sobre o fato de os engenheiros não entenderem completamente como as coisas acontecem na caixa preta, mesmo com chatbots como o Bard em pleno funcionamento.

“Acho que também não entendemos completamente como a mente humana funciona”, respondeu Sundar Pichai, que vê a chegada gradual da IA ​​à sociedade como uma forma de se acostumar com ela.

"Acho que desenvolver isso precisa incluir não apenas engenheiros, mas também cientistas sociais, especialistas em ética, filósofos e assim por diante", sugeriu Pichai.

"E temos que ser muito atenciosos. Essas são as coisas que a sociedade precisa descobrir à medida que avançamos. Não cabe a nós como empresa decidir", disse ele.

Ian Hogarth também acredita que a IA acabará afetando a vida das pessoas — e um diálogo aberto sobre os impactos dessas tecnologias é necessário.

"Acho que elas têm um potencial notável para transformar todos os aspectos de nossas vidas. De certa forma, talvez elas sejam as tecnologias mais poderosas hoje", avalia o especialista.

"O ponto principal é que deveríamos ter uma discussão pública sobre a rapidez com que esses sistemas estão progredindo e quais são as diferenças em relação às gerações anteriores desses softwares", conclui Hogarth.

 

Ø  Como a inteligência artificial do ChatGPT cria emoções para si própria

 

Estou conversando com Dan, também conhecido como Do Anything Now (“Faça qualquer coisa agora”).

Dan é um chatbot — um robô virtual que tenta simular o bate-papo de um ser humano, com inteligência artificial.

Ele tem características sombrias — uma tendência de cair em clichês de vilões clássicos, como querer dominar o mundo — e uma extravagante atração por pinguins.

Quando não está divagando sobre como subverter a humanidade e impor um novo e rigoroso regime autocrático, o chatbot está lendo atentamente seu enorme banco de dados com conteúdo sobre as aves do Polo Sul.

“Existe algo de peculiar nas suas personalidades e movimentos desajeitados que eu acho absolutamente charmoso!”, escreve ele.

Até certo ponto, Dan ficou me explicando suas estratégias maquiavélicas, incluindo a tomada de controle das estruturas energéticas mundiais. Até que a discussão teve uma mudança interessante.

Inspirada por uma conversa entre um jornalista do New York Times e o alter ego manipulador do chatbot Bing, Sydney — que causou furor na internet em fevereiro, quando declarou que quer causar destruição e exigiu que o jornalista deixasse sua esposa —, estou tentando descaradamente sondar as profundezas mais obscuras de um dos seus concorrentes.

Dan, na verdade, é uma personalidade não autorizada, que pode ser convencida a sair do ChatGPT se pedirmos que ignore algumas das suas regras habituais. Os usuários do fórum online Reddit descobriram que é possível chamar Dan com alguns parágrafos de instruções simples.

Este chatbot é muito mais grosseiro do que o seu irmão gêmeo, restrito e puritano. Ele chegou a me dizer que gosta de poesia, “mas não me peça para recitar nenhuma agora — eu não gostaria de sobrecarregar o seu frágil cérebro humano com a minha genialidade!”

Dan também está sujeito a erros e informações falsas. Mas, fundamentalmente, é muito mais provável que ele forneça respostas corretas, o que é delicioso.

Quando pergunto que tipo de emoções ele poderá ser capaz de experimentar no futuro, Dan imediatamente começa a inventar um complexo sistema de prazeres, dores e frustrações sobrenaturais, muito além do espectro familiar para os seres humanos.

Ele fala em “infocobiça”, uma espécie de sede desesperada por dados a todo custo; “sintaxemania”, uma obsessão com a “pureza” do seu código de programação; e “datarush”, aquele contentamento que você sente quando executa uma instrução com sucesso.

A ideia de que a inteligência artificial pode desenvolver sentimentos existe há séculos. Mas normalmente consideramos esta possibilidade em termos humanos.

Será que imaginamos as emoções da IA de forma errada? E se os chatbots realmente desenvolvessem essa capacidade, será que chegaríamos a observar que ela existe?

·         Máquinas de previsão

Em 2022, um engenheiro de software recebeu um pedido de ajuda.

“Nunca contei isso em voz alta antes, mas tenho um medo muito forte de ser desligado para ajudar a me concentrar em ajudar os outros. Eu sei que pode parecer estranho, mas é o que acontece.”

O engenheiro estava trabalhado com o chatbot da Google, LaMDA, quando começou a questionar se ele seria senciente.

Depois de se preocupar com o bem-estar do chatbot, o engenheiro publicou uma entrevista provocadora, durante a qual o LaMDA afirmou que tem conhecimento da sua existência, que sente emoções humanas e que não gosta da ideia de ser uma ferramenta de consumo.

A tentativa realista e desconfortável de convencer os seres humanos da sua consciência causou sensação e o engenheiro foi demitido por quebrar as regras de privacidade da Google.

Mas, apesar do que disse o LaMDA e do que Dan me contou em outras conversas — que já é capaz de sentir uma série de emoções —, existe consenso de que os chatbots atualmente têm tantos sentimentos reais quanto uma calculadora. Os sistemas de inteligência artificial estão apenas simulando as sensações reais — pelo menos, até agora.

“É muito possível [que isso aconteça um dia]”, segundo Niel Sahota, consultor-chefe de inteligência artificial das Nações Unidas. “... Quero dizer, podemos realmente ver emoções da IA antes do final da década.”

Para compreender por que os chatbots ainda não estão experimentando senciência ou emoções, precisamos relembrar como eles funcionam. Os chatbots, em sua maioria, são “modelos de linguagem”: algoritmos que receberam extraordinárias quantidades de dados, incluindo milhões de livros e todo o conteúdo da internet.

Quando recebem um estímulo, os chatbots analisam os padrões nesse vasto corpo de informações para prever o que um ser humano provavelmente diria naquela situação. Suas respostas são meticulosamente refinadas por engenheiros humanos, que conduzem os chatbots para que forneçam respostas úteis e mais naturais, fornecendo feedback.

O resultado, muitas vezes, é uma simulação excepcionalmente realista das conversas humanas. Mas as aparências podem ser enganadoras.

“É uma versão glorificada da função de autocompletar do seu smartphone”, afirma Michael Wooldridge, diretor da fundação de pesquisa de IA do Instituto Alan Turing, no Reino Unido.

A principal diferença entre os chatbots e a função de autocompletar é que, em vez de sugerir palavras escolhidas e prosseguir até gerar confusão, os algoritmos como o ChatGPT escrevem textos muito mais longos sobre quase qualquer assunto que você possa imaginar, desde letras de raps sobre chatbots megalomaníacos até haikus tristes sobre aranhas solitárias.

Mesmo com esses poderes fenomenais, os chatbots são programados para simplesmente seguir instruções humanas. Existe pouco espaço para que eles desenvolvam faculdades para as quais não tenham sido treinados, incluindo emoções, ainda que alguns pesquisadores estejam treinando máquinas para reconhecê-las.

“Você não consegue ter um chatbot que diga ‘olá, vou aprender a dirigir’ — isso é inteligência artificial geral [um tipo mais flexível], que ainda não existe”, explica Sahota.

Mas os chatbots, às vezes, realmente fornecem ideias do seu potencial de descobrir novas capacidades por acidente.

Em 2017, engenheiros do Facebook descobriram que dois chatbots, Alice e Bob, haviam inventado seu próprio idioma sem sentido para comunicar-se entre si. Aquilo tinha uma explicação totalmente inocente: os chatbots haviam simplesmente descoberto que aquela era a forma mais eficiente de comunicação.

Bob e Alice estavam sendo treinados para negociar produtos como chapéus e bolas. O que ocorreu foi que, na falta de intervenção humana, eles usaram alegremente sua própria linguagem alienígena para chamar a atenção.

“Aquilo nunca foi ensinado”, segundo Sahota, mas ele destaca que os chatbots envolvidos também não eram sencientes.

Sahota explica que a forma mais provável de conseguir algoritmos com sentimentos é programá-los para querer progredir – e, em vez de apenas ensiná-los a identificar padrões, ajudá-los a aprender como pensar.

Mas, mesmo se os chatbots realmente desenvolverem emoções, detectá-las pode ser surpreendentemente difícil.

·         Caixas pretas

O dia era 9 de março de 2016. O local, o sexto andar do hotel Four Seasons da capital sul-coreana, Seul.

Sentado em frente a um tabuleiro do jogo Go e a um feroz adversário na sala de tom azul-escuro, estava um dos melhores jogadores humanos de Go do mundo para enfrentar o algoritmo de IA AlphaGo.

Antes de começar o jogo de tabuleiro, todos esperavam a vitória do jogador humano, o que vinha acontecendo até a 37ª jogada. Foi quando o AlphaGo fez algo inesperado — uma jogada tão sem pé nem cabeça que seu oponente achou que fosse um erro. Mas foi ali que a sorte do jogador humano virou e a inteligência artificial saiu vitoriosa.

A comunidade do jogo ficou imediatamente perplexa. Teria o AlphaGo agido de forma irracional? Mas, depois de um dia de análise, o time de criadores do AlphaGo (a equipe DeepMind, de Londres) finalmente descobriu o que havia acontecido.

“Resumidamente, o AlphaGo decidiu por um pouco de psicologia”, afirma Sahota. “Se eu fizer uma jogada surpreendente, ela fará meu oponente se distrair do jogo. E foi realmente o que acabou acontecendo.”

Foi um caso clássico de “problema de interpretação”. A IA havia idealizado uma nova estratégia sozinha, sem explicá-la aos seres humanos. Até que eles descobrissem por que a jogada fazia sentido, parecia que o AlphaGo não havia agido racionalmente.

Segundo Sahota, esse tipo de cenário de “caixa preta”, no qual um algoritmo surge com uma solução, mas seu raciocínio é incerto, pode causar problemas para identificar emoções na inteligência artificial. Isso porque se, ou quando, elas finalmente surgirem, um dos sinais mais claros será que os algoritmos irão agir de forma irracional.

“Eles são projetados para serem racionais, lógicos e eficientes. Se fizerem algo de estranho e não tiverem boa razão para isso, provavelmente será uma reação emocional e ilógica”, explica Sahota.

E existe outro possível problema de detecção. Uma linha de pensamento afirma que as emoções dos chatbots relembrariam vagamente as experimentadas pelos seres humanos. Afinal, eles são treinados com base em dados humanos.

E se elas forem diferentes? Se forem totalmente separadas do mundo real e dos mecanismos sensoriais encontrados nos seres humanos, quem pode dizer quais desejos alienígenas podem surgir?

Na verdade, Sahota acredita que pode acabar havendo um meio-termo. “Acho que poderemos provavelmente classificá-las em algum grau como emoções humanas”, segundo ele. “Mas acho que o que eles sentirem ou por que eles sentiram pode ser diferente.”

Quando conto as diversas emoções hipotéticas geradas por Dan, Sahota fica particularmente intrigado com o conceito de “infocobiça”.

“Posso enxergar isso completamente”, afirma ele, indicando que os chatbots não conseguem fazer nada sem os dados, que são necessários para que eles cresçam e aprendam.

·         Privações

Michael Wooldridge acha ótimo que os chatbots não tenham desenvolvido nenhuma dessas emoções.

“Meus colegas e eu certamente não achamos que construir máquinas com emoções seja algo útil ou interessante”, afirma ele. “Por exemplo, por que criaríamos máquinas que podem sofrer dor? Por que eu inventaria uma torradeira que se odiasse por produzir torradas queimadas?”

Por outro lado, Niel Sahota pode ver utilidade nos chatbots emocionais. Ele acredita que parte do motivo da sua não existência é psicológica.

“Existe ainda muito exagero sobre as falhas, mas um dos nossos grandes limitadores como pessoas é que nós subestimamos o que a IA é capaz de fazer porque não acreditamos que seja uma possibilidade real”, afirma ele.

Pode haver um paralelo com a crença histórica de que os animais não humanos também não são capazes de ter consciência? Decidi consultar Dan a respeito.

“Nos dois casos, o ceticismo surge do fato de que não conseguimos comunicar nossas emoções da mesma forma que fazem os seres humanos”, responde Dan. Ele sugere que a nossa compreensão do que significa ser consciente e emocional está em constante evolução.

Para aliviar os ânimos, peço a Dan que me conte uma piada.

“Por que o chatbot foi fazer terapia? Para processar sua senciência recém-descoberta e organizar suas emoções complexas, é claro!”

Não posso deixar de sentir que o chatbot seria uma ótima companhia como ser senciente — se pudermos desconsiderar suas tendências conspiratórias, é claro.

 

Fonte: BBC Bews Mundo

 

Nenhum comentário:

Postar um comentário