Por que cientistas
temem futuro catastrófico causado pela inteligência artificial
A
inteligência artificial tem o incrível poder de mudar a forma como vivemos,
para o bem e para o mal — e os especialistas têm pouca confiança de que os que
estão no poder estejam preparados para o que está por vir.
Em
2019, o grupo de pesquisa sem fins lucrativos OpenAI criou um software que era
capaz de gerar parágrafos de texto coerente e fazer análise e compreensão
rudimentar de textos sem instruções específicas.
Inicialmente,
a OpenAI decidiu não tornar sua criação — chamada de GPT-2 — totalmente
disponível para o público. O receio era que pessoas mal intencionadas pudessem
usá-la para gerar grandes quantidades de desinformação e propaganda.
Em
comunicado à imprensa anunciando a decisão, o grupo chamou o programa de
"perigoso demais" na época.
Desde
então, três anos se passaram, e a capacidade da inteligência artificial
aumentou exponencialmente.
Em
contraste com a última distribuição limitada, a nova versão, o GPT-3, foi
disponibilizada prontamente em novembro de 2022.
A
interface ChatGPT derivada dessa programação foi o serviço que gerou milhares
de artigos de notícias e postagens de rede social, enquanto repórteres e
especialistas testavam seus recursos — muitas vezes, com resultados
impressionantes.
O
ChatGPT escreveu roteiros de stand-up comedy no estilo do falecido humorista
americano George Carlin sobre a falência do Silicon Valley Bank. Opinou sobre a
teologia cristã, escreveu poesia e explicou física quântica para uma criança,
como se fosse o rapper Snoop Dogg.
Outros
modelos de inteligência artificial, como o Dall-E, produziram imagens tão
convincentes que geraram polêmica sobre sua inclusão em sites de arte.
Pelo
menos a olho nu, as máquinas aprenderam a ser criativas.
Em
14 de março, a OpenAI apresentou a última versão do seu programa, o GPT-4. O
grupo afirma que ele apresenta limites mais sólidos contra usos abusivos. Os
primeiros clientes incluem a Microsoft, o banco Merrill Lynch e o governo da
Islândia.
E
o tema mais quente na conferência interativa South by Southwest — uma reunião
global de formuladores de políticas, investidores e executivos da área de
tecnologia, realizada em Austin, no estado americano do Texas — foi o potencial
e o poder dos programas de inteligência artificial.
·
'Para o bem e para o mal'
Arati
Prabhakar, diretora do Escritório de Política de Ciências e Tecnologia da Casa
Branca, afirmou que está entusiasmada com as possibilidades da inteligência
artificial, mas também fez um alerta.
"O
que todos nós estamos vendo é o surgimento dessa tecnologia extremamente
poderosa. É um ponto de inflexão", declarou ela na conferência.
"Toda
a história demonstra que esse tipo de tecnologia, nova e potente, pode e será
usada para o bem e para o mal."
Já
Austin Carson, fundador da SeedAI, um grupo de consultoria sobre políticas de
inteligência artificial, que participou do mesmo painel, foi um pouco mais
direto.
"Se,
em seis meses, vocês não tiverem perdido completamente a cabeça [e soltou um
palavrão], pago um jantar", disse ele ao público presente.
"Perder
a cabeça" é uma forma de descrever o que pode vir a acontecer no futuro.
Amy
Webb, chefe do instituto Future Today e professora de negócios da Universidade
de Nova York, nos EUA, tentou prever as possíveis consequências. Segundo ela, a
inteligência artificial pode seguir uma dentre duas direções nos próximos 10
anos.
Em
um cenário otimista, o desenvolvimento da inteligência artificial vai se
concentrar no bem comum, com um design de sistema transparente, e os indivíduos
vão ter a capacidade de decidir se suas informações disponíveis ao público na
internet serão incluídas na base de dados de conhecimento da inteligência
artificial.
Nesta
visão, a tecnologia serve como uma ferramenta que facilita a vida, tornando-a
mais integrada, à medida que a inteligência artificial passa a estar disponível
em produtos de consumo que podem antecipar as necessidades do usuário e ajudar
a desempenhar virtualmente qualquer tarefa.
O
outro cenário previsto por Webb é catastrófico. Envolve menos privacidade de
dados, poder mais centralizado em poucas companhias, e a inteligência
artificial antecipa as necessidades do usuário, mas as entende errado ou, no
mínimo, reprime suas escolhas.
Ela
acredita que o cenário otimista tem apenas 20% de chance de acontecer.
Webb
afirma à BBC que o rumo que a tecnologia vai tomar depende, em grande parte, do
grau de responsabilidade das empresas que vão desenvolvê-la. Será que elas vão
fazer isso de forma transparente, revelando e fiscalizando as fontes das quais
os chatbots — chamados pelos cientistas de Grandes Modelos de Linguagem (LLM,
na sigla em inglês) — extraem suas informações?
O
outro fator, segundo ela, é se o governo — incluindo os órgãos federais de
regulamentação e o Congresso — pode agir rapidamente para estabelecer proteções
legais para orientar os desenvolvimentos tecnológicos e evitar seu uso
indevido.
Nesse
sentido, a experiência dos governos com as empresas de redes sociais —
Facebook, Twitter, Google e outras — é um indicativo. E não é uma experiência
encorajadora.
"O
que ouvi em muitas conversas foram preocupações de que não existe nenhuma
barreira de proteção", afirmou Melanie Subin, diretora-gerente do
instituto Future Today, na conferência South by Southwest.
"Existe
a sensação de que algo precisa ser feito."
"E
acho que as redes sociais, como uma lição, é o que fica na mente das pessoas
quando elas observam a rapidez do desenvolvimento da inteligência artificial
criativa", acrescentou.
·
Combatendo o assédio e o discurso de ódio
Nos
Estados Unidos, a supervisão federal das empresas de redes sociais é baseada,
em grande parte, na Lei de Decência nas Comunicações, aprovada pelo Congresso
americano em 1996, além de uma cláusula curta, mas poderosa, contida no artigo
230 da lei.
O
texto protege as empresas da internet de serem responsabilizadas pelo conteúdo
gerado pelos usuários em seus sites. É considerado responsável por criar um
ambiente legal no qual as empresas de redes sociais poderiam prosperar. Mas,
mais recentemente, também está sendo acusado de permitir que essas mesmas
empresas ganhem muito poder e influência.
Os
políticos de direita reclamam que a lei permitiu que os Googles e Facebooks da
vida censurassem ou reduzissem a visibilidade das opiniões conservadoras. Já os
de esquerda acusam as empresas de não fazerem o suficiente para evitar a
disseminação de discursos de ódio e ameaças violentas.
"Temos
a oportunidade e a responsabilidade de reconhecer que o discurso de ódio gera
ações de ódio", afirmou Jocelyn Benson, secretária de Estado de Michigan,
nos EUA.
Em
dezembro de 2020, a casa de Benson foi alvo de protestos por parte de
apoiadores armados de Donald Trump, organizados no Facebook, que contestavam os
resultados da eleição presidencial de 2020.
Ela
apoiou leis contra práticas enganosas no seu Estado, que responsabilizaria as
empresas de rede social por espalhar informações prejudiciais conscientemente.
Propostas
similares têm sido apresentadas a nível federal e em outros Estados americanos,
além de legislação que exige que os sites de redes sociais forneçam uma maior
proteção aos usuários menores de idade, sejam mais abertos sobre suas políticas
de moderação de conteúdo e tomem ações mais ativas para diminuir o assédio
online.
Mas
as chances de sucesso dessas reformas dividem opiniões. As grandes empresas de
tecnologia mantêm equipes inteiras de lobistas na capital americana,
Washington, e nas capitais dos Estados. Elas também contam com cofres
abarrotados para influenciar os políticos com doações de campanha.
"Apesar
das imensas evidências de problemas no Facebook e em outros sites de redes
sociais, já se passaram 25 anos", afirma a jornalista de tecnologia Kara
Swisher.
"Ficamos
esperando uma legislação do Congresso para proteger os consumidores, e eles
abriram mão da sua responsabilidade."
Swisher
afirma que o perigo reside no fato de que muitas das empresas que são grandes
players nas redes sociais — Facebook, Google, Amazon, Apple e Microsoft — agora
são líderes na área de inteligência artificial.
Se
o Congresso não conseguir regulamentar com sucesso as redes sociais, será um
desafio agir rapidamente para lidar com as preocupações sobre o que Swisher
chama de "corrida armamentista" da inteligência artificial.
As
comparações entre as regulamentações de inteligência artificial e as redes
sociais também não são apenas acadêmicas. A nova tecnologia de IA pode navegar
pelas águas já turbulentas de plataformas como Facebook, YouTube e Twitter e
transformá-las em um mar revolto de desinformação, à medida que se torna cada
vez mais difícil distinguir postagens de seres humanos reais de contas falsas —
mas totalmente convincentes — geradas por IA.
Mesmo
se o governo for bem-sucedido na aprovação de novas regulamentações para as
redes sociais, elas podem acabar sendo inúteis se houver um imenso fluxo de
conteúdo pernicioso gerado por inteligência artificial.
Entre
as incontáveis sessões da conferência South by Southwest, houve uma intitulada
"Como o Congresso [americano] está construindo a política de IA a partir
do zero". Depois de cerca de 15 minutos de espera, os organizadores
informaram ao público que o painel havia sido cancelado porque os participantes
haviam se deslocado para o lugar errado.
Para
quem esperava encontrar sinais de competência humana no governo, o episódio não
foi nada encorajador.
Ø
O
'padrinho' da inteligência artificial que se demitiu do Google e adverte sobre
perigos da tecnologia
O
homem conhecido como o "padrinho" da inteligência artificial (IA)
pediu demissão, alertando sobre os crescentes perigos da tecnologia.
Geoffrey
Hinton, de 75 anos, anunciou sua saída do Google em entrevista ao jornal americano The New York
Times, dizendo que agora se arrepende do seu trabalho.
Psicólogo
cognitivo e cientista da computação, ele afirmou à BBC que alguns dos perigos
dos chatbots (robôs virtuais) de inteligência artificial são "bastante
assustadores".
"Neste
momento, eles não são mais inteligentes do que nós, até onde eu sei. Mas acho
que em breve poderão ser."
Hinton
também admitiu que sua idade influenciou na decisão de deixar a empresa.
"Tenho
75 anos, é hora de me aposentar", disse ele à BBC.
·
Pioneiro
da inteligência artificial alerta para perigos
A
pesquisa pioneira de Hinton sobre deep learning (aprendizagem profunda) e redes
neurais abriu caminho para os atuais sistemas de inteligência artificial, como
o ChatGPT.
Mas
ele afirmou à BBC que o chatbot poderá em breve ultrapassar o nível de
informação que o cérebro humano detém.
"Neste
momento, o que estamos vendo são coisas como o GPT-4 superar uma pessoa na
quantidade de conhecimento geral que ela tem, e a supera de longe. Em termos de
raciocínio, não é tão bom, mas já é capaz de raciocínios simples."
"E,
dado o ritmo de evolução, a expectativa é de que fiquem melhor rapidamente.
Então, precisamos nos preocupar com isso."
Na
reportagem do New York Times, Hinton se referiu a "pessoas
mal-intencionadas" que tentariam usar a inteligência artificial para
"coisas ruins".
Quando
questionado pela BBC para falar mais sobre isso, ele respondeu:
"É
tipo na pior das hipóteses, uma espécie de cenário de pesadelo."
"Você
pode imaginar, por exemplo, uma pessoa mal-intencionada como [o presidente
russo Vladimir] Putin que decide dar aos robôs a capacidade de criar seus
próprios subobjetivos."
O
cientista alertou que isso pode mais cedo ou mais tarde "criar
subobjetivos como 'preciso obter mais poder'".
E
acrescentou:
"Cheguei
à conclusão de que o tipo de inteligência que estamos desenvolvendo é muito
diferente da inteligência que temos."
"Somos
sistemas biológicos, e estes são sistemas digitais. E a grande diferença é que
com os sistemas digitais, você tem muitas cópias do mesmo conjunto de pesos, o
mesmo modelo do mundo."
"E
todas essas cópias podem aprender separadamente, mas compartilham seu
conhecimento instantaneamente. Portanto, é como se você tivesse 10 mil pessoas,
e sempre que uma delas aprendesse algo, todas automaticamente aprenderiam. E é
assim que esses chatbots são capazes de saber muito mais do que qualquer
pessoa."
O
cientista enfatizou que não queria criticar o Google e que a empresa de tecnologia havia sido
"muito responsável".
"Na
verdade, quero dizer algumas coisas boas sobre o Google. E elas terão mais credibilidade se eu não trabalhar
para o Google.
Em
um comunicado, o cientista-chefe do Google, Jeff Dean, afirmou:
"Continuamos
comprometidos com uma abordagem responsável da inteligência artificial. Estamos
aprendendo continuamente a entender os riscos emergentes enquanto também inovamos
com ousadia".
Fonte:
BBC News Brasil
Nenhum comentário:
Postar um comentário