Por
que especialistas dizem que inteligência artificial pode levar à extinção da
humanidade
A inteligência artificial (IA) pode levar a
humanidade à extinção, alertaram especialistas — incluindo os chefes da OpenAI
e do Google Deepmind.
Dezenas apoiaram uma declaração publicada na página
do Center for AI Safety (ou Centro de Segurança de Inteligência Artificial, em
tradução livre), ong de pesquisa e desenvolvimento com sede em São Francisco,
nos Estados Unidos.
"Mitigar o risco de extinção pela IA deve ser
uma prioridade global, juntamente com outros riscos em escala social, como
pandemias e guerra nuclear", aponta a carta aberta.
Mas outros dizem que os medos são exagerados.
Sam Altman, executivo-chefe da OpenAI, fabricante do
ChatGPT, Demis Hassabis, executivo-chefe do Google DeepMind e Dario Amodei, da
Anthropic, apoiaram a declaração.
O texto do Center for AI Safety sugere uma série de
possíveis cenários de desastre:
- As IAs podem ser armadas — por exemplo, com ferramentas para
descobrir drogas que podem ser usadas na construção de armas químicas;
- A desinformação gerada pela IA pode desestabilizar a sociedade e
"minar as tomadas de decisões coletivas";
- O poder da IA pode se tornar cada vez mais concentrado em poucas
mãos, permitindo que "regimes imponham valores restritos por meio de
vigilância generalizada e censura opressiva";
- Enfraquecimento, a partir do qual os humanos se tornam dependentes
da IA, "num cenário semelhante ao retratado no filme Wall-E".
Geoffrey Hinton, que emitiu um alerta anterior sobre
os riscos da IA superinteligente, também apoiou a carta do Center for AI
Safety.
Yoshua Bengio, professor de Ciências da Computação
na Universidade de Montreal, no Canadá, também assinou o manifesto.
Hinton, Bengio e o professor da Universidade de Nova
York (NYU), Yann LeCunn, são frequentemente descritos como os "padrinhos
da IA" pelo trabalho inovador que fizeram neste campo — e pelo qual
ganharam juntos o Prêmio Turing de 2018, que reconhece contribuições
excepcionais na ciência da computação.
Mas o professor LeCunn, que também trabalha na Meta,
empresa dona do Facebook, disse que esses avisos apocalípticos são "exagerados"
e que "a reação mais comum dos pesquisadores de IA a essas profecias de
destruição é embaraçosa".
Muitos outros especialistas também acreditam que o
medo de a IA acabar com a humanidade é irreal e uma distração de questões como
preconceito em relação aos sistemas, que já são um problema.
Arvind Narayanan, um cientista da computação da
Universidade de Princeton, nos EUA, disse à BBC que os cenários de desastre de
ficção científica não são realistas.
"A IA atual não é nem de longe suficientemente
capaz para que esses riscos se materializem. Como resultado, isso desvia a
atenção dos danos de curto prazo da IA", avalia ele.
Elizabeth Renieris, pesquisadora sênior do Instituto
de Ética em IA da Universidade Oxford, no Reino Unido, disse à BBC News que se
preocupa com os riscos mais próximos.
"Os avanços na IA ampliarão a escala da tomada
de decisão automatizada que é tendenciosa, discriminatória, excludente ou
injusta. Ao mesmo tempo em que é inescrutável e incontestável", acredita
ela.
Estes avanços "podem impulsionar um aumento
exponencial no volume e na disseminação de desinformação, fraturando assim a
realidade e corroendo a confiança do público, além de gerar mais desigualdade,
principalmente para aqueles que permanecem do lado errado da divisão digital".
Muitas ferramentas de IA essencialmente "pegam
carona" em "toda a experiência humana até o momento", destaca
Renieris.
Várias dessas tecnologias são treinadas em conteúdo,
texto, arte e música criados por humanos — e seus criadores "transferiram
efetivamente uma tremenda riqueza e poder da esfera pública para um pequeno
punhado de entidades privadas".
·
Pausa solicitada
A cobertura da imprensa sobre a suposta ameaça
"existencial" da IA aumentou desde março de 2023, quando
especialistas, incluindo o dono da Tesla, Elon Musk, assinaram uma carta aberta
pedindo a suspensão do desenvolvimento da próxima geração de tecnologia de IA.
Essa carta perguntava se deveríamos
"desenvolver mentes não-humanas que eventualmente superassem em número,
fossem mais espertas, nos tornassem obsoletos e nos substituíssem".
Em contraste, a nova carta divulgada por
especialistas tem uma declaração muito curta, destinada a "abrir a
discussão".
A declaração compara o risco ao representado pela
guerra nuclear.
Em uma postagem no blog, a OpenAI sugeriu
recentemente que a superinteligência pode ser regulada de maneira semelhante à
energia nuclear.
"É provável que eventualmente precisemos de
algo como uma AIEA (Agência Internacional de Energia Atômica) para os esforços
de superinteligência", escreveu a empresa.
·
Análises cuidadosas
Sam Altman e o executivo-chefe do Google, Sundar
Pichai, estão entre os líderes de tecnologia que discutiram recentemente a
regulamentação da IA com o primeiro-ministro inglês, Rishi Sunak.
Ao falar com repórteres sobre o último alerta sobre
o risco de IA, Sunak enfatizou os benefícios da tecnologia para a economia e a
sociedade.
"Você viu que recentemente a IA ajudou pessoas
paralisadas a andar e descobriu novos antibióticos, mas precisamos garantir que
isso seja feito de maneira segura e protegida", disse ele.
"É por isso que me encontrei na semana passada
com CEOs de grandes empresas de IA para discutir quais são as barreiras que
precisamos implementar e qual é o tipo de regulamentação que deve ser criada
para nos manter seguros."
"As pessoas ficarão preocupadas com os relatos
de que a IA representa riscos existenciais, como as pandemias ou as guerras
nucleares. Mas quero que elas tenham certeza de que o governo está analisando
isso com muito cuidado", concluiu.
Sunak disse que havia discutido a questão
recentemente com outros líderes na cúpula do G7 no Japão e iria levá-lo
novamente a representantes dos EUA em breve.
A cúpula de países mais ricos, inclusive, criou
recentemente um grupo de trabalho sobre a IA.
Ø As 3 etapas da inteligência artificial e por que a 3ª pode ser fatal
Desde o seu lançamento no final de novembro de 2022,
o ChatGPT, o chatbot que usa inteligência artificial (também chamada de IA)
para responder perguntas ou gerar textos sob demanda dos usuários, tornou-se o
aplicativo de internet que mais cresce na história.
Em apenas dois meses atingiu 100 milhões de usuários
ativos. O popular aplicativo TikTok levou nove meses para atingir esse marco. E
para o Instagram dois anos e meio, segundo dados da empresa de monitoramento de
tecnologia Sensor Town.
"Nos 20 anos que acompanhamos a internet, não
conseguimos lembrar de um crescimento mais rápido de um aplicativo de internet
para o consumidor", disseram analistas do banco suíço UBS, que relataram o
recorde em fevereiro.
A enorme popularidade do ChatGPT, desenvolvido pela
empresa OpenAI, com o apoio financeiro da Microsoft, gerou todo tipo de
discussões e especulações sobre o impacto que a inteligência artificial
generativa já está tendo e terá em nosso futuro próximo.
É o ramo da IA que se dedica a gerar conteúdo original a partir de dados existentes (geralmente
retirados da internet) em resposta a instruções de um usuário.
Os textos (de ensaios, poesia e piadas a códigos de
computador) e imagens (diagramas, fotos, obras de arte de qualquer estilo e
muito mais) produzidos por IAs geradoras como ChatGPT, DALL-E, Bard e AlphaCode
- para citar apenas alguns dos mais conhecidos - são, em alguns casos, tão
indistinguíveis do trabalho humano, que já foram utilizadas por milhares de
pessoas para substituir o seu trabalho habitual.
De estudantes que os usam para fazer o dever de casa
a políticos que confiam a eles seus discursos - o deputado democrata Jake
Auchincloss lançou o recurso no Congresso americano - ou fotógrafos que
inventam instantâneos de coisas que não aconteceram (e até ganham prêmios por
Isso, como o
alemão Boris Eldagsen, que ganhou o primeiro lugar no último Sony World Photography
Award por uma imagem criada por IA).
Este texto poderia ter sido digitado por uma máquina
e você provavelmente não saberia.
O fenômeno levou a uma revolução nos recursos
humanos, com empresas como a gigante da tecnologia IBM anunciando que deixará
de contratar pessoas para preencher cerca de 8.000 vagas que podem ser
gerenciadas pela IA.
Um relatório do banco de investimentos Goldman Sachs
estimou no final de março que a IA poderia substituir um quarto de todos os
empregos humanos hoje, embora também crie mais produtividade e novos empregos.
Se todas essas mudanças representam uma sobrecarga
para você, prepare-se para um fato que pode ser ainda mais desconcertante.
E é que, com todos os seus impactos, o que estamos
vivenciando agora é apenas a primeira etapa do desenvolvimento da IA.
Segundo os especialistas, o que pode vir em breve -
a segunda etapa - será muito mais revolucionário.
E a terceira e última, que pode ocorrer logo depois
disso, é tão avançada que alterará completamente o mundo, mesmo à custa da
existência humana.
<<<<
Os três estágios
As tecnologias de IA são classificadas por sua
capacidade de imitar características humanas.
·
1. Inteligência Artificial Estreita (ANI)
A categoria mais básica de AI é mais conhecida por
sua sigla: ANI, para Artificial Narrow Intelligence
É assim chamado porque se concentra estritamente em
uma única tarefa, realizando trabalhos repetitivos dentro de um intervalo
predefinido por seus criadores.
Os sistemas ANI geralmente são treinados usando um
grande conjunto de dados (por exemplo, da Internet) e podem tomar decisões ou
realizar ações com base nesse treinamento.
Um ANI pode igualar ou exceder a inteligência e a
eficiência humanas, mas apenas naquela área específica em que opera.
Um exemplo são os programas de xadrez que usam IA.
Eles são capazes de vencer o campeão mundial dessa disciplina, mas não podem
realizar outras tarefas.
É por isso que também é conhecido como "IA
fraca" .
Todos os programas e ferramentas que usam IA hoje,
mesmo os mais avançados e complexos, são formas de ANI. E esses sistemas estão
por toda parte.
Os smartphones estão repletos de aplicativos que
usam essa tecnologia, desde mapas GPS que permitem localizar qualquer lugar do
mundo ou saber o tempo, até programas de música e vídeo que conhecem seus
gostos e fazem recomendações.
Também assistentes virtuais como Siri e Alexa são
formas de ANI. Como o buscador Google e o robô que limpa sua casa.
O mundo dos negócios também usa muito essa
tecnologia. É usado nos computadores internos dos carros, na fabricação de
milhares de produtos, no mundo financeiro e até nos hospitais, para fazer
diagnósticos.
Sistemas ainda mais sofisticados, como carros sem
motorista (ou veículos autônomos) e o popular ChatGPT, são formas de ANI, pois
não podem operar fora do intervalo predefinido por seus programadores e,
portanto, não podem tomar decisões por conta própria .
Eles também não têm autoconsciência, outro traço da
inteligência humana.
No entanto, alguns especialistas acreditam que
sistemas programados para aprender automaticamente ( aprendizado de máquina ),
como ChatGPT ou AutoGPT (um "agente autônomo" ou "agente
inteligente" que usa informações do ChatGPT para executar determinadas
subtarefas de forma autônoma) podem passar para o próximo estágio de
desenvolvimento.
·
2. Inteligência Artificial Geral (AGI)
Esta categoria – Inteligência Artificial Geral – é
alcançada quando uma máquina adquire habilidades cognitivas no nível humano.
Ou seja, quando você consegue realizar qualquer
tarefa intelectual que uma pessoa faz.
O AGI também é conhecido como "IA forte" .
Tal é a crença de que estamos prestes a atingir esse
nível de desenvolvimento, que em março passado mais de 1.000 especialistas em
tecnologia pediram às empresas de IA que parassem de treinar, por pelo menos seis
meses, os programas mais poderosos do que o GPT-4, a versão mais recente do
ChatGPT.
"Sistemas de IA com inteligência que competem
com os humanos podem representar riscos profundos para a sociedade e a
humanidade", alertaram em carta aberta o cofundador da Apple, Steve
Wozniak, e o proprietário da Tesla, SpaceX Neuralink, entre outros. os
co-fundadores da Open AI antes de renunciar ao conselho devido a
desentendimentos com a liderança da empresa).
A carta em que mais de 1.000 especialistas pedem
para parar a inteligência artificial por ser uma "ameaça à
humanidade".
Na carta, publicada pela organização sem fins
lucrativos Future of Life Institute, os especialistas afirmam que,
se as empresas não concordarem rapidamente em interromper seus projetos,
"os governos devem intervir e instituir uma moratória" para que
medidas de segurança possam ser projetadas e implementadas.
Embora isso seja algo que - por enquanto - não
aconteceu, o governo dos Estados Unidos convocou os proprietários das
principais empresas de IA - Alphabet, Anthropic, Microsoft e OpenAI - para
acordar "novas ações para promover a inovação responsável da IA".
"A IA é uma das tecnologias mais poderosas do
nosso tempo, mas para aproveitar as oportunidades que ela apresenta, devemos
primeiro mitigar seus riscos", disse a Casa Branca em comunicado em 4 de
maio.
O Congresso dos EUA, por sua vez, convocou o CEO da
OpenAI, Sam Altman , na terça-feira para responder a perguntas sobre o ChatGPT.
Durante a audiência no Senado, Altman disse que é
"crucial" que sua indústria seja regulamentada pelo governo, pois a
IA se torna "cada vez mais poderosa".
Carlos Ignacio Gutiérrez, pesquisador de políticas
públicas do Future of Life Institute, explicou à BBC News Mundo, serviço em
espanhol da BBC, que um dos grandes desafios que a IA apresenta é que "não
existe um colegiado de especialistas que decida como regulá-la, como acontece,
por exemplo , com o Painel Intergovernamental sobre Mudanças Climáticas
(IPCC)".
Na carta dos especialistas, eles definiram quais eram
suas principais preocupações.
"Devemos desenvolver mentes não humanas que
possam eventualmente nos superar em número, ser mais espertos que nós, nos
tornar obsoletos e nos substituir?", eles perguntaram.
"Devemos arriscar perder o controle de nossa
civilização?"
O que nos leva ao terceiro e último estágio da IA.
·
3. Superinteligência Artificial (ASI)
A preocupação desses cientistas da computação tem a
ver com uma teoria bem estabelecida de que, quando chegarmos à AGI, logo depois
chegaremos ao último estágio do desenvolvimento dessa tecnologia: a
Superinteligência Artificial, que ocorre quando a inteligência sintética supera
a humana.
O filósofo da Universidade de Oxford e especialista
em IA, Nick Bostrom, define superinteligência como "um intelecto muito mais
inteligente do que os melhores cérebros humanos em praticamente todos os
campos, incluindo criatividade científica, sabedoria geral e habilidades
sociais".
A teoria é que, quando uma máquina atinge
inteligência equivalente à dos humanos, sua capacidade de multiplicar essa
inteligência exponencialmente por meio de seu próprio aprendizado autônomo fará
com que ela nos ultrapasse amplamente em pouco tempo, atingindo o ASI.
“O ser humano para ser engenheiro, enfermeiro ou
advogado tem que estudar muito. O problema do AGI é que ele é imediatamente
escalável”, diz Gutiérrez.
Isso se deve a um processo chamado
autoaperfeiçoamento recursivo que permite que um aplicativo de IA "se
aprimore continuamente".
Embora haja muito debate sobre se uma máquina pode
realmente adquirir o tipo de inteligência ampla que um ser humano possui -
especialmente quando se trata de inteligência emocional - é uma das coisas que
mais preocupa aqueles que acreditam que estamos perto de alcançar o AGI.
Recentemente, o chamado "padrinho da
inteligência artificial" Geoffrey Hinton, pioneiro na investigação de
redes neurais e aprendizado profundo que permitem que as máquinas aprendam com
a experiência, assim como os humanos, alertou em entrevista à BBC que
poderíamos estar próximos desse marco.
"Atualmente (as máquinas) não são mais
inteligentes do que nós, até onde vejo. Mas acho que em breve poderão ser
", disse o homem de 75 anos, que acabou de se aposentar do Google.
·
Extinção ou imortalidade
Existem, em geral, dois campos de pensamento em
relação à ASI: há os que acreditam que essa superinteligência será benéfica
para a humanidade e os que acreditam no contrário.
Entre eles estava o famoso físico britânico Stephen
Hawking, que acreditava que as máquinas superinteligentes representavam uma ameaça
à nossa existência.
“O
desenvolvimento da inteligência artificial completa pode significar o fim dos
humanos”, disse ele à BBC em 2014, quatro anos antes de morrer.
Uma máquina com esse nível de inteligência
"descolaria por conta própria e se redesenharia em um ritmo
crescente", disse ele.
"Os humanos, que são limitados pela lenta
evolução biológica, não seriam capazes de competir e seriam superados",
previu.
No entanto, do lado oposto, há previsões mais
positivas.
Um dos maiores entusiastas da ASI é o autor e
inventor futurista americano Ray Kurzweil , pesquisador de IA do Google e
cofundador da Singularity University do Vale do Silício
("singularidade" é outro nome para a era em que as máquinas se tornam
superinteligentes).
Kurzweil acredita que os humanos serão capazes de
usar IA superinteligente para superar nossas barreiras biológicas, melhorando
nossas vidas e nosso mundo.
Em 2015 chegou a prever que até o ano de 2030 os
humanos conseguirão alcançar a imortalidade graças aos nanobots (robôs extremamente
pequenos) que atuarão dentro de nossos corpos, reparando e curando qualquer
dano ou doença, inclusive as causadas pela passagem do tempo.
Em sua declaração ao Congresso na terça-feira, Sam
Altman, da OpenAI, também estava otimista sobre o potencial da IA, observando
que ela poderia resolver "os maiores desafios da humanidade , como a
mudança climática e a cura do câncer".
No meio estão pessoas, como Hinton, que acreditam
que a IA tem um enorme potencial para a humanidade, mas acham o atual ritmo de
desenvolvimento, sem regras e limites claros, "preocupante".
Em um comunicado enviado ao The New York Times
anunciando sua saída do Google, Hinton disse que agora se arrependia do
trabalho que havia feito porque temia que "maus agentes" usassem IA
para fazer "coisas ruins".
Questionado pela BBC, ele deu este exemplo de um
"pesadelo".
"Imagine, por exemplo, que algum mau ator como
[o presidente russo Vladimir] Putin decidiu dar aos robôs a capacidade de criar
seus próprios sub-objetivos."
As máquinas poderiam eventualmente "criar
subobjetivos como: 'Preciso obter mais energia', o que representaria um risco
existencial", observou ele.
Ao mesmo tempo, o especialista britânico-canadense
disse que, a curto prazo, a IA trará muito mais benefícios do que riscos, por
isso “não devemos parar de desenvolvê-la”.
"A questão é: agora que descobrimos que
funciona melhor do que esperávamos alguns anos atrás, o que fazemos para
mitigar os riscos de longo prazo de coisas mais inteligentes do que assumirmos
o controle?"
Guitérrez concorda que a chave é criar um sistema de
governança de IA antes de desenvolver uma inteligência que possa tomar suas
próprias decisões.
"Se essas entidades são criadas com motivação
própria, o que significa quando não estamos mais no controle dessas
motivações?", questiona.
O especialista aponta que o perigo não é apenas que
uma AGI ou ASI, seja por motivação própria ou controlada por pessoas com
"maus objetivos", inicie uma guerra ou manipule o sistema financeiro,
produtivo, infraestrutura energética, transporte ou qualquer outro sistema que
agora é informatizado.
Uma superinteligência poderia nos dominar de uma
forma muito mais sutil, adverte.
"Imagine um futuro onde uma entidade tenha
tanta informação sobre cada pessoa no planeta e seus hábitos (graças às nossas
buscas na internet) que poderia nos controlar de maneiras que não
perceberíamos", diz ele.
"O pior cenário não é que existam guerras entre
humanos e robôs. O pior é não percebermos que estamos sendo manipulados porque
compartilhamos o planeta com uma entidade muito mais inteligente do que
nós."
Fonte: BBC News Brasil

Nenhum comentário:
Postar um comentário