Inteligência
artificial: o alerta de mil especialistas sobre 'risco para a humanidade'
Um
grupo de especialistas em inteligência artificial e executivos da indústria de
tecnologia pediu uma pausa de seis meses no treinamento de poderosos sistemas
de inteligência artificial, argumentando que eles representam uma potencial
ameaça à humanidade.
Em
carta aberta, eles alegam que os laboratórios que trabalham com essa tecnologia
estão em "uma corrida fora de controle para desenvolver e implementar
mentes digitais cada vez mais poderosas que ninguém, nem mesmo seus criadores,
pode entender, prever ou controlar com segurança".
A
declaração foi assinada por mais de mil pessoas, incluindo o empresário Elon
Musk, o cofundador da Apple, Steve Wozniak, e o CEO da Stability AI, Emad
Mostaque, além de pesquisadores da DeepMind.
Na
carta, eles pedem que as empresas que desenvolvem esse tipo de programa
"pausem imediatamente, por pelo menos seis meses, o treinamento de
sistemas de inteligência artificial mais poderosos que o GPT-4".
O
GPT-4 é a versão mais avançada do ChatGPT, um dos sistemas de inteligência
artificial mais poderosos do mundo, desenvolvido pela empresa OpenAI.
Tanto
o GPT-4 quanto o ChatGPT são um tipo de inteligência artificial generativa, ou
seja, usam algoritmos e texto preditivo para criar novos conteúdos com base em
instruções.
"Esta
pausa deve ser pública e verificável, e incluir todos os principais atores. Se
essa pausa não puder ser implementada rapidamente, os governos devem intervir e
instituir uma suspensão", acrescenta o texto.
Emitido
pelo Instituto sem fins lucrativos Future of Life, que conta com Elon Musk
entre seus consultores externos, o comunicado adverte que esses sistemas podem
representar "riscos profundos para a sociedade e a humanidade".
O
instituto argumenta que poderosos sistemas de inteligência artificial podem
gerar desinformação e substituir empregos por automação.
• '300 milhões de empregos' podem
desaparecer
Um
relatório recente do banco de investimentos Goldman Sachs diz que a
inteligência artificial poderia substituir o equivalente a 300 milhões de
empregos em tempo integral.
Esta
tecnologia pode substituir um quarto das tarefas laborais nos EUA e na Europa,
acrescenta, mas também pode gerar novos postos de trabalho que não existiam até
agora e acarretar em um aumento da produtividade.
Especialistas
ouvidos pela BBC dizem que por ora é muito difícil prever o efeito que essa
tecnologia terá no mercado de trabalho.
• Devemos criar mentes não humanas?
A
carta assinada pelos especialistas faz a seguinte pergunta: "Devemos criar
mentes não humanas que possam eventualmente nos superar, ser mais inteligentes,
nos tornar obsoletos e nos substituir?"
Em
um post recente citado na carta, a OpenAI, empresa por trás do GPT-4 (um dos
sistemas de linguagem usados pelo ChatGPT), também alertou sobre os potenciais
riscos da tecnologia.
"A
superinteligência desalinhada pode causar sérios danos ao mundo; um regime
autocrático com superinteligência decisiva também pode fazer isso",
escreveu a empresa em um blog.
A
OpenAI não comentou publicamente a carta.
Elon
Musk foi cofundador da OpenAI, embora tenha renunciado ao conselho de
administração da organização há alguns anos e postado mensagens críticas no
Twitter sobre a direção da empresa.
Os
recursos de direção autônoma desenvolvidos por sua montadora Tesla, como a
maioria dos outros sistemas similares, usam tecnologia de inteligência
artificial.
Recentemente,
várias propostas de regulamentação de tecnologia foram apresentadas nos EUA, no
Reino Unido e na União Europeia. No entanto, o Reino Unido descartou a criação
de um órgão regulador dedicado à inteligência artificial.
ChatGPT: por que humanos ainda são mais
inteligentes que máquinas
Você
provavelmente já usou. E definitivamente já ouviu falar dele. O ChatGPT tem
sido apontado como um programa que muda as regras do jogo.
Ele
pode escrever canções. Explicar física quântica. E dizer como eu posso aumentar
a minha inteligência.
No
entanto, diferente dos humanos, não são muito bons em relação à capacidade de
se adaptar, segundo especialistas (leia mais abaixo).
O
Google já lançou um rival para o ChatGPT, o Bard. E, nesta semana, figuras
importantes da inteligência artificial assinaram uma carta em que defendem uma
suspensão por ao menos seis meses do desenvolvimento de sistemas de
inteligência artificial (IA) mais poderosos. Eles citam riscos e perigos para
humanidade e dizem que a corrida para a evolução desses programas está fora de
controle.
A
OpenAI, a empresa por trás do ChatGPT, lançou recentemente o GPT-4, uma versão
ainda mais avançada do sistema que impressionou os observadores.
Computadores
parecem estar rapidamente superando seus criadores. Mas isso é realmente
verdade?
Ori
Ossmy, pesquisador do Centro Cerebral e Desenvolvimento Cognitivo da Birkbeck,
Universidade de Londres, diz que "o sistema tem algoritmos muito
sofisticados, mas o que basicamente eles fazem é coletar muita informação da
internet e dessa forma conseguem atender diferentes perguntas e
solicitações".
"Mas
eles não são muito bons em relação à capacidade de se adaptar. Não são muito
bons em aprender uma determinada coisa dentro de alguns cenários, alguns
ambientes, e depois aplicar [essa experiência] em um ambiente diferente. Algo
que as crianças e bebês são muito boas em fazer."
É
a nossa capacidade de adaptação que nos deixa um passo à frente da inteligência
artificial?
Desde
o nascimento, nosso cérebro se adapta e se molda ao ambiente de uma forma muito
eficiente.
"Nós
estamos muito, muito longe de computadores com capacidade de adaptação, creio
eu. Talvez a gente descubra como isso pode ocorrer", afirma Ossmy.
"As
experiências (desses algoritmos) são bem menos flexíveis, tem menos variação
comparado ao que vivem as crianças e bebês, que precisam se adaptar a um corpo
diferente todos os dias."
Mas
neurocientistas ainda não têm uma ideia muito clara de por que nosso cérebro
tem uma capacidade tão boa de adaptação. E até entendermos melhor como esse
processo funciona, computadores não conseguirão rivalizar com humanos.
E,
por sorte, o ChatGPT sabe das limitações de sua própria mente virtual.
"Eu
não consigo reproduzir toda a extensão da inteligência humana", responde o
programa.
O que é ChatGPT e por que alguns o veem
como ameaça
Em
30 de novembro passado, enquanto o mundo começava a entrar no clima de fim de
ano e tinha os olhos mais voltados para a Copa do Catar, estreava um programa
que logo foi considerado um passo adiante no progresso da inteligência
artificial: o ChatGPT.
Mas
as consequências para a humanidade de seu uso em larga escala ainda precisam
ser totalmente compreendidas.
O
salto evolutivo desse novo sistema está no poder de gerar conteúdo de forma
bastante coerente e também por conseguir "soar mais humano".
Apesar
de erros e falhas ainda existentes, a capacidade já demonstrada pelo programa —
e seu potencial de se desenvolver ainda mais a longo prazo — vem provocando não
só admiração, mas também alguns temores.
Basta
observar a quantidade de análises que associam o ChatGPT à palavra
"ameaça". Muitos acham que o programa parece convincente demais ao
mimetizar o discurso de um ser humano e anteveem problemas.
São
questionamentos sobre a possibilidade de forte ruptura em áreas como
criatividade, aprendizado e educação, trabalho, segurança digital — e a própria
democracia, como afirmou um artigo recente no jornal The New York Times.
Segundo
os autores, o que antes era uma pessoa expressando sua opinião política agora
pode ser apenas um robô que gera artificialmente um argumento.
• O que é o programa?
O
ChatGPT é, basicamente, um robô virtual (chatbot) que responde a perguntas
variadas, realiza tarefas por escrito, conversa de maneira fluida e inclusive
dá conselhos sobre problemas pessoais (embora haja a advertência de que não
possui esse objetivo e que as orientações passadas são genéricas. Mas ele quase
sempre atende o usuário em busca de aconselhamento).
As
possibilidades de geração de conteúdo são imensas.
Ele
pode, por exemplo, ensinar a preparar um estrogonofe — e com um toque diferente
na receita, se você especificar —, dar dicas para conseguir uma vaga de
trabalho, escrever poesia, trabalhos acadêmicos ou um modelo de procuração
judicial e também redigir uma carta de reconciliação para um amigo de quem você
se distanciou.
O
ChatGPT atende em questão de segundos um pedido aleatório como "escreva um
poema sobre inteligência artificial no estilo de Carlos Drummond de
Andrade" — a qualidade do resultado, a depender do crítico, pode ser
bastante discutível.
Segundo
testes do site SEO.ai, o ChatGPT está disponível em quase 100 línguas
(incluindo português do Brasil), mas a performance do modelo varia conforme o
idioma (funciona melhor em inglês).
O
sistema foi desenvolvido pela OpenAI, empresa fundada em 2015 nos EUA por Sam
Altman (hoje sua principal figura) e pelo onipresente Elon Musk (que se
desligou dela em 2018 por considerar que havia conflito de interesse com o seu
principal empreendimento, a companhia automotiva Tesla).
Cinco
dias após seu lançamento, o ChatGPT chegou a mais de 1 milhão de usuários (que,
ironicamente, precisam ser humanos; você precisa provar que não é um robô ao
logar). Essas interações estão sendo utilizadas para treinar e desenvolver o
modelo.
A
OpenAI diz que o uso será gratuito e aberto a todos durante essa etapa de
"teste e pesquisa" — levando especialistas a especular sobre futuros
tipos de monetização da ferramenta.
A
companhia também adverte que, nesse período, o software "pode
ocasionalmente gerar informações incorretas ou enganosas" e que seu
histórico de dados está limitado a 2021.
Apesar
de ter sido apontado como uma possível ameaça à hegemonia do Google como
facilitador de informações na internet, o sistema ainda comete erros crassos,
como dizer que o Brasil já ganhou ao menos cinco prêmios no Oscar (na verdade,
o país nunca levou uma estatueta).
• Por que o ChatGPT é considerado um
avanço para a IA?
Programas
poderosos de inteligência artificial baseados em texto funcionam armazenando
quantidades gigantescas de dados (com ênfase em palavras e conversas nesse
caso) e com algoritmos para prever o melhor encadeamento de uma frase. São
chamados de grandes modelos de linguagem (LLM, na sigla em inglês).
O
professor da Unifesp Álvaro Machado Dias, futurista e neurocientista, explica
que no treinamento de um software são feitas perguntas para o chatbot como
"o que é um cilindro?" e técnicos elaboram as próprias respostas.
"Caso
a resposta do chatbot não seja correta, são inseridas as corretas no sistema
para ensiná-lo. Isso é repassado para outras situações automaticamente."
Apesar
de já usarem uma modalidade que consegue depreender o contexto de uso das
palavras, permitindo textos mais bem concatenados, programas anteriores não
respondiam tão bem ao usuário ou ainda soavam muito artificiais. O ChatGPT
aprendeu a conversar de uma forma mais próxima de um humano.
Machado
Dias diz que o diferencial desse programa é o emprego de uma técnica que
entende como a linguagem funciona: o reforço de aprendizado por feedback humano
(RLHF, na sigla em inglês).
Engenheiros
aplicam métodos de "recompensa" e "punição" para ensinar ao
sistema as formas mais desejáveis de interação. É um processo de sintonia fina.
"Na
prática, os engenheiros ordenam as respostas dadas pelo algoritmo de acordo com
a sua relevância e estimulam o programa a aprender as preferências listadas na
ordenação para aumentar a relevância das produções textuais. O resultado é dado
na forma de textos que parecem mais profundos e significativos do que os das
alternativas", diz o professor da Unifesp.
O
ChatGPT foi também treinado para admitir erros, contestar premissas incorretas
e rejeitar pedidos inapropriados.
Mas
um professor da Universidade da Califórnia conseguiu que o sistema escrevesse
um código de programação para dizer que apenas homens brancos ou asiáticos
formam bons cientistas.
A
OpenAI afirma que embora tenha feito esforços nesse sentido, o programa
"às vezes vai responder a instruções problemáticas ou exibir comportamento
enviesado".
Segundo
a empresa, os dados coletados nessa etapa de testes vão servir para melhorar o
sistema.
• É uma ameaça ao aprendizado e à
criatividade?
A
ameaça de disrupção já paira sobre trabalho e emprego. Campos que dependem do
texto, como o jornalismo, poderão ser largamente modificados — e vagas poderão
sumir para sempre.
A
competência do ChatGPT em gerar códigos também já provoca questionamentos em um
setor relativamente novo, a programação.
Mas
uma das áreas que vem percebendo desde já o potencial de problemas do ChatGPT é
justamente uma das mais afetadas pela chegada de novas tecnologias: a educação.
A
tentação entre estudantes de usar o programa para encontrar respostas prontas
para suas tarefas levou Nova York a tomar uma decisão rápida: apenas um mês
após sua estreia, o sistema foi proibido nas escolas e dispositivos da rede
pública da cidade americana.
A
OpenAI vem trabalhando em uma espécie de marca d'água digital que identifique o
conteúdo originado no ChatGPT. Já existem algoritmos que calculam com boa precisão
a probabilidade de um texto ter sido feito por um chatbot.
Além
do "copiar e colar", há o temor de impactos estruturais no
aprendizado humano. Por exemplo, o exercício cognitivo de escrever uma redação
com começo, meio e fim, concatenando ideias de forma coesa, será afetado?
"Ando
bastante preocupado com a algoritmização do pensamento, que é a alteração do
nosso entendimento e relacionamento com o mundo em função da interação com a
IA", diz Machado Dias, da Unifesp.
"Acredito
que esta será a maior mudança de mentalidade de toda a história moderna. Vale
notar que o cérebro humano vem reduzindo lentamente de tamanho, em função do
desenvolvimento tecnológico, há mais de mil anos. Este processo deve se
acelerar. Assim, iremos nos tornar cada vez mais sofisticados do ponto de vista
técnico-cultural, mas também mais limitados do ponto de vista
neurocognitivo."
Martha
Gabriel, autora do livro Inteligência Artificial: do Zero ao Metaverso e
professora da PUC-RS e SP, afirma que será necessário se adaptar aos novos
tempos:
"Quando
uma tecnologia passa a fazer algo melhor que um humano, não adianta querer
concorrer com ela nisso. A partir desse momento, as habilidades humanas que
passam a ter valor são: saber usar aquela tecnologia no seu máximo potencial e
fazer aquilo que a tecnologia não faz".
"O
que faz a diferença nesse contexto não são mais as respostas, mas as perguntas.
Tem que saber perguntar. Para saber perguntar tem que saber pensar
criticamente", diz.
Para
Yuri Lima, pesquisador do Laboratório do Futuro da Universidade Federal do Rio
de Janeiro (UFRJ), "o próprio ensino precisa ser adaptado para estimular a
aprendizagem que reconheça os alunos como ciborgues cada vez mais integrados às
novas tecnologias".
"Isso
exige que os professores também saibam utilizar essas mesmas tecnologias e
integrá-las nas suas atividades. A partir do momento em que os projetos,
atividades e deveres de casa se tornarem mais complexos e integrados ao
universo atual no qual os alunos existem, a motivação deixa de ser afetada por essa
questão tecnológica."
Outra
questão gira em torno do futuro da criatividade humana e da produção de
conteúdo que não seja baseada em inteligência artificial.
Dez
dias depois da chegada do sistema da OpenAI, um designer em San Francisco (EUA)
conseguiu criar em apenas um fim de semana um livro infantil com texto e
ilustrações feitos com ChatGPT e MidJourney, um programa que produz imagens ao
fornecer descrições.
"Um
ponto importante ainda a ser tratado é a questão do plágio. A partir do momento
em que o treinamento de modelos como o ChatGPT se baseia em textos disponíveis
na internet como notícias, livros e blogs, as suas respostas podem trazer
ideias publicadas por certas pessoas sem que essas recebam crédito por
isso", afirma Lima.
"Em
áreas criativas, esse reconhecimento dos autores é considerado importante. Além
disso, não conhecer as fontes dificulta o reconhecimento de vieses ou até mesmo
de mentiras, como em notícias falsas."
Machado
Dias aponta que "a criatividade emerge de combinações simultaneamente
insólitas e relevantes. Como algoritmos são dispositivos de geração de
combinações, é esperado que o impulso criativo seja dirimido".
"Por
outro lado, conforme algoritmos desempenham suas tarefas, tendem a gerar
padrões que sequer imaginávamos como possíveis, expandindo nosso entendimento
combinatório, ou seja, nossa criatividade."
Martha
Gabriel vai em uma linha semelhante: "A tecnologia pode ser uma ferramenta
incrível para amplificar o nosso pensamento, pois conseguimos em pouco tempo
testar inúmeras hipóteses, formatos, soluções para refinar nossas hipóteses e
melhorar nossas perguntas".
"No
entanto, isso pode também ser uma ameaça muito grande para aqueles que usam
esses sistemas cegamente, sem crítica ou questionamentos de moral e ética. Isso
não é apenas um risco individual, mas para toda a humanidade."
Fonte:
BBC Ciencias
Nenhum comentário:
Postar um comentário