sexta-feira, 31 de março de 2023

Inteligência artificial: o alerta de mil especialistas sobre 'risco para a humanidade'

Um grupo de especialistas em inteligência artificial e executivos da indústria de tecnologia pediu uma pausa de seis meses no treinamento de poderosos sistemas de inteligência artificial, argumentando que eles representam uma potencial ameaça à humanidade.

Em carta aberta, eles alegam que os laboratórios que trabalham com essa tecnologia estão em "uma corrida fora de controle para desenvolver e implementar mentes digitais cada vez mais poderosas que ninguém, nem mesmo seus criadores, pode entender, prever ou controlar com segurança".

A declaração foi assinada por mais de mil pessoas, incluindo o empresário Elon Musk, o cofundador da Apple, Steve Wozniak, e o CEO da Stability AI, Emad Mostaque, além de pesquisadores da DeepMind.

Na carta, eles pedem que as empresas que desenvolvem esse tipo de programa "pausem imediatamente, por pelo menos seis meses, o treinamento de sistemas de inteligência artificial mais poderosos que o GPT-4".

O GPT-4 é a versão mais avançada do ChatGPT, um dos sistemas de inteligência artificial mais poderosos do mundo, desenvolvido pela empresa OpenAI.

Tanto o GPT-4 quanto o ChatGPT são um tipo de inteligência artificial generativa, ou seja, usam algoritmos e texto preditivo para criar novos conteúdos com base em instruções.

"Esta pausa deve ser pública e verificável, e incluir todos os principais atores. Se essa pausa não puder ser implementada rapidamente, os governos devem intervir e instituir uma suspensão", acrescenta o texto.

Emitido pelo Instituto sem fins lucrativos Future of Life, que conta com Elon Musk entre seus consultores externos, o comunicado adverte que esses sistemas podem representar "riscos profundos para a sociedade e a humanidade".

O instituto argumenta que poderosos sistemas de inteligência artificial podem gerar desinformação e substituir empregos por automação.

•        '300 milhões de empregos' podem desaparecer

Um relatório recente do banco de investimentos Goldman Sachs diz que a inteligência artificial poderia substituir o equivalente a 300 milhões de empregos em tempo integral.

Esta tecnologia pode substituir um quarto das tarefas laborais nos EUA e na Europa, acrescenta, mas também pode gerar novos postos de trabalho que não existiam até agora e acarretar em um aumento da produtividade.

Especialistas ouvidos pela BBC dizem que por ora é muito difícil prever o efeito que essa tecnologia terá no mercado de trabalho.

•        Devemos criar mentes não humanas?

A carta assinada pelos especialistas faz a seguinte pergunta: "Devemos criar mentes não humanas que possam eventualmente nos superar, ser mais inteligentes, nos tornar obsoletos e nos substituir?"

Em um post recente citado na carta, a OpenAI, empresa por trás do GPT-4 (um dos sistemas de linguagem usados pelo ChatGPT), também alertou sobre os potenciais riscos da tecnologia.

"A superinteligência desalinhada pode causar sérios danos ao mundo; um regime autocrático com superinteligência decisiva também pode fazer isso", escreveu a empresa em um blog.

A OpenAI não comentou publicamente a carta.

Elon Musk foi cofundador da OpenAI, embora tenha renunciado ao conselho de administração da organização há alguns anos e postado mensagens críticas no Twitter sobre a direção da empresa.

Os recursos de direção autônoma desenvolvidos por sua montadora Tesla, como a maioria dos outros sistemas similares, usam tecnologia de inteligência artificial.

Recentemente, várias propostas de regulamentação de tecnologia foram apresentadas nos EUA, no Reino Unido e na União Europeia. No entanto, o Reino Unido descartou a criação de um órgão regulador dedicado à inteligência artificial.

 

       ChatGPT: por que humanos ainda são mais inteligentes que máquinas

 

Você provavelmente já usou. E definitivamente já ouviu falar dele. O ChatGPT tem sido apontado como um programa que muda as regras do jogo.

Ele pode escrever canções. Explicar física quântica. E dizer como eu posso aumentar a minha inteligência.

No entanto, diferente dos humanos, não são muito bons em relação à capacidade de se adaptar, segundo especialistas (leia mais abaixo).

O Google já lançou um rival para o ChatGPT, o Bard. E, nesta semana, figuras importantes da inteligência artificial assinaram uma carta em que defendem uma suspensão por ao menos seis meses do desenvolvimento de sistemas de inteligência artificial (IA) mais poderosos. Eles citam riscos e perigos para humanidade e dizem que a corrida para a evolução desses programas está fora de controle.

A OpenAI, a empresa por trás do ChatGPT, lançou recentemente o GPT-4, uma versão ainda mais avançada do sistema que impressionou os observadores.

Computadores parecem estar rapidamente superando seus criadores. Mas isso é realmente verdade?

Ori Ossmy, pesquisador do Centro Cerebral e Desenvolvimento Cognitivo da Birkbeck, Universidade de Londres, diz que "o sistema tem algoritmos muito sofisticados, mas o que basicamente eles fazem é coletar muita informação da internet e dessa forma conseguem atender diferentes perguntas e solicitações".

"Mas eles não são muito bons em relação à capacidade de se adaptar. Não são muito bons em aprender uma determinada coisa dentro de alguns cenários, alguns ambientes, e depois aplicar [essa experiência] em um ambiente diferente. Algo que as crianças e bebês são muito boas em fazer."

É a nossa capacidade de adaptação que nos deixa um passo à frente da inteligência artificial?

Desde o nascimento, nosso cérebro se adapta e se molda ao ambiente de uma forma muito eficiente.

"Nós estamos muito, muito longe de computadores com capacidade de adaptação, creio eu. Talvez a gente descubra como isso pode ocorrer", afirma Ossmy.

"As experiências (desses algoritmos) são bem menos flexíveis, tem menos variação comparado ao que vivem as crianças e bebês, que precisam se adaptar a um corpo diferente todos os dias."

Mas neurocientistas ainda não têm uma ideia muito clara de por que nosso cérebro tem uma capacidade tão boa de adaptação. E até entendermos melhor como esse processo funciona, computadores não conseguirão rivalizar com humanos.

E, por sorte, o ChatGPT sabe das limitações de sua própria mente virtual.

"Eu não consigo reproduzir toda a extensão da inteligência humana", responde o programa.

 

       O que é ChatGPT e por que alguns o veem como ameaça

 

Em 30 de novembro passado, enquanto o mundo começava a entrar no clima de fim de ano e tinha os olhos mais voltados para a Copa do Catar, estreava um programa que logo foi considerado um passo adiante no progresso da inteligência artificial: o ChatGPT.

Mas as consequências para a humanidade de seu uso em larga escala ainda precisam ser totalmente compreendidas.

O salto evolutivo desse novo sistema está no poder de gerar conteúdo de forma bastante coerente e também por conseguir "soar mais humano".

Apesar de erros e falhas ainda existentes, a capacidade já demonstrada pelo programa — e seu potencial de se desenvolver ainda mais a longo prazo — vem provocando não só admiração, mas também alguns temores.

Basta observar a quantidade de análises que associam o ChatGPT à palavra "ameaça". Muitos acham que o programa parece convincente demais ao mimetizar o discurso de um ser humano e anteveem problemas.

São questionamentos sobre a possibilidade de forte ruptura em áreas como criatividade, aprendizado e educação, trabalho, segurança digital — e a própria democracia, como afirmou um artigo recente no jornal The New York Times.

Segundo os autores, o que antes era uma pessoa expressando sua opinião política agora pode ser apenas um robô que gera artificialmente um argumento.

•        O que é o programa?

O ChatGPT é, basicamente, um robô virtual (chatbot) que responde a perguntas variadas, realiza tarefas por escrito, conversa de maneira fluida e inclusive dá conselhos sobre problemas pessoais (embora haja a advertência de que não possui esse objetivo e que as orientações passadas são genéricas. Mas ele quase sempre atende o usuário em busca de aconselhamento).

As possibilidades de geração de conteúdo são imensas.

Ele pode, por exemplo, ensinar a preparar um estrogonofe — e com um toque diferente na receita, se você especificar —, dar dicas para conseguir uma vaga de trabalho, escrever poesia, trabalhos acadêmicos ou um modelo de procuração judicial e também redigir uma carta de reconciliação para um amigo de quem você se distanciou.

O ChatGPT atende em questão de segundos um pedido aleatório como "escreva um poema sobre inteligência artificial no estilo de Carlos Drummond de Andrade" — a qualidade do resultado, a depender do crítico, pode ser bastante discutível.

Segundo testes do site SEO.ai, o ChatGPT está disponível em quase 100 línguas (incluindo português do Brasil), mas a performance do modelo varia conforme o idioma (funciona melhor em inglês).

O sistema foi desenvolvido pela OpenAI, empresa fundada em 2015 nos EUA por Sam Altman (hoje sua principal figura) e pelo onipresente Elon Musk (que se desligou dela em 2018 por considerar que havia conflito de interesse com o seu principal empreendimento, a companhia automotiva Tesla).

Cinco dias após seu lançamento, o ChatGPT chegou a mais de 1 milhão de usuários (que, ironicamente, precisam ser humanos; você precisa provar que não é um robô ao logar). Essas interações estão sendo utilizadas para treinar e desenvolver o modelo.

A OpenAI diz que o uso será gratuito e aberto a todos durante essa etapa de "teste e pesquisa" — levando especialistas a especular sobre futuros tipos de monetização da ferramenta.

A companhia também adverte que, nesse período, o software "pode ocasionalmente gerar informações incorretas ou enganosas" e que seu histórico de dados está limitado a 2021.

Apesar de ter sido apontado como uma possível ameaça à hegemonia do Google como facilitador de informações na internet, o sistema ainda comete erros crassos, como dizer que o Brasil já ganhou ao menos cinco prêmios no Oscar (na verdade, o país nunca levou uma estatueta).

•        Por que o ChatGPT é considerado um avanço para a IA?

Programas poderosos de inteligência artificial baseados em texto funcionam armazenando quantidades gigantescas de dados (com ênfase em palavras e conversas nesse caso) e com algoritmos para prever o melhor encadeamento de uma frase. São chamados de grandes modelos de linguagem (LLM, na sigla em inglês).

O professor da Unifesp Álvaro Machado Dias, futurista e neurocientista, explica que no treinamento de um software são feitas perguntas para o chatbot como "o que é um cilindro?" e técnicos elaboram as próprias respostas.

"Caso a resposta do chatbot não seja correta, são inseridas as corretas no sistema para ensiná-lo. Isso é repassado para outras situações automaticamente."

Apesar de já usarem uma modalidade que consegue depreender o contexto de uso das palavras, permitindo textos mais bem concatenados, programas anteriores não respondiam tão bem ao usuário ou ainda soavam muito artificiais. O ChatGPT aprendeu a conversar de uma forma mais próxima de um humano.

Machado Dias diz que o diferencial desse programa é o emprego de uma técnica que entende como a linguagem funciona: o reforço de aprendizado por feedback humano (RLHF, na sigla em inglês).

Engenheiros aplicam métodos de "recompensa" e "punição" para ensinar ao sistema as formas mais desejáveis de interação. É um processo de sintonia fina.

"Na prática, os engenheiros ordenam as respostas dadas pelo algoritmo de acordo com a sua relevância e estimulam o programa a aprender as preferências listadas na ordenação para aumentar a relevância das produções textuais. O resultado é dado na forma de textos que parecem mais profundos e significativos do que os das alternativas", diz o professor da Unifesp.

O ChatGPT foi também treinado para admitir erros, contestar premissas incorretas e rejeitar pedidos inapropriados.

Mas um professor da Universidade da Califórnia conseguiu que o sistema escrevesse um código de programação para dizer que apenas homens brancos ou asiáticos formam bons cientistas.

A OpenAI afirma que embora tenha feito esforços nesse sentido, o programa "às vezes vai responder a instruções problemáticas ou exibir comportamento enviesado".

Segundo a empresa, os dados coletados nessa etapa de testes vão servir para melhorar o sistema.

•        É uma ameaça ao aprendizado e à criatividade?

A ameaça de disrupção já paira sobre trabalho e emprego. Campos que dependem do texto, como o jornalismo, poderão ser largamente modificados — e vagas poderão sumir para sempre.

A competência do ChatGPT em gerar códigos também já provoca questionamentos em um setor relativamente novo, a programação.

Mas uma das áreas que vem percebendo desde já o potencial de problemas do ChatGPT é justamente uma das mais afetadas pela chegada de novas tecnologias: a educação.

A tentação entre estudantes de usar o programa para encontrar respostas prontas para suas tarefas levou Nova York a tomar uma decisão rápida: apenas um mês após sua estreia, o sistema foi proibido nas escolas e dispositivos da rede pública da cidade americana.

A OpenAI vem trabalhando em uma espécie de marca d'água digital que identifique o conteúdo originado no ChatGPT. Já existem algoritmos que calculam com boa precisão a probabilidade de um texto ter sido feito por um chatbot.

Além do "copiar e colar", há o temor de impactos estruturais no aprendizado humano. Por exemplo, o exercício cognitivo de escrever uma redação com começo, meio e fim, concatenando ideias de forma coesa, será afetado?

"Ando bastante preocupado com a algoritmização do pensamento, que é a alteração do nosso entendimento e relacionamento com o mundo em função da interação com a IA", diz Machado Dias, da Unifesp.

"Acredito que esta será a maior mudança de mentalidade de toda a história moderna. Vale notar que o cérebro humano vem reduzindo lentamente de tamanho, em função do desenvolvimento tecnológico, há mais de mil anos. Este processo deve se acelerar. Assim, iremos nos tornar cada vez mais sofisticados do ponto de vista técnico-cultural, mas também mais limitados do ponto de vista neurocognitivo."

Martha Gabriel, autora do livro Inteligência Artificial: do Zero ao Metaverso e professora da PUC-RS e SP, afirma que será necessário se adaptar aos novos tempos:

"Quando uma tecnologia passa a fazer algo melhor que um humano, não adianta querer concorrer com ela nisso. A partir desse momento, as habilidades humanas que passam a ter valor são: saber usar aquela tecnologia no seu máximo potencial e fazer aquilo que a tecnologia não faz".

"O que faz a diferença nesse contexto não são mais as respostas, mas as perguntas. Tem que saber perguntar. Para saber perguntar tem que saber pensar criticamente", diz.

Para Yuri Lima, pesquisador do Laboratório do Futuro da Universidade Federal do Rio de Janeiro (UFRJ), "o próprio ensino precisa ser adaptado para estimular a aprendizagem que reconheça os alunos como ciborgues cada vez mais integrados às novas tecnologias".

"Isso exige que os professores também saibam utilizar essas mesmas tecnologias e integrá-las nas suas atividades. A partir do momento em que os projetos, atividades e deveres de casa se tornarem mais complexos e integrados ao universo atual no qual os alunos existem, a motivação deixa de ser afetada por essa questão tecnológica."

Outra questão gira em torno do futuro da criatividade humana e da produção de conteúdo que não seja baseada em inteligência artificial.

Dez dias depois da chegada do sistema da OpenAI, um designer em San Francisco (EUA) conseguiu criar em apenas um fim de semana um livro infantil com texto e ilustrações feitos com ChatGPT e MidJourney, um programa que produz imagens ao fornecer descrições.

"Um ponto importante ainda a ser tratado é a questão do plágio. A partir do momento em que o treinamento de modelos como o ChatGPT se baseia em textos disponíveis na internet como notícias, livros e blogs, as suas respostas podem trazer ideias publicadas por certas pessoas sem que essas recebam crédito por isso", afirma Lima.

"Em áreas criativas, esse reconhecimento dos autores é considerado importante. Além disso, não conhecer as fontes dificulta o reconhecimento de vieses ou até mesmo de mentiras, como em notícias falsas."

Machado Dias aponta que "a criatividade emerge de combinações simultaneamente insólitas e relevantes. Como algoritmos são dispositivos de geração de combinações, é esperado que o impulso criativo seja dirimido".

"Por outro lado, conforme algoritmos desempenham suas tarefas, tendem a gerar padrões que sequer imaginávamos como possíveis, expandindo nosso entendimento combinatório, ou seja, nossa criatividade."

Martha Gabriel vai em uma linha semelhante: "A tecnologia pode ser uma ferramenta incrível para amplificar o nosso pensamento, pois conseguimos em pouco tempo testar inúmeras hipóteses, formatos, soluções para refinar nossas hipóteses e melhorar nossas perguntas".

"No entanto, isso pode também ser uma ameaça muito grande para aqueles que usam esses sistemas cegamente, sem crítica ou questionamentos de moral e ética. Isso não é apenas um risco individual, mas para toda a humanidade."

 

Fonte: BBC Ciencias

 

Nenhum comentário:

Postar um comentário