terça-feira, 13 de maio de 2025

As pessoas que se recusam a usar IA

Nada convence Sabine Zetteler que existe valor em usar inteligência artificial.

"Recentemente, li uma frase ótima que dizia algo como: 'por que eu me daria ao trabalho de ler algo que alguém não se deu ao trabalho de escrever?', e isso reflete exatamente o que eu penso sobre esse assunto.

Zetteler tem uma agência de comunicação em Londres, com cerca de 10 funcionários, alguns em tempo integral e outros em meio período. E questiona:

"Qual o sentido de enviar algo que você não escreveu, ler um jornal escrito por robôs, ouvir uma música criada por IA, ou ganhar um pouco mais de dinheiro substituindo um funcionário que tem quatro filhos pela tecnologia?"

"Onde está a alegria, amor ou até mesmo aspiração por algo melhor, nem que seja só para mim, como fundadora? Isso não significa nada para mim", afirma.

<><> Impacto ambiental

Zetteler está entre as pessoas que resistem à "invasão" da inteligência artificial, que ganhou força no fim de 2022, com o lançamento do ChatGPT.

Desde então, a ferramenta, assim como suas concorrentes, têm se tornado extremamente populares. Segundo o software Semrush, o ChatGPT recebe mais de cinco bilhões de visitas ao mês.

Mas treinar sistemas de inteligência artificial como o ChatGPT requer uma grande quantidade de energia. E, uma vez treinados, mantê-los funcionando também um alto consumo energético.

Embora seja difícil quantificar a eletricidade usada pela IA, um relatório do banco Goldman Sachs estimou que uma pesquisa feita no ChatGPT usa aproximadamente 10 vezes mais energia do que uma pesquisa feita no Google.

Esses dados deixam algumas pessoas desconfortáveis.

Para Florence Achery, proprietária de um espaço de Yoga em Londres, o impacto ambiental é um dos motivos pelos quais ela quer ficar longe da inteligência artificial.

"Minha reação inicial foi que a IA é algo sem alma e contradiz totalmente o meu negócio, que é sobre conexão humana", disse Achery.

"Mas depois eu descobri que o impacto ambiental é terrível com a quantidade de consumo energético necessário para manter os centros de dados funcionando. Eu não acho que as pessoas têm ciência disso."

Apesar de Zetteler dizer que respeita a inteligência artificial pelo bem social que ela é capaz de gerar, ela admite estar preocupada com o impacto mais amplo na sociedade.

"Eu fico feliz que a IA exista para pessoas cegas, pois ela consegue traduzir artigos e isso é muito benéfico. Mas, no geral, eu não acredito que teremos um benefício a longo prazo."

Questionada se fica preocupada com o efeito indireto que a IA pode ter em sua empresa, principalmente com as concorrentes usando as ferramentas, Zetteler respondeu:

"Assim como todo mundo, eu poderia economizar dinheiro mandando pessoas da minha agência para Milão em voos da EasyJet (companhia aérea de baixo custo) em vez de trem", afirma.

"Se o sucesso se mede pela margem de lucro, eu diria que o meu negócio é pouco bem-sucedido. Mas e se o sucesso for medido pelo quanto você contribui para a sociedade e consegue colocar a cabeça no travesseiro e dormir em paz?"

<><> Perda de habilidades

Sierra Hansen, que mora em Seattle e trabalha com relações institucionais, também se recusa a usar inteligência artificial. Para ela, a preocupação é com o impacto desses sistemas na habilidade do ser humano de resolver problemas.

"É o nosso cérebro que organiza a nossa rotina, e não um sistema de IA que te diz como gerenciar a programação da semana", destacou.

"Nosso papel como seres humanos é usar o pensamento crítico. Se você está pedindo ao ChatGPT para executar tarefas simples, você não está resolvendo problemas por conta própria. Ele está 'pensando' por você. Se eu quiser ouvir música, eu não preciso que a IA crie um álbum perfeito de punk rock para mim."

Mas nem todo mundo pode se dar ao luxo de não usar inteligência artificial.

Jackie Adams (nome fictício), que trabalha com marketing digital, inicialmente resistiu ao uso da IA pelo impacto ambiental e por achar que usar esses sistemas fosse um comportamento preguiçoso.

"Eu soube da quantidade de energia necessária para manter os centros de dados e o tanto de terra que eles ocupam, e aquilo não pareceu certo para mim. Eu não entendia porque nós precisávamos disso", disse.

Contudo, há cerca de um ano, três de suas colegas de trabalho começaram a usar IA para realizar tarefas como copywriting e geração de ideias.

Seis meses depois, Adams foi obrigada a fazer o mesmo, depois de ser avisada que precisava reduzir seu orçamento.

"Fico fora do meu controle", disse. Ela acredita que se tivesse resistido, poderia prejudicar a própria carreira.

"Comecei a usar mais depois que vi descrições de vagas de emprego pedindo por experiência com IA. Eu percebi que se eu não implementasse isso nos meus dias de trabalho, eu ficaria para trás."

Hoje, segundo Adams, ela não vê mais o uso de IA como preguiça.

"Ela pode melhorar meu trabalho", acrescentando que utiliza ferramentas para refinar o trabalho de copywriting e editar fotos.

<><> 'Momento de resistir à IA já passou'

Segundo James Brusseau, professor de filosofia e especialista em ética da inteligência artificial na Pace University, em Nova York, o momento de resistir à IA já passou.

"Se quisermos saber porque uma decisão foi tomada, nós vamos precisar de humanos. Se isso não importar, então provavelmente vamos usar IA", disse.

"Assim, teremos juízes humanos para casos criminais e médicos humanos para decidir quem deve receber um transplante. Mas previsões do tempo vão desaparecer logo, e a anestesiologia também", complementou o professor.

Adams tem usado IA no trabalho, mas ainda se preocupa com a crescente influência dessa tecnologia.

"Mesmo quando você faz uma pesquisa no Google, já aparece uma resposta feita por IA, e alguns emails já vem com um um resumo no topo. Sinto como se não tivéssemos mais controle. Como eu desligo tudo isso? Está virando uma bola de neve."

•        Por que especialistas dizem que inteligência artificial pode levar à extinção da humanidade

A inteligência artificial (IA) pode levar a humanidade à extinção, alertaram especialistas — incluindo os chefes da OpenAI e do Google Deepmind.

Dezenas apoiaram uma declaração publicada na página do Center for AI Safety (ou Centro de Segurança de Inteligência Artificial, em tradução livre), ong de pesquisa e desenvolvimento com sede em São Francisco, nos Estados Unidos.

"Mitigar o risco de extinção pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear", aponta a carta aberta.

Mas outros dizem que os medos são exagerados.

Sam Altman, executivo-chefe da OpenAI, fabricante do ChatGPT, Demis Hassabis, executivo-chefe do Google DeepMind e Dario Amodei, da Anthropic, apoiaram a declaração.

O texto do Center for AI Safety sugere uma série de possíveis cenários de desastre:

•        As IAs podem ser armadas — por exemplo, com ferramentas para descobrir drogas que podem ser usadas na construção de armas químicas;

•        A desinformação gerada pela IA pode desestabilizar a sociedade e "minar as tomadas de decisões coletivas";

•        O poder da IA pode se tornar cada vez mais concentrado em poucas mãos, permitindo que "regimes imponham valores restritos por meio de vigilância generalizada e censura opressiva";

•        Enfraquecimento, a partir do qual os humanos se tornam dependentes da IA, "num cenário semelhante ao retratado no filme Wall-E".

Geoffrey Hinton, que emitiu um alerta anterior sobre os riscos da IA superinteligente, também apoiou a carta do Center for AI Safety.

Yoshua Bengio, professor de Ciências da Computação na Universidade de Montreal, no Canadá, também assinou o manifesto.

Hinton, Bengio e o professor da Universidade de Nova York (NYU), Yann LeCunn, são frequentemente descritos como os "padrinhos da IA" pelo trabalho inovador que fizeram neste campo — e pelo qual ganharam juntos o Prêmio Turing de 2018, que reconhece contribuições excepcionais na ciência da computação.

Mas o professor LeCunn, que também trabalha na Meta, empresa dona do Facebook, disse que esses avisos apocalípticos são "exagerados" e que "a reação mais comum dos pesquisadores de IA a essas profecias de destruição é embaraçosa".

Muitos outros especialistas também acreditam que o medo de a IA acabar com a humanidade é irreal e uma distração de questões como preconceito em relação aos sistemas, que já são um problema.

Arvind Narayanan, um cientista da computação da Universidade de Princeton, nos EUA, disse à BBC que os cenários de desastre de ficção científica não são realistas.

"A IA atual não é nem de longe suficientemente capaz para que esses riscos se materializem. Como resultado, isso desvia a atenção dos danos de curto prazo da IA", avalia ele.

Elizabeth Renieris, pesquisadora sênior do Instituto de Ética em IA da Universidade Oxford, no Reino Unido, disse à BBC News que se preocupa com os riscos mais próximos.

"Os avanços na IA ampliarão a escala da tomada de decisão automatizada que é tendenciosa, discriminatória, excludente ou injusta. Ao mesmo tempo em que é inescrutável e incontestável", acredita ela.

Estes avanços "podem impulsionar um aumento exponencial no volume e na disseminação de desinformação, fraturando assim a realidade e corroendo a confiança do público, além de gerar mais desigualdade, principalmente para aqueles que permanecem do lado errado da divisão digital".

Muitas ferramentas de IA essencialmente "pegam carona" em "toda a experiência humana até o momento", destaca Renieris.

Várias dessas tecnologias são treinadas em conteúdo, texto, arte e música criados por humanos — e seus criadores "transferiram efetivamente uma tremenda riqueza e poder da esfera pública para um pequeno punhado de entidades privadas".

<><> Pausa solicitada

A cobertura da imprensa sobre a suposta ameaça "existencial" da IA aumentou desde março de 2023, quando especialistas, incluindo o dono da Tesla, Elon Musk, assinaram uma carta aberta pedindo a suspensão do desenvolvimento da próxima geração de tecnologia de IA.

Essa carta perguntava se deveríamos "desenvolver mentes não-humanas que eventualmente superassem em número, fossem mais espertas, nos tornassem obsoletos e nos substituíssem".

Em contraste, a nova carta divulgada por especialistas tem uma declaração muito curta, destinada a "abrir a discussão".

A declaração compara o risco ao representado pela guerra nuclear.

Em uma postagem no blog, a OpenAI sugeriu recentemente que a superinteligência pode ser regulada de maneira semelhante à energia nuclear.

"É provável que eventualmente precisemos de algo como uma AIEA (Agência Internacional de Energia Atômica) para os esforços de superinteligência", escreveu a empresa.

<><> Análises cuidadosas

Sam Altman e o executivo-chefe do Google, Sundar Pichai, estão entre os líderes de tecnologia que discutiram recentemente a regulamentação da IA com o primeiro-ministro inglês, Rishi Sunak.

Ao falar com repórteres sobre o último alerta sobre o risco de IA, Sunak enfatizou os benefícios da tecnologia para a economia e a sociedade.

"Você viu que recentemente a IA ajudou pessoas paralisadas a andar e descobriu novos antibióticos, mas precisamos garantir que isso seja feito de maneira segura e protegida", disse ele.

"É por isso que me encontrei na semana passada com CEOs de grandes empresas de IA para discutir quais são as barreiras que precisamos implementar e qual é o tipo de regulamentação que deve ser criada para nos manter seguros."

"As pessoas ficarão preocupadas com os relatos de que a IA representa riscos existenciais, como as pandemias ou as guerras nucleares. Mas quero que elas tenham certeza de que o governo está analisando isso com muito cuidado", concluiu.

Sunak disse que havia discutido a questão recentemente com outros líderes na cúpula do G7 no Japão e iria levá-lo novamente a representantes dos EUA em breve.

A cúpula de países mais ricos, inclusive, criou recentemente um grupo de trabalho sobre a IA.

 

Fonte: Por Suzanne Bearne e Chris Vallance, Repórteres de Tecnologia da BBC News

 

Nenhum comentário: