sexta-feira, 28 de novembro de 2025

Conheça os profissionais de IA que aconselham seus amigos e familiares a ficarem longe da IA

Quando as pessoas que criam inteligência artificial confiável são as que menos confiam nela, isso demonstra que os incentivos para a velocidade estão se sobrepondo à segurança, dizem os especialistas.

Pista Pawloski se lembra do momento decisivo que moldou sua opinião sobre a ética da inteligência artificial . Como trabalhadora de IA no Amazon Mechanical Turk – uma plataforma que permite às empresas contratar trabalhadores para realizar tarefas como inserir dados ou comparar uma solicitação de IA com sua resposta – Pawloski passa seu tempo moderando e avaliando a qualidade de textos, imagens e vídeos gerados por IA, além de verificar alguns fatos.

Há cerca de dois anos, enquanto trabalhava em casa, sentada à mesa da sala de jantar, ela começou a tarefa de classificar tweets como racistas ou não. Quando se deparou com um tweet que dizia "Escute aquele grilo-da-lua cantar", ela quase clicou no botão "não", mas decidiu verificar o significado da palavra "grilo-da-lua", que, para sua surpresa, era um termo racista usado contra afro-americanos.

"Fiquei ali sentado pensando em quantas vezes eu poderia ter cometido o mesmo erro sem me dar conta", disse Pawloski.

A dimensão potencial dos seus próprios erros e dos erros de milhares de outros trabalhadores como ela fez com que Pawloski entrasse em espiral. Quantos outros, sem saber, deixaram passar material ofensivo? Ou pior, optaram por permitir que isso acontecesse?

Após anos testemunhando o funcionamento interno dos modelos de IA, Pawloski decidiu não usar mais produtos de IA generativa pessoalmente e aconselhou sua família a ficar longe deles.

“É um não absoluto na minha casa”, disse Pawloski, referindo-se ao fato de não permitir que sua filha adolescente use ferramentas como o ChatGPT . E com as pessoas que conhece socialmente, ela as incentiva a perguntar à IA sobre algo em que tenham muito conhecimento, para que possam identificar seus erros e entender por si mesmas o quão falível a tecnologia é. Pawloski disse que, toda vez que vê um menu de novas tarefas para escolher no site Mechanical Turk, se pergunta se existe alguma maneira de o que está fazendo ser usado para prejudicar pessoas – e muitas vezes, diz ela, a resposta é sim.

Segundo um comunicado da Amazon , os trabalhadores podem escolher quais tarefas concluir a seu critério e revisar os detalhes de cada tarefa antes de aceitá-la. Os solicitantes definem as especificidades de cada tarefa, como tempo alocado, pagamento e nível de instruções, de acordo com a Amazon.

“O Amazon Mechanical Turk é um mercado que conecta empresas e pesquisadores, chamados de solicitantes, a trabalhadores para concluir tarefas online, como rotular imagens, responder a pesquisas, transcrever textos ou revisar resultados de IA”, disse Montana MacLachlan, porta-voz da Amazon.

Pawloski não está sozinho. Uma dúzia de avaliadores de IA , profissionais que verificam a precisão e a coerência das respostas de uma IA, disseram ao The Guardian que, após tomarem conhecimento do funcionamento de chatbots e geradores de imagens e de quão imprecisas podem ser suas respostas, começaram a aconselhar amigos e familiares a não usar IA generativa – ou pelo menos a tentar conscientizá-los sobre o uso cauteloso dessa tecnologia. Esses especialistas trabalham com diversos modelos de IA – Gemini, do Google, Grok, de Elon Musk, outros modelos populares e vários bots menores ou menos conhecidos.

Uma funcionária, avaliadora de IA no Google que analisa as respostas geradas pela ferramenta Visão Geral de IA da Busca do Google, disse que tenta usar IA o mínimo possível, ou até mesmo evitá-la completamente. A abordagem da empresa em relação às respostas geradas por IA para perguntas sobre saúde, em particular, a deixou apreensiva, disse ela, pedindo anonimato por medo de represálias profissionais. Ela relatou ter observado seus colegas avaliando respostas geradas por IA para assuntos médicos de forma acrítica e que foi incumbida de avaliar essas perguntas, apesar de não ter formação médica.

Em casa, ela proibiu sua filha de 10 anos de usar chatbots. "Ela precisa aprender a pensar criticamente primeiro, ou não conseguirá dizer se o resultado é bom", disse a avaliadora.

“As avaliações são apenas um dos muitos pontos de dados agregados que nos ajudam a medir o desempenho dos nossos sistemas, mas não afetam diretamente nossos algoritmos ou modelos”, afirma um comunicado do Google. “Também temos uma série de proteções robustas em vigor para garantir a apresentação de informações de alta qualidade em todos os nossos produtos.”

<><> Observadores de bots soam o alarme

Essas pessoas fazem parte de uma força de trabalho global de dezenas de milhares que ajudam os chatbots a soarem mais humanos. Ao verificar as respostas da IA, elas também se esforçam ao máximo para garantir que um chatbot não divulgue informações imprecisas ou prejudiciais.

No entanto, quando as pessoas que fazem a IA parecer confiável são justamente as que menos confiam nela, os especialistas acreditam que isso sinaliza um problema muito maior.

“Isso demonstra que provavelmente existem incentivos para lançar e escalar o produto em vez de priorizar uma validação lenta e cuidadosa, e que o feedback dos avaliadores está sendo ignorado”, disse Alex Mahadevan, diretor do MediaWise no Poynter, um programa de alfabetização midiática. “Portanto, isso significa que, quando virmos a versão final do chatbot, podemos esperar o mesmo tipo de erros que eles estão enfrentando. Isso não é um bom presságio para um público que está cada vez mais recorrendo a plataformas de ensino de mídia para obter notícias e informações.”

Trabalhadores de IA disseram desconfiar dos modelos com os quais trabalham devido à ênfase constante em prazos de entrega rápidos em detrimento da qualidade. Brook Hansen, uma trabalhadora de IA na Amazon Mechanical Turk, explicou que, embora não desconfie da IA generativa como conceito, também não confia nas empresas que desenvolvem e implementam essas ferramentas. Para ela, o ponto de virada mais importante foi perceber o quão pouco apoio as pessoas que treinam esses sistemas recebem.

“Espera-se que ajudemos a aprimorar o modelo, mas muitas vezes recebemos instruções vagas ou incompletas, treinamento mínimo e prazos irreais para concluir as tarefas”, disse Hansen, que trabalha com dados desde 2010 e participou do treinamento de alguns dos modelos de IA mais populares do Vale do Silício. “Se os trabalhadores não têm acesso às informações, aos recursos e ao tempo necessários, como os resultados podem ser seguros, precisos ou éticos? Para mim, essa discrepância entre o que se espera de nós e o que realmente nos é dado para realizar o trabalho é um sinal claro de que as empresas estão priorizando velocidade e lucro em detrimento da responsabilidade e da qualidade.”

Disseminar informações falsas em um tom confiante, em vez de não oferecer uma resposta quando não há nenhuma disponível, é uma falha grave da IA generativa, dizem especialistas. Uma auditoria dos 10 principais modelos de IA generativa, incluindo ChatGPT, Gemini e IA da Meta, realizada pela organização sem fins lucrativos de alfabetização midiática NewsGuard, revelou que as taxas de não resposta dos chatbots caíram de 31% em agosto de 2024 para 0% em agosto de 2025. Ao mesmo tempo, a probabilidade de os chatbots repetirem informações falsas quase dobrou, passando de 18% para 35% , constatou a NewsGuard. Nenhuma das empresas respondeu ao pedido de comentário da NewsGuard na época.

“Eu não confiaria em nenhum fato apresentado [pelo bot] sem verificá-lo pessoalmente – simplesmente não é confiável”, disse outra avaliadora da IA do Google, que pediu anonimato devido a um acordo de confidencialidade assinado com a empresa contratada. Ela alerta as pessoas sobre o uso da ferramenta e ecoou a opinião de outro avaliador sobre pessoas com conhecimento superficial serem incumbidas de responder a perguntas médicas e também a questões éticas delicadas. “Este não é um robô ético. É apenas um robô.”

“Brincamos que [os chatbots] seriam ótimos se conseguíssemos fazê-los parar de mentir”, disse um tutor de IA que trabalhou com Gemini, ChatGPT e Grok, solicitando anonimato por ter assinado acordos de confidencialidade.

<><> "Lixo entra, lixo sai"

Outro avaliador de IA, que começou sua jornada avaliando respostas para os produtos do Google no início de 2024, começou a sentir que não podia confiar na IA cerca de seis meses depois de iniciar o trabalho. Ele foi encarregado de desafiar o modelo – o que significava que ele tinha que fazer várias perguntas à IA do Google que expusessem suas limitações ou pontos fracos. Com formação em história, esse profissional fez perguntas históricas ao modelo para a tarefa.

“Perguntei sobre a história do povo palestino e não obtive resposta, não importa como reformulasse a pergunta”, recordou o funcionário, que pediu anonimato após assinar um acordo de confidencialidade. “Quando perguntei sobre a história de Israel, não houve problema algum em me fornecer um resumo bastante extenso. Reportamos o ocorrido, mas ninguém no Google pareceu se importar.” Questionado especificamente sobre a situação descrita pelo usuário, o Google não emitiu nenhum comunicado.

Para este funcionário do Google, a maior preocupação com o treinamento de IA é o feedback dado aos modelos por avaliadores como ele. "Depois de ver a péssima qualidade dos dados usados para supostamente treinar o modelo, eu sabia que não havia a menor chance de ele ser treinado corretamente daquela forma", disse ele. Ele usou a expressão "lixo entra, lixo sai", um princípio da programação que explica que, se você alimentar um sistema técnico com dados ruins ou incompletos, a saída também terá as mesmas falhas.

O avaliador evita usar IA generativa e também "aconselhou todos os meus familiares e amigos a não comprarem celulares mais novos com IA integrada, a resistirem, se possível, às atualizações automáticas que adicionam IA e a não contarem nada pessoal para a IA", disse ele.

<><> Frágil, não futurista

Sempre que o tema da IA surge em uma conversa informal, Hansen lembra às pessoas que a IA não é mágica – explicando o exército de trabalhadores invisíveis por trás dela, a falta de confiabilidade das informações e o quão prejudicial ela é para o meio ambiente .

“Depois de ver como esses sistemas são improvisados – os vieses, os prazos apertados, os compromissos constantes – você deixa de ver a IA como algo futurista e passa a vê-la como algo frágil”, disse Adio Dinika, que estuda o trabalho por trás da IA no Instituto de Pesquisa de IA Distribuída, referindo-se às pessoas que trabalham nos bastidores. “Na minha experiência, são sempre as pessoas que não entendem de IA que ficam encantadas por ela.”

Os profissionais de IA que falaram com o The Guardian disseram que estão assumindo a responsabilidade de fazer escolhas melhores e conscientizar as pessoas sobre elas, enfatizando particularmente a ideia de que a IA, nas palavras de Hansen, “só é tão boa quanto a informação que recebe, e a informação que recebe nem sempre é a melhor”. Ela e Pawloski fizeram uma apresentação em maio na conferência de primavera da Associação de Conselhos Escolares de Michigan. Em uma sala repleta de membros de conselhos escolares e administradores de todo o estado, eles falaram sobre os impactos éticos e ambientais da inteligência artificial, na esperança de iniciar uma discussão.

“Muitos participantes ficaram chocados com o que aprenderam, já que a maioria nunca tinha ouvido falar sobre o trabalho humano ou o impacto ambiental por trás da IA”, disse Hansen. “Alguns se mostraram gratos pela informação, enquanto outros ficaram na defensiva ou frustrados, nos acusando de sermos pessimistas em relação a uma tecnologia que eles consideravam empolgante e cheia de potencial.”

Pawloski compara a ética da IA à da indústria têxtil: quando as pessoas não sabiam como as roupas baratas eram feitas, ficavam felizes em encontrar a melhor oferta e economizar alguns trocados. Mas, à medida que as histórias sobre fábricas exploradoras começaram a vir à tona, os consumidores passaram a ter opções e perceberam que deveriam questionar. Ela acredita que o mesmo se aplica à IA.

“De onde vêm seus dados? Esse modelo se baseia em violação de direitos autorais? Os trabalhadores foram remunerados de forma justa pelo seu trabalho?”, questionou ela. “Estamos apenas começando a fazer essas perguntas, então, na maioria dos casos, o público em geral não tem acesso à verdade, mas, assim como na indústria têxtil, se continuarmos questionando e pressionando, a mudança é possível.”

 

Fonte: The Guardian

 

Nenhum comentário: