Conheça
os profissionais de IA que aconselham seus amigos e familiares a ficarem longe
da IA
Quando
as pessoas que criam inteligência artificial confiável são as que menos confiam
nela, isso demonstra que os incentivos para a velocidade estão se sobrepondo à
segurança, dizem os especialistas.
Pista
Pawloski se lembra do momento decisivo que moldou sua opinião sobre a ética da
inteligência artificial . Como trabalhadora de IA no Amazon Mechanical Turk –
uma plataforma que permite às empresas contratar trabalhadores para realizar
tarefas como inserir dados ou comparar uma solicitação de IA com sua resposta –
Pawloski passa seu tempo moderando e avaliando a qualidade de textos, imagens e
vídeos gerados por IA, além de verificar alguns fatos.
Há
cerca de dois anos, enquanto trabalhava em casa, sentada à mesa da sala de
jantar, ela começou a tarefa de classificar tweets como racistas ou não. Quando
se deparou com um tweet que dizia "Escute aquele grilo-da-lua
cantar", ela quase clicou no botão "não", mas decidiu verificar
o significado da palavra "grilo-da-lua", que, para sua surpresa, era
um termo racista usado contra afro-americanos.
"Fiquei
ali sentado pensando em quantas vezes eu poderia ter cometido o mesmo erro sem
me dar conta", disse Pawloski.
A
dimensão potencial dos seus próprios erros e dos erros de milhares de outros
trabalhadores como ela fez com que Pawloski entrasse em espiral. Quantos
outros, sem saber, deixaram passar material ofensivo? Ou pior, optaram por
permitir que isso acontecesse?
Após
anos testemunhando o funcionamento interno dos modelos de IA, Pawloski decidiu
não usar mais produtos de IA generativa pessoalmente e aconselhou sua família a
ficar longe deles.
“É um
não absoluto na minha casa”, disse Pawloski, referindo-se ao fato de não
permitir que sua filha adolescente use ferramentas como o ChatGPT . E com as
pessoas que conhece socialmente, ela as incentiva a perguntar à IA sobre algo
em que tenham muito conhecimento, para que possam identificar seus erros e
entender por si mesmas o quão falível a tecnologia é. Pawloski disse que, toda
vez que vê um menu de novas tarefas para escolher no site Mechanical Turk, se
pergunta se existe alguma maneira de o que está fazendo ser usado para
prejudicar pessoas – e muitas vezes, diz ela, a resposta é sim.
Segundo
um comunicado da Amazon , os trabalhadores podem escolher quais tarefas
concluir a seu critério e revisar os detalhes de cada tarefa antes de
aceitá-la. Os solicitantes definem as especificidades de cada tarefa, como
tempo alocado, pagamento e nível de instruções, de acordo com a Amazon.
“O
Amazon Mechanical Turk é um mercado que conecta empresas e pesquisadores,
chamados de solicitantes, a trabalhadores para concluir tarefas online, como
rotular imagens, responder a pesquisas, transcrever textos ou revisar
resultados de IA”, disse Montana MacLachlan, porta-voz da Amazon.
Pawloski
não está sozinho. Uma dúzia de avaliadores de IA , profissionais que verificam
a precisão e a coerência das respostas de uma IA, disseram ao The Guardian que,
após tomarem conhecimento do funcionamento de chatbots e geradores de imagens e
de quão imprecisas podem ser suas respostas, começaram a aconselhar amigos e
familiares a não usar IA generativa – ou pelo menos a tentar conscientizá-los
sobre o uso cauteloso dessa tecnologia. Esses especialistas trabalham com
diversos modelos de IA – Gemini, do Google, Grok, de Elon Musk, outros modelos
populares e vários bots menores ou menos conhecidos.
Uma
funcionária, avaliadora de IA no Google que analisa as respostas geradas pela
ferramenta Visão Geral de IA da Busca do Google, disse que tenta usar IA o
mínimo possível, ou até mesmo evitá-la completamente. A abordagem da empresa em
relação às respostas geradas por IA para perguntas sobre saúde, em particular,
a deixou apreensiva, disse ela, pedindo anonimato por medo de represálias
profissionais. Ela relatou ter observado seus colegas avaliando respostas
geradas por IA para assuntos médicos de forma acrítica e que foi incumbida de
avaliar essas perguntas, apesar de não ter formação médica.
Em
casa, ela proibiu sua filha de 10 anos de usar chatbots. "Ela precisa
aprender a pensar criticamente primeiro, ou não conseguirá dizer se o resultado
é bom", disse a avaliadora.
“As
avaliações são apenas um dos muitos pontos de dados agregados que nos ajudam a
medir o desempenho dos nossos sistemas, mas não afetam diretamente nossos
algoritmos ou modelos”, afirma um comunicado do Google. “Também temos uma série
de proteções robustas em vigor para garantir a apresentação de informações de
alta qualidade em todos os nossos produtos.”
<><>
Observadores de bots soam o alarme
Essas
pessoas fazem parte de uma força de trabalho global de dezenas de milhares que
ajudam os chatbots a soarem mais humanos. Ao verificar as respostas da IA, elas
também se esforçam ao máximo para garantir que um chatbot não divulgue
informações imprecisas ou prejudiciais.
No
entanto, quando as pessoas que fazem a IA parecer confiável são justamente as
que menos confiam nela, os especialistas acreditam que isso sinaliza um
problema muito maior.
“Isso
demonstra que provavelmente existem incentivos para lançar e escalar o produto
em vez de priorizar uma validação lenta e cuidadosa, e que o feedback dos
avaliadores está sendo ignorado”, disse Alex Mahadevan, diretor do MediaWise no
Poynter, um programa de alfabetização midiática. “Portanto, isso significa que,
quando virmos a versão final do chatbot, podemos esperar o mesmo tipo de erros
que eles estão enfrentando. Isso não é um bom presságio para um público que
está cada vez mais recorrendo a plataformas de ensino de mídia para obter
notícias e informações.”
Trabalhadores
de IA disseram desconfiar dos modelos com os quais trabalham devido à ênfase
constante em prazos de entrega rápidos em detrimento da qualidade. Brook
Hansen, uma trabalhadora de IA na Amazon Mechanical Turk, explicou que, embora
não desconfie da IA generativa como conceito, também não confia nas empresas
que desenvolvem e implementam essas ferramentas. Para ela, o ponto de virada
mais importante foi perceber o quão pouco apoio as pessoas que treinam esses
sistemas recebem.
“Espera-se
que ajudemos a aprimorar o modelo, mas muitas vezes recebemos instruções vagas
ou incompletas, treinamento mínimo e prazos irreais para concluir as tarefas”,
disse Hansen, que trabalha com dados desde 2010 e participou do treinamento de
alguns dos modelos de IA mais populares do Vale do Silício. “Se os
trabalhadores não têm acesso às informações, aos recursos e ao tempo
necessários, como os resultados podem ser seguros, precisos ou éticos? Para
mim, essa discrepância entre o que se espera de nós e o que realmente nos é
dado para realizar o trabalho é um sinal claro de que as empresas estão
priorizando velocidade e lucro em detrimento da responsabilidade e da
qualidade.”
Disseminar
informações falsas em um tom confiante, em vez de não oferecer uma resposta
quando não há nenhuma disponível, é uma falha grave da IA generativa, dizem
especialistas. Uma auditoria dos 10 principais modelos de IA generativa,
incluindo ChatGPT, Gemini e IA da Meta, realizada pela organização sem fins
lucrativos de alfabetização midiática NewsGuard, revelou que as taxas de não
resposta dos chatbots caíram de 31% em agosto de 2024 para 0% em agosto de
2025. Ao mesmo tempo, a probabilidade de os chatbots repetirem informações
falsas quase dobrou, passando de 18% para 35% , constatou a NewsGuard. Nenhuma
das empresas respondeu ao pedido de comentário da NewsGuard na época.
“Eu não
confiaria em nenhum fato apresentado [pelo bot] sem verificá-lo pessoalmente –
simplesmente não é confiável”, disse outra avaliadora da IA do Google, que
pediu anonimato devido a um acordo de confidencialidade assinado com a empresa
contratada. Ela alerta as pessoas sobre o uso da ferramenta e ecoou a opinião
de outro avaliador sobre pessoas com conhecimento superficial serem incumbidas
de responder a perguntas médicas e também a questões éticas delicadas. “Este
não é um robô ético. É apenas um robô.”
“Brincamos
que [os chatbots] seriam ótimos se conseguíssemos fazê-los parar de mentir”,
disse um tutor de IA que trabalhou com Gemini, ChatGPT e Grok, solicitando
anonimato por ter assinado acordos de confidencialidade.
<><>
"Lixo entra, lixo sai"
Outro
avaliador de IA, que começou sua jornada avaliando respostas para os produtos
do Google no início de 2024, começou a sentir que não podia confiar na IA cerca
de seis meses depois de iniciar o trabalho. Ele foi encarregado de desafiar o
modelo – o que significava que ele tinha que fazer várias perguntas à IA do
Google que expusessem suas limitações ou pontos fracos. Com formação em
história, esse profissional fez perguntas históricas ao modelo para a tarefa.
“Perguntei
sobre a história do povo palestino e não obtive resposta, não importa como
reformulasse a pergunta”, recordou o funcionário, que pediu anonimato após
assinar um acordo de confidencialidade. “Quando perguntei sobre a história de
Israel, não houve problema algum em me fornecer um resumo bastante extenso.
Reportamos o ocorrido, mas ninguém no Google pareceu se importar.” Questionado
especificamente sobre a situação descrita pelo usuário, o Google não emitiu
nenhum comunicado.
Para
este funcionário do Google, a maior preocupação com o treinamento de IA é o
feedback dado aos modelos por avaliadores como ele. "Depois de ver a
péssima qualidade dos dados usados para supostamente treinar o modelo, eu sabia
que não havia a menor chance de ele ser treinado corretamente daquela
forma", disse ele. Ele usou a expressão "lixo entra, lixo sai",
um princípio da programação que explica que, se você alimentar um sistema
técnico com dados ruins ou incompletos, a saída também terá as mesmas falhas.
O
avaliador evita usar IA generativa e também "aconselhou todos os meus
familiares e amigos a não comprarem celulares mais novos com IA integrada, a
resistirem, se possível, às atualizações automáticas que adicionam IA e a não
contarem nada pessoal para a IA", disse ele.
<><>
Frágil, não futurista
Sempre
que o tema da IA surge em uma conversa informal, Hansen lembra às pessoas que a
IA não é mágica – explicando o exército de trabalhadores invisíveis por trás
dela, a falta de confiabilidade das informações e o quão prejudicial ela é para
o meio ambiente .
“Depois
de ver como esses sistemas são improvisados – os vieses, os prazos apertados,
os compromissos constantes – você deixa de ver a IA como algo futurista e passa
a vê-la como algo frágil”, disse Adio Dinika, que estuda o trabalho por trás da
IA no Instituto de Pesquisa de IA Distribuída, referindo-se às pessoas que
trabalham nos bastidores. “Na minha experiência, são sempre as pessoas que não
entendem de IA que ficam encantadas por ela.”
Os
profissionais de IA que falaram com o The Guardian disseram que estão assumindo
a responsabilidade de fazer escolhas melhores e conscientizar as pessoas sobre
elas, enfatizando particularmente a ideia de que a IA, nas palavras de Hansen,
“só é tão boa quanto a informação que recebe, e a informação que recebe nem
sempre é a melhor”. Ela e Pawloski fizeram uma apresentação em maio na
conferência de primavera da Associação de Conselhos Escolares de Michigan. Em
uma sala repleta de membros de conselhos escolares e administradores de todo o
estado, eles falaram sobre os impactos éticos e ambientais da inteligência
artificial, na esperança de iniciar uma discussão.
“Muitos
participantes ficaram chocados com o que aprenderam, já que a maioria nunca
tinha ouvido falar sobre o trabalho humano ou o impacto ambiental por trás da
IA”, disse Hansen. “Alguns se mostraram gratos pela informação, enquanto outros
ficaram na defensiva ou frustrados, nos acusando de sermos pessimistas em
relação a uma tecnologia que eles consideravam empolgante e cheia de
potencial.”
Pawloski
compara a ética da IA à da indústria têxtil: quando as pessoas não sabiam como
as roupas baratas eram feitas, ficavam felizes em encontrar a melhor oferta e
economizar alguns trocados. Mas, à medida que as histórias sobre fábricas
exploradoras começaram a vir à tona, os consumidores passaram a ter opções e
perceberam que deveriam questionar. Ela acredita que o mesmo se aplica à IA.
“De
onde vêm seus dados? Esse modelo se baseia em violação de direitos autorais? Os
trabalhadores foram remunerados de forma justa pelo seu trabalho?”, questionou
ela. “Estamos apenas começando a fazer essas perguntas, então, na maioria dos
casos, o público em geral não tem acesso à verdade, mas, assim como na
indústria têxtil, se continuarmos questionando e pressionando, a mudança é
possível.”
Fonte:
The Guardian

Nenhum comentário:
Postar um comentário