Para dar
lucro, a IA precisa de babás humanas
Uma
historinha divertida de IA: um pesquisador em segurança percebeu que o
código-fonte de grandes empresas, criado por IA, reiteradamente fazia
referência a uma biblioteca inexistente (uma “alucinação” da IA). Ele então
criou uma biblioteca maliciosa (mas inofensiva) com esse nome, fez upload, e
ela foi automaticamente baixada e incorporada por milhares de
desenvolvedores ao compilarem o código.
Essas
“alucinações” são uma característica persistente dos grandes modelos de
linguagem, ou LLMs, porque o que esses modelos oferecem é uma ilusão de
compreensão: na realidade, são apenas formas sofisticadas de preenchimento
automático, que recorrem a imensas bases de dados para fazerem suposições
espertas (mas consistentemente falhas) sobre
a palavra seguinte.
Adivinhar
a próxima palavra sem compreender o significado da frase resultante torna os
LLMs não supervisionados inadequados para tarefas de alto risco. A bolha
inteira da IA se baseia em convencer os investidores de que uma ou mais das
seguintes afirmações são verdadeiras:
- I. Existem tarefas de baixo risco e alto valor que
permitirão recuperar os enormes custos de treinamento e operação da IA;
- II. Existem tarefas de alto risco e alto valor que podem
ficar mais baratas agregando a IA a um operador humano;
- III. Adicionar mais dados de treinamento à IA fará com que
ela pare de alucinar, para que possa assumir as tarefas de alto risco e
alto valor sem um “ser humano no circuito”.
São
afirmativas duvidosas. Existe um universo de tarefas de baixo risco e baixo
valor — desinformação política, spam, fraudes, plágio acadêmico, pornografia
não consensual, diálogo de NPCs de jogos de videogame — mas nenhuma delas
parece capaz de gerar faturamento suficiente para justificar os bilhões gastos
pelas empresas de IA em modelos, nem os trilhões em que elas são avaliadas.
A
proposição de que aumentar os dados de treinamento reduzirá as alucinações é
altamente contestada entre os praticantes da IA. Confesso que não entendo o
suficiente dos detalhes para avaliar os argumentos de ambos os lados, mas mesmo
que se determine que acrescentar um grande volume de dados de treinamento
gerados por seres humanos irá melhorar os palpites do software, há um problema
grave: todos esses usos de baixo valor e baixo risco estão inundando a internet
com lixo de bots. Afinal, se tem uma coisa que a IA é indiscutivelmente muito boa
em fazer, é produzir besteira em grande escala. À medida que a internet se
torna uma lagoa anaeróbica para o lixo de bots, a quantidade de “conteúdo” de
produção humana em qualquer amostragem da internet está minguando para níveis homeopáticos.
Isso
significa que acrescentar mais uma ordem de magnitude de dados de treinamento
para a IA não apenas aumentará enormemente os gastos computacionais: os dados
ficarão muitas ordens de magnitudes mais caros para adquirir, mesmo sem levar
em conta a responsabilidade adicional que pode decorrer das novas teses
jurídicas sobre a raspagem de conteúdo.
Isso
nos leva aos “seres humanos no circuito” — a ideia de que um dos modelos de
negócios da IA é vender para as empresas software que precisa ser emparelhado
com operadores humanos para examinarem de perto os palpites do código. Há uma
versão disso que parece plausível, em que o operador humano está no comando, e
a IA serve como uma “verificação de sanidade” constantemente vigilante sobre as
atividades humanas.
Meu
carro, por exemplo, tem um sistema que percebe quando ativo a luz de seta
enquanto outro carro está no meu ponto cego. Eu sou muito cuidadoso para
conferir meu ponto cego, mas também sou um ser humano falível, e algumas vezes
o alerta já me salvou de fazer uma manobra potencialmente perigosa. Por mais
disciplinado que eu seja, às vezes também esqueço de apagar as luzes, de
acordar na hora para ir trabalhar, ou não me lembro do número do telefone (ou
data de aniversário) de alguém. Gosto de ter um sistema automatizado que faça o
truque roboticamente perfeito de nunca esquecer algo importante.
Existe
um nome para isso nos círculos de automação: um “centauro”. Sou a cabeça
humana, fundida a um poderoso corpo de robô que faz as coisas que os seres
humanos são inerentemente ruins em fazer.
Esse
é o tipo bom de automação, e todos nos beneficiamos dele. Mas basta uma pequena
mudança para transformar essa automação boa em um pesadelo. Estou
falando aqui do centauro reverso: a automação em que o computador
está no comando, dando ordens a um ser humano para fazer seu trabalho. Pense
nos funcionários dos armazéns da Amazon, que usam pulseiras de resposta tátil e
são continuamente observados por câmeras com IA, enquanto prateleiras autônomas
se lançam na frente deles e exigem que eles peguem e embalem itens em um ritmo
de destruir o corpo e enlouquecer a cabeça.
Os
centauros da automação são ótimos: aliviam os seres humanos das tarefas
repetitivas e permitem que eles se concentrem nas partes criativas e
satisfatórias de seu trabalho. É assim que a programação assistida por IA é
vendida: em vez de procurar sintaxes confusas e outras tarefas de programação
entediantes, anuncia-se que um “copiloto” de IA poderia liberar seu “piloto”
humano para a parte criativa de solução de desafios que torna a programação tão
satisfatória.
Mas
uma IA que alucina é um péssimo copiloto. Ela é boa o
suficiente apenas para fazer o trabalho na maior parte do tempo, mas também
inserir furtivamente armadilhas que com certeza estatística
parecem tão plausíveis quanto o código correto (é isso que um
programa de adivinhar a próxima palavra faz: ele adivinha a palavra
estatisticamente mais provável).
Isso
transforma os programadores “assistidos” por IA em centauros reversos.
A IA pode produzir código em velocidade sobre-humana, e você, o ser humano no
circuito, precisa manter atenção e vigilância absolutas ao revisar o código,
detectando as brechas de código malicioso habilmente camufladas, que não é
possível impedir que a IA insira. Como escreve o autor e programador qntm, “revisar código [é] mais difícil do que escrever código novo“.
E
por quê? “Ler passivamente o código de alguém simplesmente não ativa meu
cérebro da mesma forma. É mais difícil de fazer corretamente.”
Há
um nome para esse fenômeno: “ponto cego da automação”. Os seres humanos
simplesmente não estão equipados para a vigilância contínua. Nós somos bons em
perceber padrões que ocorrem com frequência — tão bons, que não percebemos as
anomalias. É por isso que os agentes de aeroporto são tão eficientes para
detectar frascos inofensivos de shampoo no raio-x, ao mesmo tempo em que não percebem praticamente
nenhuma arma ou bomba que uma equipe de teste infiltra pelos postos de
controle:
O fio de qntm no X mostra
que isso é tão verdadeiro para a direção assistida por IA quanto para a
programação assistida por IA: “carros autônomos substituem a experiência de
dirigir pela experiência de ser um instrutor de direção”.
Em
outras palavras, eles transformam você em um centauro reverso. Enquanto o meu
robô que controla pontos cegos me permite manobrar em velocidade humana e
aponta coisas que eu não percebi, um carro autônomo “supervisionado” manobra no
ritmo frenético do computador, e exige que seu supervisor humano avalie incansavelmente e
com perfeição cada uma dessas manobras. Não é à toa que os táxis “autônomos”
assassinos da Cruise substituíram os motoristas de
baixa remuneração por supervisores técnicos de robôs com uma remuneração 50%
maior.
Dizem
que os programas de radiologia com IA conseguem detectar tumores cancerosos que
os radiologistas humanos não percebem. Um programa de radiologia assistida por
IA com uma lógica de centauro manteria o mesmo número de radiologistas
empregados, mas eles seriam menos eficientes: cada vez que
analisassem um raio X, a IA daria uma segunda opinião. Se o ser humano e a IA
divergissem, o ser humano analisaria novamente o raio X. Teríamos radiologia de
melhor qualidade, a um preço mais alto (o preço do software de IA, além das
horas adicionais de trabalho do radiologista).
Mas
voltando à ideia de fazer a bolha da IA valer a pena: para que a IA valha a
pena, o ser humano no circuito precisa reduzir os custos da
empresa que adquire a IA. Ninguém que investe em uma empresa de IA acredita que
terá retorno com clientes empresariais que concordam em aumentar seus
custos. A IA não pode fazer o seu trabalho, mas o vendedor de IA pode convencer
o seu chefe a te demitir e te substituir por IA do mesmo jeito: e essa
estratégia é a forma mais bem sucedida de desinformação sobre IA no mundo.
Uma
IA que “alucina” orientações equivocadas para passageiros não pode substituir
agentes humanos de atendimento ao cliente, mas as empresas estão demitindo os
agentes e substituindo por chatbots.
Uma
IA que “alucina” orientação jurídica equivocada para os nova-iorquinos não pode
substituir os serviços da prefeitura, mas o prefeito da cidade, Eric Adams,
ainda assim sugere aos nova-iorquinos que busquem orientação jurídica de seus chatbots.
A
única razão pela qual os chefes querem comprar robôs é para demitir pessoas e
reduzir seus custos. É por isso que a ideia de “arte IA” é tão irritante.
Existem muitas formas inofensivas de automatizar a produção de arte usando
software — desde um “pincel de recuperação” no Photoshop até ferramentas de
deepfake que permitem a um editor de vídeo alterar as linhas do olhar de todos
os figurantes em uma cena para mudar o foco. Um autor de quadrinhos que faz um
modelo de um cômodo no jogo The Sims, e move a câmera para conseguir visualizar
diferentes ângulos é um centauro — ele está realmente transferindo um trabalho
maçante e meticuloso para um robô que é perfeitamente atento e vigilante.
Mas
a proposta das empresas de “arte IA” é: “demita seus artistas gráficos e
substitua por lixo de bots”. Eles estão vendendo um mundo onde os robôs fazem
(mal) todas as tarefas criativas, e os seres humanos precisam trabalhar em um
ritmo robótico, com vigilância robótica, para conseguir detectar em velocidade
sobre-humana os erros cometidos pelos robôs.
O
centaurismo reverso é brutal. Isso não é novidade: Charlie Chaplin documentou
o problema dos centauros reversos quase 100 anos atrás.
Como
sempre, o problema de um dispositivo não é o que ele pode fazer: é para quem
ele faz e com quem ele faz. Existem muitos benefícios em ser
um centauro — muitas formas como a automação pode ajudar os trabalhadores. Mas
o único caminho para a lucratividade da IA está nos centauros reversos,
a automação que transforma o ser humano no circuito em zona de deformação para
um robô.
¨
Senado vota a
regulamentação da inteligência artificial na próxima terça-feira
Os
senadores aprovaram, nesta quinta-feira (5), o regime de urgência para votar o
projeto de lei (PL 2.338/2023) que regulamenta o desenvolvimento e o uso de
sistemas de inteligência artificial (IA).
Inicialmente,
o texto seria analisado nesta quinta, porém como alguns senadores demonstraram
ter dúvidas sobre o PL, em especial sobre dispositivos que possam restringir o
direito à liberdade de expressão no país, a apreciação foi postergada.
“Se
aprovada a urgência, que seja colocado em duas sessões subsequentes da sessão
ordinária, após a aprovação, porque é um assunto extremamente polêmico, não é?
A sociedade brasileira nos cobra, de forma responsável, que a gente tenha um
posicionamento legítimo contra a censura”, afirmou Eduardo Girão (Novo-CE), que junto com Plínio Valério
(PSDB-AM) e Jorge Seif (PL-SC), se posicionou contra o regime de urgência.
Randolfe
Rodrigues (PT-AP) classificou a manifestação para adiar a votação como
“movimento protelatório”.
“Todo
o Plenário sabia do projeto. Todo o Plenário tinha a possibilidade e a
oportunidade de ir à comissão para debater. Acabou de ser aprovado por
unanimidade na comissão, com a recomendação para votarmos agora. Eu entendo
alguns que resistem em regular algumas coisas na internet, mas me parece que
está em curso um movimento protelatório que esconde o sentimento real, que é
não ter regulação nenhuma sobre a inteligência artificial”, criticou.
O
projeto divide os sistemas de IA em níveis de risco: risco excessivo e de alto
risco para oferecer uma regulamentação diferenciada, dependendo do impacto do
sistema na vida humana e nos direitos fundamentais.
Após
muitos debates, o relatório aprovado na comissão excluiu da lista de sistemas
de IA considerados de alto risco os algoritmos das redes sociais. Um dos temas
que levantou mais divergência entre governistas e oposição.
Além
disso, o texto estabelece que conteúdos protegidos por direitos autorais
poderão ser utilizados em processos de mineração de textos para o
desenvolvimento do sistema de IA por instituições de pesquisa, jornalismo,
museus, arquivos, bibliotecas e organizações educacionais. No entanto, o
material precisa ser obtido de forma legítima e sem fins comerciais.
Fonte:
Por Cory Doctorow, em The Intercept/Agencia Senado
Nenhum comentário:
Postar um comentário