Adeus
às buscas na internet: Como às big techs devastam o ecossistema da rede
Imagine
que você esteja com vontade de comer lasanha. Onde encontra uma receita? Na
internet, é claro. Antigamente, ao digitar “ideias de receitas de lasanha” no
Google, você tomava contato com uma infinidade de blogs de culinária, cada um
com sua própria história: a variação da família da avó, fotos passo a passo dos
ingredientes dispostos sobre uma mesa de madeira, vídeos mostrando a técnica e
uma longa seção de comentários onde os leitores debatiam substituições ou
compartilhavam seus próprios ajustes. Clicar nesses links não apenas fornecia
instruções; também apoiava o blogueiro por meio de anúncios, links afiliados
para utensílios de cozinha ou uma assinatura de um boletim informativo semanal.
Esse ecossistema sustentava uma cultura de experimentação, diálogo e
descoberta. Foi há uma década, mas não é mais agora. A mesma busca no Google
agora pode gerar uma “Visão Geral de IA” bem elaborada, uma receita sintetizada
desprovida de voz, memória e comunidade, entregue sem que o usuário precise
visitar o site do criador. Sem que você se dê conta, anos de trabalho —
incluindo o texto, as fotos e o desenho da página — podem já ter sido usados
para treinar ou refinar o modelo de IA.
Você
recebe sua lasanha, o Google recebe tráfego web monetizável e, na maioria das
vezes, a pessoa que criou a receita não recebe nada. A web viva se reduz ainda
mais a uma interface de respostas desencarnadas, convenientes, mas, em última
análise, estéreis. Não se trata de uma hipótese: Segundo umrelatório da empresa
de pesquisa de mercado SparkToro, mais da metade de todas as buscas do Google
nos EUA e na Europa em 2024 terminou sem nenhum clique. Da mesma forma, a
plataforma de inteligência de SEO Ahrefs publicou uma análise de 300 mil
palavras-chave em abril de 2025 e descobriu que, quando havia uma visão geral
de IA, o número de usuários que clicavam nos resultados de busca orgânica mais
bem classificados caía em média mais de um terço. Os usuários encontram
respostas para suas perguntas e têm suas necessidades atendidas sem precisar
sair da plataforma de busca. Até recentemente, um contrato social implícito
governava a web: criadores produziam conteúdo, mecanismos de busca e
plataformas o distribuíam e, em troca, o tráfego de usuários retornava aos
sites dos criadores, que sustentavam o sistema. Essa barganha recíproca de
tráfego em troca de conteúdo sustentou o tecido econômico, cultural e
informacional da internet por três décadas. Hoje, a ascensão da IA marca uma
ruptura decisiva. Os serviços de Visão Geral de IA do Google, a Busca Copilot
do Bing, o ChatGPT da OpenAI, o Claude da Anthropic, o Llama da Meta e o Grok
da xAI funcionam efetivamente como um novo oligopólio daquilo que vem sendo
cada vez mais chamado de “mecanismos de resposta”. Eles se interpõem entre os
usuários e as fontes de onde eles obtêm informações. Essa mudança ameaça a
viabilidade econômica da criação de conteúdo, degrada o compartilhamento de
informações e concentra o poder informacional.
Para
sustentar a web, um novo sistema de Integridade Artificial deve ser incorporado
a esses “mecanismos de resposta” de IA, priorizando três aspectos: procedência
clara, que torne as fontes de informação visíveis e rastreáveis de forma
consistente; fluxos de valor justos, que garantam que os criadores compartilhem
parte do valor gerado mesmo quando os usuários não clicam em seu conteúdo; e
resiliência,um espaço de informação comum que impede que o conhecimento aberto
desmorone por trás de paywalls. Na prática, isso significa estabelecer novas
diretrizes de design e responsabilidade, capazes de preservar a integridade,
para que as plataformas de IA não possam capturar todos os benefícios das
respostas instantâneas, ao mesmo tempo em que transferem os custos para os
criadores e para a internet em geral.
<><>
Sistema rompido
Os
“mecanismos de resposta” de IA não apenas facilitaram a busca por informações,
como também romperam o ciclo de valor da web, afastando a criação de conteúdo
do tráfego e da receita que antes a recompensavam. Empresas de inteligência
artificial têm coletado e utilizado o trabalho criativo de escritores,
pesquisadores, artistas e jornalistas para treinar grandes modelos de linguagem
sem buscar consentimento explícito, dar o crédito ou oferecer compensação. O
New York Times entrou com processos contra a OpenAI e a Microsoft, alegando que
as gigantes da tecnologia usaram seus artigos protegidos por direitos autorais
para esse fim. Ao fazer isso, afirma o jornal, elas estão ameaçando o próprio
modelo de negócios do jornalismo. Na verdade, a IA ameaça a sobrevivência de
todos os tipos de criação de conteúdo digital. À medida que as editoras perdem
tráfego, há poucos incentivos para que mantenham o conteúdo gratuito e
acessível. Em vez disso, os paywalls e os licenciamentos exclusivos estão se
tornando cada vez mais comuns. Isso continuará a reduzir o acervo de
informações disponíveis gratuitamente, do qual dependem tanto o conhecimento
humano quanto o futuro treinamento da IA. O resultado será uma base de
informações degradada e privatizada. Isso fará com que os futuros sistemas de
IA operem com um repertório mais restrito e frágil, tornando seus resultados
cada vez mais dependentes daquilo que permanecer publicamente acessível. Isso
limitará a diversidade e a atualização dos dados subjacentes, conforme documentado
em uma auditoria de 2024 sobre o ” espaço comum de dados de IA “. Ao mesmo
tempo, à medida que mais conteúdo visível online passa a ser gerado por IA e
reutilizado em treinamentos futuros, esses sistemas ficarão mais expostos ao
“colapso do modelo”, uma dinâmica documentada em um estudo publicado pela
revista Nature em 2024. Ele mostrou que, quando dados reais são substituídos
por sucessivas gerações sintéticas, as caudas da distribuição original começam
a desaparecer à medida que as versões sintéticas do modelo começam a
sobrescrever a realidade subjacente que deveriam aproximar.
Imagine
que estamos fazendo uma fotocópia de uma fotocópia, repetidamente. Cada
impressão preserva apenas os traços mais nítidos, e perde os detalhes sutis.
Ambas as tendências enfraquecem nossa capacidade de verificar informações de
forma independente. A longo prazo, isso fará com que as pessoas dependam de
sistemas que amplificam erros, vieses e pontos cegos de informação,
especialmente em nichos de mercado e comunidades com pouca visibilidade.
Imagine uma funcionária do setor de compras de um banco de médio porte
encarregada de avaliar fornecedores para uma nova plataforma de detecção de
fraudes. Não muito tempo atrás, ela provavelmente teria recorrido ao Google,
LinkedIn ou portais do setor para obter informações. Vasculharia fichas
técnicas detalhadas, relatórios de analistas e artigos técnicos. Ao clicar no
site de um fornecedor, poderia acessar as informações técnicas de que precisava
e, por fim, entrar em contato com a empresa. Para o fornecedor, cada clique
também alimentava seu funil de vendas. Esse tráfego não era incidental; era a
força vital de todo um ecossistema de métricas, análise de projetos, campanhas
de marketing e pesquisas especializadas. Hoje, a tarefa é executada de forma
diferente. A consulta inicial de um responsável por compras provavelmente
resultaria em uma comparação gerada por IA, condensando o leque de opções em
poucos parágrafos: o produto A se destaca em conformidade; o produto B se
sobressai em velocidade; o produto C tem um bom custo-benefício. Por trás dessa
síntese, provavelmente estarão inúmeros relatórios técnicos, webinars e estudos
de caso produzidos por fornecedores e analistas — anos de experiência
corporativa transformados em um resumo de IA. Como resultado, o responsável
pelas compras pode nunca mais sair da interface. As equipes de marketing dos
fornecedores, vendo as vendas impulsionadas por cliques diminuírem, podem
deixar de publicar materiais abertos. Algumas podem bloquear relatórios, em
busca de altos custos de acesso. Outras podem interromper completamente a produção
de relatórios e outras ainda podem fechar acordos de exclusividade de dados com
plataformas, apenas para manter a visibilidade. A oferta outrora diversificada
de conhecimento aberto do setor se contrairia em silos privatizados. Enquanto
isso, os fornecedores se tornariam ainda mais dependentes das próprias
plataformas que extraem seu valor.
<><>
Os cinco mecanismos de captura
A
ruptura que estamos presenciando no modelo econômico e informacional da web é
impulsionada por cinco mecanismos que se reforçam mutuamente e que determinam
qual conteúdo é visualizado, quem recebe o crédito e quem é remunerado.
Economistas e equipes de produto podem chamar esses mecanismos de captura de
intenção , substituição, diluição da atribuição, mudanças na monetização e
quebra do ciclo de aprendizado . A captura de intenção ocorre quando a
plataforma transforma uma pesquisa online em uma resposta na própria
plataforma, evitando que o usuário precise clicar na fonte original da
informação. Esse mecanismo transforma a página de resultados tradicional de um
mecanismo de busca, que antes era um catálogo de links, em uma superfície
fechada de respostas sintetizadas, restringindo tanto a visibilidade quanto as
opções.
A
substituição, que ocorre quando os usuários confiam em resumos gerados por IA
em vez de clicarem nos links para as fontes originais e, assim, gerarem o
tráfego necessário para os criadores, é particularmente prejudicial. Esse dano
é mais pronunciado em certas áreas de conteúdo. A substituição é alta em
pesquisas factuais, definições, receitas e resumos de notícias, onde uma
resposta simples costuma ser suficiente. Por outro lado, a substituição é baixa
em conteúdos como jornalismo investigativo, conjuntos de dados proprietários e
experiências multimídia, que são mais difíceis de serem sintetizados pela IA em
um substituto satisfatório. Os incentivos de cada parte são distintos: as
plataformas são recompensadas por maximizar a retenção de consultas e o retorno
publicitário; os editores, por atrair tráfego de referência e assinantes; e os
reguladores, por preservar a concorrência, a pluralidade da mídia e a
rastreabilidade. Os usuários também preferem respostas instantâneas e de fácil
acesso às suas consultas. Esse desalinhamento permite às plataformas assegurar
satisfação em ciclo fechado, enquanto os fundamentos econômicos da criação de
conteúdo permanecem subfinanciados.
A
diluição da atribuição agrava o problema. Quando as fontes de informação são
ocultadas em menus suspensos ou listadas em pequenas notas de rodapé, o crédito
existe formalmente, mas não em prática. A tendência dos mecanismos de busca, de
simplesmente exibir links para as fontes (o que muitos fazem de forma
inconsistente) não resolve a questão. Esses links são frequentemente
subestimados e geram pouco ou nenhum valor econômico, criando uma lacuna
significativa de consentimento para o conteúdo usado no treinamento de modelos
de IA. Quando a atribuição se torna difusa entre múltiplas fontes e nenhum
valor é gerado sem cliques ou compensação, essa lacuna se torna especialmente
crítica. A mudança na monetização refere-se ao valor monetário redirecionado,
que agora flui exclusivamente para “mecanismos de resposta” de IA, em vez de
beneficiar os criadores e editores de conteúdo. Essa mudança já está em curso e
vai além da mídia. Quando o conteúdo que promove ou avalia diversos produtos e
serviços recebe menos cliques, as empresas muitas vezes precisam investir mais
para ser encontradas online, o que pode aumentar os custos de conquista de
clientes e, em alguns casos, os preços.
Essa
mudança também pode impactar os empregos das pessoas: pode ser que sejam
necessárias menos funções para produzir e otimizar conteúdo da web para
mecanismos de busca, enquanto podem surgir mais funções relacionadas ao
licenciamento de conteúdo, à gestão de parcerias de dados e à governança de
sistemas de IA. A quebra do ciclo de aprendizagem descreve a redução da
abrangência e da qualidade da internet gratuita como resultado das práticas
disruptivas dos “mecanismos de resposta” de IA. À medida que o espaço comum da
informação se torna mais escasso, dados de alta qualidade se tornam um recurso
limitado e controlável. Analistas alertam que o controle de dados valiosos pode
funcionar como uma barreira de entrada e concentrar o poder dos intermediários.
Essa
dinâmica é comparável ao que chamo de uma potencial “OPEP de Dados”, uma
metáfora para um punhado de plataformas poderosas e detentoras de direitos que
controlam o acesso a dados de alta qualidade, assim como a Organização dos
Países Exportadores de Petróleo (OPEP) controla o fornecimento de petróleo.
Assim como a OPEP pode restringir a oferta de petróleo ou aumentar os preços
para moldar os mercados globais, esses intermediários de dados podem restringir
ou monetizar o acesso às informações usadas para construir e aprimorar sistemas
de IA. Incluem-se aí conjuntos de dados de treinamento, o que aumenta os
custos, reduz a abertura e concentra o poder de inovação em poucas mãos. Dessa
forma, o que começa como uma escolha de design de interface se transforma em um
risco ecológico para todo o ecossistema do conhecimento.
O
efeito combinado desses cinco mecanismos está levando a uma reconfiguração do
poder informacional. Se os “mecanismos de resposta” de IA se tornarem o ponto
de chegada da informação em vez da porta de entrada, a arquitetura da web corre
o risco de ser esvaziada por dentro. As consequências vão além da economia:
elas afetam a sustentabilidade dos ecossistemas de informação pública, os
incentivos à criatividade futura e a integridade do patrimônio comum da
informação. Se não forem controladas, essas forças ameaçam comprometer a
resiliência do ambiente digital do qual tanto criadores quanto usuários
dependem. O que se faz necessário é uma reformulação sistêmica dos incentivos,
guiada pela estrutura da Integridade Artificial, e não apenas pela inteligência
artificial.
<><>
Em busca da Integridade Artificial
Aplicada
ao desafio atual, a Integridade Artificial pode ser compreendida em três
dimensões: integridade da proveniência da informação, integridade econômica dos
fluxos de informação e integridade dos bens comuns de informação
compartilhados.
A
integridade da proveniência da informação consiste em garantir que as fontes
sejam visíveis, rastreáveis e devidamente creditadas. Isso deve incluir quem
criou o conteúdo, onde foi publicado e o contexto em que foi originalmente
apresentado. O princípio fundamental é a transparência: as citações não devem
ser ocultadas em notas de rodapé. A Integridade Artificial também exige que as
citações contenham metadados de proveniência ativos, uma assinatura –
verificável e legível por máquina – que vincule cada fragmento da saída gerada
à sua fonte original, permitindo que usuários e sistemas rastreiem os fluxos de
informação com o mesmo rigor de uma citação científica. Isso introduz algo além
da simples exibição de links para as fontes: trata-se de um design sistêmico
onde a proveniência é incorporada criptograficamente ou estruturalmente, e não
apenas adicionada de modo superficial. Dessa forma, a integridade da
proveniência torna-se uma salvaguarda contra o apagamento, garantindo que os
criadores permaneçam visíveis e creditados mesmo que o usuário não clique para
acessar a fonte original.
A
integridade econômica dos fluxos de informação consiste em garantir que o valor
retorne aos criadores, e não apenas às plataformas. A Integridade Artificial
exige repensar a forma como links e citações são valorizados. Na economia
digital atual, um link só importa se for clicado, o que significa que fontes
citadas, mas não visitadas, não geram valor monetário. Em um modelo baseado na
integridade, o próprio ato de ser citado em uma resposta gerada por IA teria
peso econômico, garantindo que o crédito e a compensação fluam mesmo quando a
interação do usuário termina na interface. Isso realinharia os incentivos,
passando da busca por cliques para a contribuição ao conhecimento,
transformando a economia de um modelo baseado apenas em desempenho para um
modelo que considera a proveniência. Para alcançar esse objetivo, órgãos
reguladores e de padronização poderiam exigir que os “mecanismos de resposta”
de IA compensassem não apenas o tráfego gerado, mas também as informações
citadas. Essas plataformas poderiam implementar regras de destaque da fonte, de
modo que as citações não ficassem ocultas em notas de rodapé, mas incorporadas
de forma a gerar valor econômico mensurável.
A
integridade do patrimônio comum da informação compartilhada consiste em
garantir que a base de informações públicas permaneça sustentável, aberta e
resiliente, em vez de se degradar em um recurso pago ou privatizado. Nesse
sentido, a Integridade Artificial defende o reinvestimento obrigatório das
receitas das plataformas de IA em conjuntos de dados abertos como uma função
intrínseca ao ciclo de vida da IA. Isso significa que grandes plataformas de
IA, como Google, OpenAI e Microsoft, seriam legalmente obrigadas a destinar uma
porcentagem fixa de suas receitas para a sustentabilidade do patrimônio comum
da informação compartilhada. Essa alocação seria incorporada arquiteturalmente
aos seus fluxos de desenvolvimento de modelos. Por exemplo, um “fundo para bens
comuns digitais” poderia canalizar parte da receita de IA do Google para manter
recursos como a Wikipédia, o PubMed ou arquivos acadêmicos abertos sustentáveis
e atualizados. Fundamentalmente, esse reinvestimento seria incorporado aos
ciclos de retreinamento, de modo que cada interação de um modelo atualizasse e
mantivesse estruturalmente os recursos de acesso aberto, juntamente com seu
próprio ajuste de desempenho. Dessa forma, a sustentabilidade do patrimônio
comum de informação se tornaria parte da lógica operacional do sistema de IA, e
não apenas uma política externa voluntária. Na prática, isso garantiria que
cada ciclo de aprimoramento da IA também aprimorasse o patrimônio comum de
informação do qual depende, alinhando os incentivos das plataformas privadas
com a sustentabilidade da informação pública. Precisamos projetar um
ecossistema onde essas três dimensões não sejam prejudicadas pelo foco na
otimização das plataformas de IA, mas sim protegidas estruturalmente, tanto na
forma como as plataformas acessam e exibem o conteúdo para gerar respostas,
quanto no ambiente regulatório que as sustenta.
<><>
Da teoria à prática
Para
que uma abordagem de Integridade Artificial funcione, precisaríamos de sistemas
de transparência e responsabilização. As empresas de IA teriam que ser
obrigadas a publicar dados agregados verificáveis, mostrando se os usuários
param nos resumos de IA ou clicam para acessar as fontes originais.
Fundamentalmente, para proteger a privacidade dos usuários, essa divulgação
precisaria incluir apenas métricas de interações agregadas, relatando padrões
gerais. Isso garantiria que os registros individuais dos usuários e seus
históricos de pesquisa pessoal nunca fossem expostos. Auditores independentes
terceirizados, credenciados e supervisionados por órgãos reguladores, assim
como as empresas de contabilidade hoje em dia, teriam que verificar esses
números. Da mesma forma que as empresas não podem autodeclarar sua saúde
financeira, mas devem apresentar balanços auditados, as plataformas de IA não
poderiam mais simplesmente afirmar que estão contribuindo para a web sem
validação independente.
Em
termos de integridade econômica dos fluxos de informação , a regulamentação
ambiental oferece uma analogia útil. Antes das normas ambientais modernas, as
empresas podiam tratar a poluição como um efeito colateral invisível de suas
atividades comerciais. A fumaça no ar ou os resíduos na água impunham custos
reais à sociedade, mas esses custos não apareciam no balanço patrimonial do
poluidor. As normas de emissões mudaram isso ao introduzir limites legais
claros sobre a quantidade de poluentes que carros, fábricas e usinas de energia
podem emitir, e ao exigir que as empresas meçam e relatem essas emissões. Essas
normas transformaram a poluição em algo que precisava ser monitorado, reduzido
ou compensado por meio de multas e tecnologias mais limpas, em vez de ser
simplesmente imposto ao público. De forma semelhante, os limiares de
Integridade Artificial poderiam garantir que o valor que as empresas de IA
extraem do conteúdo dos criadores venha acompanhado de obrigações financeiras
para com essas fontes. Um limiar de integridade poderia ser simplesmente uma
linha numérica clara, como os limites de poluição nas normas de emissões, que
marca o ponto em que uma plataforma de IA está extraindo valor em excesso sem
enviar tráfego ou receita suficiente de volta às fontes. Enquanto os números
permanecerem abaixo do limite aceitável, o sistema é considerado sustentável;
uma vez que ultrapassem o limite, a plataforma tem a obrigação legal de mudar
seu comportamento ou compensar os criadores dos quais depende.
Isso
poderia ser imposto por reguladores nacionais ou regionais, como autoridades de
concorrência, reguladores de mídia ou órgãos de proteção de dados. Regras
semelhantes começaram a surgir em algumas jurisdições que regulamentam os
mercados digitais e as relações entre plataformas e editoras, como a UE , o
Canadá ou a Austrália , onde as estruturas de negociação de notícias e direitos
autorais estão experimentando a partilha obrigatória de receitas para o
jornalismo. Esses precedentes poderiam ser adaptados de forma mais ampla à
medida que os “mecanismos de resposta” de IA remodelam a forma como pesquisamos
online. Esses limites também poderiam ser submetidos a auditorias independentes
padronizadas de métricas de interação agregadas. Ao mesmo tempo, as plataformas
de IA poderiam ser obrigadas a fornecer painéis de controle voltados para
editores, exibindo as mesmas métricas auditadas em tempo quase real, mostrando
a frequência de citações, o posicionamento e os resultados de tráfego para seu
conteúdo. Esses painéis poderiam servir como interface operacional para a
tomada de decisões diárias, enquanto os relatórios de auditoria independentes
poderiam fornecer um parâmetro de referência legalmente verificado, garantindo
precisão e comparabilidade em todo o ecossistema. Dessa forma, criadores e
editores não ficariam na dúvida se suas contribuições são valorizadas. Eles
receberiam informações práticas para seus modelos de negócios e prestação de
contas formal. Juntas, essas duas camadas incorporariam a integridade da
procedência ao sistema: visibilidade para os criadores, rastreabilidade para os
órgãos reguladores e transparência para o público.
A
aplicação da lei pode combinar recompensas e penalidades. No que diz respeito
às recompensas, as plataformas que mostram a origem das suas informações e que
ajudam a financiar importantes recursos de informação pública podem obter
benefícios como créditos fiscais ou menor risco jurídico. No que diz respeito
às penalidades, as plataformas que ignoram estas regras de integridade podem
enfrentar multas crescentes, semelhantes às sanções antitruste que já vemos na
UE.
É aqui
que as três dimensões se encontram: a integridade da proveniência da informação
na forma como as fontes são citadas, a integridade econômica dos fluxos de
informação na forma como o valor é compartilhado e a integridade dos bens
comuns da informação na forma como os recursos abertos são mantidos. A
Integridade Artificial para plataformas que fornecem respostas geradas por IA
representa mais do que um conjunto de correções técnicas. Ao reformular a busca
de informações mediada por IA não como uma questão de ajustes de recursos, mas
como uma questão de design, código e governança em produtos de IA, ela aborda
um reequilíbrio necessário em direção a uma distribuição de valor mais justa e
sustentável, da qual a web depende, agora e no futuro.
Fonte:
Por Hamilton Mann, em Outras Palavras

Nenhum comentário:
Postar um comentário