segunda-feira, 9 de março de 2026

Adeus às buscas na internet: Como às big techs devastam o ecossistema da rede

Imagine que você esteja com vontade de comer lasanha. Onde encontra uma receita? Na internet, é claro. Antigamente, ao digitar “ideias de receitas de lasanha” no Google, você tomava contato com uma infinidade de blogs de culinária, cada um com sua própria história: a variação da família da avó, fotos passo a passo dos ingredientes dispostos sobre uma mesa de madeira, vídeos mostrando a técnica e uma longa seção de comentários onde os leitores debatiam substituições ou compartilhavam seus próprios ajustes. Clicar nesses links não apenas fornecia instruções; também apoiava o blogueiro por meio de anúncios, links afiliados para utensílios de cozinha ou uma assinatura de um boletim informativo semanal. Esse ecossistema sustentava uma cultura de experimentação, diálogo e descoberta. Foi há uma década, mas não é mais agora. A mesma busca no Google agora pode gerar uma “Visão Geral de IA” bem elaborada, uma receita sintetizada desprovida de voz, memória e comunidade, entregue sem que o usuário precise visitar o site do criador. Sem que você se dê conta, anos de trabalho — incluindo o texto, as fotos e o desenho da página — podem já ter sido usados para treinar ou refinar o modelo de IA.

Você recebe sua lasanha, o Google recebe tráfego web monetizável e, na maioria das vezes, a pessoa que criou a receita não recebe nada. A web viva se reduz ainda mais a uma interface de respostas desencarnadas, convenientes, mas, em última análise, estéreis. Não se trata de uma hipótese: Segundo umrelatório da empresa de pesquisa de mercado SparkToro, mais da metade de todas as buscas do Google nos EUA e na Europa em 2024 terminou sem nenhum clique. Da mesma forma, a plataforma de inteligência de SEO Ahrefs publicou uma análise de 300 mil palavras-chave em abril de 2025 e descobriu que, quando havia uma visão geral de IA, o número de usuários que clicavam nos resultados de busca orgânica mais bem classificados caía em média mais de um terço. Os usuários encontram respostas para suas perguntas e têm suas necessidades atendidas sem precisar sair da plataforma de busca. Até recentemente, um contrato social implícito governava a web: criadores produziam conteúdo, mecanismos de busca e plataformas o distribuíam e, em troca, o tráfego de usuários retornava aos sites dos criadores, que sustentavam o sistema. Essa barganha recíproca de tráfego em troca de conteúdo sustentou o tecido econômico, cultural e informacional da internet por três décadas. Hoje, a ascensão da IA marca uma ruptura decisiva. Os serviços de Visão Geral de IA do Google, a Busca Copilot do Bing, o ChatGPT da OpenAI, o Claude da Anthropic, o Llama da Meta e o Grok da xAI funcionam efetivamente como um novo oligopólio daquilo que vem sendo cada vez mais chamado de “mecanismos de resposta”. Eles se interpõem entre os usuários e as fontes de onde eles obtêm informações. Essa mudança ameaça a viabilidade econômica da criação de conteúdo, degrada o compartilhamento de informações e concentra o poder informacional.

Para sustentar a web, um novo sistema de Integridade Artificial deve ser incorporado a esses “mecanismos de resposta” de IA, priorizando três aspectos: procedência clara, que torne as fontes de informação visíveis e rastreáveis de forma consistente; fluxos de valor justos, que garantam que os criadores compartilhem parte do valor gerado mesmo quando os usuários não clicam em seu conteúdo; e resiliência,um espaço de informação comum que impede que o conhecimento aberto desmorone por trás de paywalls. Na prática, isso significa estabelecer novas diretrizes de design e responsabilidade, capazes de preservar a integridade, para que as plataformas de IA não possam capturar todos os benefícios das respostas instantâneas, ao mesmo tempo em que transferem os custos para os criadores e para a internet em geral.

<><> Sistema rompido

Os “mecanismos de resposta” de IA não apenas facilitaram a busca por informações, como também romperam o ciclo de valor da web, afastando a criação de conteúdo do tráfego e da receita que antes a recompensavam. Empresas de inteligência artificial têm coletado e utilizado o trabalho criativo de escritores, pesquisadores, artistas e jornalistas para treinar grandes modelos de linguagem sem buscar consentimento explícito, dar o crédito ou oferecer compensação. O New York Times entrou com processos contra a OpenAI e a Microsoft, alegando que as gigantes da tecnologia usaram seus artigos protegidos por direitos autorais para esse fim. Ao fazer isso, afirma o jornal, elas estão ameaçando o próprio modelo de negócios do jornalismo. Na verdade, a IA ameaça a sobrevivência de todos os tipos de criação de conteúdo digital. À medida que as editoras perdem tráfego, há poucos incentivos para que mantenham o conteúdo gratuito e acessível. Em vez disso, os paywalls e os licenciamentos exclusivos estão se tornando cada vez mais comuns. Isso continuará a reduzir o acervo de informações disponíveis gratuitamente, do qual dependem tanto o conhecimento humano quanto o futuro treinamento da IA. O resultado será uma base de informações degradada e privatizada. Isso fará com que os futuros sistemas de IA operem com um repertório mais restrito e frágil, tornando seus resultados cada vez mais dependentes daquilo que permanecer publicamente acessível. Isso limitará a diversidade e a atualização dos dados subjacentes, conforme documentado em uma auditoria de 2024 sobre o ” espaço comum de dados de IA “. Ao mesmo tempo, à medida que mais conteúdo visível online passa a ser gerado por IA e reutilizado em treinamentos futuros, esses sistemas ficarão mais expostos ao “colapso do modelo”, uma dinâmica documentada em um estudo publicado pela revista Nature em 2024. Ele mostrou que, quando dados reais são substituídos por sucessivas gerações sintéticas, as caudas da distribuição original começam a desaparecer à medida que as versões sintéticas do modelo começam a sobrescrever a realidade subjacente que deveriam aproximar.

Imagine que estamos fazendo uma fotocópia de uma fotocópia, repetidamente. Cada impressão preserva apenas os traços mais nítidos, e perde os detalhes sutis. Ambas as tendências enfraquecem nossa capacidade de verificar informações de forma independente. A longo prazo, isso fará com que as pessoas dependam de sistemas que amplificam erros, vieses e pontos cegos de informação, especialmente em nichos de mercado e comunidades com pouca visibilidade. Imagine uma funcionária do setor de compras de um banco de médio porte encarregada de avaliar fornecedores para uma nova plataforma de detecção de fraudes. Não muito tempo atrás, ela provavelmente teria recorrido ao Google, LinkedIn ou portais do setor para obter informações. Vasculharia fichas técnicas detalhadas, relatórios de analistas e artigos técnicos. Ao clicar no site de um fornecedor, poderia acessar as informações técnicas de que precisava e, por fim, entrar em contato com a empresa. Para o fornecedor, cada clique também alimentava seu funil de vendas. Esse tráfego não era incidental; era a força vital de todo um ecossistema de métricas, análise de projetos, campanhas de marketing e pesquisas especializadas. Hoje, a tarefa é executada de forma diferente. A consulta inicial de um responsável por compras provavelmente resultaria em uma comparação gerada por IA, condensando o leque de opções em poucos parágrafos: o produto A se destaca em conformidade; o produto B se sobressai em velocidade; o produto C tem um bom custo-benefício. Por trás dessa síntese, provavelmente estarão inúmeros relatórios técnicos, webinars e estudos de caso produzidos por fornecedores e analistas — anos de experiência corporativa transformados em um resumo de IA. Como resultado, o responsável pelas compras pode nunca mais sair da interface. As equipes de marketing dos fornecedores, vendo as vendas impulsionadas por cliques diminuírem, podem deixar de publicar materiais abertos. Algumas podem bloquear relatórios, em busca de altos custos de acesso. Outras podem interromper completamente a produção de relatórios e outras ainda podem fechar acordos de exclusividade de dados com plataformas, apenas para manter a visibilidade. A oferta outrora diversificada de conhecimento aberto do setor se contrairia em silos privatizados. Enquanto isso, os fornecedores se tornariam ainda mais dependentes das próprias plataformas que extraem seu valor.

<><> Os cinco mecanismos de captura

A ruptura que estamos presenciando no modelo econômico e informacional da web é impulsionada por cinco mecanismos que se reforçam mutuamente e que determinam qual conteúdo é visualizado, quem recebe o crédito e quem é remunerado. Economistas e equipes de produto podem chamar esses mecanismos de captura de intenção , substituição, diluição da atribuição, mudanças na monetização e quebra do ciclo de aprendizado . A captura de intenção ocorre quando a plataforma transforma uma pesquisa online em uma resposta na própria plataforma, evitando que o usuário precise clicar na fonte original da informação. Esse mecanismo transforma a página de resultados tradicional de um mecanismo de busca, que antes era um catálogo de links, em uma superfície fechada de respostas sintetizadas, restringindo tanto a visibilidade quanto as opções.

A substituição, que ocorre quando os usuários confiam em resumos gerados por IA em vez de clicarem nos links para as fontes originais e, assim, gerarem o tráfego necessário para os criadores, é particularmente prejudicial. Esse dano é mais pronunciado em certas áreas de conteúdo. A substituição é alta em pesquisas factuais, definições, receitas e resumos de notícias, onde uma resposta simples costuma ser suficiente. Por outro lado, a substituição é baixa em conteúdos como jornalismo investigativo, conjuntos de dados proprietários e experiências multimídia, que são mais difíceis de serem sintetizados pela IA em um substituto satisfatório. Os incentivos de cada parte são distintos: as plataformas são recompensadas por maximizar a retenção de consultas e o retorno publicitário; os editores, por atrair tráfego de referência e assinantes; e os reguladores, por preservar a concorrência, a pluralidade da mídia e a rastreabilidade. Os usuários também preferem respostas instantâneas e de fácil acesso às suas consultas. Esse desalinhamento permite às plataformas assegurar satisfação em ciclo fechado, enquanto os fundamentos econômicos da criação de conteúdo permanecem subfinanciados.

A diluição da atribuição agrava o problema. Quando as fontes de informação são ocultadas em menus suspensos ou listadas em pequenas notas de rodapé, o crédito existe formalmente, mas não em prática. A tendência dos mecanismos de busca, de simplesmente exibir links para as fontes (o que muitos fazem de forma inconsistente) não resolve a questão. Esses links são frequentemente subestimados e geram pouco ou nenhum valor econômico, criando uma lacuna significativa de consentimento para o conteúdo usado no treinamento de modelos de IA. Quando a atribuição se torna difusa entre múltiplas fontes e nenhum valor é gerado sem cliques ou compensação, essa lacuna se torna especialmente crítica. A mudança na monetização refere-se ao valor monetário redirecionado, que agora flui exclusivamente para “mecanismos de resposta” de IA, em vez de beneficiar os criadores e editores de conteúdo. Essa mudança já está em curso e vai além da mídia. Quando o conteúdo que promove ou avalia diversos produtos e serviços recebe menos cliques, as empresas muitas vezes precisam investir mais para ser encontradas online, o que pode aumentar os custos de conquista de clientes e, em alguns casos, os preços.

Essa mudança também pode impactar os empregos das pessoas: pode ser que sejam necessárias menos funções para produzir e otimizar conteúdo da web para mecanismos de busca, enquanto podem surgir mais funções relacionadas ao licenciamento de conteúdo, à gestão de parcerias de dados e à governança de sistemas de IA. A quebra do ciclo de aprendizagem descreve a redução da abrangência e da qualidade da internet gratuita como resultado das práticas disruptivas dos “mecanismos de resposta” de IA. À medida que o espaço comum da informação se torna mais escasso, dados de alta qualidade se tornam um recurso limitado e controlável. Analistas alertam que o controle de dados valiosos pode funcionar como uma barreira de entrada e concentrar o poder dos intermediários.

Essa dinâmica é comparável ao que chamo de uma potencial “OPEP de Dados”, uma metáfora para um punhado de plataformas poderosas e detentoras de direitos que controlam o acesso a dados de alta qualidade, assim como a Organização dos Países Exportadores de Petróleo (OPEP) controla o fornecimento de petróleo. Assim como a OPEP pode restringir a oferta de petróleo ou aumentar os preços para moldar os mercados globais, esses intermediários de dados podem restringir ou monetizar o acesso às informações usadas para construir e aprimorar sistemas de IA. Incluem-se aí conjuntos de dados de treinamento, o que aumenta os custos, reduz a abertura e concentra o poder de inovação em poucas mãos. Dessa forma, o que começa como uma escolha de design de interface se transforma em um risco ecológico para todo o ecossistema do conhecimento.

O efeito combinado desses cinco mecanismos está levando a uma reconfiguração do poder informacional. Se os “mecanismos de resposta” de IA se tornarem o ponto de chegada da informação em vez da porta de entrada, a arquitetura da web corre o risco de ser esvaziada por dentro. As consequências vão além da economia: elas afetam a sustentabilidade dos ecossistemas de informação pública, os incentivos à criatividade futura e a integridade do patrimônio comum da informação. Se não forem controladas, essas forças ameaçam comprometer a resiliência do ambiente digital do qual tanto criadores quanto usuários dependem. O que se faz necessário é uma reformulação sistêmica dos incentivos, guiada pela estrutura da Integridade Artificial, e não apenas pela inteligência artificial.

<><> Em busca da Integridade Artificial

Aplicada ao desafio atual, a Integridade Artificial pode ser compreendida em três dimensões: integridade da proveniência da informação, integridade econômica dos fluxos de informação e integridade dos bens comuns de informação compartilhados.

A integridade da proveniência da informação consiste em garantir que as fontes sejam visíveis, rastreáveis e devidamente creditadas. Isso deve incluir quem criou o conteúdo, onde foi publicado e o contexto em que foi originalmente apresentado. O princípio fundamental é a transparência: as citações não devem ser ocultadas em notas de rodapé. A Integridade Artificial também exige que as citações contenham metadados de proveniência ativos, uma assinatura – verificável e legível por máquina – que vincule cada fragmento da saída gerada à sua fonte original, permitindo que usuários e sistemas rastreiem os fluxos de informação com o mesmo rigor de uma citação científica. Isso introduz algo além da simples exibição de links para as fontes: trata-se de um design sistêmico onde a proveniência é incorporada criptograficamente ou estruturalmente, e não apenas adicionada de modo superficial. Dessa forma, a integridade da proveniência torna-se uma salvaguarda contra o apagamento, garantindo que os criadores permaneçam visíveis e creditados mesmo que o usuário não clique para acessar a fonte original.

A integridade econômica dos fluxos de informação consiste em garantir que o valor retorne aos criadores, e não apenas às plataformas. A Integridade Artificial exige repensar a forma como links e citações são valorizados. Na economia digital atual, um link só importa se for clicado, o que significa que fontes citadas, mas não visitadas, não geram valor monetário. Em um modelo baseado na integridade, o próprio ato de ser citado em uma resposta gerada por IA teria peso econômico, garantindo que o crédito e a compensação fluam mesmo quando a interação do usuário termina na interface. Isso realinharia os incentivos, passando da busca por cliques para a contribuição ao conhecimento, transformando a economia de um modelo baseado apenas em desempenho para um modelo que considera a proveniência. Para alcançar esse objetivo, órgãos reguladores e de padronização poderiam exigir que os “mecanismos de resposta” de IA compensassem não apenas o tráfego gerado, mas também as informações citadas. Essas plataformas poderiam implementar regras de destaque da fonte, de modo que as citações não ficassem ocultas em notas de rodapé, mas incorporadas de forma a gerar valor econômico mensurável.

A integridade do patrimônio comum da informação compartilhada consiste em garantir que a base de informações públicas permaneça sustentável, aberta e resiliente, em vez de se degradar em um recurso pago ou privatizado. Nesse sentido, a Integridade Artificial defende o reinvestimento obrigatório das receitas das plataformas de IA em conjuntos de dados abertos como uma função intrínseca ao ciclo de vida da IA. Isso significa que grandes plataformas de IA, como Google, OpenAI e Microsoft, seriam legalmente obrigadas a destinar uma porcentagem fixa de suas receitas para a sustentabilidade do patrimônio comum da informação compartilhada. Essa alocação seria incorporada arquiteturalmente aos seus fluxos de desenvolvimento de modelos. Por exemplo, um “fundo para bens comuns digitais” poderia canalizar parte da receita de IA do Google para manter recursos como a Wikipédia, o PubMed ou arquivos acadêmicos abertos sustentáveis e atualizados. Fundamentalmente, esse reinvestimento seria incorporado aos ciclos de retreinamento, de modo que cada interação de um modelo atualizasse e mantivesse estruturalmente os recursos de acesso aberto, juntamente com seu próprio ajuste de desempenho. Dessa forma, a sustentabilidade do patrimônio comum de informação se tornaria parte da lógica operacional do sistema de IA, e não apenas uma política externa voluntária. Na prática, isso garantiria que cada ciclo de aprimoramento da IA também aprimorasse o patrimônio comum de informação do qual depende, alinhando os incentivos das plataformas privadas com a sustentabilidade da informação pública. Precisamos projetar um ecossistema onde essas três dimensões não sejam prejudicadas pelo foco na otimização das plataformas de IA, mas sim protegidas estruturalmente, tanto na forma como as plataformas acessam e exibem o conteúdo para gerar respostas, quanto no ambiente regulatório que as sustenta.

<><> Da teoria à prática

Para que uma abordagem de Integridade Artificial funcione, precisaríamos de sistemas de transparência e responsabilização. As empresas de IA teriam que ser obrigadas a publicar dados agregados verificáveis, mostrando se os usuários param nos resumos de IA ou clicam para acessar as fontes originais. Fundamentalmente, para proteger a privacidade dos usuários, essa divulgação precisaria incluir apenas métricas de interações agregadas, relatando padrões gerais. Isso garantiria que os registros individuais dos usuários e seus históricos de pesquisa pessoal nunca fossem expostos. Auditores independentes terceirizados, credenciados e supervisionados por órgãos reguladores, assim como as empresas de contabilidade hoje em dia, teriam que verificar esses números. Da mesma forma que as empresas não podem autodeclarar sua saúde financeira, mas devem apresentar balanços auditados, as plataformas de IA não poderiam mais simplesmente afirmar que estão contribuindo para a web sem validação independente.

Em termos de integridade econômica dos fluxos de informação , a regulamentação ambiental oferece uma analogia útil. Antes das normas ambientais modernas, as empresas podiam tratar a poluição como um efeito colateral invisível de suas atividades comerciais. A fumaça no ar ou os resíduos na água impunham custos reais à sociedade, mas esses custos não apareciam no balanço patrimonial do poluidor. As normas de emissões mudaram isso ao introduzir limites legais claros sobre a quantidade de poluentes que carros, fábricas e usinas de energia podem emitir, e ao exigir que as empresas meçam e relatem essas emissões. Essas normas transformaram a poluição em algo que precisava ser monitorado, reduzido ou compensado por meio de multas e tecnologias mais limpas, em vez de ser simplesmente imposto ao público. De forma semelhante, os limiares de Integridade Artificial poderiam garantir que o valor que as empresas de IA extraem do conteúdo dos criadores venha acompanhado de obrigações financeiras para com essas fontes. Um limiar de integridade poderia ser simplesmente uma linha numérica clara, como os limites de poluição nas normas de emissões, que marca o ponto em que uma plataforma de IA está extraindo valor em excesso sem enviar tráfego ou receita suficiente de volta às fontes. Enquanto os números permanecerem abaixo do limite aceitável, o sistema é considerado sustentável; uma vez que ultrapassem o limite, a plataforma tem a obrigação legal de mudar seu comportamento ou compensar os criadores dos quais depende.

Isso poderia ser imposto por reguladores nacionais ou regionais, como autoridades de concorrência, reguladores de mídia ou órgãos de proteção de dados. Regras semelhantes começaram a surgir em algumas jurisdições que regulamentam os mercados digitais e as relações entre plataformas e editoras, como a UE , o Canadá ou a Austrália , onde as estruturas de negociação de notícias e direitos autorais estão experimentando a partilha obrigatória de receitas para o jornalismo. Esses precedentes poderiam ser adaptados de forma mais ampla à medida que os “mecanismos de resposta” de IA remodelam a forma como pesquisamos online. Esses limites também poderiam ser submetidos a auditorias independentes padronizadas de métricas de interação agregadas. Ao mesmo tempo, as plataformas de IA poderiam ser obrigadas a fornecer painéis de controle voltados para editores, exibindo as mesmas métricas auditadas em tempo quase real, mostrando a frequência de citações, o posicionamento e os resultados de tráfego para seu conteúdo. Esses painéis poderiam servir como interface operacional para a tomada de decisões diárias, enquanto os relatórios de auditoria independentes poderiam fornecer um parâmetro de referência legalmente verificado, garantindo precisão e comparabilidade em todo o ecossistema. Dessa forma, criadores e editores não ficariam na dúvida se suas contribuições são valorizadas. Eles receberiam informações práticas para seus modelos de negócios e prestação de contas formal. Juntas, essas duas camadas incorporariam a integridade da procedência ao sistema: visibilidade para os criadores, rastreabilidade para os órgãos reguladores e transparência para o público.

A aplicação da lei pode combinar recompensas e penalidades. No que diz respeito às recompensas, as plataformas que mostram a origem das suas informações e que ajudam a financiar importantes recursos de informação pública podem obter benefícios como créditos fiscais ou menor risco jurídico. No que diz respeito às penalidades, as plataformas que ignoram estas regras de integridade podem enfrentar multas crescentes, semelhantes às sanções antitruste que já vemos na UE.

É aqui que as três dimensões se encontram: a integridade da proveniência da informação na forma como as fontes são citadas, a integridade econômica dos fluxos de informação na forma como o valor é compartilhado e a integridade dos bens comuns da informação na forma como os recursos abertos são mantidos. A Integridade Artificial para plataformas que fornecem respostas geradas por IA representa mais do que um conjunto de correções técnicas. Ao reformular a busca de informações mediada por IA não como uma questão de ajustes de recursos, mas como uma questão de design, código e governança em produtos de IA, ela aborda um reequilíbrio necessário em direção a uma distribuição de valor mais justa e sustentável, da qual a web depende, agora e no futuro.

 

Fonte: Por Hamilton Mann,  em Outras Palavras

 

Nenhum comentário: