Snowden
denuncia a arapuca do ChatGPT
Em 13
de maio de 2025, um tribunal federal dos EUA emitiu uma ordem chocante. Exigiu
que a OpenAI “preservasse e segregasse todos os registros de atividades dos
usuários”, mesmo que estas pessoas ou empresas desejassem excluí-los. Esta
ordem significa que, a partir daquele dia, as mais de 1 bilhão de conversas com
o ChatGPT enviadas diariamente por mais de 300 milhões de usuários em todo o
mundo estão sendo preservadas indefinidamente—mesmo quando os usuários clicam
em “excluir”.
A ordem
decorre de um processo envolvendo direitos autorais, movido pelo New York Times
contra a OpenAI. Mas o fundamento do tribunal é perturbador: “usuários que
excluem seus dados são provavelmente infratores de direitos autorais tentando
apagar seus rastros.” Em outras palavras, exercer o direito de excluir—uma
proteção fundamental de privacidade—está sendo tratado pelo tribunal como
evidência de suspeita criminal.
O
executivo-chefe da OpenAI, Sam Altman, alertou nas redes sociais que esta
decisão “compromete a privacidade do usuário” e “estabelece um mau precedente”.
Mas a pergunta mais perturbadora é: o que contêm essas conversas preservadas à
força? Sintomas médicos que os usuários confidenciaram ao ChatGPT, dificuldades
financeiras, planos de carreira, segredos pessoais—tudo isso “pode ser vendido
ou doado, violado por hackers, divulgado para as forças da lei”.
Não se
trata de uma ameaça hipotética. Em 2023, funcionários da Samsung vazaram
código-fonte confidencial da empresa através do ChatGPT. Os advogados da
empresa coreana alertaram que esses dados são “impossíveis de recuperar, porque
agora estão armazenados em servidores pertencentes à OpenAI”. Apple, Amazon,
JPMorgan Chase, Goldman Sachs, Deutsche Bank… da tecnologia às finanças, da
saúde ao direito, uma longa relação revela: as maiores e mais bem equipadas
empresas do mundo estão restringindo o uso do ChatGPT por seus funcionários.
Pesquisas mostram que quase 70% das empresas bloqueiam esta ferramenta para
proteger informações confidenciais.
Se
mesmo essas corporações multinacionais com as equipes de cibersegurança mais
avançadas não podem usar o ChatGPT com segurança, como poderão fazê-lo os
governos e empresas do Sul Global?
A
vigilância corporativa é apenas a ponta do iceberg. Quando Edward Snowden—o
denunciante que expôs o programa de vigilância em massa dos EUA, o PRISM—emite
um alerta, devemos perceber que o problema é muito mais sério do que vazamentos
de dados empresariais.
<><>
Do PRISM ao ChatGPT: uma escalada da vigilância
Em
junho de 2024, a OpenAI nomeou o general Paul Nakasone, ex-diretor da NSA
(Agência de Segurança Nacional dos EUA), para seu conselho de administração.
Edward Snowden emitiu nas redes sociais um de seus alertas mais severos desde
que foi obrigado ao exílio: “Eles tiraram totalmente a máscara: Nunca confiem
na OpenAI ou em seus produtos. Esta é uma traição consciente e calculada dos
direitos de cada pessoa no planeta. Vocês foram avisados.”
Snowden
não fala em vão. Em 2013, com grande risco à sua própria liberdade, ele expôs o
programa PRISM da NSA—um plano para coletar dados diretamente de gigantes da
tecnologia como Google, Facebook e Apple, realizando vigilância em massa sem
mandados judiciais. O escândalo do PRISM causou ondas de choque globais,
levando muitos países a fortalecerem as leis de proteção à privacidade e a UE a
introduzir o Regulamento Geral sobre a Proteção dos Dados (GDPR, em inglês).
Snowden
agora alerta que o ChatGPT é uma ferramenta de vigilância mais poderosa que o
PRISM. Por que? O PRISM coletava passivamente dados de comunicação; o ChatGPT
faz com que os usuários forneçam ativamente seus pensamentos mais privados. O
PRISM coletava principalmente metadados (quem contacta quem); o ChatGPT coleta
conteúdo completo—pensamentos, planos, preocupações, segredos das pessoas. O
PRISM envolvia alguns milhões de usuários; o ChatGPT tem mais de 300 milhões de
usuários, com mais de 1 bilhão de mensagens diárias. Mais criticalmente, a
exposição do PRISM desencadeou resistência e reformas legais; o comportamento
de vigilância do ChatGPT foi divulgado publicamente, mas continua a ser
amplamente aceito e usado.
Alguns
comentaristas chegaram a chamar o ChatGPT de “o maior banco de dados de
vigilância de todos os tempos—o banco de dados com o qual a NSA só sonhava”.
<><>
A OpenAI confessa que vigia os usuários
O
alerta de Snowden não é baseado em especulação, mas em seu profundo
entendimento sobre como a máquina de vigilância opera. Ainda mais perturbador é
que nem precisamos de um denunciante para provar que a OpenAI monitora os
usuários. Os próprios relatórios da OpenAI já admitiram isso.
Em
outubro de 2025, a empresa divulgou um relatório intitulado “Bloqueando usos
maliciosos da IA” [“Disrupting malicious uses of AI”. O documento anunciou com
orgulho que, desde fevereiro de 2024, “bloqueou e reportou” mais de 40 redes
que violavam suas políticas de uso. O relatório divulgou em detalhes que contas
relacionadas ao governo chinês usariam o ChatGPT para redigir propostas de
sistemas de monitoramento de mídia social em larga escala. Organizações russas
tentariam, sempre segundo o texto, refinar vírus invasores para acesso remoto a
sistemas e roubo de credenciais de usuários com poderes especiais. Hackers
norte-coreanos teriam criaram conteúdo invasor visando atacar a Coreia do Sul.
A
OpenAI enquadra essas divulgações como conquistas no combate ao “uso
malicioso”. Mas o relatório revela inadvertidamente uma verdade mais profunda:
para identificar esses casos específicos de “uso malicioso”, a OpenAI deve
possuir e usar sua capacidade de monitorar rotineiramente todas as conversas
dos usuários.
Pense
na lógica técnica: para descobrir um usuário chinês que supostamente esteja
desenvolvendo um sistema de vigilância de uigures, a OpenAI precisa acessar e
analisar todo o conteúdo da conversa desse usuário; implantar sistemas de
monitoramento em tempo real ou quase real; ser capaz de analisar conteúdo e
reconhecer padrões; conseguir associar usuários a países ou organizações
específicas e, então, escolher proativamente quais casos divulgar.
A
questão mais crítica é: a OpenAI só divulga casos do que considera serem
“nações adversárias” (China, Rússia, Irã, Coreia do Norte). E sobre os países
ocidentais? E sobre os aliados dos EUA? O relatório permanece em silêncio. Esta
divulgação seletiva prova precisamente que a OpenAI pode monitorar todos os
países, mas escolhe divulgar apenas as partes que se alinham com os interesses
geopolíticos dos EUA. Se eles podem monitorar a China e a Rússia, podem
monitorar o Brasil, a Índia, a África do Sul — e todos os países do Sul Global.
Em
agosto de 2025, a OpenAI admitiu abertamente em uma postagem oficial de blog
que a empresa está escaneando as conversas dos usuários no ChatGPT e reportando
conteúdo à polícia. O mecanismo específico: conversas de usuários “planejando
causar danos a outros” são direcionadas para canais de revisão especializados,
para exame por revisores humanos treinados. Se os revisores determinarem que um
caso envolve “uma ameaça iminente de dano físico grave a outros”, ele é
encaminhado às forças da lei.
Mas
onde estão os padrões? O que significa “causar danos a outros”? Quem define
isso? Esses padrões mudarão com o ambiente político? Hoje são “ameaças
violentas iminentes”. Amanhã abrangerão a dissidência política, consultas sobre
aborto, discussões sobre orientação sexual?
<><>
O assombroso abismo entre as palavras e a prática
A
“Política oficial de solicitação de dados de dsuários para aplicação da lei” da
OpenAI afirma explicitamente: o conteúdo da conversa do usuário só será
divulgado mediante o recebimento de um mandado de busca legal. Mas qual é a
realidade? A OpenAI monitora proativamente todas as conversas dos usuários (o
que foi comprovado pelos relatórios citados acima); faz seus próprios
julgamentos sobre o que constitui “uso malicioso”, reporta proativamente às
autoridades para a aplicação da lei (em vez de apenas responder a solicitações)
e publica relatórios de inteligência de ameaças divulgando publicamente o
comportamento do usuário — tudo sem qualquer processo legal.
As
autoridades regulatórias europeias perceberam isso. Em dezembro de 2024, a
autoridade de proteção de dados da Itália multou a OpenAI em 15 milhões de
euros por motivos que incluíam “processar informações pessoais dos usuários sem
base legal adequada” e “violar o princípio da transparência”. O pesquisador de
privacidade Łukasz Olejnik foi mais direto em uma reclamação de 17 páginas à
autoridade de proteção de dados da Polônia: “A OpenAI parece aceitar que a
forma como os modelos de ferramenta do ChatGPT são desenvolvidos é
fundamentalmente incompatível com os requisitos do Regulamento Geral de
Proteção de Dados (GDPR) da União Europeia”.
Não se
trata um descuido da OpenAI, mas de um problema fundamental com seu modelo de
negócios. A resposta da OpenAI à multa italiana expôs sua lógica: a multa é
“quase 20 vezes a receita”— significando que a empresa ganha pouco dinheiro no
país, mas o valor da coleta de dados é enorme. A multa é meramente o “custo” de
coletar dados.
<><>
Fusão Estratégica com o governo dos EUA
O
relacionamento da OpenAI com o governo dos EUA vai muito além de uma cooperação
comercial comum. Da perspectiva de pessoal, o membro do conselho da OpenAI Paul
Nakasone é o ex-diretor da NSA, responsável pelas operações de inteligência e
guerra cibernética dos EUA. Outro membro do conselho, Will Hurd, atuou como
oficial da CIA e integra o conselho da In-Q-Tel (o principal braço de
investimentos da CIA).
Da
perspectiva de cooperação comercial, a OpenAI lançou o ChatGPT Gov, um serviço
projetado especificamente para agências do governo dos EUA. Os detalhes
chocantes incluem um acordo com a Administração de Serviços Gerais dos EUA. Ele
fornece o ChatGPT Enterprise para estas agências por apenas US$ 1 por agência,
por ano. É essencialmente uma doação.
Do
ponto de vista da integração técnica, o ChatGPT Gov permite que agências do
Estado norte-americano insiram “dados sensíveis e não públicos” nos modelos da
OpenAI, realizando o processamento de dados ultrassecretos. O GPT-4o da OpenAI
é integrado através do Microsoft Azure na nuvem do governo dos EUA. Significa
que agências federais com responsabilidades de trabalho secretas, incluindo o
Departamento de Defesa, podem usar o GPT-4o para missões não reveladas ao
público.
Um
duplo padrão revelador: a OpenAI sustenta que não usará os dados inseridos por
funcionários federais norte-americanos para treinar seus modelos, o que fornece
um “firewall de dados” para o governo dos EUA. Mas os usuários em outros países
não têm tal proteção.
O preço
anual de US$ 1 não é uma transação comercial, mas uma cooperação estratégica.
Que conteúdo está nas 18 milhões de mensagens enviadas pelos 90 mil usuários do
governo? Como essas mensagens estão sendo usadas? Enquanto isso, a CIA também
está desenvolvendo sua própria versão do ChatGPT, chamada Osiris, para uso de
milhares de analistas das 18 agências de vigilância dos Estados Unidos. A
fronteira entre os grandes modelos de linguagem (LLMs) e os de espionagem está
desaparecendo.
<><>
De “Vigilância em Massa” para “Espionagem em Massa”
O
especialista em segurança Bruce Schneier adverte que a IA permite uma mudança
qualitativa na vigilância—de “vigilância em massa” para “espionagem em massa”.
A diferença: vigilância é coleta e armazenamento; espionagem é compreensão e
exploração. A vigilância tradicional só pode realizar buscas por
palavras-chave; a IA pode “entender” contexto e significados implícitos,
analisando simultaneamente bilhões de conversas e identificando padrões
complexos. A União Americana pelas Liberdades Civis (ACLU) observa que os
grandes modelos de linguagem permitem “um aumento enorme no número de
comunicações que são monitoradas de forma relevante”.
Uma
ameaça mais insidiosa é a contaminação dos dados de treinamento. Funcionários
da Amazon contam ter visto o ChatGPT “imitando” dados internos da empresa,
embora não os reproduzisse totalmente – mas de forma “convincente o
suficiente”. Significa: mesmo que você não insira informações diretamente, o
ChatGPT pode reconstruir informações sensíveis agregando as entradas de outros.
Nos países do Sul Global, mesmo que os funcionários sejam proibidos de usar o
sistema da OpenAI, o ChatGPT pode “aprender” seus segredos nacionais, desde que
terceiros (agências de inteligência estrangeiras, corporações multinacionais) o
empreguem.
<><>
A Crise de Soberania Digital do Sul Global
A China
baniu completamente o ChatGPT. Em 29 de janeiro de 2025, o ministério das
Finanças da Índia emitiu um comunicado restringindo o uso de ferramentas de IA
como ChatGPT e DeepSeek no trabalho oficial por funcionários do governo,
argumentando que essas ferramentas dependem de servidores no exterior para
armazenar e processar dados, tornando o governo incapaz de controlar o uso de
informações sensíveis. Pesquisadores brasileiros apresentaram uma petição à
autoridade de proteção de dados para investigar as violações da LGPD pelo
ChatGPT, apontando que a OpenAI chega a fornecer números de CPF de figuras
públicas brasileiras.
Mas a
vigilância não equivale à capacidade de resposta. A Unctad (Conferência das
Nações Unidas sobre Comércio e Desenvolvimento) observa que os países do Sul
Global enfrentam “um novo ciclo de colonialismo digital”. Um triplo dilema:
perda de soberania de dados, dependência tecnológica (chips, modelos, serviços
de nuvem controlados por algumas empresas) e valores impostos (valores do Vale
do Silício incorporados globalmente através da IA). Construir uma nova IA é
extremamente dispendioso, e o acesso a chips é controlado de forma estrita.
Mesmo com investimento maciço, “você ainda não pode eliminar a dependência de
países estrangeiros”.
<><>
Um alerta de Colonialismo
A
desigualdade de poder na era da IA recria padrões coloniais históricos: os
países do Sul Global fornecem dados (matérias-primas). Estes dados fluem para
servidores dos EUA para serem processados e explorados. O Norte controla a
capacidade de processamento e depois vende serviços de IA (produtos acabados)
para o Sul. Os lucros e o controle permanecem no Norte. Não é uma metáfora, mas
a realidade econômica. A pesquisa do autor mostra que o Google, sozinho,
acrescentou a seu ativo, em 2024, dados de usuários avaliados em 36 bilhões de
dólares. Ainda assim, a discussão internacional sobre contabilização do valor
dos dados, determinação de direitos e distribuição de benefícios é quase
inexistente.
O
colonialismo mais profundo é ideológico. A análise quantitativa mostra que
mesmo os grandes modelos domésticos exibem níveis moderados a altos de viés
ideológico ocidental—porque os acervos de treinamento dependem fortemente de
conteúdo em inglês, com fontes de informação controladas pelo Ocidente
recebendo peso excessivamente alto.
<><>
Outro Caminho: Cooperação Soberana com a China
A
janela histórica para os países do Sul Global construírem independentemente
sistemas completos de tecnologias de informação e comunicação por meio da
autossuficiência está fechada. A realidade : China e EUA investem em Pesquisa
& Desenvolvimento de IA na ordem dos trilhões de dólares, enquanto o
projeto IndianAI da Índia é de apenas US$ 1,25 bilhão. Mas isso não significa
desespero. O Sul Global tem duas escolhas: continuar usando a infraestrutura
norte-americana, submetendo-se a extração de dados, doutrinação ideológica e
ameaças à segurança; ou estabelecer cooperação tecnológica com a China, em
condições que mantenham e fortaleçam a soberania digital.
De
acordo com as avaliações do Índice de Soberania Digital (DSI), a China é o
único país além dos Estados Unidos com soberania digital completa, com uma
pontuação DSI de 4,25. Caminhos específicos de cooperação incluem: primeiro,
co-construir infraestrutura digital através de modelos como BOT; segundo,
desenvolvimento cooperativo de elementos de dados, quantificando o valor do
ativo de dados e negociando mecanismos mutuamente benéficos; terceiro,
aprendizado mútuo de experiências de governança; quarto, cultivo conjunto de
talentos, incorporando transferência de tecnologia e capacitação.
<><>
Chegou a Hora de Agir
Em maio
de 2025, um tribunal dos EUA ordenou que a OpenAI preservasse indefinidamente
todas as conversas dos usuários. Poucos dos mais de 300 milhões de usuários em
todo o mundo perceberam que suas consultas médicas, planejamentos financeiros,
ansiedades de carreira, segredos pessoais agora estão armazenados de modo
compulsório nos servidores da OpenAI, possivelmente “para serem vendidos ou
doados, violados por hackers ou divulgados para as forças da lei”.
Quando
um engenheiro da Samsung abriu o ChatGPT em 2023 buscando ajuda com código, ele
pensou estar apenas empregando uma ferramenta conveniente. Não percebeu que os
segredos de sua empresa estavam “agora tecnicamente nas mãos da OpenAI” e eram
“impossíveis de recuperar”. A Samsung pode banir o ChatGPT, a Apple pode
desenvolver suas próprias ferramentas de IA, o banco Goldman Sachs pode
bloquear este serviço. Mas e as pequenas empresas do Sul Global? E seus
departamentos governamentais? As instituições de pesquisa? Eles têm os recursos
da Samsung? As capacidades técnicas da Apple?
Quando
Edward Snowden diz que a OpenAI é uma “traição consciente dos direitos de cada
pessoa no planeta”, ele não está exagerando. Emite este alerta com base em um
profundo entendimento da máquina de vigilância norte-americana. Quando o
especialista em segurança Bruce Schneier diz que estamos passando de
“vigilância em massa” para “espionagem em massa”, ele revela uma mudança na
natureza da vigilância: não apenas coletar dados, mas entender, processar e
explorar dados.
Para os
países do Sul Global, isso não é apenas uma questão de privacidade, mas de
soberania. Os dados são o novo petróleo, a IA é a nova infraestrutura. Entregar
o controle de dados e IA para empresas norte-americanas é como historicamente
entregar o controle de recursos naturais e infraestrutura a colonizadores.
A
janela histórica pode ter fechado, mas a janela de escolha permanece aberta. Os
países do Sul Global podem escolher continuar aceitando passivamente o
colonialismo digital americano, ou podem escolher cooperar com países como a
China para adotar tecnologia avançada, mantendo e fortalecendo sua própria
soberania digital. A estrutura do Índice de Soberania Digital (DSI) fornece
ferramentas para avaliação e acompanhamento. Quatro recomendações específicas
fornecem um caminho para a ação. O que falta não é um plano, mas determinação.
Quando
funcionários do governo usam o ChatGPT para redigir documentos oficiais; quando
empresas usam o ChatGPT para planejamento de negócios; quando seus
pesquisadores o empregam para pesquisa investigativa, é preciso estar ciente:
essas conversas podem estar sendo monitoradas, analisadas pela OpenAI e
compartilhadas com agências de inteligência dos EUA.
A lição
da ordem judicial de maio de 2025 é: mesmo que você clique em “excluir”, os
dados ainda podem ser preservados à força. A lição do caso Samsung é: uma vez
que carregados, os dados são “impossíveis de recuperar”. A lição para os países
do Sul Global deveria ser: uma vez que a soberania digital é perdida, é difícil
resgatá-la.
Fonte:
Por Jeff Xiong | Tradução: Sérgio Amadeu, em Outras Palavras

Nenhum comentário:
Postar um comentário