sexta-feira, 27 de fevereiro de 2026

James Görgen: IA - a chance desperdiçada na Índia

Quase 90 países e organizações participantes da Cúpula da Índia sobre Impacto de IA, realizada em Nova Délhi na semana passada, assinaram uma declaração de líderes que ficou muito aquém das necessidades dos grandes mercados digitais em desenvolvimento. Ao contrário das edições precedentes do evento criado pelo Reino Unido, muitos esperavam que o encontro marcasse uma virada na forma como o mundo pensa a governança da inteligência artificial — uma perspectiva genuinamente diferente daquela produzida nos fóruns liderados por países do Norte Global. A expectativa fazia sentido porque pela primeira vez, um país do Sul Global ocupava o centro do palco. O resultado, porém, decepcionou observadores mais atentos à cena global de IA e foi endossado pelo governo brasileiro. A Declaração de Líderes produzida é mais principiológica do que normativa e, ao silenciar sobre as questões estruturais mais urgentes, acaba por legitimar exatamente o estado de coisas que deveria desafiar. Mas há um elemento ainda mais perturbador, que ficou à sombra dos holofotes: às margens da cúpula, a Índia assinou sua adesão à Pax Silica — o pacto estadunidense de segurança de cadeias de suprimento de IA e semicondutores — consolidando um realinhamento geopolítico cujas consequências para o Sul Global e para o Brasil merecem atenção urgente.

A declaração de líderes organiza sua visão de governança da IA em torno de sete “Chakras” — pilares que incluem capital humano, acesso social, confiabilidade, eficiência energética, ciência, democratização e crescimento econômico. O tom é aspiracional e filosoficamente ancorado em conceitos da cultura indiana, como Vasudhaiva Kutumbakam (“o mundo é uma família”). Para além da retórica, contudo, o que a declaração propõe são plataformas e instrumentos voluntários e não vinculantes — uma Trusted AI Commons, um Global AI Impact Commons, uma Rede Internacional de IA para Instituições Científicas — como se a cooperação informal fosse suficiente para reequilibrar uma corrida tecnológica cujas fichas estão profundamente concentradas nas mãos de um punhado de empresas estadunidenses e chinesas.

<><> Soberania efetiva

A omissão mais grave diz respeito à soberania digital do Sul Global. O documento menciona “soberania nacional” apenas de passagem e de forma protocolar, sem nenhum mecanismo concreto que garanta que países em desenvolvimento possam desenvolver IA de forma autônoma — e não apenas adotar o que for oferecido pelas empresas do Norte. Não há menção à transferência de tecnologia, ao licenciamento compulsório de modelos, à regulação econômica da concentração de mercado nas big techs, nem a qualquer instrumento que impeça o aprofundamento da extração de dados de países em desenvolvimento sem contrapartida. Não há menção sequer a Sul Global ou países em desenvolvimento.

A expressão “democratização dos recursos de IA” esvazia-se de conteúdo quando toda a estrutura proposta é voluntária. O que historicamente reproduz dependência tecnológica não é a falta de retórica inclusiva, mas a ausência de obrigações vinculantes. A ênfase em “código aberto quando apropriado” é vaga o suficiente para não comprometer nada. Infraestrutura descentralizada não significa autonomia tecnológica uma vez que os serviços de nuvem podem estar em país em desenvolvimento, mas seu controle continuar sob a égide de uma big tech – como já vem ocorrendo.

<><> Bolha ignorada

Igualmente preocupante é o silêncio sobre os riscos da bolha financeira de IA. O documento ignora completamente as consequências macroeconômicas da atual hiperinflação de investimentos no setor. Bilhões de dólares foram aplicados em infraestrutura de IA com base em projeções de retorno que ainda não se materializaram. Para economias emergentes que tentam “pular na onda” desse ciclo especulativo — pressionadas por narrativas de que ficar de fora significaria condenação ao atraso —, o risco é especialmente grave. Bolhas tecnológicas anteriores deixaram um rastro de dívidas públicas e privadas em países que apostaram na tecnologia do momento sem avaliação crítica de custo-benefício. A declaração não dedica uma linha sequer a esse risco. Ao apostar em instrumentos voluntários liderados pela própria indústria, o documento vai além do silêncio: implicitamente legitima o modelo de autorregulação das mesmas empresas cujos valuations inflados pressionam governos a subsidiar infraestrutura de IA sem qualquer escrutínio independente.

<><> Governança unilateral

Mas talvez a escolha mais consequente — e mais reveladora — da declaração seja de natureza institucional. O documento retira da ONU a responsabilidade central pela governança de IA e aposta no modelo multissetorial (multistakeholders), isto é, numa governança compartilhada entre Estados, empresas e outros atores não estatais, sem hierarquia clara de responsabilidades e com decisões por consenso. Essa não é uma escolha neutra: é exatamente o modelo que moldou a governança da internet nas últimas décadas, com resultados que a própria experiência histórica permite avaliar.

A ICANN, principal organismo de coordenação técnica da internet, nasceu com o discurso do multistakeholderismo e produziu, na prática, uma progressiva captura corporativa, com falta de transparência e controle de uma única potência. A transição da supervisão estatal norte-americana para esse modelo não representou uma vitória do globalismo, mas a substituição do controle estatal pelo controle das grandes empresas de tecnologia dos Estados Unidos. Novos domínios foram vendidos a preços proibitivos; a sociedade civil foi tratada como camada decorativa; os mecanismos de prestação de contas mostraram-se majoritariamente performáticos; os Estados nacionais não possuem voz ativa em suas decisões. O resultado foi a consolidação de uma internet cujas camadas lógicas, econômicas e de infraestrutura permanecem sob controle unilateral de um pequeno grupo de países e corporações.

Para a IA, o risco é análogo e potencialmente mais grave. Os altíssimos requisitos de capital para desenvolver grandes modelos de linguagem tornam o multistakeholderismo ainda mais frágil do que foi no caso da internet: sem bilhões de dólares em processamento, dados e talento, simplesmente não há como sentar à mesa como par. O modelo proposto pela declaração abre caminho, portanto, para uma governança bilateral entre Big Tech e grandes Estados — com o Sul Global reduzido ao papel de consumidor e fornecedor de dados. As chamadas Cúpulas de IA correm o risco de repetir a trajetória do WSIS — a Cúpula Mundial sobre a Sociedade da Informação —, processo criado em 2003 que se arrastou por décadas de impasse retórico sem resultados concretos em termos de redistribuição de poder na infraestrutura digital.

A escolha entre multilateralismo e multissetorialismo não é técnica; é política. O multilateralismo, com todos os seus defeitos, ancora responsabilidades em Estados soberanos e preserva a possibilidade de mecanismos vinculantes negociados em condições de igualdade formal. O multissetorialismo, como demonstrou a história da internet, tende a diluir essa igualdade formal em assimetrias reais — onde o peso de cada ator depende menos de seu mandato democrático e mais de seu poder econômico e tecnológico.

<><> Pax Silica: a sombra por trás da cúpula

No dia 20 de fevereiro de 2026, às margens da cúpula multilateral, a Índia assinou sua adesão à Pax Silica — iniciativa liderada pelo Departamento de Estado dos Estados Unidos para a segurança de cadeias de suprimento de IA e semicondutores. O acordo foi firmado pelo secretário do ministério de Eletrônica e Tecnologia da Informação, Shri S. Krishnan, e pelo subsecretário de Estado para Crescimento Econômico, Energia e Meio Ambiente dos EUA, Jacob Helberg, tornando a Índia o 12º membro da coalizão1. Ao mesmo tempo, a Índia e os Estados Unidos assinaram uma Parceria de Oportunidade em IA, em evento que contou com a presença dos CEOs do Google, Sundar Pichai, e da OpenAI, Sam Altman. A cerimônia multilateral terminou. Logo em seguida, começou o verdadeiro negócio.

Pax Silica é descrita pelo Departamento de Estado como o “principal esforço dos EUA em segurança de IA e cadeias de suprimento”, projetado para alinhar países parceiros em todo o espectro tecnológico — de minerais críticos e energia ao processamento de semicondutores, infraestrutura de IA e logística. Se o século XX rodou no petróleo, o século XXI roda em computação e nos minerais que o alimentam: é essa a lógica estratégica explícita da iniciativa. Embora o subsecretário Helberg tenha dito publicamente que a Pax Silica “não é sobre a China, mas sobre a América”, a arquitetura do acordo — baseada em controles de exportação, subsídios coordenados e redução de dependência de centros de fabricação dominados por Beijing — deixa pouquíssima dúvida sobre qual o adversário implícito. A adesão da Índia é politicamente relevante por uma razão adicional: o país é membro do BRICS, o que significa que a maior democracia do Sul Global acaba de formalizar seu alinhamento com o bloco tecnológico liderado por Washington.

<><> O Brasil e o Sul Global fora do jogo real

A combinação dos dois eventos — a Declaração de Nova Delhi e a assinatura da Pax Silica — revela uma geometria de poder que o discurso oficial da cúpula deliberadamente obscurece. De um lado, 88 países assinam uma declaração aspiracional, cheia de princípios não vinculantes sobre democratização da IA. De outro, doze países — selecionados com base em seu papel estratégico na cadeia de suprimento tecnológica — firmam um acordo concreto que definirá o acesso a chips avançados, a parcerias de fabricação e aos fluxos de capital que moldarão a IA da próxima década. O Brasil, que assinou a Declaração de Nova Delhi, não está na Pax Silica. A diferença não é simbólica porque se trata da diferença entre sentar à mesa onde os princípios são celebrados e sentar à mesa onde as regras do jogo são efetivamente escritas.

Para países como o Brasil, um grande mercado digital, a ausência da Pax Silica não é necessariamente uma desvantagem estratégica no curto prazo — afinal, o acordo carrega obrigações de alinhamento com políticas de exportação e segurança que implicam escolhas geopolíticas delicadas. Mas a ausência também significa ficar de fora de um “serviço de concierge” que o próprio Departamento de Estado descreveu publicamente como um mecanismo preferencial de acesso a semicondutores avançados norte-americanos, pelo qual diplomatas dos EUA atuarão ativamente como agentes de desenvolvimento de negócios para facilitar a aquisição de chips por países aliados2. Em um mundo onde o acesso a GPUs de última geração pode determinar a capacidade soberana de desenvolver modelos de linguagem de IA, ser excluído desse serviço não é um detalhe operacional. É uma assimetria estrutural que se aprofunda a cada ciclo de inovação. Para o conjunto do Sul Global, a Pax Silica consolida um modelo em que países em desenvolvimento são convidados a assinar declarações sobre “IA para todos” enquanto o acesso real às ferramentas que produzem IA é administrado por um clube restrito de países alinhados a Washington.

A Cúpula da Índia poderia ter sido uma oportunidade histórica para romper esse padrão. O país anfitrião teve legitimidade para falar em nome de uma parcela significativa do Sul Global e capital político suficiente para propor arquiteturas de governança que não repetissem os erros da internet. Não o fez. Em vez disso, assinou a Pax Silica no mesmo dia em que a declaração multilateral era adotada — sinalizando que sua prioridade real era outra. O Brasil é outro país que pode fazer a diferença. O discurso do Presidente Lula apontou caminhos menos submetidos ao status quo e que podem sinalizar uma alteração no jogo de pressão das corporações. Mas o tempo de construção de alternativas é finito pois cada rodada de cúpulas que passa sem mecanismos vinculantes e sem representação real dos países em desenvolvimento no núcleo das decisões tecnológicas é uma oportunidade perdida que dificilmente se recupera. Sabe-se que Lula relutou em assinar a declaração de líderes da Cúpula por não estar de acordo com a ausência de referências ao multilateralismo e à ONU, mas o Brasil acabou endossando o documento nos últimos minutos.

O que a Declaração de Nova Delhi entregou é uma arquitetura de cooperação que dificilmente altera as assimetrias de poder existentes — e que silencia sobre os riscos econômicos sistêmicos mais urgentes que qualquer reunião de líderes mundiais deveria abordar em 2026. A cúpula multilateral terminou. A Pax Silica começou. E essa distância, muito mais do que qualquer declaração de princípios, é o que revela a real geografia do poder na governança digital das próximas décadas. A questão que fica é se ainda existe espaço para que países como o Brasil liderem o esforço de reverter esta lógica de segregação coroada na semana passada no país asiático para colocar o Sul Global sentado à mesa.

¨      Por que especialistas dizem que inteligência artificial pode levar à extinção da humanidade

A inteligência artificial (IA) pode levar a humanidade à extinção, alertaram especialistas — incluindo os chefes da OpenAI e do Google Deepmind. Dezenas apoiaram uma declaração publicada na página do Center for AI Safety (ou Centro de Segurança de Inteligência Artificial, em tradução livre), ong de pesquisa e desenvolvimento com sede em São Francisco, nos Estados Unidos. "Mitigar o risco de extinção pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear", aponta a carta aberta. Mas outros dizem que os medos são exagerados.

Sam Altman, executivo-chefe da OpenAI, fabricante do ChatGPT, Demis Hassabis, executivo-chefe do Google DeepMind e Dario Amodei, da Anthropic, apoiaram a declaração.

O texto do Center for AI Safety sugere uma série de possíveis cenários de desastre:

  • As IAs podem ser armadas — por exemplo, com ferramentas para descobrir drogas que podem ser usadas na construção de armas químicas;
  • A desinformação gerada pela IA pode desestabilizar a sociedade e "minar as tomadas de decisões coletivas";
  • O poder da IA pode se tornar cada vez mais concentrado em poucas mãos, permitindo que "regimes imponham valores restritos por meio de vigilância generalizada e censura opressiva";
  • Enfraquecimento, a partir do qual os humanos se tornam dependentes da IA, "num cenário semelhante ao retratado no filme Wall-E".

Geoffrey Hinton, que emitiu um alerta anterior sobre os riscos da IA superinteligente, também apoiou a carta do Center for AI Safety. Yoshua Bengio, professor de Ciências da Computação na Universidade de Montreal, no Canadá, também assinou o manifesto. Hinton, Bengio e o professor da Universidade de Nova York (NYU), Yann LeCunn, são frequentemente descritos como os "padrinhos da IA" pelo trabalho inovador que fizeram neste campo — e pelo qual ganharam juntos o Prêmio Turing de 2018, que reconhece contribuições excepcionais na ciência da computação. Mas o professor LeCunn, que também trabalha na Meta, empresa dona do Facebook, disse que esses avisos apocalípticos são "exagerados" e que "a reação mais comum dos pesquisadores de IA a essas profecias de destruição é embaraçosa". Muitos outros especialistas também acreditam que o medo de a IA acabar com a humanidade é irreal e uma distração de questões como preconceito em relação aos sistemas, que já são um problema.

Arvind Narayanan, um cientista da computação da Universidade de Princeton, nos EUA, disse à BBC que os cenários de desastre de ficção científica não são realistas. "A IA atual não é nem de longe suficientemente capaz para que esses riscos se materializem. Como resultado, isso desvia a atenção dos danos de curto prazo da IA", avalia ele. Elizabeth Renieris, pesquisadora sênior do Instituto de Ética em IA da Universidade Oxford, no Reino Unido, disse à BBC News que se preocupa com os riscos mais próximos. "Os avanços na IA ampliarão a escala da tomada de decisão automatizada que é tendenciosa, discriminatória, excludente ou injusta. Ao mesmo tempo em que é inescrutável e incontestável", acredita ela.

Estes avanços "podem impulsionar um aumento exponencial no volume e na disseminação de desinformação, fraturando assim a realidade e corroendo a confiança do público, além de gerar mais desigualdade, principalmente para aqueles que permanecem do lado errado da divisão digital". Muitas ferramentas de IA essencialmente "pegam carona" em "toda a experiência humana até o momento", destaca Renieris. Várias dessas tecnologias são treinadas em conteúdo, texto, arte e música criados por humanos — e seus criadores "transferiram efetivamente uma tremenda riqueza e poder da esfera pública para um pequeno punhado de entidades privadas".

<><> Pausa solicitada

A cobertura da imprensa sobre a suposta ameaça "existencial" da IA aumentou desde março de 2023, quando especialistas, incluindo o dono da Tesla, Elon Musk, assinaram uma carta aberta pedindo a suspensão do desenvolvimento da próxima geração de tecnologia de IA. Essa carta perguntava se deveríamos "desenvolver mentes não-humanas que eventualmente superassem em número, fossem mais espertas, nos tornassem obsoletos e nos substituíssem". Em contraste, a nova carta divulgada por especialistas tem uma declaração muito curta, destinada a "abrir a discussão". A declaração compara o risco ao representado pela guerra nuclear. Em uma postagem no blog, a OpenAI sugeriu recentemente que a superinteligência pode ser regulada de maneira semelhante à energia nuclear. "É provável que eventualmente precisemos de algo como uma AIEA (Agência Internacional de Energia Atômica) para os esforços de superinteligência", escreveu a empresa.

<><> Análises cuidadosas

Sam Altman e o executivo-chefe do Google, Sundar Pichai, estão entre os líderes de tecnologia que discutiram recentemente a regulamentação da IA com o primeiro-ministro inglês, Rishi Sunak. Ao falar com repórteres sobre o último alerta sobre o risco de IA, Sunak enfatizou os benefícios da tecnologia para a economia e a sociedade. “ Você viu que recentemente a IA ajudou pessoas paralisadas a andar e descobriu novos antibióticos, mas precisamos garantir que isso seja feito de maneira segura e protegida", disse ele. "É por isso que me encontrei na semana passada com CEOs de grandes empresas de IA para discutir quais são as barreiras que precisamos implementar e qual é o tipo de regulamentação que deve ser criada para nos manter seguros. As pessoas ficarão preocupadas com os relatos de que a IA representa riscos existenciais, como as pandemias ou as guerras nucleares. Mas quero que elas tenham certeza de que o governo está analisando isso com muito cuidado", concluiu.

Sunak disse que havia discutido a questão recentemente com outros líderes na cúpula do G7 no Japão e iria levá-lo novamente a representantes dos EUA em breve. A cúpula de países mais ricos, inclusive, criou recentemente um grupo de trabalho sobre a IA.

 

Fonte: Outras Palavras/BBC News

 

Nenhum comentário: