James
Görgen: IA - a chance desperdiçada na Índia
Quase
90 países e organizações participantes da Cúpula da Índia sobre Impacto de IA,
realizada em Nova Délhi na semana passada, assinaram uma declaração de líderes
que ficou muito aquém das necessidades dos grandes mercados digitais em
desenvolvimento. Ao contrário das edições precedentes do evento criado pelo
Reino Unido, muitos esperavam que o encontro marcasse uma virada na forma como
o mundo pensa a governança da inteligência artificial — uma perspectiva
genuinamente diferente daquela produzida nos fóruns liderados por países do
Norte Global. A expectativa fazia sentido porque pela primeira vez, um país do
Sul Global ocupava o centro do palco. O resultado, porém, decepcionou
observadores mais atentos à cena global de IA e foi endossado pelo governo brasileiro.
A Declaração de Líderes produzida é mais principiológica do que normativa e, ao
silenciar sobre as questões estruturais mais urgentes, acaba por legitimar
exatamente o estado de coisas que deveria desafiar. Mas há um elemento ainda
mais perturbador, que ficou à sombra dos holofotes: às margens da cúpula, a
Índia assinou sua adesão à Pax Silica — o pacto estadunidense
de segurança de cadeias de suprimento de IA e semicondutores — consolidando um
realinhamento geopolítico cujas consequências para o Sul Global e para o Brasil
merecem atenção urgente.
A
declaração de líderes organiza sua visão de governança da IA em torno de sete
“Chakras” — pilares que incluem capital humano, acesso social, confiabilidade,
eficiência energética, ciência, democratização e crescimento econômico. O tom é
aspiracional e filosoficamente ancorado em conceitos da cultura indiana, como
Vasudhaiva Kutumbakam (“o mundo é uma família”). Para além da retórica,
contudo, o que a declaração propõe são plataformas e instrumentos voluntários e
não vinculantes — uma Trusted AI Commons, um Global AI Impact Commons, uma Rede
Internacional de IA para Instituições Científicas — como se a cooperação
informal fosse suficiente para reequilibrar uma corrida tecnológica cujas
fichas estão profundamente concentradas nas mãos de um punhado de empresas
estadunidenses e chinesas.
<><>
Soberania efetiva
A
omissão mais grave diz respeito à soberania digital do Sul Global. O documento
menciona “soberania nacional” apenas de passagem e de forma protocolar, sem
nenhum mecanismo concreto que garanta que países em desenvolvimento possam
desenvolver IA de forma autônoma — e não apenas adotar o que for oferecido
pelas empresas do Norte. Não há menção à transferência de tecnologia, ao
licenciamento compulsório de modelos, à regulação econômica da concentração de
mercado nas big techs, nem a qualquer instrumento que impeça o aprofundamento
da extração de dados de países em desenvolvimento sem contrapartida. Não há
menção sequer a Sul Global ou países em desenvolvimento.
A
expressão “democratização dos recursos de IA” esvazia-se de conteúdo quando
toda a estrutura proposta é voluntária. O que historicamente reproduz
dependência tecnológica não é a falta de retórica inclusiva, mas a ausência de
obrigações vinculantes. A ênfase em “código aberto quando apropriado” é vaga o
suficiente para não comprometer nada. Infraestrutura descentralizada não
significa autonomia tecnológica uma vez que os serviços de nuvem podem estar em
país em desenvolvimento, mas seu controle continuar sob a égide de uma big tech
– como já vem ocorrendo.
<><>
Bolha ignorada
Igualmente
preocupante é o silêncio sobre os riscos da bolha financeira de IA. O documento
ignora completamente as consequências macroeconômicas da atual hiperinflação de
investimentos no setor. Bilhões de dólares foram aplicados em infraestrutura de
IA com base em projeções de retorno que ainda não se materializaram. Para
economias emergentes que tentam “pular na onda” desse ciclo especulativo —
pressionadas por narrativas de que ficar de fora significaria condenação ao
atraso —, o risco é especialmente grave. Bolhas tecnológicas anteriores
deixaram um rastro de dívidas públicas e privadas em países que apostaram na
tecnologia do momento sem avaliação crítica de custo-benefício. A declaração
não dedica uma linha sequer a esse risco. Ao apostar em instrumentos
voluntários liderados pela própria indústria, o documento vai além do silêncio:
implicitamente legitima o modelo de autorregulação das mesmas empresas
cujos valuations inflados pressionam governos a subsidiar
infraestrutura de IA sem qualquer escrutínio independente.
<><>
Governança unilateral
Mas
talvez a escolha mais consequente — e mais reveladora — da declaração seja de
natureza institucional. O documento retira da ONU a responsabilidade central
pela governança de IA e aposta no modelo multissetorial (multistakeholders),
isto é, numa governança compartilhada entre Estados, empresas e outros atores
não estatais, sem hierarquia clara de responsabilidades e com decisões por
consenso. Essa não é uma escolha neutra: é exatamente o modelo que moldou a governança da
internet nas
últimas décadas, com resultados que a própria experiência histórica permite
avaliar.
A
ICANN, principal organismo de coordenação técnica da internet, nasceu com o
discurso do multistakeholderismo e produziu, na prática, uma progressiva
captura corporativa, com falta de transparência e controle de uma única
potência. A transição da supervisão estatal norte-americana para esse modelo
não representou uma vitória do globalismo, mas a substituição do controle
estatal pelo controle das grandes empresas de tecnologia dos Estados Unidos.
Novos domínios foram vendidos a preços proibitivos; a sociedade civil foi
tratada como camada decorativa; os mecanismos de prestação de contas
mostraram-se majoritariamente performáticos; os Estados nacionais não possuem
voz ativa em suas decisões. O resultado foi a consolidação de uma internet
cujas camadas lógicas, econômicas e de infraestrutura permanecem sob controle
unilateral de um pequeno grupo de países e corporações.
Para a
IA, o risco é análogo e potencialmente mais grave. Os altíssimos requisitos de
capital para desenvolver grandes modelos de linguagem tornam o
multistakeholderismo ainda mais frágil do que foi no caso da internet: sem
bilhões de dólares em processamento, dados e talento, simplesmente não há como
sentar à mesa como par. O modelo proposto pela declaração abre caminho,
portanto, para uma governança bilateral entre Big Tech e grandes Estados — com
o Sul Global reduzido ao papel de consumidor e fornecedor de dados. As chamadas
Cúpulas de IA correm o risco de repetir a trajetória do WSIS — a Cúpula Mundial
sobre a Sociedade da Informação —, processo criado em 2003 que se arrastou por
décadas de impasse retórico sem resultados concretos em termos de redistribuição
de poder na infraestrutura digital.
A
escolha entre multilateralismo e multissetorialismo não é técnica; é política.
O multilateralismo, com todos os seus defeitos, ancora responsabilidades em
Estados soberanos e preserva a possibilidade de mecanismos vinculantes
negociados em condições de igualdade formal. O multissetorialismo, como
demonstrou a história da internet, tende a diluir essa igualdade formal em
assimetrias reais — onde o peso de cada ator depende menos de seu mandato
democrático e mais de seu poder econômico e tecnológico.
<><>
Pax Silica:
a sombra por trás da cúpula
No dia
20 de fevereiro de 2026, às margens da cúpula multilateral, a Índia assinou sua
adesão à Pax Silica — iniciativa
liderada pelo Departamento de Estado dos Estados Unidos para a segurança de
cadeias de suprimento de IA e semicondutores. O acordo foi firmado pelo
secretário do ministério de Eletrônica e Tecnologia da Informação, Shri S.
Krishnan, e pelo subsecretário de Estado para Crescimento Econômico, Energia e
Meio Ambiente dos EUA, Jacob Helberg, tornando a Índia o 12º membro da coalizão1. Ao mesmo tempo, a
Índia e os Estados Unidos assinaram uma Parceria de Oportunidade em IA, em
evento que contou com a presença dos CEOs do Google, Sundar Pichai, e da
OpenAI, Sam Altman. A cerimônia multilateral terminou. Logo em seguida, começou
o verdadeiro negócio.
A Pax
Silica é descrita pelo Departamento de Estado como o “principal
esforço dos EUA em segurança de IA e cadeias de suprimento”, projetado para
alinhar países parceiros em todo o espectro tecnológico — de minerais críticos
e energia ao processamento de semicondutores, infraestrutura de IA e logística.
Se o século XX rodou no petróleo, o século XXI roda em computação e nos
minerais que o alimentam: é essa a lógica estratégica explícita da iniciativa.
Embora o subsecretário Helberg tenha dito publicamente que a Pax Silica “não
é sobre a China, mas sobre a América”, a arquitetura do acordo — baseada em
controles de exportação, subsídios coordenados e redução de dependência de
centros de fabricação dominados por Beijing — deixa pouquíssima dúvida sobre
qual o adversário implícito. A adesão da Índia é politicamente relevante por
uma razão adicional: o país é membro do BRICS, o que significa que a maior
democracia do Sul Global acaba de formalizar seu alinhamento com o bloco
tecnológico liderado por Washington.
<><>
O Brasil e o Sul Global fora do jogo real
A
combinação dos dois eventos — a Declaração de Nova Delhi e a assinatura
da Pax Silica — revela uma geometria de poder que o discurso
oficial da cúpula deliberadamente obscurece. De um lado, 88 países assinam uma
declaração aspiracional, cheia de princípios não vinculantes sobre
democratização da IA. De outro, doze países — selecionados com base em seu
papel estratégico na cadeia de suprimento tecnológica — firmam um acordo
concreto que definirá o acesso a chips avançados, a parcerias de fabricação e
aos fluxos de capital que moldarão a IA da próxima década. O Brasil, que
assinou a Declaração de Nova Delhi, não está na Pax Silica. A
diferença não é simbólica porque se trata da diferença entre sentar à mesa onde
os princípios são celebrados e sentar à mesa onde as regras do jogo são
efetivamente escritas.
Para
países como o Brasil, um grande mercado digital, a ausência da Pax
Silica não é necessariamente uma desvantagem estratégica no curto
prazo — afinal, o acordo carrega obrigações de alinhamento com políticas de
exportação e segurança que implicam escolhas geopolíticas delicadas. Mas a
ausência também significa ficar de fora de um “serviço de concierge”
que o próprio Departamento de Estado descreveu publicamente como um mecanismo
preferencial de acesso a semicondutores avançados norte-americanos, pelo qual
diplomatas dos EUA atuarão ativamente como agentes de desenvolvimento de
negócios para facilitar a aquisição de chips por países aliados2. Em um mundo onde o
acesso a GPUs de última geração pode determinar a capacidade soberana de
desenvolver modelos de linguagem de IA, ser excluído desse serviço não é um
detalhe operacional. É uma assimetria estrutural que se aprofunda a cada ciclo
de inovação. Para o conjunto do Sul Global, a Pax Silica consolida
um modelo em que países em desenvolvimento são convidados a assinar declarações
sobre “IA para todos” enquanto o acesso real às ferramentas que produzem IA é
administrado por um clube restrito de países alinhados a Washington.
A
Cúpula da Índia poderia ter sido uma oportunidade histórica para romper esse
padrão. O país anfitrião teve legitimidade para falar em nome de uma parcela
significativa do Sul Global e capital político suficiente para propor
arquiteturas de governança que não repetissem os erros da internet. Não o fez.
Em vez disso, assinou a Pax Silica no mesmo dia em que a
declaração multilateral era adotada — sinalizando que sua prioridade real era
outra. O Brasil é outro país que pode fazer a diferença. O discurso do Presidente Lula apontou
caminhos menos submetidos ao status quo e que podem sinalizar
uma alteração no jogo de pressão das corporações. Mas o tempo de construção de
alternativas é finito pois cada rodada de cúpulas que passa sem mecanismos
vinculantes e sem representação real dos países em desenvolvimento no núcleo
das decisões tecnológicas é uma oportunidade perdida que dificilmente se
recupera. Sabe-se que Lula relutou em assinar a declaração de líderes da Cúpula
por não estar de acordo com a ausência de referências ao multilateralismo e à
ONU, mas o Brasil acabou endossando o documento nos últimos minutos.
O que a
Declaração de Nova Delhi entregou é uma arquitetura de cooperação que
dificilmente altera as assimetrias de poder existentes — e que silencia sobre
os riscos econômicos sistêmicos mais urgentes que qualquer reunião de líderes
mundiais deveria abordar em 2026. A cúpula multilateral terminou. A Pax
Silica começou. E essa distância, muito mais do que qualquer
declaração de princípios, é o que revela a real geografia do poder na
governança digital das próximas décadas. A questão que fica é se ainda existe
espaço para que países como o Brasil liderem o esforço de reverter esta lógica
de segregação coroada na semana passada no país asiático para colocar o Sul
Global sentado à mesa.
¨
Por que especialistas dizem que inteligência artificial
pode levar à extinção da humanidade
A
inteligência artificial (IA) pode levar a humanidade à extinção, alertaram
especialistas — incluindo os chefes da OpenAI e do Google Deepmind. Dezenas
apoiaram uma declaração publicada na página do Center for AI Safety (ou Centro
de Segurança de Inteligência Artificial, em tradução livre), ong de pesquisa e
desenvolvimento com sede em São Francisco, nos Estados Unidos. "Mitigar o
risco de extinção pela IA deve ser uma prioridade global, juntamente com outros
riscos em escala social, como pandemias e guerra nuclear", aponta a carta
aberta. Mas outros dizem que os medos são exagerados.
Sam
Altman, executivo-chefe da OpenAI, fabricante do ChatGPT, Demis Hassabis,
executivo-chefe do Google DeepMind e Dario Amodei, da Anthropic, apoiaram a
declaração.
O texto
do Center for AI Safety sugere uma série de possíveis cenários de desastre:
- As IAs podem ser
armadas — por exemplo, com ferramentas para descobrir drogas que podem ser
usadas na construção de armas químicas;
- A desinformação
gerada pela IA pode desestabilizar a sociedade e "minar as tomadas de
decisões coletivas";
- O poder da IA
pode se tornar cada vez mais concentrado em poucas mãos, permitindo que
"regimes imponham valores restritos por meio de vigilância
generalizada e censura opressiva";
- Enfraquecimento,
a partir do qual os humanos se tornam dependentes da IA, "num cenário
semelhante ao retratado no filme Wall-E".
Geoffrey
Hinton, que emitiu um alerta anterior sobre os riscos da IA superinteligente,
também apoiou a carta do Center for AI Safety. Yoshua Bengio, professor de
Ciências da Computação na Universidade de Montreal, no Canadá, também assinou o
manifesto. Hinton, Bengio e o professor da Universidade de Nova York (NYU),
Yann LeCunn, são frequentemente descritos como os "padrinhos da IA"
pelo trabalho inovador que fizeram neste campo — e pelo qual ganharam juntos o
Prêmio Turing de 2018, que reconhece contribuições excepcionais na ciência da
computação. Mas o professor LeCunn, que também trabalha na Meta, empresa dona
do Facebook, disse que esses avisos apocalípticos são "exagerados" e
que "a reação mais comum dos pesquisadores de IA a essas profecias de
destruição é embaraçosa". Muitos outros especialistas também acreditam que
o medo de a IA acabar com a humanidade é irreal e uma distração de questões
como preconceito em relação aos sistemas, que já são um problema.
Arvind
Narayanan, um cientista da computação da Universidade de Princeton, nos EUA,
disse à BBC que os cenários de desastre de ficção científica não são realistas.
"A IA atual não é nem de longe suficientemente capaz para que esses riscos
se materializem. Como resultado, isso desvia a atenção dos danos de curto prazo
da IA", avalia ele. Elizabeth Renieris, pesquisadora sênior do Instituto
de Ética em IA da Universidade Oxford, no Reino Unido, disse à BBC News que se
preocupa com os riscos mais próximos. "Os avanços na IA ampliarão a escala
da tomada de decisão automatizada que é tendenciosa, discriminatória,
excludente ou injusta. Ao mesmo tempo em que é inescrutável e
incontestável", acredita ela.
Estes
avanços "podem impulsionar um aumento exponencial no volume e na
disseminação de desinformação, fraturando assim a realidade e corroendo a
confiança do público, além de gerar mais desigualdade, principalmente para
aqueles que permanecem do lado errado da divisão digital". Muitas
ferramentas de IA essencialmente "pegam carona" em "toda a
experiência humana até o momento", destaca Renieris. Várias dessas
tecnologias são treinadas em conteúdo, texto, arte e música criados por humanos
— e seus criadores "transferiram efetivamente uma tremenda riqueza e poder
da esfera pública para um pequeno punhado de entidades privadas".
<><>
Pausa solicitada
A
cobertura da imprensa sobre a suposta ameaça "existencial" da IA
aumentou desde março de 2023, quando especialistas, incluindo o dono da Tesla,
Elon Musk, assinaram uma carta aberta pedindo a suspensão do desenvolvimento da
próxima geração de tecnologia de IA. Essa carta perguntava se deveríamos
"desenvolver mentes não-humanas que eventualmente superassem em número,
fossem mais espertas, nos tornassem obsoletos e nos substituíssem". Em
contraste, a nova carta divulgada por especialistas tem uma declaração muito
curta, destinada a "abrir a discussão". A declaração compara o risco
ao representado pela guerra nuclear. Em uma postagem no blog, a OpenAI sugeriu
recentemente que a superinteligência pode ser regulada de maneira semelhante à
energia nuclear. "É provável que eventualmente precisemos de algo como uma
AIEA (Agência Internacional de Energia Atômica) para os esforços de
superinteligência", escreveu a empresa.
<><>
Análises cuidadosas
Sam
Altman e o executivo-chefe do Google, Sundar Pichai, estão entre os líderes de
tecnologia que discutiram recentemente a regulamentação da IA com o
primeiro-ministro inglês, Rishi Sunak. Ao falar com repórteres sobre o último
alerta sobre o risco de IA, Sunak enfatizou os benefícios da tecnologia para a
economia e a sociedade. “ Você viu que recentemente a IA ajudou pessoas
paralisadas a andar e descobriu novos antibióticos, mas precisamos garantir que
isso seja feito de maneira segura e protegida", disse ele. "É por
isso que me encontrei na semana passada com CEOs de grandes empresas de IA para
discutir quais são as barreiras que precisamos implementar e qual é o tipo de
regulamentação que deve ser criada para nos manter seguros. As pessoas ficarão
preocupadas com os relatos de que a IA representa riscos existenciais, como as
pandemias ou as guerras nucleares. Mas quero que elas tenham certeza de que o
governo está analisando isso com muito cuidado", concluiu.
Sunak
disse que havia discutido a questão recentemente com outros líderes na cúpula
do G7 no Japão e iria levá-lo novamente a representantes dos EUA em breve. A
cúpula de países mais ricos, inclusive, criou recentemente um grupo de trabalho
sobre a IA.
Fonte:
Outras Palavras/BBC News

Nenhum comentário:
Postar um comentário