Inteligência
Artificial, Data centers e o fim do mundo
Quando
os estudos iniciais sobre inteligência artificial começaram a se consolidar,
duas vertentes principais de pesquisa se destacavam. De um lado, estavam os
proponentes da inteligência artificial simbólica – um grupo de pesquisadores
que acreditava que a melhor forma de ensinar máquinas a “pensar” era por meio
da lógica e da manipulação de símbolos. De outro, encontravam-se os defensores
da cibernética – uma perspectiva voltada à criação de sistemas adaptativos,
capazes de se auto-organizar com base na experiência.
Foram
os pesquisadores vinculados à vertente lógica que cunharam o termo
“Inteligência Artificial”, durante o Workshop de Dartmouth, realizado em 1956,
nos Estados Unidos. Na ocasião, os organizadores optaram por essa denominação
justamente para distinguir-se da tradição cibernética e, em especial, evitar a
participação de figuras como Norbert Wiener – matemático de grande influência,
mas considerado politicamente incômodo por suas posições progressistas,
críticas ao financiamento militar da pesquisa científica e defensor de uma
ciência socialmente responsável.
Por
ironia, hoje a vertente simbólica ocupa um papel secundário no campo da IA. A
hegemonia atual concentra-se no paradigma conexionista, que ganhou forma em
1958 com a criação do Perceptron, a primeira rede neural artificial. O
conexionismo compartilha princípios com a cibernética, pois busca desenvolver
sistemas capazes de aprender de maneira autônoma a partir de grandes volumes de
dados.
Assim,
ao contrário da IA simbólica – que entende a mente como um sistema baseado em
símbolos e regras explícitas –, o conexionismo propõe que o conhecimento e o
raciocínio emergem do reconhecimento de padrões distribuídos em redes neurais
artificiais, seguindo uma lógica indutiva. Dessa forma, o sentido contemporâneo
do termo “inteligência artificial” acabou se aproximando justamente daquilo que
os fundadores do Workshop de Dartmouth pretendiam diferenciar.
Um
elemento central para o treinamento das redes neurais conexionistas são os
dados. Os dados são o principal insumo da inteligência artificial hegemônica,
pois eles são necessários para a extração de padrões e ajuste de parâmetros que
formarão os modelos.
Igualmente,
o poder computacional é fundamental para a IA. Segundo um relatório dos
pesquisadores de Stanford, “O processamento de treinamento para modelos de IA
notáveis dobra aproximadamente a cada cinco meses, o tamanho dos conjuntos de
dados para treinamento de LLMs a cada oito meses e a potência necessária para
treinamento anualmente”.
Dessa
forma, o paradigma conexionista converte dados e poder computacional em insumos
econômicos e epistemológicos. Estudos e relatórios recentes mostram que o
treinamento computacional de modelos complexos e o aprendizado profundo crescem
em ritmo acelerado, empurrando para cima tanto a necessidade de hardware
especializado quanto a escala da infraestrutura exigida.
A
consequência imediata é a transferência da discussão para os data centers:
instalações físicas compostas por milhares de servidores, sistemas de
armazenamento, equipamentos de rede e infraestruturas elétricas e de
refrigeração pensadas para funcionamento ininterrupto. Como um dos pilares do
mundo conectado, os data centers viabilizam de serviços de comunicação e
financeiros a aplicações de IA generativa, o que explica sua expansão em
patamares cada vez maiores.
Em
2024, estimava-se a existência de mais de 11 mil unidades operacionais no
globo, com forte concentração nos Estados Unidos – aproximadamente 45% do total
–, seguidos por núcleos relevantes na Europa – notadamente, Alemanha, Reino
Unido, França e Holanda –, China e Austrália.
Na
América Latina, o Brasil vem se destacando. No ranking mundial, figura a 10ª
posição em quantidade desses espaços. Levantamento realizado pelo Data Center
Map aponta 195 centros atualmente em operação no país, com concentração no eixo
Sudeste-Sul – São Paulo consolidado como epicentro nacional – e ampliação
estratégica de polos no Nordeste e no Sul, influenciado por fatores como a
proximidade de cabos submarinos, oferta de terrenos industriais a custos
menores e políticas governamentais locais permissivas.
O
mercado global de data centers foi estimado em US$ 386,71 bilhões (2025) e
prevê alcançar US$ 627,40 bilhões (2030), enquanto a potência instalada de TI
sobe de 120,07 GW (2025) para 201,89 GW (2030). No Brasil, o setor totaliza
cerca de 0,95 GW (2025) e projeta 1,46 GW (2030), com receitas que devem
evoluir de US$ 2,95 bilhões (2025) para US$ 5,89 bilhões (2030). Para
dimensionar essas grandezas, observa-se que a potência de carga global estimada
para 2025 (120,07 GW) equivale a 57% da capacidade instalada da matriz
energética nacional no mesmo ano, segundo informe da Agência Nacional de
Energia Elétrica (Aneel). A simples comparação permite vislumbrar a pressão que
a crescente demanda por processamento computacional pode exercer sobre os
sistemas elétricos, especialmente em redes de energia de escala continental,
como a brasileira.
Embora
compartilhem semelhanças com data centers “convencionais”, as instalações
destinadas a aplicações de IA impõem requisitos mais rigorosos, como recursos
de computação de altíssimo desempenho, arquiteturas de armazenamento mais
rápidas, redes de baixa latência, sistemas de refrigeração especializados e,
sobretudo, fontes de energia robustas e resilientes. Tais especificações elevam
drasticamente o consumo de eletricidade e, em muitos casos, também o uso de
água potável – podendo atingir volumes diários equivalentes ao abastecimento de
cidades de 10 mil a 50 mil habitantes –, além de gerar emissões significativas
de carbono (EESI, 2025). Esses fatores são centrais nos impactos
socioambientais associados à expansão dessas instalações.
Outro
fator relevante nesse cenário é a necessidade urgente de aumentar a eficiência
energética dessas instalações, com o objetivo de reduzir custos sempre que
possível nos processos necessários para a expansão dos data centers. Os
pesquisadores envolvidos nessa questão utilizam o argumento de que seus estudos
“promovem infraestrutura digital sustentável”. Entretanto, segundo a lógica de
que quanto mais produção, melhor, o aumento da eficiência energética tende a
também resultar num acréscimo do consumo dos recursos.
Tal
fenômeno não é novidade. Essa relação de um aumento do consumo
proporcionalmente maior que o ganho de eficiência é modelada pelo Paradoxo de
Jevons. Até mesmo figuras poderosas do mundo da tecnologia, como Satya Nadella,
CEO da Microsoft, já fizeram referência ao paradoxo. Esse conceito surgiu com o
economista inglês William Stanley Jevons, no final do século XIX, período em
que o carvão era um ativo econômico mundial que compunha grande parte dos
custos operacionais das empresas. Em um de seus estudos, Jevons percebeu que o
aumento da eficiência energética no uso do carvão estava, paradoxalmente,
impulsionando o aumento do seu consumo total.
Não
basta tornar a engenharia por trás dos data centers mais sustentável, enquanto
se mantém constante a necessidade de processar e capturar cada vez mais dados.
Dito isso, o aumento de eficiência energética sem mudança na mentalidade do
capital não resulta na suposta “Green AI” anunciada pelos pesquisadores.
Frente
às demandas da transformação digital na economia global – tidas como
irrevogáveis na lógica capitalista –, grandes corporações vêm alinhando as suas
estratégias para serem “AI-led”, ou “lideradas por IA”, com consequente
elevação de investimentos em data centers de hiperescala e infraestrutura
adjacente, dentro e fora das suas regiões de origem. No Brasil, a presença de
gigantes tecnológicas como Google, Microsoft, Amazon e Equinix tem papel
preponderante no parque de data centers em termos de número de instalações e
capacidade operacional. A concentração dessa infraestrutura em oligopólios das
big techs reconfigura relações de soberania, suscitando debates sobre
jurisdição, controle e privacidade de dados, desenvolvimento científico,
partilha de benefícios econômicos locais e transferência de riscos ambientais
para outros territórios.
Essas
assimetrias tornam-se mais claras quando analisamos o caso norte-americano,
cuja infraestrutura digital é uma das mais densas do planeta. Os mapas a
seguir, produzidos por Siddik, Shehabi e Marston (2021), evidenciam como a
localização dos data centers influencia diretamente seus impactos ecológicos. A
pegada hídrica e de carbono varia de acordo com a disponibilidade de recursos
naturais e a matriz energética regional. Em termos totais, o uso de água com os
data centers americanos se mostrou elevadíssimo, 513 milhões de metros cúbicos
de água por ano, similar ao consumo anual de toda a cidade de Los Angeles, de
acordo com dados do Los Angeles Department of Water and Power.
Nos
Estados onde a concentração de data center é maior, houve também maior escassez
de água e maiores emissões de gases do efeito estufa, corroborando a tese de
que onde há data centers, há também degradação ecológica intensa, com impacto
local altíssimo.
O
planeta está cansado. Dados de diferentes áreas de pesquisa têm demonstrado a
completa degradação ambiental de nossa terra mater através de lógicas de
produção insustentáveis. Nesse contexto, o meio ambiente emerge como um tópico
central a ser debatido.
Como
conciliar soberania e a questão ecológica? Essa pergunta nos traz um desafio
teórico necessário para os tempos atuais – afinal, os ataques ao meio ambiente
em um determinado país afetam o planeta como um todo. Assim, a questão
ambiental atravessa o limite do Estado-nação, requerendo uma nova forma de
pensar e planejar a política nacional através de preocupações planetárias de
toda a espécie humana.
Em
muitos dos casos que vimos, os data centers construídos no Brasil sequer serão
controlados por empresas nacionais: eles serão controlados pelas Big Techs que
se aproveitarão dos recursos naturais e da rede elétrica do país. Nesse caso,
os retornos sociais, mesmo em empregos, parecem não compensar as isenções
fiscais propostas. Ademais, o Cloud Act dos Estados Unidos determina que
empresas americanas, mesmo quando guardam dados em outros países, precisam
revelar as informações armazenadas ao Governo norteamericano quando forem
solicitadas.
Talvez,
para superar a crise ambiental seja necessário buscar outras epistemologias
divergentes do paradigma conexionista que requer grandes quantidades de dados e
elevado poder computacional. Yuk Hui (2024), ao fazer uma crítica à noção de
soberania pautada no estado-nação, que, segundo ele, estaria sofrendo abalos
iniciais com a nova ordem da planetarização tecnológica, sugeriu que
pautássemos o pensamento planetário. Nesse cenário, seria preciso considerar
que garantir a soberania nacional por si só não resolve problemas de ordem
planetária, como a questão ambiental. O pensamento planetário seria uma
alternativa epistemológica baseada em uma nova lógica de existência entre
humanos e não-humanos, e mais que extraestatal, seria um pensamento
interespécie, viabilizado pela junção de diferentes cosmotécnicas.
Para
nós, o fim do estado-nação parece algo distante e difícil de ser imaginado. Do
mesmo modo, é difícil pensar uma outra epistemologia planetária como propõe Yuk
Hui. Como seria possível pensar um novo paradigma para os sistemas
automatizados que não requeiram o armazenamento de dados em gigantescas
infraestruturas? Precisamos construir agendas de pesquisa para buscá-lo. É
necessário construir uma alternativa para o descanso do planeta.
Fonte:
Por Gabriel Boscardim de Moraes, Thaís de Oliveira Monteiro, Henrique Cochi
Bezerra e João Pedro Frealdo de Oliveira, no Le Monde

Nenhum comentário:
Postar um comentário