Inteligência Artificial: o que esperar dos
Estados
Em dezembro passado, a
União Europeia (UE) estabeleceu um precedente global ao finalizar a Lei de
Inteligência Artificial, um dos conjuntos de regras de IA mais abrangentes do
mundo. A legislação emblemática da Europa pode sinalizar uma tendência mais ampla
em direção a políticas de IA mais responsivas. Mas embora a regulamentação seja
necessária, não é suficiente. Além de impor restrições às empresas privadas de
IA, os Estados devem assumir um papel ativo no desenvolvimento da tecnologia,
projetando sistemas e moldando mercados para o Comum.
É claro que os modelos
de IA estão evoluindo rapidamente. Quando os reguladores da UE divulgaram o
primeiro rascunho da lei sobre o tema em abril de 2021, eles gabaram-se de ele
ser supostamente “à prova de futuro”. Apenas um ano e meio depois, correram para
atualizar o texto, em resposta ao lançamento do ChatGPT. Mas os esforços
regulatórios não são em vão. Por exemplo, a proibição, por lei, do uso de IA no
policiamento por biometria continuará provavelmente relevante, em que pesem os
avanços na tecnologia. Além disso, os parâmetros de risco incluídos na lei de
IA ajudarão os formuladores de políticas a se proteger contra alguns dos usos
mais perigosos da tecnologia. Embora a IA tenda a se desenvolver mais rápido do
que a política, os princípios fundamentais da lei não precisarão mudar – embora
ferramentas regulatórias mais flexíveis sejam necessárias para ajustar e
atualizar as regras.
Mas pensar no Estado
apenas como regulador é perder de vista o aspecto principal. A inovação não é
apenas um fenômeno de mercados sagazes. Ela tem uma direção; e esta depende das
condições em que emerge. Os formuladores de políticas públicas podem influenciar
essas condições. O surgimento de um design tecnológico ou modelo de negócios
dominante é o resultado de uma luta de poder entre vários atores – corporações,
órgãos governamentais, instituições acadêmicas — com interesses conflitantes e
prioridades divergentes. Ao refletir essa luta, a tecnologia resultante pode
ser mais ou menos centralizada, mais ou menos proprietária, e assim por diante.
Os mercados que se
formam em torno de novas tecnologias seguem o mesmo padrão, com implicações
distributivas importantes. Como o pioneiro do software Mitch Kapor coloca,
“Arquitetura é política”. Mais do que regulamentação, o design de uma
tecnologia e da infraestrutura que a circunda dita quem pode fazer o quê com
ela e quem se beneficia. Para assegurarem que inovações transformadoras
produzam crescimento inclusivo e sustentável, não basta que os Estados corrijam
os mercados. Eles precisam moldá-los e cocriá-los. Quando os Estados contribuem
para a inovação por meio de investimentos ousados, estratégicos e orientados
para missões, eles podem criar novos mercados e atrair o setor privado.
No caso da IA, a
tarefa de direcionar a inovação está atualmente dominada por grandes
corporações privadas. Isso leva a uma infraestrutura que serve aos interesses
dos já envolvidos e agrava a desigualdade econômica. É o reflexo de um problema
de longa data. Algumas das empresas de tecnologia que mais se beneficiaram de
apoio público – como Apple e Google – também foram acusadas de usar suas
operações internacionais para evitar o pagamento de impostos. Essas relações
desequilibradas e parasitárias entre grandes empresas e o Estado agora correm o
risco de ser ampliadas pela IA, que promete recompensar o capital enquanto
reduz as rendas conferidas ao trabalho.
As empresas que
desenvolvem IA generativa já estão no centro dos debates sobre comportamentos
extrativistas, devido ao seu uso desenfreado de textos, áudios e imagens
protegidos por direitos autorais, para treinar seus modelos. Ao centralizarem o
valor dentro de seus próprios serviços, elas reduzirão os fluxos de recursos
para os artistas de quem dependem. Assim como nas redes sociais, os mecanismos
estão alinhados para a extração de renta, cuja lógica é permitir que
intermediários dominantes acumulam lucros às custas de outros. As plataformas
que prevalecam hoje – como Amazon e Google – exploraram sua posição dominante
usando seus algoritmos para extrair tarifas cada vez maiores (“rentas de
atenção algorítmica”) para acesso aos usuários. Uma vez que Google e Amazon se
tornaram um gigantesco esquema de jabaculês, a qualidade da informação
deteriorou e as plataformas passaram a extrair valor do ecossistema de sites,
produtores e desenvolvedores de aplicativos nos quais as se baseiam. Os
sistemas de IA de hoje poderiam seguir um caminho semelhante: extração de
valor, monetização disfarçada e deterioração da qualidade da informação.
Governar modelos de IA
generativa para o Comum exigirá parcerias mutuamente benéficas, orientadas para
objetivos compartilhados e a criação de valor público, e não apenas privado.
Isso não será possível com Estados que agem apenas após os fatos consumados.
Precisamos de Estados empreendedores, capazes de estabelecer estruturas
pré-distributivas que compartilhem riscos e recompensas ex ante. Os
formuladores de políticas devem se concentrar em entender como as plataformas,
os algoritmos e a IA generativa criam e extraem valor, para que possam
estabelecer as condições – entre elas, regras de design equitativas – para uma
economia digital que remunere a criação de valor.
• Lembre-se da História
A internet é um bom
exemplo de uma tecnologia que foi projetada a partir de princípios de abertura
e neutralidade. Considere o princípio do “ponto a ponto”, que garante que ela
opere como uma rede neutra,k responsável pela entrega de dados. O conteúdo entregue
de computador para computador pode ser privado, mas o código é gerenciado
publicamente. E a infraestrutura física necessária para acessar a internet é
privada, mas o desenho original assegurou que, colocados online, os recursos
para a inovação na rede são livremente disponíveis.
Essa escolha de
design, coordenada [nos EUA] pelo trabalho inicial da Agência de Projetos de
Pesquisa Avançada de Defesa (entre outras organizações), tornou-se um princípio
orientador para o desenvolvimento da internet, permitindo flexibilidade e
inovação extraordinárias nos setores público e privado. Ao visualizar e moldar
novos espaços de criação, o Estado pêde estabelecer mercados e direcionar o
crescimento, em vez de apenas incentivá-lo ou estabilizá-lo.
É difícil imaginar que
empresas privadas, encarregadas de desenvolver a internet na ausência de
envolvimento governamental, tivessem aderido a princípios igualmente
inclusivos. Considere a história da tecnologia telefônica. O papel do Estado
foi predominantemente regulatório. A inovação foi deixada, em grande medida,
nas mãos de monopólios privados. Este tipo de centralização não apenas
prejudicou o ritmo da inovação, mas também limitou os benefícios sociais mais
amplos que poderiam ter surgido.
Por exemplo, em 1955,
a American Telephone and Telegraph (AT&T) persuadiu a Comissão Federal de
Comunicações a banir um dispositivo que reduziria o ruído nos receptores
telefônicos, alegando direitos exclusivos para melhorias na rede. O mesmo tipo
de controle monopolista poderia ter relegado a internet a ser apenas um
instrumento de nicho para um grupo seleto de pesquisadores, em vez da
tecnologia universalmente acessível e transformadora em que se converteu.
Da mesma forma, a
transformação do GPS – de uma ferramenta militar para uma tecnologia
universalmente benéfica – destaca a necessidade de governar a inovação para o
bem comum. Inicialmente projetado pelo Pentágono para coordenar ações
militares, o acesso público aos sinais de GPS foi deliberadamente rebaixado,
por motivos de segurança nacional. Mas, à medida que o uso civil ultrapassou o
militar, o governo dos EUA, sob o presidente Bill Clinton, tornou o GPS mais
responsivo aos usuários civis e comerciais em todo o mundo.
Essa mudança não
apenas democratizou o acesso à tecnologia de geolocalização precisa, mas também
estimulou uma onda de inovação em muitos setores, incluindo navegação,
logística e serviços baseados em localização. Uma mudança de política que
buscava maximizar o benefício público teve um impacto transformador e de longo
alcance na inovação tecnológica. Mas esse exemplo também mostra que governar
para o bem comum é uma escolha consciente que requer investimento contínuo,
alta coordenação e capacidade de entrega.
Para aplicar essa
escolha à inovação em IA, precisaremos de estruturas de governança inclusivas e
orientadas para missões, com meios para investir conjuntamente com parceiros
que reconheçam o potencial da inovação liderada pelo Estado. Para coordenar respostas
de múltipos atores a objetivos ambiciosos, os formuladores de políticas devem
estabelecer condições para financiamento público, de modo que os riscos e
recompensas sejam compartilhados de forma mais equitativa. Isso significa
objetivos claros, aos quais as empresas precisam se adequar; altos padrões de
trabalho, sociais e ambientais; e compartilhamento de lucros com o público. As
condicionalidades podem e devem exigir que as Big Tech sejam mais abertas e
transparentes. Não devemos aceitar nada menos do que isso, se quisermos levar a
sério a ideia de capitalismo de stakeholders.
Por fim, enfrentar os
perigos da IA exige que os governos ampliem seu papel além da regulação. Sim,
diferentes governos têm capacidades diferentes, e alguns são altamente
dependentes da economia política global mais ampla da IA. A melhor estratégia
para os Estados Unidos pode não ser a melhor para o Reino Unido, a UE ou
qualquer outro país. Mas todos devem evitar a falácia de presumir que governar
a IA para o Comum está em conflito com a criação de um setor de IA robusto e
competitivo. Pelo contrário, a inovação floresce quando o acesso às
oportunidades está aberto e as recompensas são amplamente compartilhadas.
Lula e a Inteligência Artificial. Por
Sérgio Amadeu, na Opera Mundi
Poucas pessoas têm uma
intuição tão aguçada e profunda sobre as questões cruciais do seu tempo como o
presidente Lula. Em uma recente reunião do Conselho Nacional de Ciência de
Tecnologia, o presidente brasileiro declarou de modo contundente querer “uma IA
(Inteligência Artificial) genuinamente guarani” ou “yanomami”. Cobrou dos
pesquisadores que fizessem algo “nosso”.
É impressionante que
Lula tenha dito uma frase tão certeira nesse momento crucial do desenvolvimento
das tecnologias chamadas de “inteligentes”. Com sua sentença, Lula deixou
evidente que a IA não é neutra, que ela porta as cosmovisões de uma sociedade, que
é desenvolvida conforme os traços culturais de uma população. A IA atual é
concebida e elaborada a partir de um universo cosmotécnico que não é o nosso,
nem o dos yanomamis. O filósofo honconguês Yuk Hui parece ter conversado antes
com Lula. Mas, sei que não.
Lula também reforçou o
pensamento de várias pesquisadoras, como a matemática Cathy O’Neil, que nos
alerta que as tecnologias digitais, apesar de sua reputação de imparcialidade,
refletem objetivos político-econômicos e ideológicos. O’Neil escreveu que “os
modelos (inclusive de IA) são opiniões embutidas em matemática”. Cheguei a
considerar que o presidente poderia ter lido e se inspirado na ideia de que as
tecnologias informacionais expressam aquilo que Richard Barbrook e Andy Cameron
nomearam como a “Ideologia Californiana” no título de seu livro de 1995.
O presidente também
acertou em cheio ao cobrar dos cientistas brasileiros uma abordagem original da
IA. Talvez alguém tenha alertado Lula de que aquilo que o mercado chama de
“inteligência artificial” são na realidade sistemas algoritmos que extraem padrões
de variadas e gigantescas base de dados para criar modelos que serão acessados
a partir de interfaces digitais. A IA
realmente existente é a dos sistemas automatizados que utilizam muitos dados e
cada vez mais poder computacional, ou seja, infraestruturas com milhares de
servidores. Por isso, Lula esboçou uma reclamação ao falar que temos tanta
gente inteligente no Brasil, como se quisesse advertir alguns desavisados de
que a IA realmente existente está muito longe de superar nossa inteligência
orgânica.
Há um texto muito
importante para mostrar que aquilo que naturalizamos nas tecnologias, em geral,
são perspectivas e ideários que guardam cosmovisões. Um grupo internacional de
tecnólogos indígenas, em 2021, utilizando a metodologia chamada design centrado
no território – criada pelos povos indígenas da Austrália – buscou criar
protocolos de um sistema de parentesco para desenvolver uma estrutura
algorítmica com base na chamada computação genética. Os algoritmos criados sob
a orientação dos anciões receberam uma elevada pontuação em diversidade e
complexidade, mas fracassavam em velocidade e eficiência. Esse relato presente
no livro Out of the Black Box: Indigenous Protocols for AI (Saindo da caixa
preta: protocolos indígenas para a AI, em tradução literal) evidencia que
“fazer mais com menos” nem sempre é algo prioritário para uma cultura. A
velocidade algorítmica não interessava aos aborígenes. Interessa ao capital. O
acúmulo de dados é vital para os paradigmas dominantes na IA realmente
existente.
Não é por menos que os
Estados Unidos detém mais da metade dos Data Centers do planeta. O insumo
essencial da IA nas abordagens atualmente dominantes são os dados. Mas, eles
não são como o petróleo, naturais; não brotam do chão. Dados são criados por
humanos, empresas, instituições, indivíduos ou por máquinas inventadas por
humanos. As grandes empresas de tecnologia, as Big Techs, querem que
acreditemos na sua ideologia sobre dados para continuar a extraí-los como algo
disponível na natureza. Por isso, mais uma vez Lula acertou ao pedir que os
cientistas daqui façam algo. Para isso, teremos que estancar a coleta de dados
absurda que é feita em nosso país para alimentar e treinar os sistemas
algoritmos dos Estados Unidos.
O que Lula, apesar de
sua intuição, não tratou, foi da colossal transferência de dados públicos que
fazemos para as Big Techs. Também não se pronunciou sobre o fato de que o seu
governo continua treinando os algoritmos da IBM com dados dos servidores públicos,
civis e militares, quando esses acessam o serviço de chat do SouGov. Essa
derrama de dados começou com Bolsonaro e continua no atual governo. Lula
certamente não leu os Termos de Uso do SouGov. Nele, está justificado o envio
de dados dos brasileiros para os Estados Unidos: “… tal armazenamento tem o
objetivo de prover o aprendizado de máquina da ferramenta de chat denominada
‘Watson’, onde as interações dos usuários no chat são utilizadas para
‘aprendizado’ pelo computador que envia as respostas automáticas quando o
usuário está sendo atendido por meio do chat do serviço SouGov.”
Tão grave quanto a
entrega de dados dos servidores públicos brasileiros para um sistema que opera
em solo norte-americano, longe da nossa jurisdição, é o fato de que mais de 70%
das universidades brasileiras entregaram seus e-mails e listas de discussão,
bem como seus repositórios para o armazenamento de arquivos para o Google e
para a Microsoft. Lula poderia sugerir que o MEC fizesse um consórcio com as
universidades para construir data centers que mantenham nossos dados sobre
nossa governança, servindo ao treinamento de sistemas algorítmicos
desenvolvidos pela nossa inteligência coletiva. Seria um primeiro grande passo
para proteger os nossos dados e desenvolver nossa IA.
Fonte: Por Mariana Mazzucato | Tradução: Antonio Martins, em Outras Palavras
Nenhum comentário:
Postar um comentário