A
luta global para regular inteligência artificial
Em março de
2024,
um senador brasileiro viajou em um voo comercial para Washington, nos EUA.
Marcos Pontes, o ex-astronauta, de 61 anos de idade, havia se tornado uma
figura central nas iniciativas de regulação da inteligência artificial no
Brasil — onde um projeto de lei propunha importantes restrições à tecnologia em
desenvolvimento. Autoconfiante e bem articulado, o ex-ministro da Ciência,
Tecnologia e Inovação se considerava excepcionalmente qualificado entre seus
colegas para entender as questões complexas em torno da IA.
Pontes já havia trabalhado para a NASA, frequentado a
Escola de Pós-Graduação Naval na Califórnia, e era menos cético do que muitos
outros senadores em relação às grandes empresas dos EUA que dominam a corrida
pela IA. “Não podemos restringir a tecnologia”, ele disse durante uma das
primeiras audiências do projeto de lei de IA, manifestando cautela com a
possibilidade de legislar sobre ferramentas que ainda estão em
desenvolvimento.
Viajou com ele a Washington o senador Laércio Oliveira,
outro conservador que integrava a comissão responsável por elaborar o projeto
de lei sobre IA. Ambos faziam parte de uma delegação organizada por uma
iniciativa do Congresso que tem interação com o setor privado. Seu objetivo:
realizar uma série de reuniões sobre a minuta do projeto de lei com
representantes do governo dos EUA e de empresas do Vale do Silício.
O projeto era um dos mais abrangentes até hoje no Sul
Global. Ele propunha a criação de um novo órgão regulador para supervisionar a
IA, proteção aos direitos autorais pelo conteúdo usado para treinar a IA, e
proteções aos direitos individuais, com controles antidiscriminação nos
sistemas biométricos e o direito de contestar decisões de IA com significativo
impacto humano.
O projeto proibia armas e ferramentas autônomas que
pudessem facilitar a criação e a distribuição de material de pornografia
infantil, e implementava uma supervisão mais rigorosa sobre os algoritmos das
redes sociais que podem ampliar a desinformação. Os defensores mundiais da
regulamentação da IA viam no Brasil um potencial modelo para outros países. Mas
Pontes considerava que o projeto poderia impedir o investimento e a inovação —
e o enxergava, como explicou depois ao Rest of World, como “baseado em medo”.
Pontes não informou os nomes dos americanos com quem se
reuniu, mas publicações nas redes sociais mostraram que a delegação visitou
integrantes do governo dos EUA, funcionários de think tanks, e executivos de
três grandes empresas de IA: Amazon, Google e Microsoft. Pontes diz que o projeto
de lei era o foco das discussões. “Pedimos a eles que analisassem a nossa
legislação”, ele conta, “e nos dessem um feedback, dissessem o que pensavam”.
Três meses depois, no dia em que o projeto deveria ser
colocado em votação, Pontes apresentou 12 emendas, e Oliveira, outras 20,
ajudando a desencadear um atraso. Pontes então convocou uma série de audiências
sobre o projeto, dizendo que ele precisava de mais debate público. Os
defensores da regulamentação alegaram que os representantes das big techs
tiveram tempo e influência indevidos nas discussões que se seguiram. As
críticas ao projeto vieram de organizações da indústria, e a Confederação
Nacional da Indústria, a CNI, alertou que ele levaria o país ao “isolamento
tecnológico”. Uma versão enfraquecida do projeto acabou sendo aprovada no
Senado em dezembro.
O projeto de lei brasileiro sobre IA representa uma
janela para o esforço mundial de definir o papel que a inteligência artificial
desempenhará nas sociedades democráticas. As grandes empresas do Vale do
Silício envolvidas no desenvolvimento do software de IA — incluindo Google,
Microsoft, Meta, Amazon Web Services, e OpenAI — organizaram oposição contra as
propostas de regulação abrangente da IA na União Europeia, no Canadá, e na
Califórnia.
Hany Farid, ex-reitor da Escola de Informação da
Universidade da Califórnia em Berkeley, e importante defensor da
regulamentação, que frequentemente depõe em audiências públicas sobre o setor
de tecnologia, disse ao Rest of World que o lobby das grandes empresas
dos EUA sobre a IA nos países ocidentais tem sido intenso. “Elas estão tentando
eliminar todas as leis ou redigi-las a seu favor”, diz. “É feroz.”
Enquanto isso, no Sul Global, onde a regulamentação da
IA ainda é mais embrionária, essas mesmas empresas receberam as boas-vindas com
pompa e circunstância de políticos interessados em investimentos.
·
A primeira onda de
regulamentação
“Novas tecnologias frequentemente trazem novos
desafios, e depende das empresas garantir que vamos desenvolver e lançar produtos
de forma responsável” disse ao Senado dos EUA, em 2023, o CEO da Meta, Mark
Zuckerberg, defendendo a autorregulação da IA. “Temos condições de criar
proteções internas a esses sistemas.”
“A autorregulação é importante”, disse o CEO da OpenAI,
Sam Altman, durante uma visita a Nova Délhi naquele mesmo ano, quando o
burburinho sobre o ChatGPT estava crescendo em todo o mundo. Naquele momento,
porém, ele também advertiu que “o mundo não deveria ser deixado inteiramente
nas mãos das empresas, diante do que consideramos que seja o poder dessa
tecnologia”.
Os defensores da IA dizem que ela irá revolucionar as
indústrias, impulsionar a pesquisa científica, e tornar mais eficientes muitos
aspectos da vida e do trabalho. Do outro lado do debate, políticos, especialistas
em tecnologia, representantes dos setores afetados pela IA, e representantes da
sociedade civil defendem ferrenhamente uma regulamentação muito mais rígida.
Eles querem a implementação antecipada de regras sobre direitos autorais,
proteção de dados e boas práticas trabalhistas, além dos usos que afetam a
segurança pública, com os deepfakes generativos, a criação de armas químicas e
biológicas, e os ataques cibernéticos.
A mais ambiciosa legislação sobre IA aprovada até hoje,
a Lei da IA de 2024 na União Europeia, oferece um modelo para uma
regulamentação mais restritiva. Ela proíbe o uso da IA para efeitos de crédito
social, impõe restrições ao uso de IA na análise de perfis criminais, e exige
rótulos no conteúdo gerado por IA — uma medida que tem o objetivo de aumentar a
transparência e combater a desinformação. Ela também cria uma série de
requisitos especiais para os desenvolvedores de sistemas de IA categorizados
como de alto risco para a saúde, a segurança, ou os direitos fundamentais.
Os EUA não têm nenhuma proposta de lei com regras
abrangentes sobre IA para apreciação a sério pelo Congresso. Em âmbito
estadual, a Califórnia é o estado mais avançado na regulamentação da IA, e seu
governador sancionou recentemente 17 projetos sobre IA que foram convertidos em
lei. Suas disposições vão desde a proteção contra réplicas digitais de artistas
até a proibição de deepfakes relacionados às eleições.
O Canadá, enquanto isso, está tentando uma
abordagem semelhante à da União Europeia: o partido do governo está propondo
padronizar o design, o desenvolvimento e o uso da IA por meio do Artificial
Intelligence and Data Act (Lei de Inteligência Artificial e Dados, AIDA), que
ainda não foi aprovado.
Os esforços regulatórios nos EUA e na UE ensejaram
pressão contrária das empresas de tecnologia, e o lobby relacionado à IA
aumentou. No Canadá, executivos da Amazon e da Microsoft reprovaram
publicamente a iniciativa, e chamaram a proposta de legislação de vaga e
onerosa. A Meta já sinalizou que pode
evitar o lançamento de certos produtos de IA no país.
Um histórico projeto de lei da Califórnia, que teria
exigido medidas de segurança nos programas com IA para proteção contra
aplicativos fraudulentos, foi vetado pelo governador no ano passado, após uma
campanha dos investidores em capital de risco e desenvolvedores de IA, que
incluiu anúncios pagos e artigos de opinião em jornais. O diretor de estratégia
da OpenAI escreveu uma carta aberta alertando que o projeto poderia
“desacelerar o ritmo da inovação” e levar os empreendedores a “deixarem o
estado em busca de melhores oportunidades em outro lugar”.
As gigantes da tecnologia também fizeram lobby
agressivo contra o projeto da UE. A OpenAI teria obtido bons
resultados na
tentativa de reduzir o ônus regulatório da lei sobre a empresa, e Altman fez
uma ameaça de que a OpenAI poderia deixar a Europa se ele considerar que a
regulamentação está muito restrita.
Em agosto, Zuckerberg escreveu em coautoria um artigo
de opinião descrevendo a abordagem regulatória da UE como “complexa e
incoerente”, e alertando que ela poderia inviabilizar “a oportunidade única em
uma geração” de inovação, além da chance de capitalizar as “oportunidades de
crescimento econômico” da IA.
“Temos dito com clareza que apoiamos estruturas
regulatórias e proteções eficientes e baseadas em riscos para a IA”, disse um
representante da Amazon ao Rest of World, observando que a empresa já
assinou compromissos voluntários com a Casa Branca e a UE para o
desenvolvimento responsável de IA, e compactua com o objetivo maior da lei
europeia. A OpenAI e o Google não responderam aos diversos pedidos de
comentários para esta matéria.
Um representante da Microsoft compartilhou uma
publicação da empresa propondo “esforços equilibrados para desenvolver leis e
regulamentos” para encorajar a confiança do público e a adoção da IA, assim
como normas de “interoperabilidade e consistência” da IA em diferentes
países.
Um representante da Meta encaminhou um comunicado
anterior da empresa sobre a legislação de IA da UE: “é nossa prioridade
assegurar que a IA seja desenvolvida e implementada de forma responsável — com
transparência, segurança e responsabilidade em primeiro lugar. Damos as boas
vindas às regras harmonizadas da UE. (…) Não deveríamos também perder de vista
o imenso potencial da IA para promover a inovação na Europa e permitir a
concorrência.”
Em muitos países do Sul Global, as discussões sobre
políticas ainda estão em desenvolvimento. O Chile é um dos poucos países que
está tentando aprovar uma legislação pormenorizada sobre IA. Seu histórico
projeto de lei copia alguns componentes da abordagem europeia centrada no
risco, e promete impulsionar o desenvolvimento da IA e ao mesmo tempo proteger
os princípios democráticos e os direitos humanos. A Lei Básica de IA da Coreia
do Sul, aprovada em dezembro, promove o papel da IA no crescimento econômico,
mas também remete a algumas das proteções de ética, segurança e transparência
da União Europeia.
Outros governos estabeleceram estruturas políticas que
priorizam o interesse comercial em detrimento de uma regulamentação rigorosa. A
Lei Básica de IA de Taiwan, por exemplo, determina que futuras interpretações
jurídicas relativas à regulação da IA “não devem impedir o desenvolvimento de
novas tecnologias de IA, nem a prestação de serviços com tecnologia IA
incorporada”, segundo uma
análise da IAPP,
uma organização sem fins lucrativos que acompanha leis e regulações sobre IA em
todo o mundo. O Japão vem
defendendo sua
regulação minimalista de IA, que prioriza atrair empresas e investimentos.
Cingapura, outra potência econômica mundial que vem tentando se tornar um
centro de IA, ainda não aprovou nenhuma política sobre IA, mas o governo já
sinalizou uma preferência por regras direcionadas, específicas por setor, no
lugar de uma abordagem mais abrangente.
·
Influência das big techs
O Brasil vem despontando na vanguarda da regulamentação
da tecnologia entre as economias emergentes. O Marco Civil da Internet, que
entrou em vigor em 2014, estabeleceu proteções à neutralidade da rede, à
liberdade de expressão e à privacidade. Em 2023, um abrangente projeto de “Lei
das Fake News”, como ficou conhecido, tentou obrigar as redes sociais a terem
mais transparência e se responsabilizarem pela desinformação. O projeto de lei
foi aprovado no Senado, mas acabou derrotado na Câmara, após intensa pressão
pública do Google, da Meta, e do aplicativo de troca de mensagens Telegram.
O pormenorizado projeto de lei de regulamentação da IA
foi apresentado no Senado em maio de 2023. Seus proponentes esperavam que ele
tivesse força semelhante à da legislação europeia, e ao mesmo tempo fornecesse
“um modelo para ser debatido em todo o mundo”, disse ao Rest of World a advogada
Estela Aranha, assessora especial do presidente Lula que esteve envolvida de
perto no processo.
Aranha, que também integra o órgão consultivo de alto
nível da ONU sobre inteligência artificial, acrescentou que a coordenação
global é essencial quando se trata da regulamentação da IA. Os países precisam
ter a liberdade de criar sua própria legislação, ela diz, mas também é
necessário que exista um consenso sobre as regras essenciais, para que elas
possam ser aplicadas de maneira eficaz.
“A IA é uma ferramenta que ultrapassa fronteiras, e
você não pode ter uma legislação completamente desconectada do cenário
internacional”, observa Aranha. “É preciso ter alguma convergência minimamente,
para conseguir que esses atores globais em oligopólios muitos poderosos cumpram
as leis.”
Mas o senador e ex-astronauta Pontes, que esteve à
frente da reação contra o projeto no Senado, disse ao Rest of World que sua
preocupação inicial de que o projeto fosse muito rigoroso foi reforçada pela
viagem aos EUA em março de 2024.
Após seu retorno, ele apresentou propostas que incluíam
a redução do sistema de contestação de decisões da IA; o afrouxamento das
proteção aos direitos autorais; e a restrição dos tipos de sistema de IA que
seriam regulados. Oliveira, o senador que o acompanhou aos EUA, apresentou
várias das mesmas propostas, algumas delas, com textos quase idênticos. (O
gabinete de Oliveira não respondeu aos diversos pedidos de comentários).
Pontes defendeu as audiências que convocou sobre o
projeto como um esforço para incluir todos os setores envolvidos: “não podemos
simplesmente impor uma regulação de cima para baixo”. Mas representantes da
sociedade civil os consideram tendenciosos.
Em uma movimentação incomum, dois lobistas americanos
foram convidados a falar ao Senado brasileiro, ambos representando grupos de
interesse com sede em Washington, que têm entre seus integrantes Amazon,
Google, Meta, Microsoft e outras grandes empresas de tecnologia.
Paula Guedes, advogada especialista em direitos
digitais, foi uma das defensoras da regulação que participou do debate sobre o
projeto no Senado, na qualidade de líder de IA da Coalizão Direitos na Rede,
uma rede de organizações de sociedade civil e acadêmicos. Ela disse ao Rest of World que achava
que os grupos de interesse do setor tinham mais facilidade para acessar os
senadores e participar das audiências do que os representantes da sociedade
civil: “tudo já foi esquematizado favoravelmente ao setor privado”.
Em resposta às perguntas sobre seu papel nas discussões
do projeto, um representante do Google confirmou a visita da delegação
brasileira em março de 2024 à sede da empresa em Washington, e acrescentou:
“reforçamos nosso compromisso com o diálogo contínuo entre a sociedade, as empresas
e as autoridades para discutir questões centrais, como a adoção responsável da
inteligência artificial para promover o desenvolvimento e a solução de
importantes desafios na sociedade brasileira”.
Microsoft e Meta não comentaram. “A Amazon se orgulha
de investir no Brasil desde 2011”, disse um representante da empresa. “Como
acontece com todas as empresas globais, participamos regularmente de discussões
com decisores políticos, associações do setor e think tanks para compartilhar
conhecimento e contribuir para o desenvolvimento de soluções em temas
relevantes para os nossos clientes.”
A versão do projeto que foi aprovada no Senado em
dezembro incluía pagamento aos detentores de direitos autorais quando seu
conteúdo for usado para treinar sistemas de IA; criação de uma autoridade de
supervisão de IA; e a proibição de armas autônomas. Outras medidas regulatórias
permaneceram, mas foram enfraquecidas.
A retirada de regras sobre algoritmos que moderam e
recomendam conteúdo das redes sociais, e do dispositivo sobre desinformação,
foram consideradas grandes perdas para os defensores da regulação. O projeto de
lei segue para a Câmara, onde o projeto de Lei das Fake News foi derrotado.
“Vão ser necessárias ações desde o início do ano que vem”, diz Guedes, prevendo
que os esforços para alterar o projeto de lei continuarão.
Fonte: Por Laís Martins e Katie McQue, em The Intercept
Nenhum comentário:
Postar um comentário