SENADOR
MARCOS PONTES ESCONDE EMPRESAS DE LOBISTAS CONVIDADOS PARA DEBATER REGULAÇÃO DA
IA
UMA
EXECUTIVA DA ÁREA DE PRIVACIDADE da Meta, uma advogada que atua em uma
organização que representa iFood, IBM e Microsoft, e dois representantes de uma
entidade que tem como associadas Amazon, Google e Huawei. Esses são alguns
nomes que o senador Marcos Pontes, do PL de São Paulo, quer chamar para
audiências públicas para discutir a regulação de inteligência artificial no
Brasil.
Até
aí, parece tudo certo: é razoável ouvir as empresas do setor. O problema é que
essas pessoas foram incluídas na lista omitindo as
empresas que elas realmente representam.
Eduardo
Paranhos aparece na lista do astronauta como representante do Instituto de
Estudos Avançados da USP, o IEA-USP. Mas Paranhos, na verdade, é líder do grupo
de trabalho de Inteligência Artificial da Associação Brasileira de Empresas de
Software, a Abes, que representa dezenas de empresas do setor, incluindo
gigantes como AWS, Google Cloud e vendedores de tecnologias de vigilância como a Techbiz.
A
história piora: questionado pelo Intercept Brasil, o IEA esclareceu
que Paranhos não integra o instituto, e que apenas participou de um encontro
sobre IA como expositor em agosto de 2023.
Na data, ele representava a Abes.
Em
um artigo recente assinado
por Paranhos, a Abes criticou o caminho que o Brasil está seguindo na regulação
de IA, comparando-o a “modelos de regulação prescritivos” com “potencial efeito
colateral de desestimular o desenvolvimento e adoção de IA localmente”.
Paranhos
não é o único membro da associação a ter seu nome no requerimento. Andriei
Gutierrez é também vice-presidente da Abes –
mas, na lista do astronauta, aparece apenas como representante da empresa de
tecnologia Kyndryl.
Outro
nome camuflado no requerimento do astronauta é o de Ana Bialer. Ela foi
apresentada como advogada do escritório Bialer Falsetti e membro da Agência
Nacional de Proteção de Dados, a ANPD.
O
que foi omitido é que Bialer é líder do grupo de trabalho de Internet e
Regulação dentro da Brasscom, organização
que tem como associadas empresas como Microsoft, IBM, iFood e Uber.
Giovanna
Carloni também teve seu nome proposto por Pontes para as audiências públicas.
Ela aparece na lista como ligada ao Centro de Liderança de Política de
Informação, um departamento do escritório de advocacia internacional Hunton
Andrews Kurth.
Mas,
segundo o LinkedIn de Carloni, ela
deixou esse cargo em outubro de 2021. O motivo: passou a trabalhar na Meta.
Hoje, Carloni ocupa o cargo de gerente do programa de privacidade no escritório
de Proteção de Dados da Meta em Londres.
O
Intercept entrou em contato com a assessoria do senador Marcos Pontes e foi
informada que “a lista é verificada e convocada pela mesa da comissão”. A
assessoria disse ainda que vai solicitar a verificação e correção da lista e
que “o importante é termos representantes dos diversos setores participando.
Inclusive a academia, comunidade científica, setor produtivo desde startups até
grande esperesas, governo, etc”.
Em
resposta aos questionamentos do Intercept, a Meta disse que não foi convidada e
nem indicou representante para participar das audiências públicas e que,
alertada pela reportagem, solicitou a remoção do nome de Carloni da lista. A
Brasscom disse que também não foi convidada e que Bialer não participará da
audiência como representante da associação.
A
Abes disse que estará representada nas audiências pelo seu diretor de Relações
Institucionais e Governamentais, Marcelo Almeida, e que não é responsável pela
formulação da lista de convidados e “nem por quaisquer omissões ou
qualificações que constem nas suas convocações para audiências públicas”. A
assessoria esclareceu ainda que Paranhos não faz parte da USP, como mencionado
na lista de convidados.
·
A ofensiva para segurar a votação
O requerimento de
Marcos Pontes, que incluiu até o CEO da OpenAI, Sam Altman, foi apresentado no
dia 18 de junho, data em que a votação do projeto de lei foi travada. A
justificativa foi dar “oportunidade para todos falarem a respeito”.
Marcos
Pontes é um dos senadores que estava em uma tour, em março, por empresas de
tecnologia dos EUA. Uma reportagem do Aos Fatos mostrou
que os parlamentares que estavam na viagem são os campeões de emendas ao
projeto, com sugestões que vão de acordo com os interesses do governo
americano.
O
texto em discussão, conhecido como PL da IA, é
derivado de um relatório preliminar da Comissão Temporária Interna de
Inteligência Artificial, a CTIA, apresentado em abril por Eduardo Gomes,
senador pelo PL do Tocantins.
Em
sua redação atual, o projeto de lei prevê o desenvolvimento de IA pautado na
ética, a avaliação prévia de riscos dos sistemas e a obrigatoriedade de
“avaliação de impacto algorítmico”, mas abre margem para o uso de IA para
reconhecimento facial. Na versão mais recente, o uso de IA em armas automáticas
foi expressamente banido.
A
Comissão foi alvo de críticas da
Coalizão Direitos na Rede, a CDR, que reúne 55 entidades da sociedade civil e
organizações acadêmicas, sobre sua transparência. Foram realizadas audiências
públicas em outubro de 2023, em encontros repletos de homens brancos do Sul e
Sudeste.
O
atual texto, no entanto, abarcou algumas sugestões da sociedade civil – o que
levou a Coalizão à apoiar a proposta, ainda com críticas em relação à proteção
de direitos, em especial sobre reconhecimento facial e score de crédito.
Inicialmente,
a votação seria no dia 12 de junho. Depois, acabou adiada para o dia 18. Foi aí
que a máquina de lobby entrou em ação.Nas horas anteriores à sessão no dia 18,
representantes das empresas e associações interessadas em travar o projeto
trabalharam intensamente nos bastidores.
Na
manhã daquele dia, Gomes, relator do projeto, recebeu em seu gabinete Nicolas
Andrade, representante da OpenAI para América Latina e Caribe. O encontro rendeu um post no
Instagram.
Quem
também trabalhou para fazer pressão para que a votação fosse adiada foi a
Associação Brasileira de Inteligência Artificial, a Abria. Na segunda-feira,
dia anterior, a organização realizou um evento em São Paulo na sede do Google
for Startups.
Organizado
em parceria com o Google e com a Endeavor, uma rede de empreendedores, o evento
tratou sobre os “desafios e convergências na regulação de IA”.
Segundo
a página do evento, seria uma “oportunidade de alinhar visões, entender
preocupações comuns e colaborar na definição de um caminho regulatório que
suporte a inovação e o crescimento sustentável da IA no Brasil.”
O
evento teve a participação de empresas do setor privado como a Incognia, cuja
tecnologia antifraude permite verificação de identidade a partir da
geolocalização, e até de gigantes como Microsoft e Google.
Ao
final, a Abria apresentou uma carta aberta em que defende
que o texto não está suficientemente maduro para votação e precisaria de mais
debate.
Para
a entidade, na redação atual, o projeto traz “imposições regulatórias
excessivamente prescritivas e onerosas, que limitam a autonomia dos atores de
IA para definirem o nível adequado de sua governança”.
Na
prática, o argumento é o de que o texto está rígido e exige demais das
empresas, que citaram como exemplos a necessidade de supervisão humana, um rol
extensivo de avaliações preliminares e de impacto, e “diversas obrigações de
publicização de informações que desafiam o avanço tecnológico, a segurança dos
sistemas e o segredo de negócio”.
A
convocatória deu certo: em 24h, dezenas de organizações assinaram a carta,
dentre elas o Conselho Digital, o
Movimento Inovação Digital e entidades como Fecomercio e a Associação
Brasileira das Empresas de Segurança Eletrônica, a Abese. O adiamento da
votação foi comemorado como uma “pequena vitória” por Luis Fernando Prado,
advogado e conselheiro da Abria, em post no Linkedin.
·
O argumento se repete
Um
dos principais argumentos usados pelo setor privado, reciclado da tramitação
do PL 2630, é de que a
regulamentação de IA acabaria com a inovação no setor.
Segundo
a carta da Abria, faltam dispositivos e instrumentos que “sirvam como
mecanismos de fomento da IA no Brasil, de modo a incentivar a inovação e o
surgimento de novas empresas de base tecnológica”.
Mas
o argumento não se sustenta, segundo especialistas. “É justamente o contrário”,
disse Paulo Rená da Silva Santarém, doutorando em regulação de políticas
públicas de tecnologia na Universidade de Brasília e um dos gestores do
processo que culminou no Marco Civil da Internet.
“Sem
regras bem definidas, o setor no futuro será forçado a lidar com a necessidade
de adequação, desperdiçando muito dos esforços de desenvolvimento, além do
custo social incalculável. Sendo uma tecnologia de ponta, em vez de sufocar a
inovação, uma regulação jurídica irá impulsionar um ecossistema mais seguro,
ético e sustentável para a IA”, disse Rená.
Fonte:
Por Lais Martins, para The Intercept
Nenhum comentário:
Postar um comentário