terça-feira, 26 de março de 2024


 



Inteligência Artificial: o que esperar dos Estados

Em dezembro passado, a União Europeia (UE) estabeleceu um precedente global ao finalizar a Lei de Inteligência Artificial, um dos conjuntos de regras de IA mais abrangentes do mundo. A legislação emblemática da Europa pode sinalizar uma tendência mais ampla em direção a políticas de IA mais responsivas. Mas embora a regulamentação seja necessária, não é suficiente. Além de impor restrições às empresas privadas de IA, os Estados devem assumir um papel ativo no desenvolvimento da tecnologia, projetando sistemas e moldando mercados para o Comum.

É claro que os modelos de IA estão evoluindo rapidamente. Quando os reguladores da UE divulgaram o primeiro rascunho da lei sobre o tema em abril de 2021, eles gabaram-se de ele ser supostamente “à prova de futuro”. Apenas um ano e meio depois, correram para atualizar o texto, em resposta ao lançamento do ChatGPT. Mas os esforços regulatórios não são em vão. Por exemplo, a proibição, por lei, do uso de IA no policiamento por biometria continuará provavelmente relevante, em que pesem os avanços na tecnologia. Além disso, os parâmetros de risco incluídos na lei de IA ajudarão os formuladores de políticas a se proteger contra alguns dos usos mais perigosos da tecnologia. Embora a IA tenda a se desenvolver mais rápido do que a política, os princípios fundamentais da lei não precisarão mudar – embora ferramentas regulatórias mais flexíveis sejam necessárias para ajustar e atualizar as regras.

Mas pensar no Estado apenas como regulador é perder de vista o aspecto principal. A inovação não é apenas um fenômeno de mercados sagazes. Ela tem uma direção; e esta depende das condições em que emerge. Os formuladores de políticas públicas podem influenciar essas condições. O surgimento de um design tecnológico ou modelo de negócios dominante é o resultado de uma luta de poder entre vários atores – corporações, órgãos governamentais, instituições acadêmicas — com interesses conflitantes e prioridades divergentes. Ao refletir essa luta, a tecnologia resultante pode ser mais ou menos centralizada, mais ou menos proprietária, e assim por diante.

Os mercados que se formam em torno de novas tecnologias seguem o mesmo padrão, com implicações distributivas importantes. Como o pioneiro do software Mitch Kapor coloca, “Arquitetura é política”. Mais do que regulamentação, o design de uma tecnologia e da infraestrutura que a circunda dita quem pode fazer o quê com ela e quem se beneficia. Para assegurarem que inovações transformadoras produzam crescimento inclusivo e sustentável, não basta que os Estados corrijam os mercados. Eles precisam moldá-los e cocriá-los. Quando os Estados contribuem para a inovação por meio de investimentos ousados, estratégicos e orientados para missões, eles podem criar novos mercados e atrair o setor privado.

No caso da IA, a tarefa de direcionar a inovação está atualmente dominada por grandes corporações privadas. Isso leva a uma infraestrutura que serve aos interesses dos já envolvidos e agrava a desigualdade econômica. É o reflexo de um problema de longa data. Algumas das empresas de tecnologia que mais se beneficiaram de apoio público – como Apple e Google – também foram acusadas de usar suas operações internacionais para evitar o pagamento de impostos. Essas relações desequilibradas e parasitárias entre grandes empresas e o Estado agora correm o risco de ser ampliadas pela IA, que promete recompensar o capital enquanto reduz as rendas conferidas ao trabalho.

As empresas que desenvolvem IA generativa já estão no centro dos debates sobre comportamentos extrativistas, devido ao seu uso desenfreado de textos, áudios e imagens protegidos por direitos autorais, para treinar seus modelos. Ao centralizarem o valor dentro de seus próprios serviços, elas reduzirão os fluxos de recursos para os artistas de quem dependem. Assim como nas redes sociais, os mecanismos estão alinhados para a extração de renta, cuja lógica é permitir que intermediários dominantes acumulam lucros às custas de outros. As plataformas que prevalecam hoje – como Amazon e Google – exploraram sua posição dominante usando seus algoritmos para extrair tarifas cada vez maiores (“rentas de atenção algorítmica”) para acesso aos usuários. Uma vez que Google e Amazon se tornaram um gigantesco esquema de jabaculês, a qualidade da informação deteriorou e as plataformas passaram a extrair valor do ecossistema de sites, produtores e desenvolvedores de aplicativos nos quais as se baseiam. Os sistemas de IA de hoje poderiam seguir um caminho semelhante: extração de valor, monetização disfarçada e deterioração da qualidade da informação.

Governar modelos de IA generativa para o Comum exigirá parcerias mutuamente benéficas, orientadas para objetivos compartilhados e a criação de valor público, e não apenas privado. Isso não será possível com Estados que agem apenas após os fatos consumados. Precisamos de Estados empreendedores, capazes de estabelecer estruturas pré-distributivas que compartilhem riscos e recompensas ex ante. Os formuladores de políticas devem se concentrar em entender como as plataformas, os algoritmos e a IA generativa criam e extraem valor, para que possam estabelecer as condições – entre elas, regras de design equitativas – para uma economia digital que remunere a criação de valor.

•        Lembre-se da História

A internet é um bom exemplo de uma tecnologia que foi projetada a partir de princípios de abertura e neutralidade. Considere o princípio do “ponto a ponto”, que garante que ela opere como uma rede neutra,k responsável pela entrega de dados. O conteúdo entregue de computador para computador pode ser privado, mas o código é gerenciado publicamente. E a infraestrutura física necessária para acessar a internet é privada, mas o desenho original assegurou que, colocados online, os recursos para a inovação na rede são livremente disponíveis.

Essa escolha de design, coordenada [nos EUA] pelo trabalho inicial da Agência de Projetos de Pesquisa Avançada de Defesa (entre outras organizações), tornou-se um princípio orientador para o desenvolvimento da internet, permitindo flexibilidade e inovação extraordinárias nos setores público e privado. Ao visualizar e moldar novos espaços de criação, o Estado pêde estabelecer mercados e direcionar o crescimento, em vez de apenas incentivá-lo ou estabilizá-lo.

É difícil imaginar que empresas privadas, encarregadas de desenvolver a internet na ausência de envolvimento governamental, tivessem aderido a princípios igualmente inclusivos. Considere a história da tecnologia telefônica. O papel do Estado foi predominantemente regulatório. A inovação foi deixada, em grande medida, nas mãos de monopólios privados. Este tipo de centralização não apenas prejudicou o ritmo da inovação, mas também limitou os benefícios sociais mais amplos que poderiam ter surgido.

Por exemplo, em 1955, a American Telephone and Telegraph (AT&T) persuadiu a Comissão Federal de Comunicações a banir um dispositivo que reduziria o ruído nos receptores telefônicos, alegando direitos exclusivos para melhorias na rede. O mesmo tipo de controle monopolista poderia ter relegado a internet a ser apenas um instrumento de nicho para um grupo seleto de pesquisadores, em vez da tecnologia universalmente acessível e transformadora em que se converteu.

Da mesma forma, a transformação do GPS – de uma ferramenta militar para uma tecnologia universalmente benéfica – destaca a necessidade de governar a inovação para o bem comum. Inicialmente projetado pelo Pentágono para coordenar ações militares, o acesso público aos sinais de GPS foi deliberadamente rebaixado, por motivos de segurança nacional. Mas, à medida que o uso civil ultrapassou o militar, o governo dos EUA, sob o presidente Bill Clinton, tornou o GPS mais responsivo aos usuários civis e comerciais em todo o mundo.

Essa mudança não apenas democratizou o acesso à tecnologia de geolocalização precisa, mas também estimulou uma onda de inovação em muitos setores, incluindo navegação, logística e serviços baseados em localização. Uma mudança de política que buscava maximizar o benefício público teve um impacto transformador e de longo alcance na inovação tecnológica. Mas esse exemplo também mostra que governar para o bem comum é uma escolha consciente que requer investimento contínuo, alta coordenação e capacidade de entrega.

Para aplicar essa escolha à inovação em IA, precisaremos de estruturas de governança inclusivas e orientadas para missões, com meios para investir conjuntamente com parceiros que reconheçam o potencial da inovação liderada pelo Estado. Para coordenar respostas de múltipos atores a objetivos ambiciosos, os formuladores de políticas devem estabelecer condições para financiamento público, de modo que os riscos e recompensas sejam compartilhados de forma mais equitativa. Isso significa objetivos claros, aos quais as empresas precisam se adequar; altos padrões de trabalho, sociais e ambientais; e compartilhamento de lucros com o público. As condicionalidades podem e devem exigir que as Big Tech sejam mais abertas e transparentes. Não devemos aceitar nada menos do que isso, se quisermos levar a sério a ideia de capitalismo de stakeholders.

Por fim, enfrentar os perigos da IA exige que os governos ampliem seu papel além da regulação. Sim, diferentes governos têm capacidades diferentes, e alguns são altamente dependentes da economia política global mais ampla da IA. A melhor estratégia para os Estados Unidos pode não ser a melhor para o Reino Unido, a UE ou qualquer outro país. Mas todos devem evitar a falácia de presumir que governar a IA para o Comum está em conflito com a criação de um setor de IA robusto e competitivo. Pelo contrário, a inovação floresce quando o acesso às oportunidades está aberto e as recompensas são amplamente compartilhadas.

 

       Lula e a Inteligência Artificial. Por Sérgio Amadeu, na Opera Mundi

 

Poucas pessoas têm uma intuição tão aguçada e profunda sobre as questões cruciais do seu tempo como o presidente Lula. Em uma recente reunião do Conselho Nacional de Ciência de Tecnologia, o presidente brasileiro declarou de modo contundente querer “uma IA (Inteligência Artificial) genuinamente guarani” ou “yanomami”. Cobrou dos pesquisadores que fizessem algo “nosso”.

É impressionante que Lula tenha dito uma frase tão certeira nesse momento crucial do desenvolvimento das tecnologias chamadas de “inteligentes”. Com sua sentença, Lula deixou evidente que a IA não é neutra, que ela porta as cosmovisões de uma sociedade, que é desenvolvida conforme os traços culturais de uma população. A IA atual é concebida e elaborada a partir de um universo cosmotécnico que não é o nosso, nem o dos yanomamis. O filósofo honconguês Yuk Hui parece ter conversado antes com Lula. Mas, sei que não.

Lula também reforçou o pensamento de várias pesquisadoras, como a matemática Cathy O’Neil, que nos alerta que as tecnologias digitais, apesar de sua reputação de imparcialidade, refletem objetivos político-econômicos e ideológicos. O’Neil escreveu que “os modelos (inclusive de IA) são opiniões embutidas em matemática”. Cheguei a considerar que o presidente poderia ter lido e se inspirado na ideia de que as tecnologias informacionais expressam aquilo que Richard Barbrook e Andy Cameron nomearam como a “Ideologia Californiana” no título de seu livro de 1995.

O presidente também acertou em cheio ao cobrar dos cientistas brasileiros uma abordagem original da IA. Talvez alguém tenha alertado Lula de que aquilo que o mercado chama de “inteligência artificial” são na realidade sistemas algoritmos que extraem padrões de variadas e gigantescas base de dados para criar modelos que serão acessados a partir de interfaces digitais.  A IA realmente existente é a dos sistemas automatizados que utilizam muitos dados e cada vez mais poder computacional, ou seja, infraestruturas com milhares de servidores. Por isso, Lula esboçou uma reclamação ao falar que temos tanta gente inteligente no Brasil, como se quisesse advertir alguns desavisados de que a IA realmente existente está muito longe de superar nossa inteligência orgânica.

Há um texto muito importante para mostrar que aquilo que naturalizamos nas tecnologias, em geral, são perspectivas e ideários que guardam cosmovisões. Um grupo internacional de tecnólogos indígenas, em 2021, utilizando a metodologia chamada design centrado no território – criada pelos povos indígenas da Austrália – buscou criar protocolos de um sistema de parentesco para desenvolver uma estrutura algorítmica com base na chamada computação genética. Os algoritmos criados sob a orientação dos anciões receberam uma elevada pontuação em diversidade e complexidade, mas fracassavam em velocidade e eficiência. Esse relato presente no livro Out of the Black Box: Indigenous Protocols for AI (Saindo da caixa preta: protocolos indígenas para a AI, em tradução literal) evidencia que “fazer mais com menos” nem sempre é algo prioritário para uma cultura. A velocidade algorítmica não interessava aos aborígenes. Interessa ao capital. O acúmulo de dados é vital para os paradigmas dominantes na IA realmente existente.

Não é por menos que os Estados Unidos detém mais da metade dos Data Centers do planeta. O insumo essencial da IA nas abordagens atualmente dominantes são os dados. Mas, eles não são como o petróleo, naturais; não brotam do chão. Dados são criados por humanos, empresas, instituições, indivíduos ou por máquinas inventadas por humanos. As grandes empresas de tecnologia, as Big Techs, querem que acreditemos na sua ideologia sobre dados para continuar a extraí-los como algo disponível na natureza. Por isso, mais uma vez Lula acertou ao pedir que os cientistas daqui façam algo. Para isso, teremos que estancar a coleta de dados absurda que é feita em nosso país para alimentar e treinar os sistemas algoritmos dos Estados Unidos.

O que Lula, apesar de sua intuição, não tratou, foi da colossal transferência de dados públicos que fazemos para as Big Techs. Também não se pronunciou sobre o fato de que o seu governo continua treinando os algoritmos da IBM com dados dos servidores públicos, civis e militares, quando esses acessam o serviço de chat do SouGov. Essa derrama de dados começou com Bolsonaro e continua no atual governo. Lula certamente não leu os Termos de Uso do SouGov. Nele, está justificado o envio de dados dos brasileiros para os Estados Unidos: “… tal armazenamento tem o objetivo de prover o aprendizado de máquina da ferramenta de chat denominada ‘Watson’, onde as interações dos usuários no chat são utilizadas para ‘aprendizado’ pelo computador que envia as respostas automáticas quando o usuário está sendo atendido por meio do chat do serviço SouGov.”

Tão grave quanto a entrega de dados dos servidores públicos brasileiros para um sistema que opera em solo norte-americano, longe da nossa jurisdição, é o fato de que mais de 70% das universidades brasileiras entregaram seus e-mails e listas de discussão, bem como seus repositórios para o armazenamento de arquivos para o Google e para a Microsoft. Lula poderia sugerir que o MEC fizesse um consórcio com as universidades para construir data centers que mantenham nossos dados sobre nossa governança, servindo ao treinamento de sistemas algorítmicos desenvolvidos pela nossa inteligência coletiva. Seria um primeiro grande passo para proteger os nossos dados e desenvolver nossa IA.

 

Fonte: Por Mariana Mazzucato | Tradução: Antonio Martins, em Outras Palavras 

Nenhum comentário:

Postar um comentário