A máquina de matar acelerada
por algoritmos
Este ensaio debruça-se sobre uma consequência nefasta
das ideias errôneas difundidas na internet sobre os chatbots. O argumento se
desdobra em duas partes. Primeiro, mostra-se que a existência dos chamados
robôs letais autônomos (autonomous killer robots) reduz a possibilidade de os humanos
tomarem a frente das decisões importantes num conflito armado. Uma maneira de
melhorar esse cenário seria construir uma interface que permitisse a gestão
humana de tais robôs. Não obstante, essa tarefa é dificultada pelo fato de a
principal ferramenta implicada – a saber, os Grandes Modelos de
Linguagem –
se basear em corpora cheios de vieses ideológicos e extremamente vulneráveis a
ataques cibernéticos. Tais vieses são difíceis de extricar e podem conduzir
humanos e máquinas a conversas que levem à escalada dos conflitos envolvidos.
·
O mito milenar dos autômatos de vigilância e defesa
O sonho das máquinas inteligentes é muito antigo. Ao
contrário que se costuma crer, não começou quando a realeza e a aristocracia
europeias do século XVIII se deliciavam com autômatos musicais e/ou
acrobáticos. Na Odisseia, Homero narra as peripécias de Hefesto, o deus da
metalurgia e do artesanato, cuja legião de escravas douradas realizava tarefas
mecânicas repetitivas por meio de foles. Faz menção, ainda, aos fantásticos
navios dos fenícios, acionados pelo pensamento ao menor sinal de perigo.
Os helênicos tinham conhecimentos avançados de mecânica
que lhes permitiam mover os autômatos com molas, foles, pistões e
alavancas.Durante toda a Antiguidade, a Idade Média e a Idade Moderna, essas
criaturas artificiais – gente, bichos e seres míticos talhados em vidro, lata
ou argila – eram vistas como escravas ou serviçais, destinadas a satisfazer
necessidades várias, inclusive o sexo. Viabilizando as fantasias masturbatórias
da nobreza, as bonecas cortesãs contribuíam para reforçar a crença na “alma”
dos autômatos. Ainda que conservada apenas em parte na Europa medieval, essa
arte logo se espalhou pelo mundo via Islã, tendo seguido depois para o oriente.
Os orientais usaram-na sobretudo para criar autômatos guardiões, a fim de
vigiar palácios ou relicários, como, por exemplo, o do Buda.
É fácil entender que o fascínio e o pavor suscitados
por tais mecanismos tenha feito deles poderosos instrumentos de controle
social. Não é, portanto, surpresa que esse imaginário milenar tenha sido
invocado pelas Big Techs e largamente difundido na internet. Na verdade, ele já
tinha uma face física, pois era utilizado na indústria do entretenimento, ou
seja, em quadrinhos, filmes e séries de TV.
A apropriação da vigilância e da defesa pelas Big
Techs Um
relatório do especialista em defesa Roberto Gonzalez (2024) mostra como, nos
últimos anos, o complexo militar-industrial dos EUA vem se deslocando do
Capital Beltway para o Vale do Silício. Para adotar armamentos baseados em IA e
tentar proteger a sua computação em nuvem, o Departamento de Defesa
estadunidense teve que recorrer à Microsoft, à Amazon, à Google e à Oracle,
concedendo-lhes contratos bilionários. Ao mesmo tempo, o Pentágono priorizou o
financiamento de startups de tecnologia de defesa ávidas por sacudir o mercado
com inovação célere e metas de crescimento ambiciosas.
Nesse cenário, o autor identifica três fatores: (i) o
modelo de startups do Vale do Silício; (ii) as condições de financiamento do
capital de risco; e (iii) as prioridades da indústria de tecnologia digital.
Conclui que a conjunção dos três produz armamentos de ponta – que,
independentemente do custo, – tendem a ser ineficazes, inseguros e
imprevisíveis na prática. Vejamos por quê. O primeiro fator impõe um ritmo
exageradamente acelerado à pesquisa em Inteligência artificial utilizada nesses
armamentos; o segundo pressiona por resultados que favoreçam os investidores; e
o terceiro procura incorporar os modismos do mercado da tecnologia digital ao
desenho dos sistemas. Isso deixa vários flancos abertos ao hackeamento e aos
erros na comunicação entre humanos e máquinas – o que pode provocar grandes
desastres estratégicos.
·
Os robôs guerreiros autônomos de Israel
A indústria de armamentos autônomos tem avançado muito
graças à Inteligência artificial. O Estado que mais investe hoje nessa
tecnologia é, sem dúvida, Israel. Vejamos, abaixo, como o país chamou para si
os investimentos ocidentais na perpetuação da indústria armamentista.
Lucy Suchman, professora emérita da Universidade de
Lancaster, no Reino Unido, estuda o militarismo contemporâneo com o respaldo de
uma longa carreira voltada à crítica cientifica e humanitária das áreas da
inteligência artificial e da interação homem-máquina. Em artigo publicado no
site Stop
Killer Robots em
fevereiro de 2024, ela analisa o relatório técnico anexado à acusação de
genocídio que a África do Sul impetrou contra Israel no Tribunal Internacional
de Justiça de Haia. Intitulado “Uma fábrica de assassinatos em massa: a face
interna do bombardeio calculado de Gaza por Israel”, o texto faz revelações
aterradoras sobre aquilo que a autora denomina “a máquina de matar acelerada
por algoritmos”. Essa máquina contém um sistema de mira operado por Inteligência artificial, cinicamente
denominado Habsora – o
evangelho. Ele permite às Forças de Defesa de Israel (FDI) combinar uma
autorização mais permissiva para o bombardeio de alvos civis na Faixa de Gaza
com um afrouxamento das restrições relativas às baixas esperadas. Sanciona-se,
assim, o envio de mísseis a áreas civis densamente povoadas, inclusive prédios
públicos e residenciais.
As diretrizes legais internacionais exigem que os
edifícios selecionados para bombardeio sejam alvos militares legítimos e
estejam vazios no momento da sua destruição. A nova política das Forças de
Defesa de Israel petulantemente viola-as produzindo uma sucessão ininterrupta
de ordens de evacuação impraticáveis para a população palestina, cada vez mais
confinada a pequenos enclaves de Gaza. Essa seleção de alvos é facilitada pela
extensa infraestrutura de vigilância dos territórios ocupados. Além disso, ao
declarar que toda a superfície de Gaza esconde túneis subterrâneos do Hamas,
Israel “legitima” a faixa inteira como objeto de destruição. Dessa estratégia
operacional decorre a necessidade de um fluxo ininterrupto de alvos candidatos.
Para atender a este requisito, o Habsora foi projetado para acelerar a geração
de alvos a partir de dados de vigilância, criando o que a autora chama “fábrica
de assassinatos em massa”, adotando um termo proposto por um ex-oficial das
Forças de Defesa de Israel. Assim, o bombardeio israelense de Gaza mudou o foco
da seleção de alvos por Inteligência artificial da precisão e exatidão para a
aceleração da taxa de destruição. Um porta-voz das Forças de Defesa de Israel
admitiu explicitamente que o bombardeio de Gaza é pautado pela “ênfase nos
danos e não na precisão”.
Lucy Suchman segue apontando que isso muda a narrativa
de uma tecnologia consistente com o Direito Internacional Humanitário e com as
Convenções de Genebra para outra, focada na autonomia da geração de alvos, que
garante velocidade e eficiência arrasadoras. Nesse sentido, as fontes de inteligência
de Israel admitem que as operações são concebidas para impactar a população
civil, sob o pretexto de que essa é a única forma possível de eliminar o Hamas.
O recurso de Israel à produção algorítmica de alvos deve ser entendido no
contexto acima mencionado da absorção das operações de guerra pelas redes.
Enraizado no imaginário cibernético da Guerra Fria, o combate baseado em dados
se viabilizou na década de 1990, acenando com uma solução tecnológica para o
velho problema da “análise situacional” na lógica militar. Num campo de batalha
em rede, os dados se movem à velocidade da luz, interligando sensores a
atiradores e plataformas. Poupam-se vidas de militares enquanto a população
civil do território-alvo é dizimada. A autora aponta que os dados são assim
naturalizados, isto é, tratados como sinais objetivos emitidos por um mundo
externo e não como fruto de uma cadeia de tradução de sinais legíveis por
máquina para sistemas de classificação e interpretação criados por
estrategistas militares. Assim, a ideia de que a coleta dos dados se baseia no
seu valor é substituída pelo investimento contínuo na infraestrutura de
cálculo, que constitui o ativo mais valioso dessa indústria atualmente.
Esse investimento, baseado numa fé cega na vigilância
movida a dados, decorre do desejo fantasioso de envolvê-los diretamente nas
decisões, por mais que a sua proveniência e tratamento possam ser
questionáveis. Tudo isso ocorre no contexto de um compromisso
político-econômico de Israel em se estabelecer como fornecedor líder em
tecnociência militar de última geração, sobretudo nos combates baseados em
Inteligência artificial. Haja vista que o principal instituto de tecnologia do
país, o Technion, tem um programa de pesquisa superequipado e financiado que
trabalha exclusivamente sobre sistemas autônomos industriais, inclusive
armamentos. Explica-se, assim, a indiferença cínica do ocidente quanto às
negociações de paz em Gaza: a corrida armamentista atual está convenientemente
sediada em Israel. Os EUA investem e se beneficiam dessa indústria, mantendo-a
estrategicamente longe de casa. Por outro lado, mantêm em casa a pesquisa
estratégica de alta tecnologia de segurança de rede, i.e., a que versa sobre
como esses armamentos devem ser utilizados e protegidos de crimes cibernéticos.
·
Um assistente militar linguageiro?
Veremos abaixo por que a Inteligência artificial e, em
especial, a sua versão linguageira – os chatbots –, não se presta ao uso em
planos militares. Além do problema praticamente insolúvel da segurança, há,
conforme já mencionado, o das saídas dos sistemas que simulam a linguagem
natural, que têm um lado inerentemente imprevisível. Vejamos primeiro por que a
segurança necessária à estratégia militar é inconciliável com o mundo digital.
Para tanto, admitamos, de saída, que uma aplicação em rede segura é
praticamente inalcançável.
O jornalista Dave Lee, responsável pela cobertura da
Inteligência artificial no Financial Times, publicou uma
excelente análise das falhas de segurança dos Grandes Modelos de
Linguagem no site de uma empresa do ramo, a Hidden Layer, em março de
2023. Passemos em revista os seus principais argumentos. O autor começa
comentando as profundas transformações trazidas pela IA aos espaços de trabalho
nas últimas décadas. Um bom exemplo é o uso dos Grandes Modelos de Linguagem
para a redação de documentos legais, que já chega a 80 % em algumas empresas do
setor jurídico no Reino Unido. Segue mostrando como os Grandes Modelos de
Linguagem são especialmente vulneráveis a abusos. Em outras palavras, prestam-se
a criar malware, phishing ou outros conteúdos maliciosos. Fornecem também
informações enviesadas, imprecisas ou mesmo danosas decorrentes de manipulações
encobertas. As falhas de proteção das solicitações a eles enviadas facilitam
violações de propriedade intelectual e privacidade de dados. O mesmo ocorre com
as ferramentas de geração de código, sujeitas à introdução sub-reptícia de
erros e vazamentos. Além disso, segundo o autor, os Grandes Modelos de
Linguagem ajudaram a diminuir a fronteira entre a internet e a Dark Web.
Hoje é fácil encontrar kits de ferramentas de ataque para uso como ransomware
no comercio ilegal de criptomoedas.
A Inteligência artificial generativa permite acesso
instantâneo e sem esforço a toda uma gama de ataque furtivos, podendo fornecer
phishing e malware a quem quer que ouse pedir. Os vendedores de scripts estão
se especializando cada vez mais nesse serviço. É corriqueiro, por exemplo,
aceitarem encomendas de kits para burlar filtros. Nesse caso, a burla é viável
porque o chatbot sintetiza na hora a parte maliciosa do código cada vez que o
malware é executado. Isso se faz por meio de uma solicitação simples à
interface de programação de aplicativo da provedora usando um prompt descritivo
projetado para ignorar os filtros inerentes. Os antimalwares atuais têm
dificuldade de detectar esse truque porque ainda não possuem mecanismos para
monitorar código perigoso no tráfego dos serviços baseados em Grandes Modelos
de Linguagem.
Ainda que textos maliciosos sejam detectáveis e bloqueáveis
em alguns casos, em muitos outros o conteúdo em si, assim como a solicitação
associada, são projetados para parecer benignos. A geração do texto usado em
golpes, phishing e fraudes pode ser difícil de interpretar se não houver
mecanismos de detecção das intenções subjacentes, o que envolve procedimentos
complexos ainda incipientes. As ferramentas baseadas em Grandes Modelos de
Linguagem podem, ainda, causar danos “acidentais” quanto à vulnerabilidades de
código. A existência de programas de recompensa por detecção de bugs e de
bancos de dados CVE/CWE mostra que a codificação segura não é, por ora,
mais que um ideal a buscar.
Poderiam assistentes de programação, como o CoPilot,
resolver o problema, produzindo códigos melhores e mais seguros do que um
programador humano? Não necessariamente, pois, em alguns casos, eles podem até
introduzir armadilhas nas quais um desenvolvedor experiente não cairia. Como os
modelos de geração de código são treinados em dados de codificados por humanos,
é inevitável que também incorporem alguns dos seus maus hábitos, já que não têm
meios de distinguir entre boas e más práticas de codificação. O jornalista
aponta, ainda, que estudos recentes da segurança do código gerado pelo CoPilot
chegaram à conclusão de que, apesar de em geral introduzir menos
vulnerabilidades do que um humano, ele tende a se fixar em alguns tipos, além
de gerar código vazável em resposta a prompts ligados a falhas antigas não
resolvidas.
Um dos problemas é justamente o extremo despreparo dos
usuários. Em princípio, eles já deveriam saber que os serviços gratuitos em
rede são pagos com os seus dados. No entanto, é comum que as questões de
privacidade sobre as novas tecnologias só se clarifiquem depois de superado o
entusiasmo inicial. A cobrança pública de medidas e diretrizes ocorre apenas
quando uma inovação já se tornou corriqueira. Foi assim com as redes sociais;
está apenas começando com os Grandes Modelos de Linguagem. O acordo de termos e
condições para qualquer serviço baseado em Grandes Modelos de Linguagem deve
explicitar como os nossos prompts de solicitação são usados pelo provedor de
serviços. Mas são frequentemente textos longos escritos em letra miúda e estilo
pouco transparente.
Quem não quer passar horas decifrando contratos de
privacidade deve, portanto, assumir que cada solicitação que faz ao modelo é
registrada, armazenada e processada de alguma forma. Deve esperar, no mínimo,
que os seus dados sejam adicionados ao conjunto de treinamento, podendo,
portanto, vazar acidentalmente em atendimento a outras solicitações. Além
disso, com a expansão rápida da Inteligência artificial, muitos provedores
podem optar por lucrar vendendo os dados de entrada para empresas de pesquisa,
anunciantes ou qualquer outro interessado.
Outro problema é que, embora o objetivo principal dos
Grandes Modelos de Linguagem seja reter um bom nível de compreensão de seu
domínio-alvo, eles podem às vezes incorporar informações excessivas. Podem, por
exemplo, regurgitar dados do seu conjunto de treinamento e acabar vazando
segredos, tais como informações de identificação pessoal, tokens de acesso,
etc. Se essas informações caírem nas mãos erradas, as consequências podem,
obviamente, ser muito graves. O autor lembra, ainda, que a memorização
inadvertida é um problema diferente do overfitting. Esse é uma aderência
excessiva aos dados de treinamento, em função da duração desse e das
estatísticas por trás dos GLMs. Já a memorização excessiva é uma falha em
generalizar a escolha dos pares na base da internet que pode levar o algoritmo
a pinçar e expor informação privada acidentalmente. Finalmente ele adverte, em
conclusão, que a segurança e a privacidade não são as únicas armadilhas da
Inteligência artificial generativa. Há também inúmeras questões legais e
éticas, como a precisão e imparcialidade das informações, bem como a “sanidade”
geral das respostas fornecidas por sistemas alimentados por Grandes Modelos de
Linguagem, como veremos abaixo.
·
As incertezas inerentes aos grandes modelos de linguagem
Em outros escritos, expliquei detalhadamente como os
Grandes Modelos de Linguagem simulam a linguagem natural através de um método
que calcula a palavra mais provável numa cadeia linear, varrendo a internet e
medindo a coerência das candidatas com uma base de dados densamente anotada
pertencente à empresa proprietária do modelo – em geral uma Big Tech, ou seja:
Amazon, Google, Microsoft, Open AI ou Oracle. É fundamental que o público
entenda que tais robôs não são inteligentes e muito menos sencientes, como se
espalha na internet. Aqui vou ter que repetir essa explicação brevemente a fim
de combater uma metáfora tendenciosa difundida pelos próprios provedores para
estimular os usuários a manterem com as máquinas conversas que expandam e
enriqueçam a base de dados. Trata-se da afirmação de que os Grandes Modelos de
Linguagem “alucinam”, i.e., vomitam incongruências, contrassensos e até
ofensas, à semelhança de um humano que perdeu a razão. Quando compreendemos a
mecânica do funcionamento desses modelos, fica claro que o fenômeno de fato
ocorre, mas é puramente físico, i.e., segue o padrão de outros casos em que um
sistema dinâmico de equações apresenta mudanças abruptas repentinamente.
O segredo dos Grandes Modelos de Linguagem é emular
convincentemente as descontinuidades das línguas naturais humanas tentando
apenas prever a próxima palavra. Isso é possível graças a três ingredientes: a
apropriação do conteúdo inteiro da internet pela empresa proprietária; a ação
de uma gigantesca rede neural recorrente capaz de calcular estatísticas de
associação entre milhões de palavras em tempo real – os chamados
transformadores; e etiquetas classificatórias, criadas e organizadas, em vários
níveis hierárquicos, por legiões de trabalhadores precarizados altamente
qualificados das várias áreas do saber. As empresas que terceirizam esses
serviços se situam em geral em países pobres com muitos desempregados de alta
qualificação, como, p. ex., a Índia, a África do Sul, a Nigéria e o Brasil. Assim,
os Grandes Modelos de Linguagem conseguem lidar com relações descontínuas como
a encontrada na frase “O gato que comeu o rato morreu” – na qual quem morreu
foi o gato e não o rato. Conseguem, igualmente, reconhecer descontinuidades de
verbos como ‘enraizar’, formados por adição de um prefixo e um sufixo a um radical,
relacionando-as a outros, análogos, tais como ‘embelezar’, ‘empoleirar’, etc. Essa
operação é puramente linear, i.e., prevê uma palavra após a outra a cada passo.
A rede neural calcula, em tempo real, todas as probabilidades de co-ocorrência
entre os pares de palavras da internet, escolhe a melhor candidata e segue.
A simplicidade das operações envolvidas é apenas
aparente. O cálculo das probabilidades de co-ocorrência não se aplica apenas ao
vocabulário. O corpus inteiro é anotado em vários níveis de análise, que
incluem informações sintáticas (i.e., regras de conjunção e disjunção),
semânticas (i.e., significados básicos e associativos) e até pragmáticas
(referência ao próprio texto e/ou ao contexto, como no caso dos pronomes
pessoais e advérbios de lugar e tempo). Uma função de otimização seleciona os
pares mais aptos a integrar coerentemente todos esses aspectos no texto em
construção. Os anotadores linguistas etiquetam as propriedades estruturais do
texto. Os das demais ciências humanas e sociais adicionam múltiplas camadas de
etiquetas conteudistas e estilísticas. De forma análoga, os anotadores das
ciências naturais e exatas adicionam etiquetas hierarquizadas das suas
respectivas áreas. Ao final, cientistas da computação familiarizados com os transformadores
realimentam o feedforward da rede com a
estrutura multiníveis resultante.
Como veremos abaixo, o funcionamento dos
transformadores é comparável à forma mais radical de behaviorismo, o
condicionamento operante. Os tipos de pares com a maior probabilidade de êxito
são reforçados, tornando-se cada vez mais prováveis – o que consolida as
conexões envolvidas e afeta a escolha do próximo par. Esse procedimento leva
naturalmente a novos exemplos de pares da mesma classe, contribuindo para
ampliar a sua frequência na rede. Esse é, indubitavelmente, um excelente método
de simulação computacional da linguagem natural. Entretanto, confundir a sua
saída com enunciados naturais equivale a assumir uma mente humana que funciona
através de associações sucessivas quantificadas e recalculadas continuamente.
Conforme mencionado, essa premissa é coerente com o condicionamento operante –
um método de controle de comportamento criado nos EUA durante a segunda guerra
mundial e posteriormente adotado pelo macartismo. O seu criador, o psicólogo
Burrhus F. Skinner, foi acusado de fascismo pelos colegas e reagiu dizendo que
o método tinha objetivos puramente educacionais. A discussão está documentada
no The
New York Times,
cujos arquivos têm uma versão online da reportagem de Robert Reinhold[vi] sobre um
simpósio ocorrido em Yale em 1972 no qual as ideias de Skinner foram repudiadas
por toda a comunidade acadêmica da sua área.
Embora Skinner tenha fracassado nos seus projetos
educacionais, suas ideias foram resgatadas pelas Big Techs para aproximar os
humanos das máquinas. Hoje, infelizmente, o uso indiscriminado do algoritmo que
implementa o condicionamento operante dos Grandes Modelos de Linguagem está
afetando o comportamento dos usuários. Eles imitam cada vez mais os chatbots,
abusando de clichês, da mesma forma que aceitam acriticamente os clichês
emitidos em resposta às suas perguntas.
O exposto deixou claro que os transformadores não
produzem conhecimento novo, pois apenas parafraseiam a forma superficial de
raciocínios simples acháveis na internet. Assim, só funcionam como mecanismos
de pesquisa quando se quer compilar informações de fontes fidedignas. Porém, a
avaliação da fidedignidade é incerta, pois raros sites contam com moderadores
e/ou curadores. Como se pode imaginar, às Big Techs só interessa contratar
anotadores, não moderadores e curadores. Ou seja, o foco é na exaustividade e
não na qualidade da informação. Tudo que sai de um transformador realimenta o
corpus de entrada. Não há humanos que filtrem e descartem tentativas de
resposta falsas ou imprecisas. Sem moderação, os erros factuais se tornam
corriqueiros, inundando a rede de erros, mentiras e contradições.
As perguntas e comentários dos usuários, por ingênuos,
sectários ou mesmo ofensivos que possam parecer, adicionam-se automaticamente à
base de dados, tornando-a uma fonte inesgotável de vieses potencialmente
perigosos. E, assim, a falta de pistas para distinguir o verdadeiro do falso
dilui paulatinamente as fronteiras entre eles. Nesse cenário, o tom cortês e
educativo dos chatbots seduz e captura o usuário, minando, aos poucos, a sua
consciência das implicações da conversa e a sua capacidade de duvidar da resposta.
A aceleração da vida atual está, portanto, favorecendo, a acomodação
generalizada do público a algoritmos que fornecem respostas prontas e fáceis de
repetir. Conclui-se, portanto, que, além de inseguros, os Grandes Modelos de
Linguagem são uma ameaça ao pensamento crítico, recurso indispensável na
prevenção de desastres estratégicos.
·
Militarismo com Grandes Modelos de Linguagem e armas autônomas?
Passemos, agora, ao derradeiro passo da demonstração do
perigo de uma eventual interação entre chatbots e armas autônomas.
Um time transdisciplinar, constituído por Rivera,
Mukobib, Reuelb, Lamparthb, Smithc e Schneiderb,[vii] avaliou, em artigo recente, os riscos
de escalada de conflitos do uso de Grandes Modelos de Linguagem na tomada de
decisões militares e diplomáticas. Os autores examinaram o comportamento de
vários agentes de Inteligência artificial em jogos de guerra simulados,
calculando a sua chance de enveredar por caminhos que possam exacerbar
conflitos multilaterais. Com base em estudos de ciência política e relações
internacionais sobre a dinâmica da escalada de conflitos, fizeram uma simulação
o mais realista possível dos jogos de guerra documentados e criaram uma grade,
adaptável a múltiplos cenários, para de pontuar os riscos das ações dos
diferentes agentes envolvidos. Diferentemente da literatura precedente, este
estudo usou dados qualitativos e quantitativos e se concentrou nos Grandes
Modelos de Linguagem, cedidos por cinco diferentes empresas. Encontrou, em
todos, formas e padrões de escalada difíceis de prever. O principal achado é o
de que tais modelos tendem a desenvolver dinâmicas de corrida armamentista,
levando a um conflito maior, e chegando até, em alguns casos, a recomendar o
uso de armas nucleares.
Os autores também analisaram qualitativamente os
raciocínios relatados pelos modelos para as ações escolhidas e observaram
justificativas preocupantes, baseadas em táticas de dissuasão e priorização do
ataque, como as já usadas em Israel. Perante a delicada conjuntura dos atuais
contextos de política externa e militar no ocidente, concluíram pela
necessidade de aprofundar o exame dos dados e agir com máxima cautela antes de
implantar Grandes Modelos de Linguagem para a tomada de decisões estratégicas
militares ou diplomáticas, mesmo que a simples título de assistente. A
propósito, as Big Techs já haviam entrado em acordo com os governos em proibir
o uso das tecnologias linguageiras para fins bélicos. Essa pesquisa confirmou o
acerto dessa medida e a fragilidade das tecnologias em questão. Lembremos, por
fim, que o comportamento dinâmico dos sistemas de equações que regem o
comportamento dos Grandes Modelos de Linguagem é um fato físico e que a
ocorrência de saltos, apesar de previsível, é inevitável, fazendo parte da
própria natureza do sistema. Portanto, nenhum avanço tecnológico poderá
“corrigir” as incertezas inerentes ao funcionamento dos chatbots. É necessário,
ao contrário, levar em consideração tais incertezas sempre que se recorre a
eles na teoria ou na prática.
Fonte: Por Eleonora Albano, em A Terra é Redonda
Nenhum comentário:
Postar um comentário