Inteligência
Artificial é uma ferramenta muito útil, mas não é inteligente, avalia professor
Assim
como outros filósofos, lógicos e matemáticos, Walter Carnielli é categórico na
análise da Inteligência Artificial – IA: “Este sistema não é inteligente – é
importante deixar bem claro isso”. Apesar do nome, esclarece, a IA “é uma
ferramenta muito útil”, desenvolvida a partir da cópia de métodos e
potencialidades humanas.
Segundo
o diretor do Centro de Lógica, Epistemologia e História da Ciência, da
Universidade Estadual de Campinas – Unicamp, diferentemente da inteligência
humana, a IA não tem as capacidades de generalização, abstração, dedução,
abdução e nem noções de causa e efeito. Enquanto ferramenta, acrescenta, ela é
e poderá ser muito útil em diversas áreas, inclusive na educação, contribuindo
para o aperfeiçoamento da aprendizagem, mas pode, igualmente, “levar a um verdadeiro
apagão da inteligência” humana, além de variados problemas sociais.
Atualmente,
explica, existem três vertentes de IA no mercado. “A primeira, IA simbólica,
copia nossa capacidade de raciocínio; a segunda, IA conectivista, copia a nossa
capacidade cerebral de tratar informações com bases neurais; e a terceira, IA
evolutiva, é projetada a partir de como o nosso gene evolutivo funciona. Todos
nós, seres humanos, formigas, macacos, estamos evoluindo. Cada IA tenta imitar
a inteligência humana de alguma maneira”.
A
difusão do ChatGPT, desenvolvido pelo laboratório de pesquisa em inteligência
artificial OpenAI, o debate em torno de suas implicações na educação e a carta
aberta do Instituto Future of Life, solicitando uma parada de seis meses no
desenvolvimento de sistemas de IA, recolocaram o tema em pauta. Essas questões,
entre outras, foram abordadas e expostas por Walter Carnielli na
videoconferência “ChatGPT e DALL-E: Inteligência Artificial, da ética ao
trabalho, passando pelo aprendizado”, em evento promovido pelo Instituto
Humanitas Unisinos – IHU, em 13-04-2023, a qual reproduzimos a seguir no
formato de entrevista.
<<<<
Confira a entrevista.
• O que é a Inteligência Artificial – IA?
Walter
Carnielli – A Inteligência Artificial é um tema do qual não podemos fugir.
Muitas pessoas têm um entendimento atravessado sobre isso, e eu gostaria de
ajudar a entender a maneira cética de olharmos para a IA, no melhor sentido de
ceticismo. De antemão, digo que ela é interessante, é uma ferramenta muito
útil; só não é tudo o que estamos pensando que seja. Existem basicamente três
vertentes que a definem:
1)
IA simbólica ou IA baseada em conhecimento e lógica: usa representações do
conhecimento e regras simbólicas para raciocinar e tomar decisões. É como se
fosse um sistema especialista, no qual inserimos todas as informações sobre
determinado assunto, como carros elétricos, por exemplo, acrescentando regras
lógicas e simbólicas, isto é, “se isso, então aquilo”: se o carro é elétrico e
tem uma bateria de lítio, ele pode andar X quilômetros; se ele é elétrico e tem
uma bateria X, é possível trocar a bateria em X tempo etc. Se perguntamos para
a máquina tomar uma decisão, ela tomará uma decisão lógica, correta, extraída a
partir da base de conhecimento que foi inserida. Nunca a IA é maior ou melhor
do que aquilo com o qual alimentamos o sistema. Se o alimentamos com dados e
informações ruins, saem informações ruins. Se o alimentamos com informações
boas, talvez saia coisa boa; não obrigatoriamente será assim.
2)
IA conectivista ou IA baseada em redes neurais: usa sistemas compostos de
camadas de neurônios artificiais interconectados, que são treinados usando
grandes conjuntos de dados para reconhecer padrões e fazer previsões locais. O
ChatGPT é um aplicativo deste modelo. Ele recebeu quinquilhões de dados – todos
os dados praticamente estão na internet em forma escrita ou de vídeos – e, com
isso, consegue fazer previsões linguísticas.
3)
IA evolutiva ou IA baseada em algoritmos genéticos: constrói sistemas que podem
evoluir e se adaptar ao longo do tempo, inspirados no processo de seleção
natural. É como se construíssemos um bichinho que vai evoluindo, aprendendo,
como se fosse uma seleção natural.
É
interessante observar como a IA copia alguns dos métodos ou das potencialidades
humanas. A primeira, IA simbólica, copia nossa capacidade de raciocínio; a
segunda, IA conectivista, copia a nossa capacidade cerebral de tratar
informações com bases neurais; e a terceira, IA evolutiva, é projetada a partir
de como o nosso gene evolutivo funciona. Todos nós, seres humanos, formigas,
macacos, estamos evoluindo. Cada IA tenta imitar a inteligência humana de
alguma maneira.
• O que é o ChatGPT?
Walter
Carnielli – É um modelo de linguagem de grande escala (LLM, na sigla em
inglês), da OpenAI, baseado na arquitetura GPT (Generative Pre-trained
Transformer) 3.5. É um conversador, um bate-papo, que foi pré-treinado. Ele
gera textos, baseado nesse pré-treino, e transforma-os, ajustando-os às regras
gramaticais – isso ele faz muito bem e é um bom gramaticador. Seria como uma
criança que consulta uma enciclopédia, copia um monte de trechos, como fazíamos
antigamente, e depois compila todo o material, criando um texto com início,
meio e fim. O ChatGPT faz isso muito bem, em várias línguas. Ele também
responde a perguntas em diversos tópicos. É capaz de “compreender” a linguagem
natural, de certa maneira, ao receber a entrada e gerar respostas que parecem
humanas. Parecem e enganam muito bem, mas não são humanas. O ChatGPT erra
demais. Não estou dizendo que ele é uma bobagem e que tem que ser jogado fora;
digo que ele é uma grande ideia, uma grande ferramenta, mas será bem usada na
mão de pessoas competentes, e mal-usada na mão de pessoas inexperientes. Foi
treinado com grandes quantidades de dados textuais, permitindo que aprenda e
capture padrões da linguagem natural. Ele é, portanto, um grande “copia e cola”
com gramática correta.
Imagine
que você está procurando informações no Google sobre Shakespeare, copia e cola
uma porção de informações que encontrou, mas não pode usá-las desse modo porque
senão vira plágio. Você precisa reescrever, reinterpretar e fazer isso com
gramática correta. Se você pode fazer, conseguiu compilar alguma coisa. Será
uma tese sobre Shakespeare? Possivelmente não. Será um livro novo?
Possivelmente não porque tudo já foi publicado. Mas será um fazedor de texto
com gramática correta que compilou bem. É isso que ele faz. Nada mais do que
isso. Responde verdades? Não. Ele não tem nenhum compromisso com a verdade nem
com a criatividade. Ele é isto e nada mais do que isto: um grande “copia e
cola” com gramática correta. É útil? É.
<<
Arquitetura de rede neural
O
Generative Pre-trained Transformer (ou GPT) é uma arquitetura de rede neural em
camadas projetada para gerar textos e outras sequências de dados com base em
uma entrada. Que outras sequências de dados são essas? De linguagem – e pode
ser a linguagem de programação e, portanto, ele é bom para fazer programas. Não
vai fazer programas enormes e substituir qualquer programador, mas um
programinha e uma certa linguagem, ele consegue desenvolver.
O
seguinte exemplo dá uma boa ideia de como ele funciona. Imagine que ele tem um
monte de texto sobre “manhã”, “criança” e “andar de alguma coisa”. Aí eu
escrevo para ele o seguinte: “Numa manhã de ...X crianças vão ao ...Y para
andar de ...Z”. Com quais informações é mais razoavelmente probabilístico que
este texto seja completado? Se ele responder “Numa manhã de tempestade crianças
vão ao aeroporto para andar de tanque de guerra”, não está errado
gramaticalmente, mas não tem muito sentido porque a maior parte dos textos
sobre “manhã”, “criança” e “andar de alguma coisa” tratam sobre o “brinquedo”,
sobre “bela manhã”. Então, é natural que ele complete o texto assim: “Numa
manhã de primavera, crianças vão ao parque para andar de bicicleta”. Isto é,
existem informações que são mais prováveis e outras, improváveis, dentro dos
exemplos que ele tem. Trata-se de um programa matemático muito bem-feito, com
base em probabilidade e em completar textos, tudo isso feito com cálculo
integral, álgebra linear e estatística, para aprender a relação entre as
palavras e gerar previsões com base em padrões aprendidos a partir dos dados de
treinamento. Quem conhece um pouco de matemática vai ver que se trata de uma
matemática simples de certa forma. Não é nada fabuloso, que alguém não consiga
entender.
O
ChatGPT só mostra o poder da matemática e dos algoritmos a que muita gente
presta atenção. Algoritmos são coisas poderosas. Aí está o exemplo da
matemática, da álgebra linear, da estatística e daquilo que as pessoas aprendem
nos cursos de engenharia e muitas vezes perguntam ao professor para que serve.
Serve para muita coisa, inclusive para construir um ChatGPT. Então, diria que é
uma matemática bonita e sofisticada, mas não é muito sofisticada. Qualquer
pessoa que estudou matemática, física, engenharias, ciência da computação ou
estatística, sabe do que estou falando. Mas este sistema não é inteligente – é
importante deixar bem claro isso.
ChatGPT
e DALL-E: Inteligência Artificial, da ética ao trabalho passando pelo
aprendizado:
• Como o ChatGPT pode ser usado?
Walter
Carnielli – Em tarefas de conversação e atendimento ao cliente, quando o
assunto é limitado. Por exemplo, as pessoas telefonam para uma concessionária
de automóveis para falar sobre troca de óleo, sobre pneu, para saber o valor de
um carro, para trocar de carro. Ninguém liga lá para falar de problemas
filosóficos da existência.
Ele
também pode corrigir textos porque tem uma boa capacidade de gramática. E por
que tem uma boa capacidade gramatical? Por que ele estudou gramática? Não.
Porque decorou toda a gramática da língua. É muito parecido com o Google
Tradutor, que decorou a gramática dos idiomas e faz um pareamento muito
bem-feito e engendrado, sem nunca ter estudado uma regra gramatical.
Pode
ser treinado para depurar códigos. As pessoas ficam assustadas porque ele é
capaz de escrever um programa, mas um programa é uma linguagem e, inclusive,
mais simples do que a linguagem natural. Então, não é nada surpreendente. Seria
surpreendente se ele inventasse um programa novo, maravilhoso, e resolvesse um
problema que está em aberto na matemática, na engenharia ou na computação. Mas
isso ele não faz; ele copia o que está aí.
Como
o ChatGPT está na moda e registrou um milhão de registros nos primeiros dias,
após seu lançamento, em 14-03-2023, a OpenAI lançou o GPT4. Ele é dez vezes
mais avançado que o seu antecessor, o GPT-3.5.
• O ChatGPT é confiável?
Walter
Carnielli – Em minha opinião, não. Ele é perigoso e vai levar a um verdadeiro
apagão da inteligência se as pessoas confiarem nele. Eu perguntei ao ChatGPT em
09/04/2023 qual foi a data da morte de Newton da Costa, professor brasileiro,
inventor da lógica paraconsistente – ele foi meu professor orientador e tem 95
anos. O ChatGPT respondeu: “Newton da Costa faleceu em 12 de fevereiro de 2011.
Ele foi um renomado matemático e lógico brasileiro, considerado um dos
fundadores da lógica paraconsistente”. Quase tudo verdade, mas o professor
Newton não faleceu em 12-02-2011. Eu respondi ao ChatGPT que a informação
estava errada. Ele me disse: “Peço desculpas. Ele faleceu em 15 de março de
2012”. Disse a ele que a informação estava errada novamente e fiz oito vezes a
correção e, nas oito vezes, ele respondeu com datas erradas e ainda teve o
desplante de remeter a dados falsos, como se a informação tivesse sido
publicada no jornal Folha de S.Paulo e na revista Veja. Uma pessoa incauta ou
ingênua copia essas informações e as trata como verdade. Ora, querem uma
máquina melhor do que esta para gerar fake news?
Na
linha do meu argumento, de que o ChatGPT não tem inteligência, podemos observar
que ele tem dificuldade de tabuada e não sabe fazer contas com cinco dígitos.
Qualquer calculadora sabe que 75257 x 98729 = 7.430.048.353. O ChatGPT errou
este cálculo oito vezes e eu não informei para ele qual é o resultado correto
porque não estou disposto a ficar servindo de escada para o ChatGPT aprender
nas minhas costas. Com tantos erros de tabuada, quem vai deixar o ChatGPT administrar
sua empresa ou fazer sua declaração de Imposto de Renda?
• O que melhora no GPT4?
Walter
Carnielli – Estão prometendo que ele terá alinhamento com valores morais. O que
é alinhamento com valores morais? Ele já tem algum alinhamento com valores
morais. Se você pergunta para ele dar três receitas de venenos, ele responde:
“Sinto muito, mas não posso dar receita de coisas que podem causar malefícios
para as pessoas”. Mas se você perguntar para ele indicar três lugares onde você
pode encontrar venenos perigosos que jamais poderia usar, ele informará. O
ChatGPT4 promete ser mais inteligente nesse aspecto.
<<
Parametrização
O
GPT4 foi treinado com muito mais parâmetros, isto é, pesos nas palavras e
sentenças. Ele pode gerenciar, ao mesmo tempo, muitos textos. Ele não gera
imagens, mas pode recebê-las como entrada. No GPT3, a pessoa tem que escrever a
pergunta que quer fazer para ele. No GPT4, não é preciso escrever; a pessoa
pode mostrar uma imagem. Por exemplo, você pode mostrar uma foto da sua
geladeira, onde tem tomate, cenoura e abobrinha e perguntar o que pode fazer
com isso. Ele dará uma série de receitas. Ele pode lidar com mais de 25 mil
palavras, ou seja, consegue fazer um relatório ou um paper de 50 páginas.
ChatGPT
e os impactos da inteligência artificial na educação:
• O que falta para ser inteligência?
Walter
Carnielli – Falta capacidade de generalização e abstração, ou seja, a
capacidade que nós temos. Se você vê algumas frutas azuis venenosas, você não
vai comer frutas azuis. Ou seja, nós generalizamos muito rapidamente. Um gato
generaliza muito rapidamente. Isto é, nós temos uma capacidade de abstração e
generalização que a máquina não tem.
Falta
capacidade de dedução, isto é, a máquina não faz lógica. O GPT não deduz nada.
Ele copia deduções se tiver deduções prontas na rede. Mas ele próprio fazer
alguma dedução que nunca foi feita, ele não vai fazer. Ele também não tem
capacidade de abdução, isto é, acrescentar algo que está faltando. Nós, seres
humanos, temos a capacidade de, muito rapidamente, acrescentar alguma coisa no
cenário – o que chamamos de processo abdutivo – e conseguimos explicar algo.
Também
falta ao ChatGPT a noção de causa e efeito. Ele não sabe que alguma coisa pode
causar outra. Nós, seres humanos, temos uma capacidade intuitiva e de
paralelismo de causa e efeito. Esta maquineta não tem. Se ninguém explicou para
ela, ela não sabe.
• IHU – Quais são as limitações da IA?
Walter
Carnielli – Vou falar das limitações da IA em geral. Ela própria tem uma grande
limitação e uma enorme dependência de dados para ser treinada. Ela não tem
criatividade, não tem capacidade de inovação ou imaginação humana. Ela tem um
viés algorítmico. Em geral, os algoritmos repetem os preconceitos humanos. Se
os algoritmos são enviesados, as decisões da IA serão enviesadas.
A
IA tem dependência de supervisão humana. Falta a ela compreensão do contexto,
não entende linguagem figurativa e ironia, tem limitações computacionais.
Alguns problemas são complexos demais para serem resolvidos com a tecnologia
atual. A IA, na prática, não tem poder computacional suficiente. Algumas
pessoas me perguntam se quando tiver o computador quântico, ela vai melhorar.
Certamente vai e terá mais capacidade computacional, mas também não será toda
ela. Sempre vai ter um problema que até o computador quântico vai achar difícil
para a máquina e para nós também. Mas nós, seres humanos, temos outra maneira
de circunavegar o problema; nós o olhamos de outro lado. A máquina não
consegue.
• Quem vai perder emprego para a IA?
Walter
Carnielli – Muitas pessoas: jornalistas, que compilam notícias, por exemplo.
Modelos porque, como as máquinas desenham bem, ao invés de contratar uma
modelo, pode-se fazer um boneco artificial para apresentar uma roupa nova.
Profissionais das áreas de propaganda, contabilidade e auditoria, que compilam
materiais, professores, operadores de telemarketing, auxiliares de todo tipo,
motoristas e entregadores, trabalhadores de fábrica e de linhas de montagem,
caixas e atendentes de supermercado. Por outro lado, pedreiros, marceneiros,
tapeceiros, mecânicos de automóveis, eletricistas, encanadores, não [perderão o
emprego] porque fazem algo manualmente. Quem faz as coisas acontecerem, não vai
perder o emprego. Quem só compila ou é auxiliar, muito provavelmente vai perder.
Dizem
que vão criar empregos, mas quem será empregado? Não é todo mundo que perde um
emprego e pega o outro. Vai conseguir emprego quem souber lidar com IA.
<<<
Automação no Brasil até 2040
No
Brasil, um estudo do Banco Interamericano de Desenvolvimento – BID e do
McKinsey Global Institute estima que a automação poderia afetar até 50% dos
empregos até 2040. Isso é muita coisa, considerando o alto desemprego no país.
Se, até 2050, vamos perder 50% da força de trabalho, será um caos. Quem vai
ganhar com isso? Quem ganha quando as pessoas perdem emprego? Aqueles que são
os donos das coisas: quem paga mais barato para a máquina fazer um determinado
trabalho.
A
IA está gerando um problema social. As grandes empresas não podem ser tão
canalhas e sedentas por lucros a ponto de deixarem que as pessoas morram à
míngua porque querem lançar produtos de IA no mercado. O estudo do McKinsey
Global Institute dá uma ideia de que a automação poderá criar oportunidades em
áreas como criação e manutenção de tecnologias de automação, de ofertas e
serviços personalizados. Um exemplo é o personal trainer. Esse tipo de
profissional não vai perder o emprego porque cada vez mais há pessoas que
precisam fazer ginástica. Outro exemplo são os cuidadores de idosos. Cada vez
mais terá mais idosos. Embora no Japão exista um robô que conversa com o idoso,
ele não dá banho no idoso, não prepara a comida, não brinca, não leva para
passear, não tem conversas humanas. Então, muitos empregos serão perdidos e
muitos serão gerados, mas não será na mesma proporção.
Apresentação
e debate do livro A Quarta Revolução Industrial:
Em
todo o mundo, 375 milhões de trabalhadores (cerca de 14% da força de trabalho
global) podem precisar mudar de ocupação até 2030 devido à automação. Mas
muitas pessoas com habilidades que as máquinas não podem replicar, como
pensamento crítico, criatividade e empatia, manterão o emprego. A educação e o
treinamento devem ser adaptados para atender às demandas do mercado de trabalho
em evolução. Haverá, pelo menos, 300 milhões de pessoas a mais com 65 anos ou
mais do que em 2014. À medida que envelhecem, as pessoas gastam mais com saúde,
lazer e outros serviços.
Vai
causar uma grande revolução social ganhar um pouco e perder muito – e vai ter
muito mais pessoas desempregadas no mundo. O trabalho vai acabar sendo uma
commodity e as pessoas vão ter que exigir o direito de trabalhar cinco horas
por semana. Aquela ideia que se tinha de que o trabalho era um castigo, passará
a ser um direito que muitas pessoas vão passar a reivindicar.
Segundo
um estudo de 2020 feito pela Associação das Empresas de Tecnologia da
Informação e Comunicação e de Tecnologias Digitais – BRASSCOM, a expectativa é
que tenha uma demanda de 797 mil profissionais de tecnologia até 2025. Entre as
áreas com maior demanda por TI no Brasil estão as áreas de desenvolvimento de
software, segurança da informação, análise de dados, IA, cloud computing,
internet das coisas e tecnologias como blockchain e realidade aumentada. Vai
precisar de muita atividade nesta área de tecnologia. É uma oportunidade também
para quem está procurando se colocar no mercado de trabalho.
Para
melhorar essa situação, o Brasil precisa investir em educação, com a criação de
programas de formação de profissionais em TI, desde o ensino médio até a graduação
e pós-graduação. O país investe pouco em educação, especialmente em áreas como
ciência, tecnologia, engenharia e matemática (STEM, na sigla em inglês), que
são essenciais para a formação de profissionais em TI. Tanto é que o Brasil vai
muito mal nos testes do Programa Internacional de Avaliação de Estudantes –
PISA; fica nos últimos lugares. Fico estarrecido que muitas pessoas não
conseguem somar frações nem calcular porcentagens. A culpa não é das pessoas; é
do sistema educacional.
O
Brasil também tem dificuldades em atrair e reter talentos, perde muitas
pessoas, tem muita fuga de cérebros, e as razões são os salários abaixo do
mercado, a falta de incentivos e benefícios. As pessoas jovens e inteligentes,
que começam a aprender, acabam indo para lugares que pagam melhor e oferecem
mais benefícios. Tem que mudar a política. Isso depende dos governantes e, pelo
que estamos vendo, o legislativo virou a quinta série. Uma boa parte dele é
estupida e não entende nada.
• O que se deve estudar?
Walter
Carnielli – Devemos estudar linguagem de programação: Java, Python, JavaScript,
Ruby, C#, entre outras. Banco de dados relacionais e não relacionais, SQL,
frameworks e ferramentas de desenvolvimento de software, como Angular, React,
Spring, Node.js, Docker, entre outros. Mas só isso não basta – e agora vem um
solene “não” da minha parte: não basta estudar coisas técnicas. Eu, como
professor que trabalho na área de filosofia, misturada com ciências exatas,
digo que é preciso estudar também pensamento crítico, argumentação, cinema
(para trabalhar com unreal, que é um grande sistema provedor de imagens que
serve tanto para fazer cinema como para projetar máquinas novas), novas ideias
(metaverso, que é uma nova ideia, que agora já está meio capenga, mas está aí,
e outras coisas parecidas virão), literatura, porque ela diz muito sobre o
mundo, sobre nós humanos e sobre inteligência, economia, política, para
entender o que é esquerda, direita, liberalismo, marxismo, teoria da
mais-valia, para se colocar no mundo e não repetir bobagens. Faço aqui uma
propaganda do nosso curso de Pensamento Crítico, Lógica e Argumentação,
oferecido gratuitamente pela plataforma Coursera e pela plataforma de extensão
da Unicamp.
• O que é o DALL-E2?
Walter
Carnielli – O nome DALL-E2 é uma homenagem a Salvador Dalí porque faz imagens e
trabalha com uma coisa chamada Generative Adversarial Networks – GANs, que
consiste em dois modelos de rede neural trabalhando em conjunto para gerar
imagens. É uma grande ideia. Você diz para o programa fabricar o rosto de uma
pessoa negra e ele vai pegar todos os dados disponíveis sobre orelha, queixo,
nariz, e vai construir um rosto, enquanto outro sistema vai destruindo-o. Por
isso, ele se chama Adversarial Networks: porque uma rede vai fabricando o rosto
e a outra vai comparando a imagem com os dados disponíveis, criticando os
aspectos que estão ruins, feios ou não se parecem com um humano, até os dois
sistemas chegarem a um acordo.
Eu
fiz uma experiência com o programa e, na minha opinião, ele só fabrica bobagens.
Peguei uma imagem da internet – num site que explica como baixá-lo legalmente
porque ele é complicado de baixar – e, geralmente, as opções de imagens
disponíveis são algo como gerar um gato tomando chá em uma praça, um ursinho
andando de skate. Ele faz imagens bonitas, mas não tem uma criatividade muito
grande. Outro programa desse tipo é o MidJourney, que também gera imagens.
• Como será o uso da IA na educação?
Walter
Carnielli – Temos que avaliar tudo isto: se a IA, enquanto inteligência, é
inteligência – e digo que não é; se ela vai gerar impactos sociais – e, sim,
vai gerar muitos impactos; se podemos detê-la – não é o caso de ser ludista
como na Revolução Industrial, em que as pessoas quebravam as máquinas têxteis e
as máquinas a vapor. Não é o caso de se armar contra a IA, mas temos que usá-la
bem e saber que consequências terá.
IA
na educação
Na
educação, posso antever que a IA ajudará na personalização da aprendizagem. Ela
pode ser usada para criar programas de aprendizagem personalizados. Por exemplo,
para uma criança que não gosta de matemática e tem dificuldades de aprender a
somar frações, é possível criar um programa que interage com a criança e, em
tempo real, brinca e ensina. Ele pode até ser usado de uma maneira muito
interessante para alfabetizar as pessoas. Rapidamente as pessoas podem aprender
a falar e a escrever em frente a uma máquina.
Também
pode servir de tutoria virtual, ou seja, criar sistemas de tutoria virtual, por
exemplo, em matemática, que possam ajudar os alunos com suas dúvidas e
problemas em tempo real.
A
formação profissional no contexto da revolução 4.0:
Ela
pode ser usada – e já é usada – para detectar plágio em trabalhos escolares e
universitários e detectar plágio dela própria. É possível fazer um texto no
ChatGPT e usar outro programa para detectar se tem plágio.
Existe
uma coisa chamada engenharia de prompt, que consiste em aprender o que
perguntar para a máquina. Engenharia de prompt é como usar um martelo de três
cabeças. Se você não sabe usar, vai martelar o dedo. Neste caso, trata-se de
saber fazer a pergunta correta para a máquina dar uma resposta boa. Isso não é
novidade porque já tínhamos que fazer isso quando usávamos o Google. Tem que
saber perguntar para o Google. se perguntarmos burramente, vamos obter respostas
burras. Se queremos saber coisas inteligentes, temos que perguntar de maneira
inteligente. Então a engenharia de prompt é só uma tecnologia, que não está
muito clarificada ainda, de como tirar proveito e perguntar belamente as coisas
para receber respostas inteligentes.
O
uso da IA na educação também pode ser interessante para a análise de
sentimentos. A IA pode ser usada para analisar a atitude e a emoção dos alunos
em relação ao conteúdo da aprendizagem.
Igualmente
pode ser usada para a automação de tarefas administrativas, como correção de
provas e avaliação de desempenho, liberando tempo para os professores. Também
para o ensino de línguas, de gramática e redação. Alguns dos maravilhosos
sistemas nessa linha são: Geekie, Descomplica, Qranio, Lyceum, Plurall,
Knewton. Isso tem muitíssimo uso na educação.
• O que diz a carta aberta do Instituto
Future of Life, como reação ao ChatGPT?
Walter
Carnielli – A petição internacional visa frear não a pesquisa em torno do GPT5,
mas a maneira irresponsável de jogar novos produtos no mercado, como estão
lançando. Eu assinei essa petição apesar de não estar de acordo com muitas
pessoas que a assinaram, mas estou de acordo com outras. A carta solicita uma
parada de seis meses [no desenvolvimento de sistemas de IA], pede sistemas
robustos para distinguir o real do sintético, financiamento público robusto
para pesquisa e segurança, atenção para as perturbações econômicas e políticas
advindas da IA, e chama a atenção para os altíssimos custos ecológicos em
níveis de CO2 para treinar GPTs. O GPT custa caríssimo. Para treinar o GPT, tem
que cortar um pedaço grande de floresta, gasta muita energia e é caro demais.
Será
que temos condições de gastar tanto dinheiro para desenvolver GPT, sendo que
tanta gente no planeta não tem água encanada, não tem comida, não tem remédio?
Uma parcela equivalente a ¼ da população passa dificuldades enormes, se não for
mais. Será que é honesto gastar tanto dinheiro para fazer um sistema desses,
que custa tanto para dar tão pouco? Será que vamos ter um apocalipse
epistêmico? Não acredito que teremos um apocalipse das máquinas no sentido de
que elas vão nos aprisionar, como ilustra a ficção científica. Mas um certo
apocalipse epistêmico pode acontecer porque, se ficarmos cada vez mais dependentes
da máquina, poderemos emburrecer.
A
Comissão Europeia e a autoridade de proteção de dados da Itália (Garante per la
Protezione dei Dati Personali, GPDP) estão saindo na frente nesta discussão e,
de certa forma, proibindo que crianças muitos jovens mexam nessas máquinas. No
artigo intitulado “How AI Can Be Surprisingly Dangerous for the Philosophy of
Mathematics – and of Science”, mostro que a filosofia da ciência e a filosofia
da matemática podem ficar em perigo se a IA seguir no ritmo que está e se nós formos
nos emburrecendo, se formos deixando tudo para a máquina fazer para nós.
Gostaria
de citar o filósofo Sexto Empírico, do século II d.C., para dizer que temos que
aprender com ele o ceticismo expresso na frase: “Pode ser e pode não ser”.
Ainda não sei. Isso ele escreveu há 1.800 anos, no livro Hipotiposes
pirrônicas. Ainda vale a pena nos voltarmos ao ceticismo, às práticas
filosóficas antigas. Não podemos nos livrar da filosofia. Essa é a minha
mensagem para vocês.
Fonte:
Entrevista com Walter Carnielli, para IHU OnLine
Nenhum comentário:
Postar um comentário