As
pessoas que se recusam a usar IA
Nada
convence Sabine Zetteler que existe valor em usar inteligência artificial.
"Recentemente,
li uma frase ótima que dizia algo como: 'por que eu me daria ao trabalho de ler
algo que alguém não se deu ao trabalho de escrever?', e isso reflete exatamente
o que eu penso sobre esse assunto.
Zetteler
tem uma agência de comunicação em Londres, com cerca de 10 funcionários, alguns
em tempo integral e outros em meio período. E questiona:
"Qual
o sentido de enviar algo que você não escreveu, ler um jornal escrito por
robôs, ouvir uma música criada por IA, ou ganhar um pouco mais de dinheiro
substituindo um funcionário que tem quatro filhos pela tecnologia?"
"Onde
está a alegria, amor ou até mesmo aspiração por algo melhor, nem que seja só
para mim, como fundadora? Isso não significa nada para mim", afirma.
<><>
Impacto ambiental
Zetteler
está entre as pessoas que resistem à "invasão" da inteligência
artificial, que ganhou força no fim de 2022, com o lançamento do ChatGPT.
Desde
então, a ferramenta, assim como suas concorrentes, têm se tornado extremamente
populares. Segundo o software Semrush, o ChatGPT recebe mais de cinco bilhões
de visitas ao mês.
Mas
treinar sistemas de inteligência artificial como o ChatGPT requer uma grande
quantidade de energia. E, uma vez treinados, mantê-los funcionando também um
alto consumo energético.
Embora
seja difícil quantificar a eletricidade usada pela IA, um relatório do banco
Goldman Sachs estimou que uma pesquisa feita no ChatGPT usa aproximadamente 10
vezes mais energia do que uma pesquisa feita no Google.
Esses
dados deixam algumas pessoas desconfortáveis.
Para
Florence Achery, proprietária de um espaço de Yoga em Londres, o impacto
ambiental é um dos motivos pelos quais ela quer ficar longe da inteligência
artificial.
"Minha
reação inicial foi que a IA é algo sem alma e contradiz totalmente o meu
negócio, que é sobre conexão humana", disse Achery.
"Mas
depois eu descobri que o impacto ambiental é terrível com a quantidade de
consumo energético necessário para manter os centros de dados funcionando. Eu
não acho que as pessoas têm ciência disso."
Apesar
de Zetteler dizer que respeita a inteligência artificial pelo bem social que
ela é capaz de gerar, ela admite estar preocupada com o impacto mais amplo na
sociedade.
"Eu
fico feliz que a IA exista para pessoas cegas, pois ela consegue traduzir
artigos e isso é muito benéfico. Mas, no geral, eu não acredito que teremos um
benefício a longo prazo."
Questionada
se fica preocupada com o efeito indireto que a IA pode ter em sua empresa,
principalmente com as concorrentes usando as ferramentas, Zetteler respondeu:
"Assim
como todo mundo, eu poderia economizar dinheiro mandando pessoas da minha
agência para Milão em voos da EasyJet (companhia aérea de baixo custo) em vez
de trem", afirma.
"Se
o sucesso se mede pela margem de lucro, eu diria que o meu negócio é pouco
bem-sucedido. Mas e se o sucesso for medido pelo quanto você contribui para a
sociedade e consegue colocar a cabeça no travesseiro e dormir em paz?"
<><>
Perda de habilidades
Sierra
Hansen, que mora em Seattle e trabalha com relações institucionais, também se
recusa a usar inteligência artificial. Para ela, a preocupação é com o impacto
desses sistemas na habilidade do ser humano de resolver problemas.
"É
o nosso cérebro que organiza a nossa rotina, e não um sistema de IA que te diz
como gerenciar a programação da semana", destacou.
"Nosso
papel como seres humanos é usar o pensamento crítico. Se você está pedindo ao
ChatGPT para executar tarefas simples, você não está resolvendo problemas por
conta própria. Ele está 'pensando' por você. Se eu quiser ouvir música, eu não
preciso que a IA crie um álbum perfeito de punk rock para mim."
Mas nem
todo mundo pode se dar ao luxo de não usar inteligência artificial.
Jackie
Adams (nome fictício), que trabalha com marketing digital, inicialmente
resistiu ao uso da IA pelo impacto ambiental e por achar que usar esses
sistemas fosse um comportamento preguiçoso.
"Eu
soube da quantidade de energia necessária para manter os centros de dados e o
tanto de terra que eles ocupam, e aquilo não pareceu certo para mim. Eu não
entendia porque nós precisávamos disso", disse.
Contudo,
há cerca de um ano, três de suas colegas de trabalho começaram a usar IA para
realizar tarefas como copywriting e geração de ideias.
Seis
meses depois, Adams foi obrigada a fazer o mesmo, depois de ser avisada que
precisava reduzir seu orçamento.
"Fico
fora do meu controle", disse. Ela acredita que se tivesse resistido,
poderia prejudicar a própria carreira.
"Comecei
a usar mais depois que vi descrições de vagas de emprego pedindo por
experiência com IA. Eu percebi que se eu não implementasse isso nos meus dias
de trabalho, eu ficaria para trás."
Hoje,
segundo Adams, ela não vê mais o uso de IA como preguiça.
"Ela
pode melhorar meu trabalho", acrescentando que utiliza ferramentas para
refinar o trabalho de copywriting e editar fotos.
<><>
'Momento de resistir à IA já passou'
Segundo
James Brusseau, professor de filosofia e especialista em ética da inteligência
artificial na Pace University, em Nova York, o momento de resistir à IA já
passou.
"Se
quisermos saber porque uma decisão foi tomada, nós vamos precisar de humanos.
Se isso não importar, então provavelmente vamos usar IA", disse.
"Assim,
teremos juízes humanos para casos criminais e médicos humanos para decidir quem
deve receber um transplante. Mas previsões do tempo vão desaparecer logo, e a
anestesiologia também", complementou o professor.
Adams
tem usado IA no trabalho, mas ainda se preocupa com a crescente influência
dessa tecnologia.
"Mesmo
quando você faz uma pesquisa no Google, já aparece uma resposta feita por IA, e
alguns emails já vem com um um resumo no topo. Sinto como se não tivéssemos
mais controle. Como eu desligo tudo isso? Está virando uma bola de neve."
• Por que especialistas dizem que
inteligência artificial pode levar à extinção da humanidade
A
inteligência artificial (IA) pode levar a humanidade à extinção, alertaram
especialistas — incluindo os chefes da OpenAI e do Google Deepmind.
Dezenas
apoiaram uma declaração publicada na página do Center for AI Safety (ou Centro
de Segurança de Inteligência Artificial, em tradução livre), ong de pesquisa e
desenvolvimento com sede em São Francisco, nos Estados Unidos.
"Mitigar
o risco de extinção pela IA deve ser uma prioridade global, juntamente com
outros riscos em escala social, como pandemias e guerra nuclear", aponta a
carta aberta.
Mas
outros dizem que os medos são exagerados.
Sam
Altman, executivo-chefe da OpenAI, fabricante do ChatGPT, Demis Hassabis,
executivo-chefe do Google DeepMind e Dario Amodei, da Anthropic, apoiaram a
declaração.
O texto
do Center for AI Safety sugere uma série de possíveis cenários de desastre:
• As IAs podem ser armadas — por exemplo,
com ferramentas para descobrir drogas que podem ser usadas na construção de
armas químicas;
• A desinformação gerada pela IA pode
desestabilizar a sociedade e "minar as tomadas de decisões
coletivas";
• O poder da IA pode se tornar cada vez
mais concentrado em poucas mãos, permitindo que "regimes imponham valores
restritos por meio de vigilância generalizada e censura opressiva";
• Enfraquecimento, a partir do qual os
humanos se tornam dependentes da IA, "num cenário semelhante ao retratado
no filme Wall-E".
Geoffrey
Hinton, que emitiu um alerta anterior sobre os riscos da IA superinteligente,
também apoiou a carta do Center for AI Safety.
Yoshua
Bengio, professor de Ciências da Computação na Universidade de Montreal, no
Canadá, também assinou o manifesto.
Hinton,
Bengio e o professor da Universidade de Nova York (NYU), Yann LeCunn, são
frequentemente descritos como os "padrinhos da IA" pelo trabalho
inovador que fizeram neste campo — e pelo qual ganharam juntos o Prêmio Turing
de 2018, que reconhece contribuições excepcionais na ciência da computação.
Mas o
professor LeCunn, que também trabalha na Meta, empresa dona do Facebook, disse
que esses avisos apocalípticos são "exagerados" e que "a reação
mais comum dos pesquisadores de IA a essas profecias de destruição é
embaraçosa".
Muitos
outros especialistas também acreditam que o medo de a IA acabar com a
humanidade é irreal e uma distração de questões como preconceito em relação aos
sistemas, que já são um problema.
Arvind
Narayanan, um cientista da computação da Universidade de Princeton, nos EUA,
disse à BBC que os cenários de desastre de ficção científica não são realistas.
"A
IA atual não é nem de longe suficientemente capaz para que esses riscos se
materializem. Como resultado, isso desvia a atenção dos danos de curto prazo da
IA", avalia ele.
Elizabeth
Renieris, pesquisadora sênior do Instituto de Ética em IA da Universidade
Oxford, no Reino Unido, disse à BBC News que se preocupa com os riscos mais
próximos.
"Os
avanços na IA ampliarão a escala da tomada de decisão automatizada que é
tendenciosa, discriminatória, excludente ou injusta. Ao mesmo tempo em que é
inescrutável e incontestável", acredita ela.
Estes
avanços "podem impulsionar um aumento exponencial no volume e na
disseminação de desinformação, fraturando assim a realidade e corroendo a
confiança do público, além de gerar mais desigualdade, principalmente para
aqueles que permanecem do lado errado da divisão digital".
Muitas
ferramentas de IA essencialmente "pegam carona" em "toda a
experiência humana até o momento", destaca Renieris.
Várias
dessas tecnologias são treinadas em conteúdo, texto, arte e música criados por
humanos — e seus criadores "transferiram efetivamente uma tremenda riqueza
e poder da esfera pública para um pequeno punhado de entidades privadas".
<><>
Pausa solicitada
A
cobertura da imprensa sobre a suposta ameaça "existencial" da IA
aumentou desde março de 2023, quando especialistas, incluindo o dono da Tesla,
Elon Musk, assinaram uma carta aberta pedindo a suspensão do desenvolvimento da
próxima geração de tecnologia de IA.
Essa carta
perguntava se deveríamos "desenvolver mentes não-humanas que eventualmente
superassem em número, fossem mais espertas, nos tornassem obsoletos e nos
substituíssem".
Em
contraste, a nova carta divulgada por especialistas tem uma declaração muito
curta, destinada a "abrir a discussão".
A
declaração compara o risco ao representado pela guerra nuclear.
Em uma
postagem no blog, a OpenAI sugeriu recentemente que a superinteligência pode
ser regulada de maneira semelhante à energia nuclear.
"É
provável que eventualmente precisemos de algo como uma AIEA (Agência
Internacional de Energia Atômica) para os esforços de superinteligência",
escreveu a empresa.
<><>
Análises cuidadosas
Sam
Altman e o executivo-chefe do Google, Sundar Pichai, estão entre os líderes de
tecnologia que discutiram recentemente a regulamentação da IA com o
primeiro-ministro inglês, Rishi Sunak.
Ao
falar com repórteres sobre o último alerta sobre o risco de IA, Sunak enfatizou
os benefícios da tecnologia para a economia e a sociedade.
"Você
viu que recentemente a IA ajudou pessoas paralisadas a andar e descobriu novos
antibióticos, mas precisamos garantir que isso seja feito de maneira segura e
protegida", disse ele.
"É
por isso que me encontrei na semana passada com CEOs de grandes empresas de IA
para discutir quais são as barreiras que precisamos implementar e qual é o tipo
de regulamentação que deve ser criada para nos manter seguros."
"As
pessoas ficarão preocupadas com os relatos de que a IA representa riscos
existenciais, como as pandemias ou as guerras nucleares. Mas quero que elas
tenham certeza de que o governo está analisando isso com muito cuidado",
concluiu.
Sunak
disse que havia discutido a questão recentemente com outros líderes na cúpula
do G7 no Japão e iria levá-lo novamente a representantes dos EUA em breve.
A
cúpula de países mais ricos, inclusive, criou recentemente um grupo de trabalho
sobre a IA.
Fonte:
Por Suzanne Bearne e Chris Vallance, Repórteres de Tecnologia da BBC News

Nenhum comentário:
Postar um comentário