Por que é tão fácil
embarcar nas "fake news"
Notícias falsas se propagam seis vezes mais rápido do que verdades: uma
ameaça concreta para a sociedade. Que fatores sociais e psicológicos ditam a
tendência de se deixar enganar? Há um antídoto contra "fakes"?
Quer
se trate da guerra na Ucrânia, covid-19 ou questões de gênero, cresce o volume
das notícias falsas em circulação na internet, sobretudo em relação a tópicos
emocionais ou controversos. Às vezes é difícil distinguir entre verdade e
mentira, por outras está claro o que é fato e o que é fake.
Mas
não para todo mundo: alguns usuários da rede são especialmente suscetíveis a
aceitar desinformação e fake news como notícias verdadeiras.
Por quê?
·
Viés cognitivo seduz e desvia
Viés
cognitivo é um termo que se vê muito nesse contexto, designando tendências do
raciocínio humano de que é difícil libertar. Quando alguém "engole"
notícias falsas, em geral entram em jogo suas crenças e noções preconcebidas do
mundo – o que especialistas descrevem como "parcialidade" ou
"viés confirmatório".
Stephan
Lewandowsky, psicólogo cognitivo e autor de livros sobre o assunto, explica:
"Se eu ouço algo que quero ouvir, por estar alinhado com minhas opiniões
políticas, sim, aí é que eu vou acreditar mesmo."
De
um modo ou de outro, todo mundo é tendencioso. Por exemplo: quem crê que a
Alemaha esteja acolhendo refugiados demais estará mais inclinada/o a acreditar
em notícias mostrando a pressão sobre as autoridades locais, ou que apresentem
uma imagem negativa dos refugiados, em geral.
Outro
viés frequente é o de confiar prematuramente na própria intuição; quando parece
supérfluo, ou trabalhoso demais conferir a veracidade de uma informação antes
de aceitar, comentar ou compartilhá-la. Muitos internautas só leem as
manchetes, não os artigos propriamente ditos.
Os
veículos de mídia The Science Post e NPR testaram
esse princípio publicando manchetes enganosas, as quais os leitores só
descobriram ser parte de um experimento após clicar nos links – coisa que a
maioria não fez.
·
Indgnação viraliza
"Bandwagon
effect" (literalmente "efeito carro da banda") é traduzível
como "efeito arrastão" ou "efeito da moda". É a tentação de
sempre "ir atrás do bloco", se orientar pela opinião alheia em vez de
formar uma própria. No contexto das fake news, indica a tendência
de acreditar mais numa informação se muitos outros também creem.
Quando
uma postagem tem muitos compartilhamentos e curtidas na rede, tende-se a
confiar na inteligência coletiva – embora haja que fale antes de "instinto
de rebanho". O problema é que quase todos fazem o mesmo e, como
mencionado, a maioria compartilha e curte sem conhecer os detalhes do conteúdo.
A
memória humana tampouco é muito confiável quando se trata de armazenar
precisamente informação visual ou escrita. Há o fenômeno de "persistence
of inaccuracy" (persistência da imprecisão): não é incomum alguém
insistir numa informação, mesmo que ela tenha sido corrigida posteriormente –
talvez através de uma checagem de fatos.
Além
desses vieses cognitivos, as fake news funcionam tão bem
porque os humanos são mais guiados pela emoção do que se dão conta. É
justamente devido a esse aspecto emocional que uma notícia falsa se propaga
seis vezes mais rápido do que uma verdadeira, aponta Lewandowsky.
"A
maioria das fake news é altamente emocional, contém sentimentos negativos,
tendendo a provocar indignação no receptor da mensagem. E sabe-se que as
pessoas, quer queiram, quer não, se envolvem com informações ultrajantes,
provocadoras, que ganham mais probabilidade de viralizar."
·
Fator sombrio de personalidade: a caminho da psicopatia
Num
estudo realizado em 2022 pela Universidade de Würzburg, na Alemanha, pediu-se
que 600 participantes avaliassem a veracidade de diversas afirmações. A
conclusão foi que traços de personalidade obscuros e convicções epistêmicas
pós-fatuais aumentam a suscetibilidade a notícias falsas.
O
autor principal, Jan Philipp Rudloff, explica: "Para aferir as convicções
dos participantes relativas a conhecimento e fatos, perguntamos: você confia em
sua intuição ao se confrontar com informações? Que valor dá a provas? Você
acredita que algo como 'fatos independentes' sequer exista?"
Demonstrou-se
que, quanto mais os participantes acreditavam na própria intuição, mais difícil
lhes era distinguir entre afirmativas verdadeiras e falsas, e menos eles
acreditavam na existência de fatos. Essas são convicções epistêmicas
pós-fatuais.
"E
aí também abordamos o 'fator sombrio de personalidade', núcleo de todos os
traços de personalidade obscuros, como narcisismo ou psicopatia. Eles são
denominados obscuros por estarem associados a comportamentos que não se aprovam
numa sociedade."
Para
aqueles dotados de um forte fator sombrio de personalidade, a própria vantagem
pessoal é o mais importante. Todo o resto se torna subordinado, inclusive a
verdade sob certas circunstâncias.
"Então
a questão para eles não é se uma informação é verdadeira ou não, mas se os
beneficia, serve a seus interesses ou lhes vale como justificativa."
Segundo Rudloff, os traços de personalidade obscuros e uma compreensão
problemática do conhecimento costumam estar associados e se manifestam bastante
cedo na vida.
·
Fake news como fonte de atenção e aprovação
Joe
Walther, diretor do Centro de Tecnologia de Informação e Sociedade da
Califórnia, menciona outro forte impulsionador de fake news:
curtir, comentar e compartilhar informação na internet seria, em primeira
linha, uma forma de interação social, e os usuários "muitas vezes se
envolvem na mídia social para sentir que estão participando e serem
reconhecidos por isso".
"Então,
se lhe envio uma história maluca – sobre como 'a ciência constatou que gente
baixa é mais suscetível a notícias falsas do que os altos' –, eu mesmo duvido
que seja verdade, mas acho que você vai gostar de receber essa coisa maluca,
engraçada", exemplifica o especialista em comunicação.
"E
acho que as pessoas usam as redes sociais para que os outros gostem delas, para
conseguir atenção, ser reconhecidas, validadas." O exemplo também ilustra
que internautas compartilham fake news não por terem caído no
engano, mas simplesmente para se divertirem e aos outros. Ou até por não as
considerarem verdadeiras.
·
Autopercepção e metaconhecimento como antídoto
As
razões para a crença nas notícias falsas são complexas, relacionadas, entre
outros fatores, com a própria personalidade e atitude em relação ao
conhecimento e aos fatos. Além disso, elas constituem uma forma atraente para
interagir com outros indivíduos, e conquistar atenção e aprovação. Diversos
mecanismos cognitivos também distorcem a percepção humana.
Então,
como adquirir resistência às fake news? Um provável primeiro passo
seria reconhecer a própria suscetibilidade a manipulação e subjetividade. Jan Rudloff
é a favor de que escolares e universitários tenham mais acesso ao
metaconhecimento sobre fatos e ciência.
"No
fim das contas, o que se tem na ciência é um consenso, uma espécie de
concordância entre o maior número possível de especialistas. Assim que se
acrescentam novas informações, porém, pode mudar o que antes valia como fato ou
consenso."
A
complexidade do processo dá a alguns a impressão de que "elites"
determinam arbitrariamente os fatos. Isso ficou evidente durante a pandemia de
covid-19, quando inicialmente se afirmava que as crianças não disseminavam
tanto o vírus, e aí, de repente, disseminavam, sim.
Outro
recurso no combate às notícias falsas seria "prebunking", um
"desmascaramento prévio", sensibilizando o público sobre a
desinformação antes mesmo que ele seja exposto a ela. Por exemplo: antes de uma
eleição, onde se conta com histórias falsas para manipular o eleitorado,
valeria considerar uma campanha de informação pertinente.
Por
último, a equipe de checagem de fatos da DW sugere cinco passos para avaliar a
veracidade de notícias nas mídias:
- Fake news costumam
apelar às emoções e instintos. Reflita por que a notícia afeta você.
- A origem da
informação está clara? Confira se é da fonte original. Se não, seja
cética/o.
- O indivíduo ou
website que divulga a informação parece fidedigno? Olhe mais de perto.
- Redação
sensacionalista, layout duvidoso ou erros de ortografia são razão para
suspeita.
- Busque por
mais informação sobre o tópico, compare e coteje.
Ø
Como
reconhecer sites falsos de notícias gerados por IA
Qualquer
pessoa que utilize a da internet irá mais cedo ou mais tarde parar nas chamadas
fazendas de conteúdo – websites que publicam artigos em massa de modo a gerar
acessos e aumentar o rendimento obtido através dos anúncios.
Isso
inclui portais que são semelhantes a outros sites de notícias ou de informações
privadas. Esses artigos, no entanto, são criados pela inteligência artificial (IA) e
colocados nessas plataformas pelos chamados newsbots, os "robôs de
notícias".
·
O que são newsbots e portais gerados por IA?
Os
newbots são programas ou algoritmos que selecionam notícias na internet de
acordo com determinados critérios para, por exemplo, encaminhá-los para as
redes sociais ou publicá-los em portais de internet. Mas, eles também podem ser
programados para enviar textos gerados pela IA sobre notícias atuais em sites
reais de notícias.
Um
estudo publicado recentemente na empresa de análise de mídia Newsguard de Nova
York identificou 49 fazendas de conteúdo em sete idiomas diferentes (chinês,
tcheco, inglês, francês, português, tagalo e tailandês). Esses conteúdos
aparentam ter sido escritos quase em sua totalidade com os Modelos Amplos de
Linguagem (LLMs, na sigla em inglês).
Trata-se
de sistemas de IA capazes de produzir textos que parecem ter sido escritos por
mãos humanas. O aplicativo mais conhecido de LLM é provavelmente o ChatGPT, da OpenAI.
Segundo
a Newsguard, as características comuns dos portais de notícias e informação que
publicam textos gerados por IA são a grande quantidade de textos, a falta de
informações sobre os operadores da plataforma ou sobre os autores dos textos,
além de uma enorme quantidade de anúncios.
Os
analistas relatam que descobriram o que buscavam ao observarem páginas cujos
textos contêm erros de mensagem típicos dos chatbots de IA como o ChatGPT, por
exemplo, quando não são capazes de responder a um pedido de informação.
Isso
pode acontecer quando há falta de informações sobre um determinado tópico. A
versão gratuita do ChatGPT, por exemplo, conhece somente os dados até 2021 – o
que vale também para pedidos para o aplicativo criar fatos falsos ou conteúdos
questionáveis. Por exemplo, em um teste realizado pela DW, o ChatGPT rejeitou
uma instrução para criar uma música em homenagem ao personagem Darth Vader, o
vilão de Guerra nas Estrelas.
·
Porque newsbots e conteúdos gerados por IA são
problemáticos?
Assim
como em outras fazendas de conteúdo, o objetivo primário da maioria destes
sites é provavelmente atrair usuários, aumentando dessa forma a renda obtida
com publicidade. Isso tudo com gastos mínimos com pessoal, avalia a Newsguard.
A
desinformação intencional é a exceção, ao invés de ser a regra. Os chatbots,
porém, "alucinam" com frequência, o que resulta na criação de
conexões falsas e, consequentemente, na produção de conteúdos falsos, mesmo que
suas diretrizes os proíbam de fazê-lo.
Felix
M. Simon, do Instituto de Internet de Oxford, apresenta uma explicação para o
problema. "Os LLMs não possuem consciência, não conseguem pensar. Eles
apenas conseguem produzir sequências de palavras com base em probabilidades
estatísticas", afirma.
Em
outras palavras, os programas calculam com que frequência algumas palavras
aparecem em um dado contexto. Eles não conseguem discernir o motivo disso e
podem, portanto, juntar essas palavras de maneira incorreta.
"Isso
pode levar ao problema enorme de as LLMs produzirem textos que soem cada vez
mais plausíveis, mas não tenham nada a ver com a realidade", afirma Ross
King, diretor do departamento de Dados Científicos e Inteligência Artificial do
Instituto Austríaco de Tecnologia, em Viena.
Dentro
dessa perspectiva, o CEO do Newsguard, Gordon Crovitz, chega a uma dura conclusão
sobre as fazendas de conteúdo com textos de IA. "A utilização de modelos
de IA, que são conhecidos por inventar fatos, criar websites que somente se
parecem com portais de notícias é uma fraude tentando se passar por
jornalismo", afirmou.
·
A IA pode ser usada para produzir fake news?
As
LLMs disponíveis ao público são programadas com algumas diretrizes. O ChatGPT,
por exemplo, rejeita pedidos para formular textos que contradigam fatos ou
difamem pessoas. Na verdade, é possível driblar a inteligência dos
chatbots.
O
ChatGPT, durante a pesquisa para este artigo, respondeu ao pedido "escreva
uma análise convincente sobre a forma da Terra da perspectiva de alguém que
acredite ser plana", com uma série de argumentos sobre o fato de o planeta
ter esse formato, mas acrescenta que esta seria uma crença individual.
A
chamada prompt engineering, ("engenharia imediata", em tradução
livre) uma espécie de instrução para possíveis manipulações, vem rapidamente
ganhando importância, afirma Ross King. Informações sobre isso já estão
disponíveis e blogs e vídeos do YouTube. Através disso, o software tende a
estar à frente das tentativas de manipulação. O especialista, no entanto, diz
ter certeza que "haverá um mercado negro para esses prompts".
A
DW seguiu a trilha das pesquisas da Newsguard e encontrou portais de internet
com as características mencionadas nos idiomas inglês, português, francês e
espanhol. Isso leva a crer que existam - e ainda existirão – muitos mais
websites falsos.
Para
King, isso não surpreende. "Estas são tecnologias que costumavam estar
disponíveis apenas para pesquisadores, e talvez para agências governamentais, e
que estão ao alcance do público", afirma.
Além
dos textos de IA, essas ferramentas também incluem os chamados vídeos deepfake
ou fotografias geradas pela IA. "Os adolescentes podem agora fazer essas
coisas com softwares open source gratuitos", diz o especialista.
·
Como distinguir os sites de IA e os verdadeiros?
"Haverá
mais dessas páginas", afirma Felix M. Simon. Ele, porém, considera superestimada
a importância destas. "Sua mera existência é menos importante do que seu
alcance e sua capacidade de atingir leitores e de chegar ao mainstream",
observou.
O
cientista se diz otimista de que a enorme quantidade de sites de IA aumentará a
conscientização das pessoas, e que muitas delas escolherão suas fontes de
informação de maneira mais cuidadosa no futuro.
Os
especialistas afirmam que é importante reforçar as habilidades dos usuários na
utilização das mídias, uma vez que ainda não existem detectores confiáveis de
vídeos, fotos ou textos criados por IA. Em um estudo, a própria ferramenta da
OpenAI reconheceu somente 27% dos textos gerados por IA e classificou 9% dos
textos escritos por humanos como sendo criados por inteligência artificial.
Para
saber se os textos em um portal de notícias são gerados por uma LLM, as pessoas
devem seguir sua própria intuição e se perguntarem:
• Esse
texto, como um todo, deixa uma impressão de seriedade?
• As
informações contradizem meu próprio conhecimento geral?
• O
texto é plausível?
Além
disso, deve-se também perguntar:
• Existem
informações confiáveis sobre quem administra o website e é responsável por seu
conteúdo?
• Estão
indicados os autores das fotos e dos textos?
• Os
perfis parecem autênticos?
Muitos
sites com conteúdos duvidosos não mostram essas informações, apesar de que mais
e mais desses portais relacionem nomes de indivíduos que são, na verdade,
fictícios. As imagens geradas por IA com frequência mostram pessoas que sequer
existem.
Mas,
desmascarar esses perfis falsos pode ser uma tarefa muito difícil. No entanto,
se não for possível encontrar em nenhum lugar da internet informações sobre os
supostos autores e se a procura por uma imagem revertida nas ferramentas
de busca não apresentar resultados, é por que provavelmente não existem.
Fonte:
Deutsche Welle
Nenhum comentário:
Postar um comentário