A
brasileira que viraliza traduzindo o caos da IA: 'As pessoas estão perdidas'
Você
sabe reconhecer se uma imagem foi criada por inteligência artificial? Sabe como
se proteger de golpes que usam esse tipo de tecnologia? E entende os riscos de
participar de "trends" de IA, como aquelas em que pessoas geram
versões animadas de si mesmas no estilo do estúdio Ghibli?
Temas
como esses poderiam parecer ficção há poucos anos, mas hoje fazem parte das
discussões públicas sobre tecnologia e segurança digital.
Uma das
vozes que tem se destacado nesse debate é a da brasileira Catharina Doria,
especialista em letramento de IA, que viralizou nas redes ao publicar vídeos
explicando, de forma acessível, como se proteger e entender os riscos da
inteligência artificial.
Em
menos de um ano, ela conquistou mais de 300 mil seguidores no Instagram, e
alguns de seus vídeos ultrapassam a marca de um milhão de visualizações.
A saga
começou quando ela publicou um vídeo em que provoca o espectador a descobrir
qual vídeo foi gerado por IA e qual é real.
"Parece
fácil, mas é muito difícil", diz ela na publicação, que mostra vídeos
curtos de uma youtuber, uma cantora e um streamer de games. Todos falsos.
"Você precisa treinar seu cérebro para se proteger dessa tecnologia",
alerta ela na postagem.
O
primeiro vídeo, que virou uma série, teve mais de 60 mil visualizações.
"Fiz o vídeo para poder adicionar senso crítico na cabeça das pessoas, de
que vários vídeos que estamos vendo online são feitos com IA — e como eles
conseguem detectar que foi feito por IA", disse Doria à BBC News Brasil.
Em
outro vídeo mais recente, Doria alerta para os riscos de privacidade que
existem ao usar robôs aspiradores, que podem coletar dados pessoais dos
usuários e até captar imagens.
"NUNCA
confie no seu aspirador robô! Talvez nada aconteça. Mas talvez aconteça. E
TENHO CERTEZA de que você NÃO quer ser a pessoa cuja foto no BANHEIRO
vaza", diz ela, em uma publicação em inglês.
(este
tema, do robô aspirador "espião", também já foi tratado em reportagem
aqui na BBC News Brasil, no ano passado)
Antes
de alcançar os milhares de seguidores, Catharina Doria já tinha obtido destaque
por, aos 16 anos, ter feito um aplicativo para denunciar casos de assédio
sexual, depois de ter passado por uma situação do tipo na rua.
Ela deu
entrevista, à época, para uma série de meios de comunicação. "Sempre
trabalhei com essa questão da tecnologia positiva. Mas não sabia que ia chegar
na IA", disse.
Veja
abaixo os principais trechos da entrevista.
• Como começou seu trabalho com IA?
Catharia
Doria - Na hora de escrever meu TCC, em comunicação, minha professora me deu um
livro que mudou a minha vida: Algorithms of Oppression [Algoritmos da
Opressão], da Safiya Noble.
Ela
fala sobre como o Google é enviesado e como ele não funciona da mesma maneira
pra todo mundo. Se você é uma pessoa branca, funciona de uma maneira. Se é uma
pessoa preta, funciona de uma maneira completamente diferente. E a maneira como
pessoas pretas eram representadas no Google dez anos atrás era extremamente
racista.
Eu li
aquele livro e, quando terminei, falei: é isso. Vou mudar de carreira e quero
trabalhar com IA e ter a certeza que essas tecnologias estão funcionando pra
todo mundo. Terminei minha faculdade, ganhei prêmio de melhor tese e fui fazer
um mestrado em ciência de dados.
Fiz um
ano do mestrado e graduei com honra. Pra mim era muito importante não só falar
da tecnologia, mas conseguir destrinchar por dentro e entender como funciona.
Chorei todos os dias? Chorei. Mas aprendi a como pegar uma "machine
learning pipeline" [etapas necesárias para treinar um sistema de IA], e
fazer um algoritmo.
Assim
que eu me graduei, entendi que a parte que eu mais queria trabalhar era a de
governança e igualdade no algoritmo. Comecei a trabalhar para uma empresa
americana de governança de IA.
Viajei
o mundo inteiro e aprendi muito com eles sobre como pegar a IA e ativamente
transformá-la em algo positivo. E como criar guardrails (salvaguardas) para que
ela não seja danosa.
Mas aí
aconteceu algo importante: entendi que as conversas que aconteciam na indústria
eram super avançadas. Estávamos falando de OpenAI, Anthropic, EUA fazendo novas
leis, etc.
Mas
quando eu conversava com minha mãe ao telefone, ela não entendia o que é IA,
quais golpes estavam acontecendo ou como aqueles vídeos que ela via no
Instagram, na verdade, eram IA e não reais.
Comecei
a ver que as conversas que a indústria e a galera da academia estavam tendo não
estavam sendo traduzidas para as pessoas normais. Decidi, então, que seria a
pessoa que fala com as pessoas no dia a dia. Vou criar conteúdo sobre isso.
Comecei
a fazer isso há quatro meses [a entrevista foi feita em outubro] e, nesse
tempo, ganhei quase 200 mil seguidores. Isso mostra várias coisas: que as
pessoas estão entendendo que a IA está aqui. E que a IA está sendo muito
prejudicial a elas em certas instâncias.
Recebo
muitas mensagens de pessoas dizendo que assistem aos meus vídeos com os filhos
antes de dormir. A recepção está sendo maravilhosa.
• E você continuou trabalhando para a
empresa?
Catharina
Doria - Não, eu saí há um ano. Estou escrevendo dois livros. Hoje em dia, o que
eu faço 24 horas por dia é a criação de conteúdo de letramento de IA, falando
sobre inteligência artificial ética.
• Como você escolhe os assuntos dos
vídeos?
Catharina
Doria - Ainda estou aprendendo a melhor maneira de encontrar temas. Para mim, o
mais importante são meus pilares, um deles é o AI safety, a segurança da IA.
Por
exemplo, o vídeo da Roomba (robô aspirador) ou o vídeo sobre não postar fotos
nesses AI trends.
Para
mim isso é muito importante porque as pessoas estão adotando IA de uma maneira
um pouco irresponsável, ou pelo menos sem entender como aquilo pode ser
prejudicial.
Também
acho interessante comentar notícias recentes.
Por
exemplo, o vídeo da Taylor Swift. Ela nunca falou abertamente se aquilo [um
vídeo divulgado para promover o trabalho da cantora que, segundo críticos,
teria feito uso de IA] foi IA ou não.
Eu
assisti aos vídeos, não posso afirmar que é, mas, pela minha opinião, acho que
foram feitos com IA. Não quero ser só a pessoa que só fala de regrinha, que tem
que fazer isso ou aquilo. Quero participar da conversa de cultura pop que está
acontecendo.
Outra
situação: o caso Robin Williams. Criaram conteúdos de IA com ele morto. A filha
dele fez um post enorme pedindo para as pessoas não utilizarem inteligência
artificial para representar o pai.
Achei
um tema muito importante, pouco discutido na mídia: a importância de não
representar pessoas já falecidas com IA. Fiz um vídeo explicando três motivos
pelos quais isso é errado.
Tento
ser muito didática, porque esse tema é complexo e difícil. Não adianta chegar e
começar a falar um monte de terminologia para parecer inteligente.
Tento
ser o mais pé no chão possível, o mais sorridente possível, realmente chamar o
público para perto. Sei que é um tema difícil e complexo e que ninguém precisa
de mais um professor; as pessoas precisam de um amigo que ajude a entender esse
tema.
• quem é a maior vítima da IA hoje?
Idosos? Crianças? Todo mundo?
Catharina
Doria - Quem está mais vulnerável é todo mundo. No último mês, tive cerca de
7,1 milhões de visualizações nos meus vídeos e centenas de milhares de
comentários.
Vejo
que não tem idade, não tem faixa etária. Tem gente de 16, 17 anos, tem gente de
50, de 70. Está todo mundo perdido. Dizer que existe um único grupo demográfico
mais perdido seria errado, porque o letramento em IA não está acontecendo para
ninguém.
Tenho
amigos de 27, 28 anos que me mandam mensagem dizendo "Catha, eu não fazia
ideia de como distinguir se um vídeo era IA ou não, só aprendi com seus
vídeos".
São
pessoas que acabaram de sair da faculdade, com letramento altíssimo em outros
temas, mas que não entendem de inteligência artificial. É um problema que está
acontecendo com todo mundo, o que é muito assustador.
Falamos
de um problema que afeta a população inteira, e não só a brasileira. Meus
conteúdos são bilíngues, faço em inglês e português. Hoje em dia mais em
inglês, com legenda em português, mas meus stories também são em português,
faço uma mistura.
Meus
seguidores são brasileiros, norte-americanos, espanhóis, alemães, tenho gente
do mundo inteiro, muitos indianos também. Está todo mundo perdido,
independentemente da nacionalidade e da idade.
Acho
que é por isso que meu conteúdo funciona: não falo só com mães, nem só com
jovens. Falo com todo mundo, e todo mundo é bem vindo nessa conversa.
• Por que as pessoas estão perdidas? É
pela rápida evolução da tecnologia? Falta de transparência por parte das
empresas?
Catharina
Doria - Vários motivos diferentes. Um deles é a rapidez da adoção da
inteligência artificial.
Do
nada, as pessoas começaram a falar de inteligência artificial. A indústria
abraçou essa tecnologia como se fosse o salvador da pátria, algo que ajudaria
todo mundo a otimizar processos e a maneira de trabalhar.
Essa
adoção aconteceu de maneira muito rápida e sem letramento. Converso com muitas
empresas que basicamente disseram "gente, vamos começar a usar o ChatGPT,
toma aqui a ferramenta".
Ninguém
explicou o que era o ChatGPT, ninguém explicou quais são os problemas, ninguém
explicou que hoje em dia a OpenAI está sendo processada pelo jornal New York
Times, que todos os chat logs [históricos de conversa] são salvos e nada é
deletado.
Ninguém
explicou que não se pode colocar informação privada no chat porque isso pode
ser usado para treinar modelos de IA. As empresas não fizeram isso.
O que
vejo, como profissional, é que disseram "bora usar inteligência artificial
porque isso vai ajudar a gente", mas o letramento de como usar não
aconteceu.
As
pessoas começaram a usar da maneira errada, vários probleminhas apareceram e as
conversas começaram a surgir.
Hoje
temos um algoritmo que define o que você vai ver ou não. Ninguém sentou com os
usuários para explicar como esse algoritmo funciona. Ninguém explicou para os
usuários que, se você tem um perfil aberto na Meta (dona do Facebook e
Instagram), provavelmente suas fotos podem estar sendo usadas para treinar um
algoritmo.
Essa
transparência não existe. E isso acontece por vários motivos, inclusive porque
a transparência assusta. Se os usuários entenderem que todas as fotos postadas
nas redes podem ser usadas para treinar algoritmos, eles vão se perguntar o que
isso significa, quais problemas isso traz.
Vejo
que muitas empresas internacionais têm medo de ter essa conversa, medo de serem
transparentes e da reação da população. Acho isso um grande erro. Quanto mais
transparentes e verdadeiras as empresas fossem, talvez mais abertas as pessoas
estariam para compartilhar seus dados.
Se
existisse um letramento que dissesse "gente, a IA está sendo usada para
isso, isso e isso, funciona assim, assado; se vocês quiserem que seus dados não
sejam usados para treinar IA, cliquem aqui e saiam do treinamento; se não se
importarem, porque estamos cuidando dos dados de vocês, podem deixar
aberto", acho que a relação seria outra.
As
empresas estão falhando muito em comunicar de forma transparente os riscos e a
forma como lidam com os dados.
• Esse letramento virá das próprias
empresas? Do Estado? Dos comunicadores? Quem vai ocupar este espaço?
Catharina
Doria - Cabe a todo mundo.
Todo
mundo é responsável, mas sabemos a realidade. Trabalhando muitos anos com
governança de IA, vejo que muitas vezes essas empresas não são transparentes se
não houver uma lei exigindo transparência.
Não sou
advogada, mas trabalhei bastante nesse meio. Por exemplo, na Europa hoje temos
uma lei nova, o EU AI Act, que pede mais transparência dependendo do caso de
uso de IA que as empresas estão utilizando, e mesmo assim ainda há uma fricção
enorme para adotarem essas regulamentações.
Mesmo
com lei, já é difícil. Sem lei, considero impossível que grandes corporações
adotem, por vontade própria, uma versão mais transparente e correta da
inteligência artificial.
Por
isso é tão importante que Estados, países e órgãos reguladores trabalhem
conjuntamente para criar leis que protejam a população, porque sem elas as
empresas não vão fazer isso por conta própria.
Todas
as empresas que conseguirem levantar a mão e dizer "posso ajudar vocês
nesse caos de informação que está acontecendo" vão se destacar
positivamente nos próximos 10 anos. Quem fizer diferente vai se dar bem.
• Como fazer essa comunicação e não
assustar?
Catharina
Doria - O que acho interessante, só fazendo um parêntese, é que, no lado dos
tech bros — as pessoas que dizem que a IA é inteligente, maravilhosa e perfeita
—, muitos falam que as pessoas vão perder os trabalhos por causa da IA e, ao
mesmo tempo, dizem para os jovens não irem mais para a universidade, não irem
mais para a escola, porque a IA vai ser mais inteligente.
A IA
vai afetar alguns trabalhos, mas ainda estamos longe dela substituir as pessoas
de forma total.
Sobre o
alarmismo, considero muito importante transformar medo em conhecimento.
Se eu
faço um vídeo dizendo "gente, isso aqui está dando tudo errado, fiquem
morrendo de medo", quando a pessoa sai do vídeo, ela sai com medo,
estressada.
Então,
quando crio um vídeo, explico quais são os problemas e por que devem se
preocupar, e sempre tento terminar com o que a pessoa pode fazer para se
empoderar, se proteger. Isso transforma medo em conhecimento.
Quando
alguém diz "Catharina, esse vídeo está assustando as pessoas", eu me
pergunto: sou eu que estou assustando ou a situação atual é assustadora? Estou
assustando quando digo que um robô na casa pode ser usado para gravar você, ou
a situação de ter um robozinho que pode ser hackeado é, por si só, assustadora?
Temos
que ter essa perspectiva. Primeiro: será que, por ninguém falar dos problemas,
quando eu apareço e digo "opa, tem problema", sou eu que estou
deixando tudo assustador ou é porque todo mundo passou pano antes?
Segundo:
por isso vejo como minha responsabilidade, como alguém que trabalha com ética
em IA e letramento, nunca terminar um vídeo no alarmismo, e sim com
conhecimento, ajudando as pessoas a entender o que está acontecendo e como
podem transformar aquilo na vida delas, como podem se proteger.
Fonte:
BBC News Brasil

Nenhum comentário:
Postar um comentário