'Sou
uma 'Zé ninguém' e usaram minha imagem em vídeo falso com IA para vender chá
milagroso
O vídeo
diz tudo ao contrário do que Tânia Carvalho defende. O rosto é o dela, o quarto
é o dela, as pernas são a dela, a voz parece ser a dela, mas a mensagem é algo
que ela nunca promoveria.
"Eu
tenho lipedema, e eu já estava no grau dois. E eu vou te contar como eu saí
disso aqui, para esse resultado aqui em apenas sete dias", diz o vídeo
disponível como anúncios no Instagram. Nas imagens, um antes e depois das
pernas de Tânia.
Lipedema
é uma doença que vem sendo "descoberta" nos últimos anos. Ela causa
acúmulo de gordura nas pernas e braços de aproximadamente 10% das mulheres em
todo o mundo. Os nódulos se assemelham a celulite e podem causar dor.
O vídeo
falso continua até começar a promover um milagroso "chá especial".
"Eu
só precisava tomar ele toda manhã durante sete dias", diz no vídeo a falsa
Tânia.
"O
chá vai agir na sua corrente sanguínea, liberando toda a gordura adiposa,
tecidos inflamados e retenção de líquidos."
Não há
qualquer comprovação de que um chá possa fazer tal efeito. E Tânia sabe bem
disso.
Há
menos de um ano, a carioca de 31 anos começou a compartilhar sua rotina após
ser diagnosticada com lipedema, com a intenção de reunir mulheres que sofrem
com o mesmo problema.
Ela
estava se preparando para fazer uma cirurgia de lipoaspiração específica para
retirar as células de gordura afetadas pela doença e queria compartilhar seu
pós-operatório.
No
processo de descoberta e cuidado, a carioca aprendeu que o tratamento de
lipedema é um processo multidisciplinar, envolvendo exercícios, alimentação,
tratamentos.
Ou
seja, nada de um chá milagroso.
No
vídeo verdadeiro, inclusive, Tânia justamente defende que não é "só fazer
alguma coisa que vai ter resultado", contando que seu tratamento envolveu
a intervenção cirúrgica.
"Tudo
é muito mais complexo do que malhar um ano, tem muitos fatores, como hormonal,
idade. A doença não é tão simples quanto parece", explicou no vídeo para
as seguidoras.
Os
vídeos de Tânia chamaram a atenção no Instagram e acabaram reunindo uma pequena
comunidade de mulheres. No Instagram, em março de 2025, eram pouco mais de 6
mil seguidoras.
Mas o
tamanho da conta não impediu que Tânia acabasse sendo vítima do chamado
deepfake, um vídeo com sua imagem criado por uma inteligência artificial (IA)
baseado em sua voz, gestos e expressões faciais.
Há
plataformas online que oferecem com facilidade a criação desse tipo de
conteúdo, também conhecido como mídia sintética.
Pessoas
famosas já têm sida vítimas desse tipo de vídeo há algum tempo. A imagem do
médico Drauzio Varella, por exemplo, tem sido usada em vídeos que promovem
tratamentos especiais ou medicamentos para resolver problemas de saúde. Todos
falsos.
Celebridades
como a cantora Ivete Sangalo e as apresentadoras Ana Maria Braga e Xuxa também
já foram vítimas
Mas o
caso como o de Tânia chama atenção por ser de uma pessoa com pouca
visibilidade. Ou seja, a maioria das pessoas que viu o anúncio provavelmente
não sabe reconhecer como ela fala originalmente ou como ela pensa.
Também
é sinal de que muitas pessoas podem estar tendo suas imagens usadas sem nem
saber.
Até a
publicação dessa reportagem, o anúncio seguia disponível, apesar da denúncia de
Tânia ao Instagram. A usuária recebeu uma mensagem que diz que o vídeo
"segue os padrões da comunidade".
Em nota
à BBC News Brasil, a Meta, dona do Instagram, apenas afirmou que
"atividades que tenham como objetivo enganar, fraudar ou explorar
terceiros não são permitidas", orientando pessoas a denunciarem na
plataforma — algo que Tânia diz já ter feito. A empresa não disse se vai tirar
o conteúdo do ar.
Tânia
diz ainda não saber se vai prosseguir com alguma ação judicial, já que isso
demandaria "energia e dinheiro".
• 'Até agora sem acreditar'
Essa
não foi a primeira vez que a imagem de Tânia foi usada num vídeo para promover
algum produto online. Há alguns meses, imagens das pernas dela apareceram numa
montagem junto ao depoimento de um médico para vender um "protocolo de
desinflamação" de combate ao lipedema.
Dessa
vez, porém, a tecnologia foi mais sofisticada, com a própria imagem dela
falando do chá milagroso.
"No
primeiro vídeo, achei que era o máximo que podiam me atingir. Quando me
mandaram isso (o deepfake), eu fiquei muito chocada e até agora estou sem
acreditar", diz Tânia.
"O
fato de ver os dentes que não são meus, naquela boca que não é minha, me
ouvindo falar algo que é absurdo, me fez pensar 'meu Deus, eu posso realmente
ser vítima de algo muito pior'."
Foram
duas amigas que alertaram Tânia sobre o golpe com o vídeo, já que conheciam o
conteúdo original e sabiam que ela não postaria aquilo que estavam vendo.
Por
seguirem páginas relacionadas ao lipedema, provavelmente as amigas entraram
como um público-alvo do anúncio falso.
O vídeo
está vinculado a uma página do Facebook, de uma suposta médica sem posts ou
seguidores. A foto usada nesse perfil pode ser rastreada a outras páginas de
saúde e até a um blog da Costa do Marfim que alerta que essa é uma imagem
frequentemente usada em sites por golpistas.
Ao
final do vídeo deepfake, há um link que leva a um site com uma pesquisa sobre
sintomas do lipedema, para se chegar ao "método caseiro que mulheres estão
eliminando a gordura de forma natural em sete dias".
Na
medida em que se avança nas perguntas, há relatos de celebridades como a modelo
Yasmin Brunet, que recentemente divulgou ter a doença.
Ao
final, é vendido por R$ 37 um pacote de "produtos". Entre eles, a
"receita secreta do chá detox anti-inflamatório de lipedema" e um
"acompanhamento personalizado via WhatsApp".
Tânia
não chegou a ser procurada por alguém que tenha de fato caído no golpe.
Mas,
após saber que estavam usando sua imagem, a carioca postou um vídeo reagindo ao
deepfake. Foi aí que ela ficou assustada. Muitas pessoas comentaram que
demoraram para perceber a diferença entre a "Tânia fake" e ela.
"Porque
uma coisa são as pessoas que me conhecem, sabem o que eu falo, minha voz, o
vídeo original. Mas as pessoas que não me conhecem vendo aquele vídeo, no
desespero, podem cair", diz.
Essa
busca por soluções ao lipedema vem aumentando nos últimos anos devido a mais
conhecimento sobre o assunto.
Em
2019, a Organização Mundial da Saúde (OMS) reconheceu o lipedema como uma
doença distinta. Em 2022, o quadro foi incluído na Classificação Internacional
de Doenças (CID-11), um manual amplamente utilizado como referência global para
identificação e registro de condições de saúde.
No
Brasil, entretanto, a adoção da CID-11, prevista inicialmente para 2025, foi
adiada para 2027 pelo Ministério da Saúde, que justificou a decisão com a
necessidade de treinar profissionais e atualizar os sistemas.
O
lipedema é considerado "novo" não só pela falta de familiaridade de
profissionais de saúde com o quadro — que ainda persiste mesmo após 85 anos da
primeira descrição — mas também porque faltam respostas importantes sobre o
mecanismo da doença.
"Ainda
falta entender o mecanismo do acúmulo diferenciado da gordura do lipedema e
suas vias metabólicas, ou seja, os processos bioquímicos responsáveis pela
produção, armazenamento e mobilização dessa gordura no organismo",
explicou à BBC o cirurgião vascular Mauro de Andrade.
• 'Precisamos nos acostumar a não
acreditar', diz advogada
Para
Tânia, o que preocupa não é apenas o caso em que ela foi vítima.
"Eu
sou uma 'Zé ninguém' e usaram minha imagem. E eu fico imaginando crianças sendo
expostas, mulheres que têm a imagem delas usada para coisas piores. É algo bem
preocupante", diz.
Na
avaliação da advogada Andressa Bizutti, mestre na Universidade Harvard, nos
EUA, e pesquisadora de mídia sintética na Universidade de São Paulo (USP), esse
avanço na tecnologia com a IA, na verdade, escancara problemas sociais
anteriores, como golpes, informações falsas ou até o uso do corpo da mulher em
casos de deepfakes pornô que se espalham pela internet.
A
advogada defende que o que aconteceu com deepfake é que a tecnologia mexeu em
um lugar que a sociedade ainda não sabia que era possível: o vídeo. Já
estávamos acostumados a lidar com montagem de fotos, por exemplo, sabendo que
nem tudo o que vemos é verdade.
"Vídeo
sempre teve um consenso na filosofia de transparência: você via e achava que
estava vendo a realidade", diz Bizutti, sócia do escritório b/luz.
"A
mídia sintética dá um passo adicional por conta desse aspecto cultural que a
gente ainda não se acostumou como sociedade."
Apesar
dos avançados deepfakes, Bizutti explica que casos como o de Tânia já são
contemplados na legislação vigente sobre direitos à personalidade (imagem, nome
e voz).
"Esses
direitos estão protegidos no Brasil, estão presentes na Constituição Federal,
no Código Civil e são inalienáveis [não se pode transferir]", conta.
A lei
já diz que não se pode usar a imagem de uma pessoa "se o uso for atingir a
honra, a boa fama, a respeitabilidade ou se destinarem a fins comerciais".
Há um
projeto de lei avançando no Congresso, o PL 2338, que trata sobre Inteligência
Artificial. A respeito de deepfake, ele diz, ainda sem dar detalhes, que vídeos
alterados precisariam ser identificados de alguma forma. Ou seja, trata mais
sobre a transparência do uso de IA do que regula o que pode ou não fazer com a
imagem das pessoas.
Para a
advogada especializada no tema, os passos que a sociedade e o direito precisam
dar é "mais uma questão sobre como vamos lidar com esses usos do que
necessariamente uma regulamentação".
"O
problema não é a IA ou deepfake. O problema é você ver um vídeo e ser enganado
por esse vídeo. A gente tem que se acostumar com o fato que a gente não pode
acreditar no que a gente está vendo".
Para
Bizutti, com o aprimoramento da tecnologia, vai adiantar cada vez menos a busca
por "sinais" de que o vídeo é falso, como uma voz robótica ou uma
boca que mexe de maneira esquisita.
"Você
tem saber de onde o vídeo vem, a fonte. Da mesma forma, quando começamos a usar
internet nas pesquisas da escola, a gente aprendeu que não podia pegar
informação de qualquer lugar no Google, de um site aleatório. O mesmo passo a
gente vai precisar dar com os vídeos", conta.
Caso a
vítima se sentir lesada, o ideal procurar os mecanismos judiciais. O Marco
Civil da Internet, por exemplo, tem mecanismos para o usuário pedir a
identificação de quem realizou as postagens e requerer indenização, por
exemplo. O Judiciário também pode determinar que as plataformas tirem o
conteúdo do ar.
Fonte:
BBC News Brasil
Nenhum comentário:
Postar um comentário