Influenciadora
em ética de IA tem redes sociais derrubadas
Catharina
Doria construiu uma audiência de quase 600 mil seguidores no Instagram e em
outras redes sociais ao explicar, em vídeos curtos, como diferenciar uma imagem
real de uma criada por inteligência artificial. Ensinou também por que pais
devem evitar postar fotos dos filhos em redes sociais e alertou sobre outras
questões envolvendo a tecnologia (leia aqui entrevista da BBC News Brasil com a
influenciadora).
E pode
ter sido justamente o tema central de seu trabalho — os limites da decisão
automatizada — que a levou a perder duas de suas contas na rede social nas
últimas semanas, sob a justificativa de violar diretrizes da Meta, empresa
responsável pela rede social.
"E
parece tragicômico que eu sou especialista em IA ética e uma IA possa destruir
a minha vida. Influencer de IA ética é banida por IA", disse à BBC News
Brasil.
No fim
de março, Catharina adotou Miss Petunia, uma cadela resgatada de maus-tratos,
e, a pedido dos seguidores, criou um perfil dedicado ao animal:
@misspetuniathechi. Segundo ela, a conta foi suspensa no mesmo instante em que
foi criada, antes de qualquer publicação, foto de perfil ou biografia.
"No
momento em que eu cliquei para criar a conta, eu recebi uma notificação de que
a minha conta tinha sido banida por ir contra as diretrizes da
comunidade", relata. "Mas não deu nem tempo de postar uma foto, nem
nada. É como se a conta tivesse nascido morta."
Ela
encaminhou à reportagem da BBC Brasil a cópia de um e-mail que contou ter
recebido do Instagram, que diz que a conta foi suspensa por violar as
"Community Standards on account integrity" ("Diretrizes da
comunidade sobre integridade de conta").
Catharina
diz ter aberto recurso e enviado um documento de identidade, como solicitado
pela plataforma. Mas conta que recebeu nova mensagem do Instagram dizendo que o
documento havia sido recusado, sem detalhar o motivo, e pedindo o reenvio. Em
seguida, a conta foi desativada.
Em
maio, o Instagram informou a ela que uma segunda conta sua havia sido suspensa:
a do @theaisurvivalclub, comunidade que ela mantém para discutir letramento
crítico em inteligência artificial.
A
justificativa seria a de que a conta estaria associada a outra que infringiu
regras da empresa.
"Trabalho
com isso, é minha fonte de renda, é minha fonte de credibilidade. Saber que uma
inteligência artificial pode acabar com o meu salário, acabar com o meu
ganha-pão, acabar com tudo, é assustador."
A conta
principal, @cahdoria, segue ativa, mas ela teme que também seja derrubada pelas
regras que contou ter recebido na resposta da Meta.
Procurada,
a Meta disse que não iria se manifestar. A empresa não respondeu se houve
revisão humana da decisão.
<><>
'O algoritmo erra em escala'
"A
nossa expectativa é que, ao menos, a gente saiba o motivo (da suspensão) e que,
sabendo, a gente tenha o direito de questionar", diz o advogado e
pesquisador de Harvard Caio Vieira Machado.
Para
ele, o problema central é a opacidade das decisões.
"O
algoritmo deles pode ter detectado algo estranho e, a partir disso, ter
sinalizado que a conta, de repente, está espalhando um conteúdo de nudez,
espalhando desinformação, espalhando alguma informação política que não
interessa à plataforma, alguma visão mais delicada ou polarizada, por
exemplo", afirma.
"Ou
o contrário: às vezes alguma coisa que esteja gerando polêmica pode ser
amplificada pelo algoritmo."
Segundo
o pesquisador, o primeiro problema é que o usuário "está recebendo um
serviço que é inconstante" e "não é informado de como isso funciona
com relação à transparência dos algoritmos. A gente sequer tem uma condição boa
da qualidade do algoritmo".
Como
esses sistemas operam em escala global, diz, eventuais erros se multiplicam:
"Sabendo que essas tecnologias erram, e erram em escala — pensa quantos
bilhões de publicações acontecem todos os dias —, 1% se for o erro, é uma
escala de milhões."
Por
isso, afirma, a saída esperada é a revisão humana. "Em muitos casos pode
ser que o modelo simplesmente tenha interpretado errado. Falsos
positivos."
Ele
cita um artigo da Lei Geral de Proteção de Dados (LGPD), que prevê que qualquer
cidadão pode pedir que decisões automatizadas que afetem seus interesses sejam
revistas por uma pessoa.
Na
prática, porém, esses revisores são "exércitos de pessoas contratadas por
essas empresas, pagas um valor irrisório, com publicações aos milhares por dia
para avaliar", afirma o advogado. "Eles têm poucos segundos para
avaliar o que está lá."
Fonte:
BBC News Brasil

Nenhum comentário:
Postar um comentário