Um robô intruso em sua rede social
Um pai fez uma
pergunta em um grupo privado do Facebook em abril de 2024: Alguém com um filho
superdotado e deficiente tem alguma experiência com escolas públicas da cidade
de Nova York? O pai recebeu uma resposta aparentemente útil que expôs algumas
características de uma escola específica, começando com o contexto de que
“tenho um filho que também é 2E”, ou seja, com dupla excepcionalidade.
Em um grupo do
Facebook para troca de itens indesejados perto de Boston, um usuário que
procurava itens específicos recebeu uma oferta de uma câmera Canon “usada, em
bom estado” e um “aparelho de ar condicionado portátil quase novo que acabei
nunca usando”.
Ambas as respostas
eram mentiras. Essa criança não existe e nem a câmera ou o ar condicionado. As
respostas vieram de um chatbot de inteligência artificial.
De acordo com uma
página de ajuda da empresa, a Meta AI responderá a uma postagem em um grupo se
alguém a acionar explicitamente ou se um usuário “fizer uma pergunta em uma
postagem e ninguém responder em uma hora”. O recurso ainda não está disponível
em todas as regiões ou para todos os grupos, de acordo com a página. Para
grupos nos quais está disponível, “os administradores podem desligá-lo e
ligá-lo novamente a qualquer momento”.
O Meta AI também foi
integrado aos recursos de pesquisa no Facebook e Instagram, e os usuários não
podem desligá-lo.
Como pesquisadora que
estuda comunidades online e ética da IA, acho a ideia de chatbots não
convidados respondendo perguntas em grupos do Facebook distópica por uma série
de razões, começando pelo fato de que comunidades online são para pessoas.
• Conexões humanas
Em 1993, Howard
Rheingold publicou o livro The Virtual Community: Homesteading on the
Electronic Frontier [“A comunidade virtual: colonizando a fronteira
eletrônica”, em tradução direta] sobre o WELL, uma comunidade online pioneira e
culturalmente significativa. O primeiro capítulo abre com uma pergunta de um
pai: o que fazer com uma “coisa cheia de sangue sugando o couro cabeludo do
nosso bebê?”.
Rheingold recebeu uma
resposta de alguém com conhecimento prático sobre como lidar com carrapatos e
resolveu o problema antes de receber um retorno do consultório do pediatra.
Sobre essa experiência, ele escreveu: “O que me surpreendeu não foi apenas a rapidez
com que obtivemos exatamente a informação de que precisávamos, bem quando
precisávamos saber. Foi também a imensa sensação de segurança que vem com a
descoberta de que pessoas reais – a maioria delas pais, algumas enfermeiras,
médicos e parteiras – estão disponíveis, a qualquer hora, se você precisar
delas”.
Esse aspecto de
“pessoas reais” nas comunidades online continua sendo crucial hoje. Qual o
motivo para fazer uma pergunta em um grupo do Facebook em vez de em um
mecanismo de busca? Porque você quer uma resposta de alguém com experiência de
vida real ou por querer a resposta humana que sua pergunta pode suscitar –
simpatia, indignação, solidariedade. Ou ambos.
Décadas de pesquisa
sugerem que o componente humano das comunidades online é o que as torna tão
valiosas tanto para a busca de informações quanto para o apoio social. Por
exemplo, pais que poderiam se sentir desconfortáveis pedindo conselhos sobre
criação de filhos encontram um refúgio em espaços online privados apenas para
pais. Jovens LGBT+ muitas vezes se juntam a comunidades virtuais para encontrar
recursos essenciais para sua segurança, ao mesmo tempo em que reduzem a
sensação de isolamento. Os fóruns de apoio à saúde mental oferecem aos jovens
pertencimento e validação, além de conselhos e apoio social.
Essas informações vão
ao encontro de descobertas semelhantes, em meu próprio laboratório,
relacionadas a participantes LGBT+ em comunidades online. Também se assemelham
à experiência do chamado “Black Twitter”, uma subcultura da rede social
composta majoritariamente por usuários negros para discussão de questões
sociais. Dois estudos mais recentes, ainda não revisados por pares, enfatizaram
a importância dos aspectos humanos na busca de informações em comunidades
virtuais.
Um deles, liderado
pela estudante de doutorado Blakeley Payne, foca nas experiências de pessoas
gordas online. Muitos dos participantes encontraram uma tábua de salvação no
acesso a um público e uma comunidade com experiências semelhantes, enquanto
buscavam e compartilhavam informações sobre assuntos como o acesso a sistemas
de saúde hostis, a busca por roupas e a maneira como lidar com preconceitos e
estereótipos culturais.
Outro, liderado pela
estudante de doutorado Faye Kollig, descobriu que pessoas que compartilham
conteúdo online sobre suas doenças crônicas são motivadas pelo senso de
comunidade que vem com experiências compartilhadas, bem como pelos aspectos
humanizadores de se conectar com outros para buscar e oferecer apoio e
informações.
• Pessoas falsas
Os benefícios mais
importantes desses espaços online, conforme descrito pelos participantes dos
estudos, poderiam ser drasticamente prejudicados por respostas vindas de
chatbots em vez de pessoas.
Como diabética tipo 1,
participo de vários grupos no Facebook que são frequentados por muitos pais que
estão começando a enfrentar os desafios de cuidar de uma criança pequena com
diabetes. As perguntas frequentes: “O que isso significa?” “Como devo lidar com
isso?” “Quais são suas experiências com isso?” As respostas vêm de experiências
pessoais, mas também com compaixão: “É difícil.” “Você está fazendo melhor que
pode.” E, claro: “Todos nós já passamos por isso.”
Uma resposta de um
chatbot alegando falar a partir da experiência vivida de cuidar de uma criança
diabética, oferecendo empatia, não seria apenas inadequada, mas também quase
cruel.
No entanto, faz
sentido que esses sejam os tipos de respostas que um chatbot ofereceria.
Grandes modelos de linguagem funcionam, de forma simplista, mais como um
preenchimento automático do que como um mecanismo de busca. Para um modelo
treinado em milhões e milhões de postagens e comentários em grupos de Facebook,
a resposta “automática” para uma pergunta em uma comunidade de apoio é, sem
dúvida, uma que invoca experiência pessoal e oferece empatia – assim como a
resposta “automática” em um grupo de doação pode ser oferecer a alguém uma
câmera usada em bom estado.
• Manter os chatbots em seus limites
Isso não quer dizer
que os chatbots não sejam úteis para nada – eles podem ser bastante úteis em
algumas comunidades virtuais, em determinados contextos. O problema é que, no
meio da atual corrida pela IA generativa, há uma tendência a pensar que os chatbots
podem e devem fazer tudo.
Existem muitas
desvantagens em usar grandes modelos de linguagem para recuperar informações
importantes dentro de grandes volumes de dados, especialmente no que diz
respeito a contextos inadequados para seu uso. Em determinados ambientes,
informações incorretas podem ser perigosas: uma linha de ajuda para transtornos
alimentares ou aconselhamento jurídico para pequenas empresas, por exemplo.
Pesquisas estão
apontando considerações importantes sobre como e quando projetar e implementar
chatbots. Por exemplo, um artigo recentemente publicado em uma grande
conferência de interação humano-computador descobriu que, embora indivíduos
LGBT+ sem apoio social às vezes recorram a chatbots para ajuda com problemas de
saúde mental, esses chatbots muitas vezes não conseguem compreender as nuances
dos desafios específicos dessa comunidade.
Outro estudo descobriu
que, embora um grupo de participantes autistas encontrasse valor em interagir
com um chatbot para aconselhamento em comunicação social, esse chatbot também
fornecia conselhos questionáveis. E outro estudo averiguou que, embora um chatbot
fosse útil como ferramenta de pré-consulta no contexto de saúde, os pacientes
às vezes achavam as expressões de empatia insinceras ou ofensivas.
O desenvolvimento e a
implementação responsável de IA significam não apenas auditar questões como
viés e desinformação, mas também dedicar tempo para entender em quais contextos
a IA é apropriada e desejável para os humanos que vão interagir com ela. Atualmente,
muitas empresas estão utilizando a IA generativa como um martelo e, como
resultado, tudo parece um prego.
Em muitos contextos,
como comunidades de suporte online, é melhor deixar com os humanos.
Fonte: Por Casey
Fiesler, no The Conversation | Tradução Gabriela Leite, em Outra Saúde
Nenhum comentário:
Postar um comentário