Os dilemas de usar
inteligência artificial para trazer pessoas mortas de volta à vida
Uma
campanha publicitária que mostra a falecida Elis Regina e sua filha Maria Rita
fazendo um dueto provocou reações antagônicas nas redes sociais.
Na
peça da montadora Volkswagen, a cantora que morreu na década de 1980 foi
trazida de volta à vida usando Inteligência Artificial (IA). Ela aparece
dirigindo uma Kombi e cantando Como Nossos Pais, de Belchior.
Enquanto
muitos fãs e internautas elogiaram e se emocionaram com a propaganda, outros
questionaram se é ético usar a imagem de uma pessoa que não está mais viva em
um contexto fictício.
À
BBC News Brasil, o sociólogo e coordenador de impacto do Centro de Inteligência
Artificial da Universidade de São Paulo (USP) Glauco Arbix afirmou que o
assunto é de fato controverso, seja porque suscita debates sobre os efeitos
psicológicos de trazer pessoas mortas à vida usando tecnologia ou porque toca
em questões como consentimento, veracidade e finitude da vida.
Para
Arbix, há muitos riscos em usar IA de forma não transparente, informada ou
consciente, especialmente quando há um deslocamento espacial ou atribuição de
declarações inverídicas à pessoa retratada.
"Não
é porque você pode fazer que deve fazer", diz. "Uma coisa é você
guardar na sua gaveta um filme de alguém que morreu para assistir algumas
vezes, outra coisa é recriar (a imagem dela) em condições novas, como se ela
ainda estivesse viva."
Segundo
o professor da USP, nossa sociedade não está pronta para lidar com esse
deslocamento espacial e circunstancial de figuras já falecidas e fazer isso
pode ser "perturbador" para algumas pessoas.
"A
finitude da vida está sedimentada na história social. Mesmo para aqueles que
creem em vida após a morte, é algo sempre mais inacessível e distinto do que
vemos agora, para o que não estamos prontos como sociedade."
A
BBC Brasil procurou a Volkswagen para um posicionamento sobre o tema, mas não
obteve resposta até o fechamento desta reportagem.
·
'Pode destruir nome e reputação'
A
campanha da Volkswagen não foi a primeira a usar a inteligência artificial para
encenar realidades com pessoas já mortas.
No
filme Rogue One: Uma História Star Wars, a atriz Carrie Fisher
também foi recriada digitalmente para aparecer como a jovem Princesa Leia.
Em
junho, o músico Paul McCartney disse que a inteligência artificial havia sido
usada para que a voz de John Lennon - morto em 1980 e de quem ele foi parceiro
na banda Os Beatles - pudesse ser usada numa nova música.
A
tecnologia, também conhecida como deepfake, é usada com frequência
ainda para criar vídeos falsos envolvendo celebridades e figuras políticas.
No
caso da propaganda da montadora, a inteligência artificial foi treinada
especificamente para reconhecimento facial de Elis Regina, diferentemente do
que é feito em projetos de IA que utilizam tecnologia pré-treinada a partir de
dados genéricos.
Segundo
a empresa, a IA recebeu extensivos treinamentos com diferentes tecnologias,
combinando a atuação da dublê com os movimentos e imagens de Elis, para chegar
ao resultado do rosto da cantora na propaganda.
Para
Arbix, apesar do vídeo da Volkswagen ter sido feito com autorização e
participação da filha de Elis Regina, essa tecnologia também pode ser usada
para fins perigosos, distorcendo fatos, e até na indústria da pornografia ou
pedofilia.
"A
pessoa pode ficar sujeita a uma recriação que pode acabar destruindo o seu nome
e sua reputação", diz. "Mas também suscita questões do ponto de vista
da integridade da vida familiar."
Segundo
o sociólogo, ainda não há um consenso entre a comunidade médica sobre os
efeitos psicológicos de ver ou até conversar por meio da IA com entes queridos que
já faleceram.
Diversas
empresas de tecnologia, entre elas a americana HereAfter AI, têm desenvolvido
tecnologias para criação de uma versão digital de alguém. Dessa forma, seria
possível criar um diálogo artificial com uma pessoa falecida usando informações
pessoais, ferramentas de voz e inteligência artificial avançada.
"Do
ponto de vista da psicologia, há quem diga que pode ajudar a manter a memória e
trazer conforto para a família. Mas há também quem seja totalmente
contra", diz Glauco Arbix.
E
há até quem já esteja tentando se proteger disso. O ator Robin Williams, que
morreu em 2014, impôs uma restrição ao uso de sua imagem por 25 anos após seu
falecimento em seu testamento.
Segundo
as informações divulgadas, o americano queria evitar que sua figura fosse
reproduzida por meio de hologramas ou outras tecnologias para fins comerciais.
·
Direito de imagem e consentimento
Quando
se trata do direito de imagem ou do consentimento, o sociólogo Glauco Arbix
afirma acreditar que a lei brasileira já tem todos os conflitos bem resolvidos.
"A
legislação e a maneira como nossa sociedade vê isso atualmente já dão conta do
dilema. As famílias têm os direitos autorais", afirma.
"Discutir
se, por exemplo, a Elis Regina autorizaria o uso da imagem dela nessa
propaganda é ingênuo, porque ela também não autorizou a divulgação de fotos,
mas essa questão está prevista na legislação."
Já
para Sara Suárez-Gonzalo, professora da Universidade Aberta da Catalunha e
pesquisadora do tema, o debate deve ir mais além. Para ela, o consentimento de
familiares não é suficiente em casos como esse.
"Mesmo
quando morrem, as pessoas não são meras coisas com as quais os outros podem
fazer o que quiserem. É por isso que nossas sociedades consideram errado
profanar ou desrespeitar a memória dos mortos. Em outras palavras, temos certas
obrigações morais para com os mortos, na medida em que a morte não implica
necessariamente que as pessoas deixem de existir de forma moralmente
relevante", afirmou em um artigo publicado no site The
Conversation.
Segundo
Suárez-Gonzalo, o debate é ainda mais complexo quando envolve bots que
coletam dados pessoais para reproduzir conversar com pessoas falecidas, pois
replicar a personalidade de alguém "requer grandes quantidades de
informações pessoais, como dados de redes sociais que revelam características
altamente sensíveis".
A
pesquisadora afirma ainda que outra questão ética envolvida no uso da IA é a responsabilização
pelos resultados da tecnologia, especialmente no caso de efeitos nocivos.
Se
um bot, vídeo ou imagem criado com a tecnologia, por exemplo,
causar danos à saúde mental de um familiar, quem se responsabiliza?
"É
essencial abrir um debate público que possa informar melhor os cidadãos e nos
ajudar a desenvolver medidas políticas para tornar os sistemas de IA mais
abertos, socialmente justos e compatíveis com os direitos fundamentais",
diz no artigo.
Ø
Por
que garantir segurança da inteligência artificial não é tão fácil como se pensa
Especialistas
em inteligência artificial geralmente seguem uma das seguintes escolas de
pensamento: a inteligência artificial vai melhorar muito nossas vidas ou vai
destruir todos nós. Então como garantir segurança?
A
seguir, confira cinco dos desafios que temos pela frente — e como o tema tem
sido tratado na Europa.
·
1. Chegar a um acordo sobre o que é inteligência
artificial
O
Parlamento Europeu levou dois anos para chegar à definição de um sistema de
inteligência artificial — software capaz de, "para um determinado conjunto
de objetivos definidos pelo ser humano, gerar resultados como conteúdo,
previsões, recomendações ou decisões que influenciam os ambientes com os quais
eles interagem".
Nesta
semana, o Parlamento Europeu está votando o projeto de lei sobre a
regulamentação da Inteligência Artificial — as primeiras normas legais sobre a
tecnologia, que vão além de um código de conduta voluntário, exigindo que as
empresas as cumpram.
·
2. Alcançar um consenso global
A
ex-chefe do Escritório de Inteligência Artificial do Reino Unido, Sana
Kharaghani, observa que a tecnologia não respeita fronteiras.
"Precisamos
ter colaboração internacional nisso — sei que vai ser difícil", disse ela
à BBC News. "Este não é um assunto doméstico. Essas tecnologias não ficam
dentro das fronteiras de um país."
Mas
ainda não há um plano para um órgão regulador global de inteligência
artificial, no estilo das Nações Unidas — embora alguns tenham sugerido isso —,
e diferentes territórios têm ideias distintas sobre o tema.
As
propostas da União Europeia são as mais rígidas e incluem classificar os
produtos de inteligência artificial dependendo do seu impacto — um filtro de
spam para e-mail, por exemplo, teria uma regulamentação mais leve do que uma
ferramenta de detecção de câncer.
O
Reino Unido, por sua vez, está repassando a regulamentação da inteligência
artificial aos reguladores
existentes — aqueles que dizem que a tecnologia os discriminou, por exemplo,
são direcionados à Comissão de Igualdade.
Já
os Estados Unidos têm apenas códigos de conduta voluntários, e os legisladores
admitiram recentemente, durante uma audiência do comitê de inteligência
artificial, que estavam preocupados se ele estava dando conta do recado.
A
China pretende fazer com que empresas notifiquem os usuários sempre que um
algoritmo de inteligência artificial estiver sendo usado.
·
3. Garantir a confiança do público
"Se
as pessoas confiarem, elas vão usar", disse o chefe de assuntos
regulatórios e governamentais da União Europeia na IBM, Jean-Marc Leclerc.
Há
grandes oportunidades para a inteligência artificial melhorar a vida das
pessoas de maneiras incríveis. Entre elas, estão:
-
Ajudar a descobrir antibióticos;
-
Fazer pessoas com paralisia voltarem a andar;
-
Tratar de questões como mudanças climáticas e pandemias.
Mas
e a triagem de candidatos a vagas de emprego ou a previsão da chance de alguém
cometer um crime?
O
Parlamento Europeu quer que o público seja informado sobre os riscos associados
a cada produto de inteligência artificial.
As
empresas que infringirem suas regras podem ser multadas em até 30 milhões de
euros (aproximadamente R$ 157 milhões) — ou 6% do faturamento anual global.
Mas
será que os desenvolvedores são capazes de prever ou controlar como seu produto
pode ser usado?
·
4. Decidir quem redige as regras
Até
agora, a inteligência artificial tem sido amplamente autopoliciada.
As
grandes empresas dizem que estão de acordo com a regulamentação do governo —
"fundamental" para mitigar os riscos potenciais, de acordo com Sam
Altman, chefe da OpenAI, criadora do ChatGPT.
Mas
será que elas vão colocar os lucros acima das pessoas caso se envolvam demais
na redação das regras?
Você
pode apostar que elas querem estar o mais próximo possível dos legisladores
encarregados de estabelecer os regulamentos.
E
Martha Lane Fox, fundadora do Lastminute.com, diz que é importante ouvir não
apenas as corporações. "Devemos envolver a sociedade civil, a academia, as
pessoas que são afetadas por esses diferentes modelos e transformações",
afirma.
·
5. Agir rápido
A
Microsoft, que investiu bilhões de dólares no ChatGPT, quer que ele "tire
a parte penosa do trabalho".
Ele
pode gerar respostas de texto de forma semelhante a humanos, mas, Altman
observa, é "uma ferramenta, não uma criatura".
Os
chatbots deveriam tornar os profissionais mais produtivos.
Em
algumas indústrias, a inteligência artificial tem a capacidade de gerar
empregos e ser uma assistente formidável. Em outras, no entanto, trabalhadores
podem perder seus empregos — no mês passado, a BT (empresa de telecomunicação
britânica) anunciou que a inteligência artificial substituiria 10 mil postos de
trabalho.
O
ChatGPT está em uso público há pouco mais de seis meses. Agora, ele pode
escrever artigos, planejar férias e passar em exames profissionais.
A
capacidade desses modelos de linguagem em larga escala está crescendo a um
ritmo fenomenal.
E
dois dos três "padrinhos" da inteligência artificial — Geoffrey Hinton e Yoshua
Bengio — estão entre os que alertam que a tecnologia tem um enorme potencial de
danos.
A
Lei de Inteligência Artificial, na Europa, não vai entrar em vigor pelo menos
até 2025 —"muito tarde", segundo a chefe de tecnologia da União
Europeia, Margrethe Vestager.
Ela
está formulando um código voluntário provisório para o setor, junto aos Estados
Unidos, que pode ficar pronto dentro de semanas.
Fonte:
BBC News Brasil
Nenhum comentário:
Postar um comentário