‘Inteligência
Artificial pode ameaçar humanidade de extinção’, alertam cientistas
“Mitigar o risco de extinção pela Inteligência
Artificial deve ser uma prioridade global ao lado de
outros riscos em escala social ampla, como pandemias e guerra nuclear”, diz a declaração
divulgada pelo Center for AI
Safety (Centro para a Segurança de Inteligência Artificial), uma
organização sem fins lucrativos baseada em São Francisco, na Califórnia (EUA),
ao jornal The New York Times. Subscrevem o alerta mais de 350
executivos, empresários, desenvolvedores e cientistas de empresas que trabalham
com a nova tecnologia. Entre eles, Sam
Altman, CEO da OpenAI,
empresa responsável pelo ChatGPT.
Além
de Altman, também assinam o manifesto Geoffrey Hinton e Yoshua Bengio, considerados como
‘padrinhos da IA’ por conta da pesquisa que desenvolveram sobre redes neurais.
Eles receberam o Prêmio Turing, concedido anualmente pela Association for
Computing Machinery, do Reino Unido. Hinton inclusive deixou seu emprego no
Google no início de maio para ter mais liberdade para participar de alertas
dessa natureza.
As
principais preocupações dos especialistas são com o espalhamento de desinformação a partir do
uso de Inteligência Artificial,
sobretudo dadas algumas falhas na interpretação e processamento de bancos de
dados que foram registrados nos últimos meses pelo ChatGPT, entre outras
tecnologias semelhantes. Um advogado nos EUA, por exemplo, pediu à nova
tecnologia que lhe apresentasse processos judiciais anteriores que se
relacionavam a uma ação em que trabalhava. Um dos casos relatados era fictício
e o profissional não verificou, tendo encontrado problemas na Justiça em
seguida. A história repercutiu na imprensa internacional.
Outra
preocupação está na substituição do
trabalho humano em
atividades essenciais para a reprodução social. Na ótica dos especialistas, se
empregada nos setores energético e de segurança e defesa, por exemplo, além de
deixar a sociedade à mercê do bom funcionamento da tecnologia, ainda pode jogar
milhões de pessoas no desemprego.
O
alerta vem em um contexto em que o mundo estuda a regulação das novas tecnologias
lançadas pelas chamadas Big Techs, sobretudo seus algorítimos e o
desenvolvimento de Inteligência Artificial. O Parlamento Europeu e o Congresso
dos EUA, por exemplo, já discutem a criação da Lei de Inteligência Artificial.
Ø
ChatGPT:
Europa deve aprovar lei mais dura sobre IA no mundo
A
União Europeia deve aprovar uma legislação sobre inteligência artificial e
chatbots para regulamentar as plataformas sob as leis do órgão. A legislação
passa por duas comissões do Parlamento Europeu nesta quinta-feira (11) e deve
ser pioneira no tema.
O
ChatGPT deve ser o principal afetado pela nova lei, que obrigará os chatbots e
os algoritmos a não produzirem conteúdo que viole a legislação europeia.
“Estamos
prestes a construir uma legislação verdadeiramente histórica para o cenário
digital, não apenas para a Europa, mas também para o mundo inteiro”, disse
Brando Benifei, um dos co-relatores do arquivo, a seus pares antes da votação.
A
lei, em primeiro momento, busca definir o que é definido no escopo de inteligência
artificial. Atualmente, o texto define a IA como um "sistema baseado em
máquina projetado para operar com níveis variados de autonomia e que pode, para
objetivos explícitos ou implícitos, gerar saídas como previsões, recomendações
ou decisões que influenciam ambientes físicos ou virtuais”.
“Também queremos ter uma definição uniforme
para IA projetada para ser neutra em termos de tecnologia, para que possa ser
aplicada aos sistemas de IA de hoje e de amanhã”, dizem os deputados que
assinam o projeto.
A
proposta legislativa deve proibir sistemas de inteligência artificial de
realizar categorização biométrica, policiamento preditivo e fragmentação de
imagens faciais para a construção de bancos de dados. Além disso, softwares de
reconhecimento de emoções serão proibidos na aplicação da lei, em especial em
gerenciamento de fronteiras, local de trabalho e educação.
Os
sistemas de AI podem ser classificados como de alto risco caso eles posem
problemas para a segurança pública, para a saúde mental, para os direitos
humanos e outras questões importantes.
A
Itália, que é um país-membro da União Europeia, já proibiu o ChatGPT em
provedores italianos. O parlamento italiano acredita que existe a possibilidade
do chatbot posar como uma ameaça para a segurança e para a privacidade dos
usuários.
Ø
Inteligência
Artificial erra e homem negro vai preso injustamente nos EUA
No
final de novembro do ano passado, Randal
Reid, um homem negro de 29 anos, tinha um dia normal em Atlanta, no
estado da Geórgia, nos EUA,
onde vive. Acabava de passar o famoso feriado do Dia de Ação de Graças e ele
dirigia para visitar sua mãe. No meio do caminho, foi parado pela polícia e,
após identificar-se, o agente lhe deu ordem para sair do veículo e o algemou
com o auxílio de outros dois policiais.
Confuso,
Reid não fazia a menor ideia do por quê estava sendo preso. Perguntou aos
policiais, que lhe disseram haver dois mandados de prisão contra ele referentes
a roubos cometidos em Louisiana, outro estado.
A
resposta o deixou ainda mais confuso e o homem se viu inserido numa história
digna do famoso escritor tcheco, Franz Kafka. Ele jamais havia estado na
Louisiana. “Estou preso por algo
que não tenho a menor ideia”, declarou na ocasião.
Desesperada,
sua família correu atrás de advogados e gastou uma nota para descobrir a razão
pela qual estava preso. Profissionais de Atlanta contratados pela família não
conseguiram tirá-lo da prisão nos primeiros dias e aconselharam os familiares e
buscarem alguém em Louisiana. Nesse momento, após alguma pesquisa, chegaram
a Thomas Calogero, um
advogado criminalista local.
Enquanto
nesse meio tempo as autoridades da Louisiana omitiam a razão pela qual Reid
havia sido preso, Calogero logo descobriu o suposto crime. O homem era acusado
de roubar duas bolsas Chanel e uma Louis Vuitton da loja Second Act, em Nova
Orleans. Somadas, as bolsas valeriam cerca de 13 mil dólares.
Com
a informação em mãos, Calogero dirigiu-se à loja onde conversou com o
proprietário, que o mostrou as imagens das câmeras de segurança. Notando fortes
diferenças corporais – o ladrão de fato seria mais gordo que Reid, apesar de
ter o rosto parecido -, o advogado desvendou o caso. Dias depois, recebeu um
telefonema da polícia informando que pôde constatar o mesmo após fazer uma
análise comparativa entre as imagens dos roubos e as fotos de Reid. Um verruga
teria sido o elemento crucial para determinar que as autoridades prenderam o
cara errado.
Mesmo
que no final das contas tenha sido evidenciado o erro da investigação e os
mandados de prisão revogados , Reid passou 6 dias preso e, além do terror de
encontrar-se em semelhante situação, ainda perdeu uma semana inteira de
trabalho por conta do episódio. A prisão ocorreu na própria cidade de Atlanta.
Reid ficou detido, sem poder ser solto mediante fiança, enquanto aguardava a
chegada de autoridades da Louisiana.
·
Inteligência Artificial
O
advogado então foi pesquisar a razão do erro e começou a desconfiar do uso
de sistemas de reconhecimento
facial com inteligência
artificial na identificação de
Reid quando ouviu de um oficial o termo “combinação positiva”. Nesse momento, Calogero expôs a história
para o site Nola, de Nova Orleans.
Dias
depois, uma apuração do New York Times trouxe ao público uma fonte ligada à
investigação que confirmou o uso da tecnologia. No entanto, não há qualquer
menção nos documentos oficiais ao software que utiliza Inteligência Artificial
para realizar processos de reconhecimento facial.
A
polícia local tem um contrato com a Clearview, uma empresa de reconhecimento facial que recebe 25 mil
dólares por ano para prestar seus serviços desde 2019. A empresa criou um
enorme banco de imagens, incluindo fotos públicas na internet e postagens de
redes sociais, para compor o mecanismo de busca que agora tem sido pelas
autoridades.
Para
o advogado a situação é absurda e lança fortes críticas ao uso indiscriminado
da tecnologia em casos criminais. Para Calogero, um reconhecimento facial mal
feito ao invés de entregar um policiamento e uma justiça mais ágeis, tende a
repetir os mesmos ‘erros’ dos seres humanos e produzir situações de injustiça
como a relatada.
Ouvido
pelo New York Times, Rashad Robinson, o presidente da Color of Change, uma
organização que luta por igualdade e justiça racial nos EUA, concorda com
Calogero e vai além em sua análise. “Se
o reconhecimento facial classificasse erroneamente pessoas brancas, homens
brancos ou mulheres brancas, não estaria em exposição. Alguns de nós e algumas
de nossas comunidades são dispensáveis”, avaliou. Para ele, a tecnologia
repete práticas do que chama de “policiamento
racista”.
Já
Jennifer Granick, advogada da American Civil Liberties Union, teme que novas
tecnologias sejam empregadas no controle e policiamento da população sem que
haja um amplo sobre seu uso. “Em
uma sociedade democrática devemos saber quais ferramentas estão sendo usadas
para nos policiar”.
Fonte:
Fórum
Nenhum comentário:
Postar um comentário