terça-feira, 4 de julho de 2023

‘Inteligência Artificial pode ameaçar humanidade de extinção’, alertam cientistas

“Mitigar o risco de extinção pela Inteligência Artificial deve ser uma prioridade global ao lado de outros riscos em escala social ampla, como pandemias e guerra nuclear”, diz a declaração divulgada pelo Center for AI Safety (Centro para a Segurança de Inteligência Artificial), uma organização sem fins lucrativos baseada em São Francisco, na Califórnia (EUA), ao jornal The New York Times. Subscrevem o alerta mais de 350 executivos, empresários, desenvolvedores e cientistas de empresas que trabalham com a nova tecnologia. Entre eles, Sam Altman, CEO da OpenAI, empresa responsável pelo ChatGPT.

Além de Altman, também assinam o manifesto Geoffrey Hinton e Yoshua Bengio, considerados como ‘padrinhos da IA’ por conta da pesquisa que desenvolveram sobre redes neurais. Eles receberam o Prêmio Turing, concedido anualmente pela Association for Computing Machinery, do Reino Unido. Hinton inclusive deixou seu emprego no Google no início de maio para ter mais liberdade para participar de alertas dessa natureza.

As principais preocupações dos especialistas são com o espalhamento de desinformação a partir do uso de Inteligência Artificial, sobretudo dadas algumas falhas na interpretação e processamento de bancos de dados que foram registrados nos últimos meses pelo ChatGPT, entre outras tecnologias semelhantes. Um advogado nos EUA, por exemplo, pediu à nova tecnologia que lhe apresentasse processos judiciais anteriores que se relacionavam a uma ação em que trabalhava. Um dos casos relatados era fictício e o profissional não verificou, tendo encontrado problemas na Justiça em seguida. A história repercutiu na imprensa internacional.

Outra preocupação está na substituição do trabalho humano em atividades essenciais para a reprodução social. Na ótica dos especialistas, se empregada nos setores energético e de segurança e defesa, por exemplo, além de deixar a sociedade à mercê do bom funcionamento da tecnologia, ainda pode jogar milhões de pessoas no desemprego.

O alerta vem em um contexto em que o mundo estuda a regulação das novas tecnologias lançadas pelas chamadas Big Techs, sobretudo seus algorítimos e o desenvolvimento de Inteligência Artificial. O Parlamento Europeu e o Congresso dos EUA, por exemplo, já discutem a criação da Lei de Inteligência Artificial.

 

Ø  ChatGPT: Europa deve aprovar lei mais dura sobre IA no mundo

 

A União Europeia deve aprovar uma legislação sobre inteligência artificial e chatbots para regulamentar as plataformas sob as leis do órgão. A legislação passa por duas comissões do Parlamento Europeu nesta quinta-feira (11) e deve ser pioneira no tema.

O ChatGPT deve ser o principal afetado pela nova lei, que obrigará os chatbots e os algoritmos a não produzirem conteúdo que viole a legislação europeia.

“Estamos prestes a construir uma legislação verdadeiramente histórica para o cenário digital, não apenas para a Europa, mas também para o mundo inteiro”, disse Brando Benifei, um dos co-relatores do arquivo, a seus pares antes da votação.

A lei, em primeiro momento, busca definir o que é definido no escopo de inteligência artificial. Atualmente, o texto define a IA como um "sistema baseado em máquina projetado para operar com níveis variados de autonomia e que pode, para objetivos explícitos ou implícitos, gerar saídas como previsões, recomendações ou decisões que influenciam ambientes físicos ou virtuais”.

 “Também queremos ter uma definição uniforme para IA projetada para ser neutra em termos de tecnologia, para que possa ser aplicada aos sistemas de IA de hoje e de amanhã”, dizem os deputados que assinam o projeto.

A proposta legislativa deve proibir sistemas de inteligência artificial de realizar categorização biométrica, policiamento preditivo e fragmentação de imagens faciais para a construção de bancos de dados. Além disso, softwares de reconhecimento de emoções serão proibidos na aplicação da lei, em especial em gerenciamento de fronteiras, local de trabalho e educação.

Os sistemas de AI podem ser classificados como de alto risco caso eles posem problemas para a segurança pública, para a saúde mental, para os direitos humanos e outras questões importantes.

A Itália, que é um país-membro da União Europeia, já proibiu o ChatGPT em provedores italianos. O parlamento italiano acredita que existe a possibilidade do chatbot posar como uma ameaça para a segurança e para a privacidade dos usuários.

 

Ø  Inteligência Artificial erra e homem negro vai preso injustamente nos EUA

 

No final de novembro do ano passado, Randal Reid, um homem negro de 29 anos, tinha um dia normal em Atlanta, no estado da Geórgia, nos EUA, onde vive. Acabava de passar o famoso feriado do Dia de Ação de Graças e ele dirigia para visitar sua mãe. No meio do caminho, foi parado pela polícia e, após identificar-se, o agente lhe deu ordem para sair do veículo e o algemou com o auxílio de outros dois policiais.

Confuso, Reid não fazia a menor ideia do por quê estava sendo preso. Perguntou aos policiais, que lhe disseram haver dois mandados de prisão contra ele referentes a roubos cometidos em Louisiana, outro estado.

A resposta o deixou ainda mais confuso e o homem se viu inserido numa história digna do famoso escritor tcheco, Franz Kafka. Ele jamais havia estado na Louisiana. “Estou preso por algo que não tenho a menor ideia”, declarou na ocasião.

Desesperada, sua família correu atrás de advogados e gastou uma nota para descobrir a razão pela qual estava preso. Profissionais de Atlanta contratados pela família não conseguiram tirá-lo da prisão nos primeiros dias e aconselharam os familiares e buscarem alguém em Louisiana. Nesse momento, após alguma pesquisa, chegaram a Thomas Calogero, um advogado criminalista local.

Enquanto nesse meio tempo as autoridades da Louisiana omitiam a razão pela qual Reid havia sido preso, Calogero logo descobriu o suposto crime. O homem era acusado de roubar duas bolsas Chanel e uma Louis Vuitton da loja Second Act, em Nova Orleans. Somadas, as bolsas valeriam cerca de 13 mil dólares.

Com a informação em mãos, Calogero dirigiu-se à loja onde conversou com o proprietário, que o mostrou as imagens das câmeras de segurança. Notando fortes diferenças corporais – o ladrão de fato seria mais gordo que Reid, apesar de ter o rosto parecido -, o advogado desvendou o caso. Dias depois, recebeu um telefonema da polícia informando que pôde constatar o mesmo após fazer uma análise comparativa entre as imagens dos roubos e as fotos de Reid. Um verruga teria sido o elemento crucial para determinar que as autoridades prenderam o cara errado.

Mesmo que no final das contas tenha sido evidenciado o erro da investigação e os mandados de prisão revogados , Reid passou 6 dias preso e, além do terror de encontrar-se em semelhante situação, ainda perdeu uma semana inteira de trabalho por conta do episódio. A prisão ocorreu na própria cidade de Atlanta. Reid ficou detido, sem poder ser solto mediante fiança, enquanto aguardava a chegada de autoridades da Louisiana.

·         Inteligência Artificial

O advogado então foi pesquisar a razão do erro e começou a desconfiar do uso de sistemas de reconhecimento facial com inteligência artificial na identificação de Reid quando ouviu de um oficial o termo “combinação positiva”. Nesse momento, Calogero expôs a história para o site Nola, de Nova Orleans.

Dias depois, uma apuração do New York Times trouxe ao público uma fonte ligada à investigação que confirmou o uso da tecnologia. No entanto, não há qualquer menção nos documentos oficiais ao software que utiliza Inteligência Artificial para realizar processos de reconhecimento facial.

A polícia local tem um contrato com a Clearview, uma empresa de reconhecimento facial que recebe 25 mil dólares por ano para prestar seus serviços desde 2019. A empresa criou um enorme banco de imagens, incluindo fotos públicas na internet e postagens de redes sociais, para compor o mecanismo de busca que agora tem sido pelas autoridades.

Para o advogado a situação é absurda e lança fortes críticas ao uso indiscriminado da tecnologia em casos criminais. Para Calogero, um reconhecimento facial mal feito ao invés de entregar um policiamento e uma justiça mais ágeis, tende a repetir os mesmos ‘erros’ dos seres humanos e produzir situações de injustiça como a relatada.

Ouvido pelo New York Times, Rashad Robinson, o presidente da Color of Change, uma organização que luta por igualdade e justiça racial nos EUA, concorda com Calogero e vai além em sua análise. “Se o reconhecimento facial classificasse erroneamente pessoas brancas, homens brancos ou mulheres brancas, não estaria em exposição. Alguns de nós e algumas de nossas comunidades são dispensáveis”, avaliou. Para ele, a tecnologia repete práticas do que chama de “policiamento racista”.

Já Jennifer Granick, advogada da American Civil Liberties Union, teme que novas tecnologias sejam empregadas no controle e policiamento da população sem que haja um amplo sobre seu uso. “Em uma sociedade democrática devemos saber quais ferramentas estão sendo usadas para nos policiar”.

 

Fonte: Fórum

 

Nenhum comentário: