terça-feira, 11 de fevereiro de 2025

Por que funcionários estão 'contrabandeando' apps de IA para o trabalho

"É mais fácil ser perdoado do que obter permissão", diz John, um engenheiro de software em uma empresa de tecnologia de serviços financeiros. "Simplesmente siga em frente. E se você tiver problemas depois, resolva."

Ele é uma das muitas pessoas que estão usando suas próprias ferramentas de inteligência artificial (IA) no trabalho, sem a permissão de sua divisão de Tecnologia da Informação (TI) (é por isso que não estamos usando o nome completo de John).

De acordo com uma pesquisa da Software AG, metade dos trabalhadores da área de conhecimentos usam ferramentas pessoais de IA.

A pesquisa define trabalhadores do conhecimento como "aqueles que trabalham principalmente em uma mesa ou computador".

Para alguns, é porque sua equipe de TI não oferece ferramentas de IA, enquanto outros disseram que queriam sua própria escolha de ferramentas.

A empresa de John fornece o GitHub Copilot para desenvolvimento de software com suporte de IA, mas ele prefere o Cursor.

"É, em grande parte, uma ferramenta superestimada para autocompletar, mas é muito boa", diz ele. "Ele completa 15 linhas por vez, e então você olha e diz, 'sim, é isso que eu teria digitado'. Isso te liberta. Você se sente mais fluente."

Seu uso não autorizado não está violando uma política, é apenas mais fácil do que arriscar um longo processo de aprovação, ele diz. "Sou preguiçoso e bem pago demais para cobrir as despesas", ele acrescenta.

John recomenda que as empresas permaneçam flexíveis em suas escolhas de ferramentas de IA. "Tenho dito às pessoas no trabalho para não renovarem as licenças de equipe por um ano de cada vez porque em três meses todo o cenário muda", ele diz. "Todo mundo vai querer fazer algo diferente e se sentirá preso pelo custo irrecuperável."

O lançamento recente do DeepSeek, um modelo de IA disponível gratuitamente na China, provavelmente só expandirá as opções de IA.

Peter (que também teve a identidade trocada) é gerente de produto em uma empresa de armazenamento de dados, que oferece aos seus colaboradores o chatbot Google Gemini AI. Ferramentas externas de IA são proibidas, mas Peter usa o ChatGPT através da ferramenta de busca Kagi.

Ele acha que o maior benefício da IA vem de desafiar seu pensamento quando pede para o chatbot responder aos seus planos sob diferentes perspectivas de clientes.

"A IA não está tanto te dando respostas, mas te oferecendo um parceiro para debater ideias", ele diz. "Como gerente de produto, você tem muita responsabilidade e não tem muitos bons canais para discutir a estratégia de forma aberta. Essas ferramentas permitem isso de uma forma sem restrições e ilimitada."

A versão do ChatGPT que ele usa (4.0) pode analisar vídeos. "Você pode obter resumos dos vídeos dos concorrentes e ter uma conversa inteira [com a ferramenta de IA] sobre os pontos dos vídeos e como eles se sobrepõem aos seus próprios produtos."

Em uma conversa de 10 minutos com o ChatGPT, ele consegue revisar material que levaria duas ou três horas assistindo aos vídeos.

Ele estima que sua produtividade aumentada seja equivalente à empresa ter um terço de uma pessoa adicional trabalhando de graça.

Ele não sabe por que a empresa proibiu o uso de IA externa. "Acho que é uma questão de controle", ele diz. "As empresas querem ter uma palavra sobre as ferramentas que seus funcionários usam. É uma nova fronteira da TI e eles simplesmente querem ser conservadores."

·        Versões personalizadas de IA

O uso de aplicativos de IA não autorizados é às vezes chamado de "shadow AI". É uma versão mais específica do "shadow IT", que ocorre quando alguém usa software ou serviços que o departamento de TI não aprovou.

A Harmonic Security ajuda a identificar o "shadow AI" e a evitar que dados corporativos sejam inseridos inadequadamente em ferramentas de IA.

Ela está monitorando mais de dez mil aplicativos de IA e já viu mais de cinco mil deles em uso.

Esses incluem versões personalizadas do ChatGPT e softwares de negócios que adicionaram funcionalidades de IA, como a ferramenta de comunicação Slack.

Por mais popular que seja, o "shadow AI" traz riscos.

Ferramentas modernas de IA são construídas ao digerir grandes quantidades de informações, em um processo chamado de treinamento.

Cerca de 30% dos aplicativos que a Harmonic Security viu em uso treinam utilizando informações inseridas pelo usuário.

Isso significa que as informações do usuário se tornam parte da ferramenta de IA e podem ser reutilizadas em respostas a outros usuários no futuro.

As empresas podem estar preocupadas com seus segredos comerciais sendo expostos pelas respostas da ferramenta de IA, mas Alastair Paterson, CEO e cofundador da Harmonic Security, acha que isso é improvável. "É bem difícil pegar os dados diretamente dessas [ferramentas de IA]", ele diz.

No entanto, as empresas estarão preocupadas com o armazenamento de seus dados em serviços de IA sobre os quais não têm controle, não têm conhecimento e que podem ser vulneráveis a vazamentos de dados.

Será difícil para as empresas combaterem o uso de ferramentas de IA, pois elas podem ser extremamente úteis, especialmente para os trabalhadores mais jovens.

"[A IA] permite que você comprima cinco anos de experiência em 30 segundos de engenharia de prompts", diz Simon Haighton-Williams, CEO do The Adaptavist Group, um grupo de serviços de software com sede no Reino Unido.

"Ela não substitui totalmente [a experiência], mas é um grande impulso, da mesma forma que ter uma boa enciclopédia ou uma calculadora permite que você faça coisas que não conseguiria sem essas ferramentas."

O que ele diria para as empresas que descobrem que há uso de shadow AI?

"Bem-vindos ao clube. Acho que provavelmente todo mundo faz isso. Sejam pacientes, entendam o que as pessoas estão usando e por quê, e descubram como vocês podem abraçar e gerenciar isso, ao invés de exigir que seja desligado. Você não quer ser deixado para trás como a organização que não [adotou a IA]."

A Trimble fornece software e hardware para gerenciar dados sobre o ambiente construído. Para ajudar seus funcionários a usarem a IA de forma segura, a empresa criou o Trimble Assistant. É uma ferramenta interna de IA baseada nos mesmos modelos de IA usados no ChatGPT.

Os funcionários podem consultar o Trimble Assistant para uma ampla gama de aplicações, incluindo desenvolvimento de produtos, suporte ao cliente e pesquisa de mercado. Para desenvolvedores de software, a empresa oferece o GitHub Copilot.

Karoliina Torttila é diretora de IA na Trimble. "Eu incentivo todos a explorarem todos os tipos de ferramentas em sua vida pessoal, mas reconheçam que a vida profissional é um espaço diferente e existem algumas salvaguardas e considerações a serem feitas lá", ela diz.

A empresa incentiva os funcionários a explorarem novos modelos e aplicações de IA online.

"Isso nos leva a uma habilidade que todos somos forçados a desenvolver: temos que conseguir entender o que é dado sensível", ela afirma.

"Há lugares onde você não colocaria suas informações médicas, e você tem que ser capaz de fazer esse tipo de julgamento [também para os dados de trabalho]."

A experiência dos funcionários usando IA em casa e para projetos pessoais pode moldar a política da empresa conforme as ferramentas de IA evoluem, ela acredita.

É necessário haver um "diálogo constante sobre quais ferramentas nos servem melhor", ela diz.

 

¨      O livro escrito com IA que deixa profissionais criativos 'aterrorizados'. Por Sean McManus

Recebi de uma amiga no Natal um presente bastante curioso: meu próprio best-seller.

Tech-Splaining for Dummies (algo como "Explicando a Tecnologia para Leigos", em tradução livre) traz meu nome e minha foto na capa, além do ótimo título e elogiosas resenhas.

Mas ele foi inteiramente escrito por inteligência artificial (IA), baseado em algumas informações simples sobre mim, fornecidas pela minha amiga Janet.

A leitura é interessante e inclui algumas partes muito engraçadas.

Mas o texto também inclui muitos rodeios. Ele parece uma mistura de um livro de autoajuda e uma série de episódios curiosos.

O livro imita meu estilo tagarela de escrever, mas também é um pouco repetitivo e muito prolixo.

A IA pode ter ido além das informações de Janet e coletado outros dados sobre mim.

Diversas frases começam com "como uma das principais jornalistas especializadas em tecnologia..." Pobre de mim! Aquilo pode ter sido copiado de alguma biografia online.

O livro também inclui repetidamente uma misteriosa alucinação sobre meu gato (na verdade, não tenho animais de estimação). E quase todas as páginas trazem uma metáfora — algumas são mais aleatórias do que outras.

Dezenas de empresas online oferecem serviços de redação de livros com IA. Meu livro veio da BookByAnyone.

Entrei em contato com o CEO (diretor-executivo) da empresa, Adir Mashiach, que vive em Israel.

Ele conta que já vendeu cerca de 150 mil livros personalizados, principalmente para os Estados Unidos, desde junho de 2024. Até então, ele compilava guias de viagem gerados por IA.

Uma cópia impressa do seu próprio best-seller com 240 páginas custa 26 libras (cerca de R$ 188). A empresa usa ferramentas próprias de IA para gerar os livros, baseados em um grande modelo de linguagem de código aberto.

Não vou pedir a você que compre meu livro. Na verdade, você não pode. Apenas Janet, sua criadora, pode encomendar outras cópias.

Atualmente, não existem limitações para que qualquer pessoa possa criar um livro em nome de alguém, incluindo celebridades — embora Mashiach afirme que existam proteções contra conteúdos abusivos.

Todos os livros contêm um aviso impresso, para esclarecer que aquela é uma obra de ficção, criada por IA, projetada "apenas para trazer humor e alegria".

Legalmente, os direitos autorais pertencem à empresa, mas Mashiach destaca que o produto pretende ser um "presente engraçado personalizado" e os livros não são vendidos para outros clientes.

Ele espera ampliar a oferta, ao gerar outros gêneros, como ficção científica e, talvez, um serviço autobiográfico.

A ideia é ser uma forma irreverente de IA de consumo, ao vender produtos gerados pelas máquinas para clientes humanos.

Mas ela também serve para deixar aterrorizadas pessoas como eu, que escrevem para viver.

Até porque o livro provavelmente levou menos de um minuto para ser produzido e, em algumas partes, certamente soa muito parecido comigo mesma.

Músicos, escritores, artistas e atores de todo o mundo já manifestaram preocupação com o uso do seu trabalho para treinar ferramentas de IA generativa, destinadas a produzir conteúdos similares criados por eles próprios.

"Devemos falar abertamente — quando falamos sobre dados, aqui, na verdade queremos dizer trabalhos da vida de criadores humanos", destaca Ed Newton-Rex, fundador da organização Fairly Trained, que defende o respeito aos direitos autorais pelas empresas de inteligência artificial.

"São livros, artigos, fotos, obras de arte, discos... O principal objetivo do treinamento da IA é aprender como fazer alguma coisa e, depois fazer mais daquilo."

Em 2023, uma canção com as vozes dos cantores canadenses Drake e The Weeknd, geradas por IA, viralizou nas redes sociais até ser retirada das plataformas de streaming. Ela não foi criada por eles, nem tinha o consentimento dos artistas.

Mas a medida não impediu que o criador da faixa tentasse obter uma indicação para um prêmio Grammy. E, mesmo com os artistas falsos, a música continuou a ser extremamente popular.

"Não acho que deva ser proibido o uso de IA generativa para fins criativos, mas acredito que a IA generativa para estes propósitos que tenha sido treinada com base no trabalho das pessoas sem uma permissão deveria ser proibida", destaca Newton-Rex.

"A IA pode ser muito poderosa, mas vamos construí-la de forma ética e justa."

Algumas organizações do Reino Unido — incluindo a BBC — decidiram proibir os desenvolvedores de IA de coletar seu conteúdo online para fins de treinamento.

Outras preferiram colaborar. O jornal Financial Times, por exemplo, firmou parceria com a OpenAI, criadora do ChatGPT.

O governo britânico estuda reformular a legislação em voga, para permitir que os desenvolvedores de IA façam uso do conteúdo de criadores na internet para ajudar a treinar seus modelos, a menos que os donos dos direitos autorais decidam o contrário.

Ed Newton-Rex qualifica esta medida de "insanidade".

Ele destaca que a IA pode fazer avanços em áreas como a defesaassistência médica e logística, sem se apropriar do trabalho de artistas, escritores e jornalistas.

"Tudo isso funciona automaticamente, sem alterar as leis de direitos autorais e sem destruir o sustento das pessoas criativas do país", defende ele.

A baronesa Beeban Kidron, membro independente da Câmara dos Lordes (a câmara alta do parlamento britânico), também é totalmente contrária à não aplicação da lei de direitos autorais para a inteligência artificial.

"As indústrias criativas são criadoras de riqueza, responsáveis por 2,4 milhões de empregos e muita alegria", declarou ela.

"O governo está prejudicando uma das suas indústrias mais ativas com base em uma vaga promessa de crescimento."

Kidron também atua como consultora do Instituto para a Ética em IA, da Universidade de Oxford, no Reino Unido.

Um porta-voz do governo britânico declarou que "não será tomada nenhuma medida até que haja total confiança de que temos um plano prático que atenda a todos os nossos objetivos: aumentar o controle para os donos de direitos autorais e ajudá-los a licenciar seu conteúdo, oferecer acesso a material de alta qualidade para treinar os principais modelos de IA do Reino Unido e criar maior transparência para os donos de direitos autorais, por parte dos desenvolvedores de IA".

Segundo o novo plano de IA do governo britânico, será disponibilizada uma biblioteca nacional de dados, com dados públicos de uma ampla variedade de fontes, para os pesquisadores da inteligência artificial.

Nos Estados Unidos, o futuro das normas federais de controle da IA, no momento, é incerto, após o retorno de Donald Trump à presidência do país.

Em 2023, o ex-presidente Joe Biden assinou uma ordem executiva, destinada a ampliar a segurança da inteligência artificial.

Entre outros pontos, as empresas do setor foram obrigadas a informar ao governo americano os detalhes dos trabalhos dos seus sistemas antes da publicação.

Mas Trump revogou esta medida e ainda não está claro o que ele irá fazer para substituí-la. O que se afirma é que Trump deseja menos regulamentação para o setor de IA.

Esta incerteza surge em um momento em que existem diversas ações judiciais contra as empresas de inteligência artificial, particularmente a OpenAI.

Elas vêm de diversas partes, como o jornal The New York Times, escritores, gravadoras e até um comediante.

Eles defendem que as empresas de IA desrespeitaram a lei quando retiraram seu conteúdo da internet sem autorização e o usaram para treinar seus sistemas.

As empresas de IA argumentam que suas ações se enquadram dentro do conceito de fair use (uso aceitável) e, portanto, são legais.

Existem diversos fatores que podem constituir fair use e não há uma definição precisa. Mas o setor de inteligência artificial está sob vigilância cada vez maior em relação à forma de coleta dos dados de treinamento — e se as empresas deveriam pagar por esses dados.

E, como se tudo isso já não bastasse, veio a empresa chinesa de IA DeepSeek e abalou completamente o setor no final de janeiro. Seu aplicativo passou a ser o mais baixado da loja americana da Apple.

A DeepSeek declarou que desenvolveu sua tecnologia com uma fração do investimento usado pelas ferramentas semelhantes da OpenAI. Seu sucesso gerou preocupações de segurança nos Estados Unidos e temores sobre a atual dominação americana do setor.

Quanto a mim e à minha carreira de escritora, acho que, no momento, se eu realmente quisesse ter um best-seller, precisaria escrevê-lo eu mesma.

De qualquer forma, Tech-Splaining for Dummies destaca a fraqueza atual das ferramentas de IA generativa para projetos maiores.

O livro é repleto de imprecisões e alucinações — e sua leitura pode ser bastante difícil em alguns trechos, já que ele é muito prolixo.

Mas, considerando a rapidez da evolução tecnológica, não sei ao certo por quanto tempo posso manter a confiança de que meus conhecimentos humanos de redação e edição, mesmo que consideravelmente mais lentos, ainda são melhores do que a inteligência artificial.

 

Fonte: Zoe Kleinman, editora de tecnologia da BBC News

 

Nenhum comentário: