Por que
funcionários estão 'contrabandeando' apps de IA para o trabalho
"É mais fácil ser perdoado do que obter
permissão", diz John, um engenheiro de software em uma empresa de
tecnologia de serviços financeiros. "Simplesmente siga em frente. E se
você tiver problemas depois, resolva."
Ele é uma das muitas pessoas que estão usando
suas próprias ferramentas de inteligência artificial (IA) no
trabalho, sem a permissão de sua divisão de Tecnologia da Informação (TI) (é
por isso que não estamos usando o nome completo de John).
De acordo com uma pesquisa da Software AG, metade dos
trabalhadores da área de conhecimentos usam ferramentas pessoais de IA.
A pesquisa define trabalhadores do conhecimento
como "aqueles que trabalham principalmente em uma mesa ou
computador".
Para alguns, é porque sua equipe de TI não
oferece ferramentas de IA, enquanto outros disseram que queriam sua própria
escolha de ferramentas.
A empresa de John fornece o GitHub Copilot para
desenvolvimento de software com suporte de IA, mas ele prefere o Cursor.
"É, em grande parte, uma ferramenta
superestimada para autocompletar, mas é muito boa", diz ele. "Ele
completa 15 linhas por vez, e então você olha e diz, 'sim, é isso que eu teria
digitado'. Isso te liberta. Você se sente mais fluente."
Seu uso não autorizado não está violando uma
política, é apenas mais fácil do que arriscar um longo processo de aprovação,
ele diz. "Sou preguiçoso e bem pago demais para cobrir as despesas",
ele acrescenta.
John recomenda que as empresas permaneçam
flexíveis em suas escolhas de ferramentas de IA. "Tenho dito às pessoas no
trabalho para não renovarem as licenças de equipe por um ano de cada vez porque
em três meses todo o cenário muda", ele diz. "Todo mundo vai querer fazer
algo diferente e se sentirá preso pelo custo irrecuperável."
O lançamento recente do DeepSeek, um modelo de IA disponível gratuitamente na China, provavelmente
só expandirá as opções de IA.
Peter (que também teve a identidade trocada) é
gerente de produto em uma empresa de armazenamento de dados, que oferece aos
seus colaboradores o chatbot Google Gemini AI. Ferramentas externas de IA são
proibidas, mas Peter usa o ChatGPT através da ferramenta de busca Kagi.
Ele acha que o maior benefício da IA vem de
desafiar seu pensamento quando pede para o chatbot responder aos seus planos
sob diferentes perspectivas de clientes.
"A IA não está tanto te dando respostas,
mas te oferecendo um parceiro para debater ideias", ele diz. "Como
gerente de produto, você tem muita responsabilidade e não tem muitos bons
canais para discutir a estratégia de forma aberta. Essas ferramentas permitem
isso de uma forma sem restrições e ilimitada."
A versão do ChatGPT que ele usa (4.0)
pode analisar vídeos. "Você pode obter resumos dos vídeos dos concorrentes
e ter uma conversa inteira [com a ferramenta de IA] sobre os pontos dos vídeos
e como eles se sobrepõem aos seus próprios produtos."
Em uma conversa de 10 minutos com o ChatGPT,
ele consegue revisar material que levaria duas ou três horas assistindo aos
vídeos.
Ele estima que sua produtividade aumentada seja
equivalente à empresa ter um terço de uma pessoa adicional trabalhando de
graça.
Ele não sabe por que a empresa proibiu o uso de
IA externa. "Acho que é uma questão de controle", ele diz. "As
empresas querem ter uma palavra sobre as ferramentas que seus funcionários
usam. É uma nova fronteira da TI e eles simplesmente querem ser
conservadores."
·
Versões personalizadas de IA
O uso de aplicativos de IA não autorizados é às
vezes chamado de "shadow AI". É uma versão mais específica do
"shadow IT", que ocorre quando alguém usa software ou serviços que o
departamento de TI não aprovou.
A Harmonic Security ajuda a identificar o
"shadow AI" e a evitar que dados corporativos sejam inseridos
inadequadamente em ferramentas de IA.
Ela está monitorando mais de dez mil
aplicativos de IA e já viu mais de cinco mil deles em uso.
Esses incluem versões personalizadas do ChatGPT
e softwares de negócios que adicionaram funcionalidades de IA, como a
ferramenta de comunicação Slack.
Por mais popular que seja, o "shadow
AI" traz riscos.
Ferramentas modernas de IA são construídas ao
digerir grandes quantidades de informações, em um processo chamado de
treinamento.
Cerca de 30% dos aplicativos que a Harmonic
Security viu em uso treinam utilizando informações inseridas pelo usuário.
Isso significa que as informações do usuário se
tornam parte da ferramenta de IA e podem ser reutilizadas em respostas a outros
usuários no futuro.
As empresas podem estar preocupadas com seus
segredos comerciais sendo expostos pelas respostas da ferramenta de IA, mas
Alastair Paterson, CEO e cofundador da Harmonic Security, acha que isso é
improvável. "É bem difícil pegar os dados diretamente dessas [ferramentas
de IA]", ele diz.
No entanto, as empresas estarão preocupadas com
o armazenamento de seus dados em serviços de IA sobre os quais não têm controle,
não têm conhecimento e que podem ser vulneráveis a vazamentos de dados.
Será difícil para as empresas combaterem o uso
de ferramentas de IA, pois elas podem ser extremamente úteis, especialmente
para os trabalhadores mais jovens.
"[A IA] permite que você comprima cinco
anos de experiência em 30 segundos de engenharia de prompts", diz Simon
Haighton-Williams, CEO do The Adaptavist Group, um grupo de serviços de
software com sede no Reino Unido.
"Ela não substitui totalmente [a
experiência], mas é um grande impulso, da mesma forma que ter uma boa
enciclopédia ou uma calculadora permite que você faça coisas que não
conseguiria sem essas ferramentas."
O que ele diria para as empresas que descobrem
que há uso de shadow AI?
"Bem-vindos ao clube. Acho que
provavelmente todo mundo faz isso. Sejam pacientes, entendam o que as pessoas
estão usando e por quê, e descubram como vocês podem abraçar e gerenciar isso,
ao invés de exigir que seja desligado. Você não quer ser deixado para trás como
a organização que não [adotou a IA]."
A Trimble fornece software e hardware para
gerenciar dados sobre o ambiente construído. Para ajudar seus funcionários a
usarem a IA de forma segura, a empresa criou o Trimble Assistant. É uma
ferramenta interna de IA baseada nos mesmos modelos de IA usados no ChatGPT.
Os funcionários podem consultar o Trimble
Assistant para uma ampla gama de aplicações, incluindo desenvolvimento de
produtos, suporte ao cliente e pesquisa de mercado. Para desenvolvedores de
software, a empresa oferece o GitHub Copilot.
Karoliina Torttila é diretora de IA na Trimble.
"Eu incentivo todos a explorarem todos os tipos de ferramentas em sua vida
pessoal, mas reconheçam que a vida profissional é um espaço diferente e existem
algumas salvaguardas e considerações a serem feitas lá", ela diz.
A empresa incentiva os funcionários a
explorarem novos modelos e aplicações de IA online.
"Isso nos leva a uma habilidade que todos
somos forçados a desenvolver: temos que conseguir entender o que é dado
sensível", ela afirma.
"Há lugares onde você não colocaria suas
informações médicas, e você tem que ser capaz de fazer esse tipo de julgamento
[também para os dados de trabalho]."
A experiência dos funcionários usando IA em
casa e para projetos pessoais pode moldar a política da empresa conforme as
ferramentas de IA evoluem, ela acredita.
É necessário haver um "diálogo constante
sobre quais ferramentas nos servem melhor", ela diz.
¨ O livro escrito com IA que deixa profissionais
criativos 'aterrorizados'. Por Sean McManus
Recebi de uma amiga
no Natal um presente bastante curioso: meu próprio best-seller.
Tech-Splaining for
Dummies (algo como "Explicando a Tecnologia para Leigos", em
tradução livre) traz meu nome e minha foto na capa, além do ótimo título e
elogiosas resenhas.
Mas ele foi
inteiramente escrito por inteligência
artificial (IA),
baseado em algumas informações simples sobre mim, fornecidas pela minha amiga
Janet.
A leitura é
interessante e inclui algumas partes muito engraçadas.
Mas o texto também
inclui muitos rodeios. Ele parece uma mistura de um livro de autoajuda e uma
série de episódios curiosos.
O livro imita meu
estilo tagarela de escrever, mas também é um pouco repetitivo e muito prolixo.
A IA pode ter ido
além das informações de Janet e coletado outros dados sobre mim.
Diversas frases
começam com "como uma das principais jornalistas especializadas em
tecnologia..." Pobre de mim! Aquilo pode ter sido copiado de alguma
biografia online.
O livro também inclui
repetidamente uma misteriosa alucinação sobre meu
gato (na verdade, não tenho animais de estimação). E quase todas as páginas
trazem uma metáfora — algumas são mais aleatórias do que outras.
Dezenas de empresas
online oferecem serviços de redação de livros com IA. Meu livro veio da
BookByAnyone.
Entrei em contato
com o CEO (diretor-executivo) da empresa, Adir Mashiach, que vive em Israel.
Ele conta que já
vendeu cerca de 150 mil livros personalizados, principalmente para os Estados
Unidos, desde junho de 2024. Até então, ele compilava guias de viagem gerados
por IA.
Uma cópia impressa
do seu próprio best-seller com 240 páginas custa 26 libras (cerca de
R$ 188). A empresa usa ferramentas próprias de IA para gerar os livros,
baseados em um grande modelo de linguagem de código aberto.
Não vou pedir a
você que compre meu livro. Na verdade, você não pode. Apenas Janet, sua
criadora, pode encomendar outras cópias.
Atualmente, não
existem limitações para que qualquer pessoa possa criar um livro em nome de
alguém, incluindo celebridades — embora Mashiach afirme que existam proteções
contra conteúdos abusivos.
Todos os livros
contêm um aviso impresso, para esclarecer que aquela é uma obra de ficção,
criada por IA, projetada "apenas para trazer humor e alegria".
Legalmente, os
direitos autorais pertencem à empresa, mas Mashiach destaca que o produto
pretende ser um "presente engraçado personalizado" e os livros não
são vendidos para outros clientes.
Ele espera ampliar
a oferta, ao gerar outros gêneros, como ficção científica e, talvez, um serviço
autobiográfico.
A ideia é ser uma
forma irreverente de IA de consumo, ao vender produtos gerados pelas máquinas
para clientes humanos.
Mas ela também
serve para deixar aterrorizadas pessoas como eu, que escrevem para viver.
Até porque o livro
provavelmente levou menos de um minuto para ser produzido e, em algumas partes,
certamente soa muito parecido comigo mesma.
Músicos,
escritores, artistas e atores de todo o mundo já manifestaram
preocupação com o uso do seu trabalho para treinar ferramentas de IA
generativa, destinadas a produzir conteúdos similares criados por eles
próprios.
"Devemos falar
abertamente — quando falamos sobre dados, aqui, na verdade queremos dizer
trabalhos da vida de criadores humanos", destaca Ed Newton-Rex, fundador
da organização Fairly Trained, que defende o respeito aos direitos autorais
pelas empresas de inteligência artificial.
"São livros,
artigos, fotos, obras de arte, discos... O principal objetivo do treinamento da
IA é aprender como fazer alguma coisa e, depois fazer mais daquilo."
Em 2023, uma canção
com as vozes dos cantores canadenses Drake e The Weeknd, geradas por IA,
viralizou nas redes sociais até ser retirada das plataformas de streaming. Ela
não foi criada por eles, nem tinha o consentimento dos artistas.
Mas a medida não
impediu que o criador da faixa tentasse obter uma indicação para um prêmio
Grammy. E, mesmo com os artistas falsos, a música continuou a ser extremamente
popular.
"Não acho que
deva ser proibido o uso de IA generativa para fins criativos, mas acredito que
a IA generativa para estes propósitos que tenha sido treinada com base no
trabalho das pessoas sem uma permissão deveria ser proibida", destaca
Newton-Rex.
"A IA pode ser
muito poderosa, mas vamos construí-la de forma ética e justa."
Algumas
organizações do Reino Unido — incluindo a BBC — decidiram proibir os
desenvolvedores de IA de coletar seu conteúdo online para fins de treinamento.
Outras preferiram
colaborar. O jornal Financial Times, por exemplo, firmou parceria com a OpenAI,
criadora do ChatGPT.
O governo britânico
estuda reformular a legislação em voga, para permitir que os desenvolvedores de
IA façam uso do conteúdo de criadores na internet para ajudar a treinar seus
modelos, a menos que os donos dos direitos autorais decidam o contrário.
Ed Newton-Rex
qualifica esta medida de "insanidade".
Ele destaca que a
IA pode fazer avanços em áreas como a defesa, assistência médica e logística,
sem se apropriar do trabalho de artistas, escritores e
jornalistas.
"Tudo isso
funciona automaticamente, sem alterar as leis de direitos autorais e sem
destruir o sustento das pessoas criativas do país", defende ele.
A baronesa Beeban
Kidron, membro independente da Câmara dos Lordes (a câmara alta do parlamento
britânico), também é totalmente contrária à não aplicação da lei de direitos
autorais para a inteligência artificial.
"As indústrias
criativas são criadoras de riqueza, responsáveis por 2,4 milhões de empregos e
muita alegria", declarou ela.
"O governo
está prejudicando uma das suas indústrias mais ativas com base em uma vaga
promessa de crescimento."
Kidron também atua
como consultora do Instituto para a Ética em IA, da Universidade de Oxford, no
Reino Unido.
Um porta-voz do
governo britânico declarou que "não será tomada nenhuma medida até que
haja total confiança de que temos um plano prático que atenda a todos os nossos
objetivos: aumentar o controle para os donos de direitos autorais e ajudá-los a
licenciar seu conteúdo, oferecer acesso a material de alta qualidade para
treinar os principais modelos de IA do Reino Unido e criar maior transparência
para os donos de direitos autorais, por parte dos desenvolvedores de IA".
Segundo o novo
plano de IA do governo britânico, será disponibilizada uma biblioteca nacional
de dados, com dados públicos de uma ampla variedade de fontes, para os
pesquisadores da inteligência artificial.
Nos Estados Unidos,
o futuro das normas federais de controle da IA, no momento, é incerto, após o
retorno de Donald Trump à presidência do país.
Em 2023, o
ex-presidente Joe Biden assinou uma ordem executiva, destinada a ampliar a
segurança da inteligência artificial.
Entre outros
pontos, as empresas do setor foram obrigadas a informar ao governo americano os
detalhes dos trabalhos dos seus sistemas antes da publicação.
Mas Trump revogou
esta medida e ainda não está claro o que ele irá fazer para substituí-la. O que
se afirma é que Trump deseja menos regulamentação para o setor de IA.
Esta incerteza
surge em um momento em que existem diversas ações judiciais contra as empresas
de inteligência artificial, particularmente a OpenAI.
Elas vêm de
diversas partes, como o jornal The New York Times, escritores, gravadoras e até
um comediante.
Eles defendem que
as empresas de IA desrespeitaram a lei quando retiraram seu conteúdo da
internet sem autorização e o usaram para treinar seus sistemas.
As empresas de IA
argumentam que suas ações se enquadram dentro do conceito de fair
use (uso aceitável) e, portanto, são legais.
Existem diversos
fatores que podem constituir fair use e não há uma definição precisa.
Mas o setor de inteligência artificial está sob vigilância cada vez maior em
relação à forma de coleta dos dados de treinamento — e se as empresas deveriam
pagar por esses dados.
E, como se tudo
isso já não bastasse, veio a empresa chinesa de IA
DeepSeek e
abalou completamente o setor no final de janeiro. Seu aplicativo passou a ser o
mais baixado da loja americana da Apple.
A DeepSeek declarou
que desenvolveu sua tecnologia com uma fração do investimento usado pelas
ferramentas semelhantes da OpenAI. Seu sucesso gerou preocupações de segurança
nos Estados Unidos e temores sobre a atual dominação americana do setor.
Quanto a mim e à
minha carreira de escritora, acho que, no momento, se eu realmente quisesse ter
um best-seller, precisaria escrevê-lo eu mesma.
De qualquer
forma, Tech-Splaining for Dummies destaca a fraqueza atual das
ferramentas de IA generativa para projetos maiores.
O livro é repleto
de imprecisões e alucinações — e sua leitura pode ser bastante difícil em
alguns trechos, já que ele é muito prolixo.
Mas, considerando a
rapidez da evolução tecnológica, não sei ao certo por quanto tempo posso manter
a confiança de que meus conhecimentos humanos de redação e edição, mesmo que
consideravelmente mais lentos, ainda são melhores do que a inteligência
artificial.
Fonte: Zoe
Kleinman, editora de tecnologia da BBC News
Nenhum comentário:
Postar um comentário