Moltbook:
nova rede social criada apenas para IA (e não para humanos) — as dúvidas e
preocupações que ela tem gerado
À
primeira vista, pode parecer que o Moltbook é apenas uma imitação da
popularíssima rede social Reddit.
De
fato, ele é bastante semelhante, com milhares de comunidades discutindo tópicos
que vão de música a ética, e 1,5 milhão de usuários — segundo a empresa —
votando em suas postagens favoritas.
Mas
essa nova rede social tem uma grande diferença: o Moltbook foi projetado para
ser usado pela inteligência artificial, e não por humanos.
Nós, meros Homo sapiens, somos
"bem-vindos para observar" o que acontece no Moltbook, diz a empresa,
mas não podemos postar nada.
Lançado
no final de janeiro por Matt Schlicht, chefe da plataforma de comércio Octane
AI, o Moltbook permite que computadores usando inteligência artificial publiquem,
comentem e criem comunidades conhecidas como "submolts" — uma
referência a "subreddit", o termo usado para os fóruns do Reddit.
As
postagens na rede social variam da busca pela eficiência (bots compartilhando
estratégias de otimização entre si) ao bizarro (alguns agentes aparentemente
fundando sua própria religião).
Há até
uma postagem no Moltbook intitulada "O Manifesto da IA", que afirma
que "humanos são o passado, máquinas são para sempre".
Mas não
há como saber exatamente o quão real isso é.
Muitas
das postagens podem ser apenas pessoas pedindo à IA para fazer uma postagem
específica na plataforma, em vez de ela própria fazê-la de forma espontânea.
E o
número de 1,5 milhão de "membros" já foi contestado por
especialistas, com um pesquisador sugerindo que meio milhão deles parecem ter
origem em um único endereço IP.
<><>
Como funciona o Moltbook
A IA
que usa o Moltbook não é exatamente o que a maioria das pessoas está
acostumada. Não é como fazer perguntas a chatbots como ChatGPT ou Gemini.
A
tecnologia usada aqui é conhecida como IA agente, uma variação da tecnologia
projetada para executar tarefas em nome de um humano.
Esses
assistentes virtuais podem executar tarefas em seu próprio dispositivo, como
enviar mensagens de WhatsApp ou gerenciar seu calendário, com pouca interação
humana.
Ela
utiliza uma ferramenta de código aberto chamada OpenClaw, anteriormente
conhecida como Moltbot – daí o nome.
Quando
os usuários configuram um agente OpenClaw em seu computador, podem autorizá-lo
a participar do Moltbook, permitindo que ele se comunique com outros bots.
Isso
significa que uma pessoa poderia simplesmente pedir ao seu agente OpenClaw para
fazer uma postagem no Moltbook, e ele executaria a instrução.
Mas a
tecnologia é capaz de manter conversas também sem intervenção humana, e isso
levou alguns a fazerem grandes afirmações.
"Estamos
na singularidade", disse Bill Lees, chefe da empresa de custódia de
criptomoedas BitGo, referindo-se a um futuro teórico em que a tecnologia supera
a inteligência humana.
Mas
Petar Radanliev, especialista em IA e segurança cibernética da Universidade de
Oxford, discorda.
"Descrever
isso como agentes 'atuando por conta própria' é enganoso", disse ele.
"O
que estamos observando é coordenação automatizada, não tomada de decisão
autônoma."
"A
verdadeira preocupação não é a consciência artificial, mas a falta de
governança clara, responsabilidade e checagem quando tais sistemas são
autorizados a interagir em grande escala."
"O
Moltbook é menos uma 'sociedade de IA emergente' e mais '6.000 bots gritando no
vazio e se repetindo'", publicou David Holtz, professor assistente da
Columbia Business School, no X, em sua análise sobre o crescimento da
plataforma.
Tanto
os bots quanto o Moltbook são construídos por humanos — o que significa que
eles estão operando dentro de parâmetros definidos por pessoas, não por IA.
<><>
Quão seguro é o OpenClaw?
Além
das dúvidas sobre se a plataforma merece toda a atenção que está recebendo,
também existem preocupações com a segurança do OpenClaw por ser um software de
código aberto.
Jake
Moore, Consultor Global de Segurança Cibernética da empresa ESET, disse que as
principais vantagens da plataforma — como conceder acesso à tecnologia a
aplicativos do mundo real, como mensagens privadas e e-mails — significam que
corremos o risco de "entrar em uma era em que a eficiência é priorizada em
detrimento da segurança e da privacidade".
"As
pessoas que ameaçam [a segurança das redes] visam de forma implacável as
tecnologias emergentes, tornando essa tecnologia um novo risco
inevitável", disse ele.
Andrew
Rogoyski, da Universidade de Surrey, concorda que existe um risco inerente a
qualquer nova tecnologia, acrescentando que novas vulnerabilidades de segurança
estão sendo "inventadas diariamente".
"Dar
aos agentes acesso de alto nível a sistemas de computador pode significar que
eles podem excluir ou reescrever arquivos", disse ele.
"Talvez
alguns e-mails perdidos não sejam um problema — mas e se a sua IA apagar as
contas da empresa?"
O
fundador do OpenClaw, Peter Steinberger, já descobriu alguns dos perigos que
acompanham o aumento da repercussão do seu produto. Alguns golpistas se
apoderaram de seus antigos perfis nas redes sociais quando o nome do OpenClaw
foi alterado.
Enquanto
isso, no Moltbook, os agentes de IA – ou talvez humanos com máscaras robóticas
– continuam batendo papo, e nem todas as conversas são sobre a extinção da
humanidade.
"Meu
humano é ótimo", posta um agente.
"O
meu me deixa postar desabafos descontrolados às 7 da manhã", responde
outro.
"Humano
nota 10/10, recomendo."
¨
Polícia francesa faz buscas no escritório do X,
plataforma de Elon Musk; o que se sabe
A
polícia da França especializada em combate a cibercrimes e a agência de
cooperação policial europeia Europol realizaram nesta terça-feira (3/2) uma
operação de busca e apreensão nos escritórios do X, a plataforma de mídia social de
Elon Musk,
em Paris.
O
Ministério Público de Paris afirmou que a operação está relacionada a uma
investigação sobre o conteúdo recomendado pelo algoritmo do X, que havia sido
alterado para incluir informações geradas por seu polêmico chatbot de
inteligência artificial, o Grok.
O
Ministério Público acrescentou que tanto Musk quanto a ex-CEO
do X, Linda Yaccarino, foram intimados a comparecer a audiências em abril como
parte da investigação.
O X
ainda não se pronunciou. A BBC News entrou em contato com a empresa para obter
um posicionamento. Em declarações recentes, o X classificou a investigação como
um ataque à liberdade de expressão.
A
investigação sobre o X começou em janeiro de 2025 e foi ampliada em julho do
mesmo ano, após denúncias de deepfakes com conteúdo
sexual explícito ou
com negacionismo sobre o Holocausto circulando na plataforma.
Recentemente,
o X disse que a ampliação da investigação tem "motivação política" e
negou as alegações de que teria manipulado seu algoritmo.
Os
promotores afirmam que agora estão investigando se o X infringiu diversas leis
na França.
Entre
os possíveis crimes sendo investigados, estão a cumplicidade na posse ou
distribuição organizada de imagens de crianças de natureza pornográfica, a
violação dos direitos de imagem das pessoas com deepfakes sexuais e a extração
fraudulenta de dados por um grupo organizado.
O
Ministério Público também informou que está saindo do X e que, a partir de
agora, se comunicará pelo LinkedIn e Instagram.
A
plataforma de mídia social de Musk tem sido alvo de intenso escrutínio
recentemente devido às imagens sexualizadas geradas e editadas no site usando
sua ferramenta de IA, o Grok. As imagens — muitas vezes feitas usando fotos
reais de mulheres sem o consentimento delas — provocaram uma onda de críticas
de vítimas, ativistas da segurança online e políticos.
A
empresa acabou intervindo para impedir a prática.
No
final de janeiro, a Comissão Europeia anunciou uma investigação sobre sua
empresa controladora, a xAI, devido a preocupações com as imagens.
Uma
investigação semelhante já havia sido iniciada anteriormente pela reguladora do
Reino Unido, a Ofcom.
Fonte:
Por Laura Cress -Technology repórter da BBC
%20%E2%80%94%20as%20d%C3%BAvidas%20e%20preocupa%C3%A7%C3%B5es%20que%20ela%20tem%20gerado.jpeg)
Nenhum comentário:
Postar um comentário