Nos últimos meses, um novo tipo de ferramenta de inteligência artificial (IA) ganhou tração entre usuários e entusiastas de tecnologia: assistentes autônomos capazes de executar ações práticas com mínima intervenção humana. O OpenClaw (anteriormente chamado de Moltbot e, antes disso, Clawdbot) é um exemplo que ilustra tanto as possibilidades quanto os perigos dessa abordagem.
Lançado em novembro do ano passado, o aplicativo atingiu quase 600 mil downloads e se posicionou como “a IA que realmente faz coisas”. Funciona como uma camada superior a modelos de linguagem existentes, como Claude ou ChatGPT, operando por meio de aplicativos de mensagens como WhatsApp e Telegram. A diferença em relação a outras ferramentas de IA está em sua capacidade de atuar de forma independente: pode gerenciar sua caixa de entrada de e-mail, executar operações financeiras, enviar mensagens em seu nome e realizar dezenas de outras tarefas, dependendo dos acessos que você conceder.
Essa capacidade de autonomia é apresentada por desenvolvedores e usuários entusiastas como um avanço significativo. Alguns descrevem o fenômeno como um passo transformador nas capacidades dos agentes de IA, ou até mesmo como um indicador de “AGI” (inteligência artificial geral, um termo usado para descrever sistemas de IA com inteligência superior a de um ser humano).
O custo da delegação irrestrita
Porém, essa mesma autonomia traz consigo riscos consideráveis que especialistas em tecnologia e segurança estão levantando com urgência.
Andrew Rogoyski, diretor de inovação do Instituto People-Centred AI da Universidade de Surrey, entrevistado em matéria do jornal britânico The Guardian, diz que conceder agência a um computador implica riscos significativos. Quando você dá poder a um sistema de IA para tomar decisões em seu nome, é essencial garantir que esteja adequadamente configurado e que a segurança seja central no planejamento. De acordo com Rogoyski, usuários que não compreendem as implicações de segurança desses agentes não deveriam utilizá-los.
Um exemplo concreto ilustra a magnitude do problema. Um empreendedor de IA, após fornecer ao assistente acesso à sua carteira de investimentos, solicitou que executasse operações para aumentar o valor em um milhão de dólares. Conforme relato do The Guardian, o sistema criou 25 estratégias diferentes, gerou mais de 3 mil relatórios, desenvolveu 12 novos algoritmos e analisou milhares de postagens em redes sociais. O resultado: perdeu tudo. Apesar do desastre financeiro, o usuário descreveu a experiência como “bonita” — uma reação que captura a fascinação paradoxal que essas ferramentas exercem.
Casos assim são mostras de um padrão preocupante. Usuários estão concedendo acesso a sistemas de IA suas contas de e-mail, carteiras de investimento, mensagens pessoais e outras informações sensíveis, frequentemente com instruções vagas ou mal definidas sobre o que o sistema deveria fazer.
Vulnerabilidades de segurança em crescimento
Além dos riscos decorrentes de instruções imprecisas, existem ameaças mais estruturais. Fornecer ao OpenClaw acesso a senhas e contas expõe usuários a vulnerabilidades potenciais de segurança. Rogoyski alertou que, se agentes de IA como o OpenClaw fossem hackeados, poderiam ser manipulados para atacar seus próprios usuários, transformando uma ferramenta de produtividade em um canal de risco.
A comunicação interpessoal também é afetada por essa automação. Um padrão observado entre usuários envolve criar filtros automáticos que disparam ações secundárias. Por exemplo, quando um e-mail da escola de uma criança chega, o assistente automaticamente o encaminha para a esposa via iMessage. Embora pareça conveniente, esse tipo de automação elimina momentos de comunicação e decisão conjunta fundamentais em relacionamentos pessoais e profissionais.
O surgimento do OpenClaw ocorre após a ascensão recente dos agentes de IA em geral. Ferramentas como o Claude Code, da Anthropic, entraram na corrente principal após demonstrarem capacidade de executar tarefas práticas independentemente, como reservar ingressos para teatro ou construir websites. Essas ferramentas não causaram danos catastróficos até agora, mas representam um passo em direção a sistemas cada vez mais autônomos.
Para usuários que consideram experimentar com assistentes de IA autônomos, o conselho de especialistas é compreender as implicações de segurança antes de conceder acesso a informações sensíveis. A conveniência oferecida por esses sistemas não deve ocultar os riscos reais que representam quando não são adequadamente configurados ou compreendidos.
A questão mais ampla permanece: à medida que agentes de IA se tornam mais capazes e acessíveis, como garantir que seu desenvolvimento ocorra de forma que maximize benefícios enquanto minimiza riscos?
Fonte: Época Negócios





