OpenClaw, agora Moltbot, expõe nova superfície de ataque criada por agentes de IA no trabalho

A rápida adopção de agentes de Inteligência Artificial no contexto profissional está a criar um novo e crítico desafio de cibersegurança para as organizações. O recente caso do OpenClaw, depois renomeado de Moltbot, um agente de IA autónomo que ganhou notoriedade pela sua capacidade de executar tarefas reais em sistemas empresariais, ilustra como a segurança ainda não está preparada para um mundo onde a IA actua com autoridade humana, alerta a Check Point® Software Technologies Ltd. (NASDAQ: CHKP), pioneira e líder global em soluções de cibersegurança.

Ferramentas como o Moltbot estão a ser adoptadas inicialmente por utilizadores individuais, engenheiros, analistas ou operadores que recorrem a agentes de IA para automatizar tarefas do dia a dia. No entanto, quando estes agentes passam a interagir com caixas de email, ficheiros partilhados, dashboards internos ou ambientes de desenvolvimento, deixam de ser experiências pessoais e passam a integrar, muitas vezes sem controlo, a superfície de ataque das organizações.

Este fenómeno replica o que aconteceu com o shadow IT e a adopção inicial de aplicações SaaS, mas com uma diferença fundamental, os agentes de IA actuam, executam e integram a uma velocidade de máquina, ampliando significativamente o impacto potencial de um incidente de segurança.

“O Moltbot é um vislumbre do futuro, assistentes de IA que não se limitam a sugerir, mas que actuam. O verdadeiro desafio de segurança não está no que a IA diz, mas na autoridade que lhe é delegada”, afirma David Haber, Vice Presidente de AI Agent Security da Check Point Software.

Um novo raio de impacto para as ameaças
Investigadores e meios de comunicação especializados têm vindo a identificar vulnerabilidades no ecossistema em rápido crescimento do Moltbot, incluindo caminhos de execução com um clique e competências de terceiros potencialmente maliciosas. Mais do que um incidente isolado, este caso evidencia uma mudança estrutural, os agentes de IA estão a tornar se uma camada com acesso transversal a tudo aquilo a que um colaborador humano pode aceder.

Riscos já conhecidos, como links maliciosos, plugins ou ataques à cadeia de fornecimento, podem agora resultar em execuções imediatas, permissões alargadas e ações indistinguíveis do trabalho normal de um colaborador. Pela primeira vez, uma aplicação pode comportar se com a autonomia, velocidade e nível de acesso de um funcionário, sem capacidade para avaliar risco.

A segurança ainda não acompanhou a delegação
As organizações estão a delegar trabalho real à IA mais rapidamente do que estão a criar mecanismos de controlo sobre o que esses sistemas podem aceder, instalar ou executar. Por esse motivo, a segurança da IA não pode limitar se ao comportamento do modelo ou à filtragem de conteúdos.
Um agente de IA pode apresentar respostas correctas e educadas e, ainda assim, ser perigosamente explorável, sobretudo quando integrado em ferramentas críticas como email, browsers, ficheiros, dashboards ou ambientes de desenvolvimento.

O que significa, na prática, segurança de IA para colaboradores
A chamada Workforce AI Security corresponde à camada de controlo necessária num mundo onde os colaboradores delegam rotineiramente tarefas a sistemas de IA em documentos, email, browsers, ferramentas de desenvolvimento e aplicações de negócio. Este modelo exige:

• Visibilidade sobre que assistentes de IA estão a ser utilizados e que dados, sistemas e permissões herdam
• Definição de barreiras de segurança para acções críticas, como instalação de competências, execução de comandos ou movimentação de dados
• Controlo rigoroso sobre extensões e plugins de terceiros, que funcionam como verdadeiros canais de execução para sistemas críticos
• Protecção contra manipulação indirecta, uma vez que os agentes de IA consomem continuamente conteúdos não confiáveis que podem influenciar decisões e acções

“Moltbot expõe uma nova e perigosa realidade, com agentes de IA, os dados passam a ser código. Uma simples célula de uma folha de cálculo pode exfiltrar uma caixa de email inteira. Este cenário já é real e a forma como as empresas encaram a segurança tem de evoluir”, sublinha Mateo Rojas Carulla, Head of Research da Check Point Software.

Recomendações práticas para as organizações
Para empresas que estejam a experimentar agentes de IA no local de trabalho, a Check Point recomenda uma abordagem pragmática:

• Tratar ferramentas de agentes de IA como aplicações de elevada confiança, revendo instalações, conectores e permissões
• Aplicar o princípio do privilégio mínimo em identidades, OAuth e permissões SaaS
• Reduzir a superfície de plugins e competências, limitando quem pode instalar novas integrações
• Considerar conteúdos externos como potencialmente manipuladores de comportamento, não apenas como informação
• Avaliar impactos com base nos registos já existentes, como logs de SaaS, actividade em repositórios e acessos a ficheiros sensíveis, focando se no que o agente fez e não apenas no que disse

Independentemente das políticas internas, os colaboradores continuarão a adoptar automação baseada em IA. A escolha para os responsáveis de segurança é clara, criar visibilidade e controlo agora ou investigar estes sistemas apenas após um incidente.

A Check Point ajuda as organizações a compreender e controlar a utilização de IA em fluxos de trabalho reais, desde colaboradores que experimentam copilots, a aplicações que integram grandes modelos de linguagem, até agentes que tomam decisões autónomas. Na prática, isto traduz se em visibilidade sobre sistemas de IA activos, restrição de ligações desnecessárias ou arriscadas e aplicação de controlos ao nível das acções, do acesso a dados, da execução de ferramentas e das integrações com terceiros.

Check Also

Canon alcança o 7º lugar no ranking de patentes dos EUA e soma 42 anos consecutivos no Top 10

A Canon anuncia que alcançou o sétimo lugar no número de patentes concedidas pelo United …