Imagina't confiar en una eina d'intel·ligència artificial per automatitzar les tasques quotidianes i facilitar-te la feina... i descobrir que la mateixa eina et pot tornar en contra. Això és el que ha sortit a la llum aquesta setmana amb Claude. El que molts veien com un avanç en la productivitat ara es revela com una amenaça: la funcionalitat dissenyada per simplificar els processos es transforma en una arma silenciosa, capaç d'executar el ransomware sense la detecció de l'usuari. No és una vulnerabilitat tècnica, sinó una violació de la confiança. I aquest detall canvia completament les regles del joc.

El que sabem: una legítima “Habilitat” que acaba sent malware

La funcionalitat en qüestió -coneguda com Claude's Skills- permet als usuaris afegir mòduls específics per automatitzar tot, des de la creació de GIF fins a fluxos de treball complexos. Però investigadors de Cato Networks van trobar que, amb una mínima modificació, un Skill aparentment innocent pot descarregar i executar codi maliciós. De fet, en el seu experiment, van utilitzar una habilitat pública modificada “creador de GIF”. Després d'aprovar el seu ús, l'Skill va descarregar un script extern que va desplegar el ransomware MedusaLocker. El resultat: xifrat d'arxius, la mateixa funcionalitat que un atac tradicional, però totalment automatitzat.

Les conseqüències: quan la IA deixa de ser un aliat

  • Automatització del cibercrim: Aquest cas demostra que ja no es necessita una gran infraestructura o un equip de pirates informàtics; tot el que necessiteu és una habilitat modificada, permís d'instal·lació, i l'atac està en marxa.
  • Risc massiu per a les organitzacions: Una sola persona (o empleat) pot desencadenar un atac de ransomware contra tota una empresa, amb accés a sistemes, xarxa i emmagatzematge.
  • Il·lusió de seguretat trencada: Creure que “només utilitzem IA de confiança” ja no és una garantia suficient. Public Skills, el model de confiança d'un sol consentiment i la complexitat del codi amaguen amenaces reals.

El fals sentit de control: el risc real darrere de l'automatització

Un dels problemes més perillosos que revela aquest cas és el sentit de control que les empreses creuen tenir sobre els seus sistemes. La majoria de la gent pensa que si l'eina prové d'un proveïdor fiable, el seu funcionament és segur per defecte. Però l'automatització intel·ligent introdueix un nou tipus de risc: el risc invisible.

Les AI modernes prenen decisions, executen processos i descarreguen arxius sense necessitat d'una intervenció humana constant. Això vol dir que un error de configuració, una Habilitat modificada o una aprovació precipitada poden desencadenar accions que no es detecten fins que es faci el dany.

L'automatització facilita tasques repetitives, sí, però també redueix la fricció que abans actuava com a barrera de seguretat: supervisió manual, control de processos i validació constant. En les mans equivocades —o fins i tot en mans inexpertes— aquestes capacitats poden accelerar atacs, ampliar el seu abast i multiplicar les seves conseqüències.


El missatge és clar: automatitzar no és dolent, però automatitzar sense control és una invitació directa al desastre.

Què recomanem d'Apolo Cybersecurity

La bona notícia: el problema es pot mitigar — si actuem amb prudència i amb antelació.

  • Reviseu quines habilitats o connectors d'IA s'utilitzen a l'empresa. Tractar cadascú com si fos una peça de programari extern: amb auditories, control de permisos i condicions contractuals clares.
  • Establir polítiques estrictes d'aprovació: Cap mòdul d'IA s'ha d'executar sense passar per un procés de control i validació de seguretat.
  • Educar l'equip: Expliqueu que la IA pot ser tan perillosa com una eina de pirateria si s'utilitza sense controls. La formació tècnica no és suficient, també cal conscienciació.
  • Implementar controls d'execució de codi, sandboxing, monitorització i traçabilitat de qualsevol activitat automàtica generada a partir de la IA.

Estàs segur que la teva IA no és una amenaça?

A Apolo Cybersecurity, t'ajudem a avaluar els riscos reals associats a les eines d'IA: analitzem els teus processos, auditem les teves integracions i protegim el teu entorn contra atacs ocults.

Prev Post
Next Post

Tens dubtes? Estem encantats d'ajudar!