Accelerada per:


Copyright © 2025 Apollo Cybersecurity


El llançament de ChatGPT Atlas, el nou navegador basat en IA d'OpenAI, ha despertat entusiasme i preocupació. Un informe recent alerta que el seu alt nivell d'automatització podria fer-la fins a un 90% més vulnerable als atacs de phishing, convertint-lo en un possible objectiu dels ciberatacs més sofisticats. En aquest blog analitzem quins riscos suposa, quines lliçons deixa per a la ciberseguretat i què recomanem davant aquesta nova generació d'amenaces digitals.
El navegador ChatGPT Atlas, desenvolupat per OpenAI, prometia revolucionar la forma en què naveguem: automatització, resums intel·ligents i ordres executades per IA. No obstant això, un estudi recent adverteix que podria ser fins a un 90% més vulnerables a Atemptats de Phishing que els navegadors tradicionals.
El problema rau en la seva pròpia força: l'autonomia. Atlas no només mostra pàgines web, sinó que interpreta i executa instruccions, cosa que obre la porta a la injecció ràpida o atacs CSRF, capaços de manipular les accions de l'assistent. Encara pitjor, aquestes ordres malicioses poden persistir a la memòria de ChatGPT, fins i tot si l'usuari canvia de sessió o dispositiu.
Perquè ChatGPT Atlas combina tres factors de risc clau:
Aquest equilibri entre innovació i exposició ens recorda que fins i tot les tecnologies més avançades poden convertir-se en vectors de ciberatacs si no estan dissenyats amb seguretat des del principi.
La situació del ChatGPT Atlas reflecteix un repte més ampli: la frontera entre productivitat i risc digital s'està difuminant. Cada vegada són més les empreses que integren solucions d'IA en els seus processos —des d'assistents d'atenció al client fins a eines d'anàlisi automatitzades— sense una avaluació en profunditat de les seves vulnerabilitats.
Aquesta tendència obre una nova superfície d'atac: els models lingüístics es poden manipular mitjançant indicacions malicioses o dades d'entrenament falsificades, permetent als atacants influir en respostes o decisions automatitzades. En escenaris corporatius, això podria provocar filtracions d'informació confidencial, accés indegut o manipulació de comunicacions internes.
Per tant, la seguretat de la IA ha de ser tractada com un pilar essencial dins de les estratègies de defensa cibernètica, no com un complement tècnic. Les organitzacions que integren aquestes tecnologies han de fer-ho amb una supervisió contínua i polítiques clares de control sobre el flux de dades i els permisos d'automatització.
El cas ChatGPT Atlas demostra que la resiliència a la ciberseguretat —anticipar, resistir i recuperar— ha de ser una prioritat abans d'adoptar qualsevol tecnologia basada en IA.
Les empreses i usuaris haurien de revisar els permisos, limitar l'automatització i educar sobre l'ús segur d'eines intel·ligents. La innovació sense seguretat no és progrés: és risc.
A Apolo Cybersecurity, creiem que l'evolució d'eines com ChatGPT Atlas representa una nova era en la interacció entre humans i intel·ligència artificial, però també un punt crític per a la defensa digital.
La nostra posició és clara:
El futur de la ciberseguretat no consisteix en evitar la IA, sinó d'integrar-la de manera responsable i resilient. A Apolo, donem suport a organitzacions que volen innovar sense comprometre la seva seguretat.
La intel·ligència artificial impulsa la innovació, però també nous riscos de ciberatacs i phishing. A Apolo Cybersecurity, t'ajudem a avaluar vulnerabilitats, protegir les teves dades i enfortir la teva resiliència digital davant amenaces emergents com les revelades en el cas ChatGPT Atlas.
.webp)