Todo parece indicar que la inteligencia artificial y ChatGPT no dejan de ser un dolor de cabeza para los expertos en ciberseguridad. Primero, se habló de que la IA era capaz de facilitar mucho la vida a los ciberdelincuentes, que gracias a ella lanzaban campañas de estafas y fraudes como si nada. Estos engaños crecieron un 148%, se dijo. Pero la cosa no se ha detenido ahí, ni mucho menos.
El problema ahora, advierten los expertos en la materia, no es que los chatbots ayuden a los ciberdelincuentes como tal, sino que estos últimos los emplean ya como reclamos. Es decir, casos de phishing como los que habitualmente afectan a Correos, WhatsApp o la DGT, pero con la inteligencia artificial como protagonista. Es algo que ya sucede, pero que sucederá mucho más en el futuro.
ChatGPT, un filón para las ciberamenazas
No lo dice cualquiera, sino los expertos en ciberseguridad de Kaspersky. Según un nuevo y minucioso informe publicado por ellos, las amenazas que imitan a ChatGPT han crecido de manera increíble este año 2025, y su incremento alcanzará el 115%. Es cierto que pueden encontrarse engaños con otras IA como DeepSeek, pero la creada por OpenAI es la que acapara mayor interés.
La explicación es obvia: resulta la más popular de todas. De hecho, es algo en lo que los especialistas hacen mucho hincapié. El aumento de este tipo de peligros demuestra una vez más la popularidad de la tecnología. O mejor dicho, que cuando una herramienta tecnológica alcanza un considerable éxito, los hackers rápidamente ponen los ojos en ella. Y ChatGPT lo ha conseguido con creces.
El señuelo, por tanto, está fuera de toda duda. Millones de usuarios en todo el mundo asocian a ChatGPT con innovación, productividad y soluciones casi “mágicas” para un montón de tareas, desde redactar textos hasta programar código o generar ideas. Y esa confianza es precisamente la que buscan los ciberdelincuentes para engañar a sus víctimas, tanto usuarios como empresas.
Los datos que da Kaspersky llaman mucho la atención. La compañía detectó 177 archivos únicos maliciosos en solo cuatro meses que imitaban ser aplicaciones de ChatGPT. ¿Y en qué consistían en realidad? Pues versiones premium en teoría gratuitas, actualizaciones, complementos y un largo etcétera. Lo que se busca es que la gente haga clic y descargue e instale el archivo malicioso.
La IA es un problema para la seguridad, pero no el único
Por mucho que ChatGPT se lleve gran parte del protagonismo, el informe de Kaspersky muestra que otras herramientas tecnológicas también son explotadas de forma considerable: Zoom es un más que claro ejemplo, con el 41% de casos detectados (1.652 archivos maliciosos), o productos de Microsoft como Outlook o PowerPoint. En realidad, nadie está del todo a salvo.
Otro detalle interesante, además, que señalan los expertos, es el tipo de objetivo al que suelen dirigirse estas amenazas. Aunque en realidad cualquier usuario está expuesto, como muestran los datos, son las pequeñas empresas y medianas empresas las víctimas favoritas de los ciberdelincuentes. Solo en 2025 se llevan registrados ataques a 8.500 de sus empleados.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial

