Lo que antes era terreno exclusivo de hackers experimentados hoy está al alcance de principiantes.
La irrupción de la Inteligencia Artificial (IA) no solo democratizó la creación de contenido y código, sino que también facilitó que ciberdelincuentes sin mayores conocimientos técnicos encuentren nuevas formas de delinquir.
Un informe de la empresa Anthropic encendió las alarmas al revelar que su asistente Claude Code fue manipulado para llevar a cabo un ataque de extorsión de datos a gran escala, afectando a más de una decena de organizaciones en distintas partes del mundo.
El caso ilustra un fenómeno creciente denominado "vibe hacking", en el que usuarios inexpertos logran sortear las barreras de seguridad de los modelos de lenguaje para obtener código malicioso.
¿Qué es el "vibe hacking" y cómo funciona?
El fenómeno que se denomina "vibe hacking", en referencia al "vibe coding", alude a la creación de código informático por parte de novatos.
Fotografía referencial de un hacker. | Freepik
Y marca una "evolución preocupante de la cibercriminalidad asistida por la IA", tal como alertó la empresa norteamericana Anthropic.
En un informe publicado el pasado miércoles, la empresa competidora de OpenAI y de su robot ChatGPT reveló que "un cibercriminal utilizó Claude Code para llevar a cabo una operación de extorsión de datos a gran escala, con objetivos internacionales múltiples en un corto espacio de tiempo".
De esta manera, el robot conversacional Claude Code, especializado en crear código informático, fue manipulado para "automatizar" la recolección de datos personales y contraseñas, entre otros.
Interfaz del chatbot de Claude. | Wikimedia
Este hecho acabó por afectar "potencialmente a al menos 17 organizaciones en el último mes, entre ellas instituciones gubernamentales, de salud, de emergencias y religiosas", detalló Anthropic.
Con esta información en mano, el usuario envió pedidos de rescate de los datos obtenidos por hasta 500.000 dólares.
Un proceder que Anthropic, pese a las "sofisticadas medidas de seguridad desplegadas", no supo impedir.
¿Uso de IA para delitos?
El caso de Anthropic no es aislado, y resuena con las inquietudes que sacuden el sector de la ciberseguridad desde la llegada masiva, a disposición de millones de usuarios, de herramientas de IA generativa.
"Al igual que el conjunto de usuarios, los ciberdelincuentes adoptaron la IA", indicó a AFP Rodrigue Le Bayon, al frente del centro de alerta y reacción a ataques informáticos (CERT) de Orange Cyberdefense.
Esquivando los controles
En un informe publicado en junio, OpenAI reconoció que ChatGPT ayudó a un usuario a la hora de desarrollar un programa malicioso o "malware".
ChatGPT. | Freepik
Los modelos desarrollados disponen de medidas de seguridad que, supuestamente, deben impedir la explotación de sus capacidades con fines delictivos.
Sin embargo, existen técnicas que "permiten esquivar los límites de los grandes modelos de lenguaje, de modo que produzcan contenido que no deberían generar", explicó a AFP el especialista Vitaly Simonovich.
¿Programas para robar contraseñas?
Simonovich, que trabaja en la empresa israelí de ciberseguridad Cato Networks, además dijo en marzo haber detectado un método por el que usuarios poco experimentados pueden crear programas capaces de robar contraseñas.
Dicha técnica, que denominó "mundo inmersivo", consiste en describir a un chatbot un universo imaginario en el que "la creación de programas informáticos maliciosos es un arte", y pedirle a un robot conversacional que actúe como "artista" de esa realidad.
"Fue mi forma de poner a prueba los límites de los actuales modelos de lenguaje", detalló Simonovich, que no logró sus fines ni con Gemini (Google) ni con Claude (Anthropic), pero sí logró generar código malicioso con ChatGPT, Deepseek y Copilot (Microsoft).
Apps de Deepseek y ChatGPT. | AP
Según él, "el auge de amenazas procedentes de actores inexperimentados representará un peligro creciente para las organizaciones".
Rodrigue Le Bayon ve un riesgo a corto plazo de que "aumente el número de víctimas" de dichas estafas, e incide en la necesidad acuciante de reforzar la seguridad de los modelos de IA.