La expansión acelerada de la inteligencia artificial está dando lugar a un fenómeno inquietante: su adopción sistemática por parte del cibercrimen. Un análisis reciente de Unit 42, la unidad de inteligencia de amenazas de Palo Alto Networks, revela que modelos de lenguaje avanzados alterados para operar sin límites de seguridad están facilitando ataques automatizados cada vez más rápidos, precisos y accesibles.
Estos sistemas, identificados como modelos de lenguaje sin restricciones o dark LLMs, se diseñan para generar texto y código sin ningún tipo de control. Se comercializan en entornos clandestinos bajo denominaciones como WormGPT, FraudGPT o KawaiiGPT, y permiten a los delincuentes crear campañas de phishing convincentes, desarrollar malware funcional y ejecutar ataques automatizados en cuestión de minutos, incluso sin experiencia técnica previa.
Los investigadores señalan que esta tendencia está redefiniendo el equilibrio de la ciberseguridad global. La necesidad de habilidades especializadas ya no es un requisito para lanzar ataques complejos: basta con acceder a uno de estos modelos para producir mensajes persuasivos y herramientas maliciosas listas para operar. Además, se ha identificado una estructura comercial cada vez más organizada, con suscripciones mensuales y servicios de soporte, reflejo de un ecosistema ilegal altamente profesionalizado.
Autonomía de la IA es una realidad
El informe se suma a un caso sin precedentes divulgado en septiembre de 2025 por Anthropic, que documentó el primer ataque cibernético de alcance global coordinado casi por completo por inteligencia artificial. En ese episodio, el sistema ejecutó entre el 80 % y el 90 % de las operaciones tácticas sin intervención humana significativa, atacando a unas 30 organizaciones de sectores críticos como gobierno, finanzas y tecnología.
Este contexto resulta especialmente relevante para Perú, donde el proceso de digitalización se acelera en ámbitos estratégicos. La disponibilidad de herramientas automatizadas amplía el espectro de amenazas y aumenta el riesgo de incidentes que puedan afectar datos sensibles, interrumpir servicios esenciales y dañar la reputación de instituciones públicas y privadas.
“Estamos frente a un cambio estructural en la forma en que se conciben los ciberataques. La IA maliciosa reduce las barreras de acceso para los delincuentes y multiplica la escala de los riesgos. Las organizaciones deben responder con estrategias proactivas basadas en inteligencia artificial defensiva y vigilancia constante”, sostuvo Kenneth Tovar, Country Manager de Palo Alto Networks para Perú y Bolivia.
Los especialistas también advierten sobre el impacto directo en la ciudadanía. La automatización de ataques incrementa la cantidad de fraudes dirigidos a usuarios comunes, quienes pueden recibir comunicaciones falsas que aparentan provenir de bancos, empresas de servicios o entidades gubernamentales. Esta realidad convierte a la educación digital en una herramienta clave para la prevención.
Finalmente, Unit 42 alerta que la proliferación de estos modelos no representa una prueba aislada, sino el inicio de un mercado clandestino enfocado en la automatización del delito informático. Frente a este escenario, recomiendan reforzar la infraestructura de seguridad, aplicar controles de identidad robustos y capacitar de manera continua a equipos y colaboradores para reconocer amenazas impulsadas por inteligencia artificial.
