La IA facilita campañas de phishing masivas y personalizadas, superando las defensas tradicionales. Los ciberataques potenciados por IA provocaron hasta 500% de aumento en robo de contraseñas.
En el Día Internacional de la Protección de Datos (28 de enero), expertos en seguridad lanzaron una advertencia preocupante: los ciberataques impulsados por inteligencia artificial (IA) están creciendo explosivamente. Según el Threat Landscape Report 2025 de Fortinet, la utilización de IA por parte de ciberdelincuentes provocó hasta un 500% de aumento en el robo y filtración de contraseñas a nivel global. Esta cifra revela cómo las herramientas de IA generativa se han convertido en un arma de doble filo: potencian la defensa, pero también permiten ataques más rápidos, masivos y sofisticados.
El phishing es el campo donde más se nota esta escalada. La IA facilita crear campañas de phishing altamente personalizadas, imitando lenguaje y contexto de comunicaciones legítimas para engañar incluso a usuarios precavidos. En 2025, los ataques de phishing contra empleados corporativos se multiplicaron por cuatro, llegando a triplicar la incidencia del malware tradicional. Con servicios Phishing-as-a-Service en la dark web, los atacantes pueden generar correos muy convincentes en segundos, engañando a víctimas para que entreguen sus credenciales. Incluso técnicas avanzadas como Ataque de adversario-en-medio (AiTM) han surgido, donde la IA ayuda a interceptar tokens de autenticación multifactor y secuestrar sesiones legítimas.
Latinoamérica se ha convertido en un blanco frecuente de estos ataques potenciados por IA. La rápida digitalización en la región, sumada a brechas en cultura de seguridad, amplía la superficie de ataque. Sectores como el financiero, gubernamental, salud y servicios públicos han sido objetivos prioritarios. Cibercriminales están explotando la falta de infraestructura robusta y regulaciones laxas en algunas organizaciones para penetrar sus sistemas con malware y phishing de nueva generación.
Frente a estas amenazas, las empresas deben reforzar sus defensas con igual inteligencia. Especialistas promueven el concepto de “IA Blindada”, una estrategia que combina IA defensiva, gobernanza de datos y capacitación continua del personal. El objetivo es impedir que las mismas herramientas de IA de la empresa se vuelvan vectores de riesgo. Pero sobre todo, insisten en que ninguna solución tecnológica basta sin el factor humano preparado. Programas de concientización y entrenamiento recurrente en seguridad se vuelven críticos para que los empleados aprendan a reconocer intentos de fraude cada vez más creíbles. Simulaciones de phishing, campañas internas y cultura de “cero confianza” ayudan a mitigar el riesgo que ni el mejor software puede eliminar por completo.
En resumen, la proliferación de ataques automatizados por IA marca una nueva era en ciberseguridad. Herramientas basadas en inteligencia artificial permiten a delincuentes escalar sus ofensivas a velocidades sin precedentes, evadiendo filtros tradicionales. Las organizaciones deben responder con la misma moneda: IA defensiva para detección de anomalías, análisis de comportamiento en tiempo real, y sobre todo equipos humanos entrenados para reaccionar con rapidez. Solo adoptando una postura proactiva y estratégica –que combine tecnología y educación– se podrá contrarrestar esta ola de fraudes digitales potenciados por inteligencia artificial.
