Diversas firmas líderes en ciberseguridad anticipan que para 2026 la inteligencia artificial no solo será una herramienta de defensa, sino el principal motor de amenazas digitales, creando un entorno de riesgo sin precedentes para los usuarios de dispositivos móviles y otras plataformas. El consenso entre expertos de Gen, Check Point y Tenable es claro: la ciberdelincuencia está evolucionando de ataques adaptativos a operaciones dirigidas por IA. Siggi Stefnisson, de Gen, advierte que “los ciberdelincuentes ya no se adaptan a la tecnología, sino que la dirigen”. Las predicciones para 2026 describen un panorama donde la IA generativa permitirá la creación de “identidades sintéticas” completas, incluyendo documentos y videos en tiempo real, que superarán las verificaciones básicas.
Esto facilitará fraudes a gran escala.
Además, los engaños saldrán de la pantalla para entrar en la vida cotidiana mediante la clonación de voz y rostro en llamadas en tiempo real, convirtiendo la confianza en una vulnerabilidad. Gen también pronostica una nueva era de “estafas empáticas”, donde la IA analizará las emociones de la víctima para manipularla de forma más efectiva. Por su parte, Check Point alerta sobre amenazas nativas a los modelos de lenguaje (LLM), como la inyección de comandos ocultos (“prompt injection”) y el envenenamiento de datos, que pueden corromper los sistemas de IA desde dentro. Esta nueva generación de ataques, más sofisticados y personalizados, hará que el navegador se convierta en un campo de batalla principal, con publicidad maliciosa y sitios clonados por IA diseñados para robar credenciales. Ante esta realidad, la estrategia de seguridad debe cambiar radicalmente hacia un “modelo de prevención primero”, como lo define Nataly Kremer de Check Point, y una gestión de exposición autónoma para poder anticipar y neutralizar amenazas antes de que impacten al usuario.
En resumenPara 2026, expertos de Gen, Check Point y Tenable proyectan que la inteligencia artificial generará amenazas de ciberseguridad más sofisticadas, incluyendo identidades sintéticas, estafas emocionales en tiempo real y ataques directos a los modelos de IA. Este escenario exige una transición de la seguridad reactiva a un enfoque proactivo y autónomo centrado en la prevención.