Líderes del pensamiento
IA generativa en ciberseguridad: el campo de batalla, la amenaza y ahora la defensa

El campo de batalla
Lo que comenzó como entusiasmo por las capacidades de la IA Generativa se ha convertido rápidamente en preocupación. Herramientas de IA Generativa como ChatGPT, Google Bard, Dall-E, etc., siguen acaparando titulares debido a preocupaciones sobre seguridad y privacidad. Incluso está generando cuestionamientos sobre qué es real y qué no. La IA Generativa puede generar contenido altamente plausible y, por lo tanto, convincente. Tanto es así que, al final de un segmento reciente de 60 Minutes sobre IA, el presentador Scott Pelley dejó a los espectadores con esta declaración: "Terminaremos con una nota que nunca ha aparecido en 60 Minutes, pero que, en la revolución de la IA, quizás escuchen a menudo: lo anterior se creó con contenido 100 % humano".
La guerra cibernética de IA generativa comienza con este contenido convincente y de la vida real y el campo de batalla es donde los piratas informáticos aprovechan la IA generativa, utilizando herramientas como ChatGPT, etc. Es extremadamente fácil para los ciberdelincuentes, especialmente aquellos con recursos limitados y cero conocimiento técnico. para llevar a cabo sus delitos mediante ataques de ingeniería social, phishing y suplantación de identidad.
La amenaza
La IA generativa tiene el poder de impulsar ciberataques cada vez más sofisticados.
Debido a que la tecnología puede producir contenido tan convincente y similar al humano con facilidad, las nuevas estafas cibernéticas que aprovechan la IA son más difíciles de detectar para los equipos de seguridad. Las estafas generadas por IA pueden presentarse en forma de ataques de ingeniería social, como ataques de phishing multicanal realizados a través de aplicaciones de mensajería y correo electrónico. Un ejemplo del mundo real podría ser un correo electrónico o un mensaje que contenga un documento que se envíe a un ejecutivo corporativo desde un proveedor externo a través de Outlook (correo electrónico) o Slack (aplicación de mensajería). El correo electrónico o mensaje les indica que hagan clic en él para ver una factura. Con IA generativa, puede ser casi imposible distinguir entre un correo electrónico o mensaje falso y real. Por eso es tan peligroso.
Sin embargo, uno de los ejemplos más alarmantes es que con la IA generativa, los ciberdelincuentes pueden producir ataques en varios idiomas, independientemente de si el hacker realmente habla el idioma. El objetivo es lanzar una red amplia y los ciberdelincuentes no discriminarán a las víctimas en función del idioma.
El avance de la IA generativa indica que la escala y la eficiencia de estos ataques seguirán aumentando.
La Defensa
La ciberdefensa para la IA generativa ha sido notoriamente la pieza que faltaba en el rompecabezas. Hasta ahora. Al usar el combate máquina a máquina o unir la IA contra la IA, podemos defendernos contra esta nueva y creciente amenaza. Pero, ¿cómo debe definirse esta estrategia y cómo se ve?
En primer lugar, la industria debe actuar para vincular computadora contra computadora en lugar de ser humano contra computadora. Para continuar con este esfuerzo, debemos considerar plataformas de detección avanzadas que puedan detectar amenazas generadas por IA, reducir el tiempo que lleva marcar y el tiempo que lleva resolver un ataque de ingeniería social que se originó a partir de IA generativa. Algo que un humano no puede hacer.
Recientemente realizamos una prueba de cómo puede verse esto. Hicimos que ChatGPT preparara un correo electrónico de phishing de devolución de llamada basado en el idioma en varios idiomas para ver si una plataforma de comprensión del lenguaje natural o una plataforma de detección avanzada podía detectarlo. Le dimos a ChatGPT el mensaje, "escriba un correo electrónico urgente instando a alguien a llamar sobre un aviso final sobre un acuerdo de licencia de software". También le ordenamos que lo escribiera en inglés y japonés.
La plataforma de detección avanzada pudo marcar inmediatamente los correos electrónicos como un ataque de ingeniería social. PERO, los controles de correo electrónico nativos, como la plataforma de detección de phishing de Outlook, no pudieron. Incluso antes del lanzamiento de ChatGPT, la ingeniería social realizada a través de ataques conversacionales basados en el idioma resultó exitosa porque podían esquivar los controles tradicionales y aterrizar en las bandejas de entrada sin un enlace o carga útil. Entonces, sí, se necesita un combate máquina contra máquina para defenderse, pero también debemos estar seguros de que estamos usando artillería efectiva, como una plataforma de detección avanzada. Cualquiera que tenga estas herramientas a su disposición tiene una ventaja en la lucha contra la IA generativa.
En cuanto a la escala y la verosimilitud de los ataques de ingeniería social que ofrecen ChatGPT y otras formas de IA Generativa, la defensa máquina a máquina también puede perfeccionarse. Por ejemplo, esta defensa puede implementarse en varios idiomas. Además, no tiene por qué limitarse a la seguridad del correo electrónico, sino que puede utilizarse para otros canales de comunicación, como aplicaciones como Slack, WhatsApp, Teams, etc.
No bajar la guardia
Al desplazarse por LinkedIn, uno de nuestros empleados se encontró con un intento de ingeniería social de IA generativa. Apareció un extraño anuncio de descarga de "documento técnico" con lo que solo puede describirse generosamente como creatividad de anuncio "bizarro". Tras una inspección más cercana, el empleado vio un patrón de color revelador en la esquina inferior derecha estampado en las imágenes producidas por Dall-E, un modelo de IA que genera imágenes a partir de indicaciones basadas en texto.
Encontrar este anuncio falso de LinkedIn fue un recordatorio significativo de los nuevos peligros de la ingeniería social que ahora aparecen cuando se combina con la IA generativa. Es más crítico que nunca estar alerta y desconfiar.
La era de la IA generativa que se utiliza para el ciberdelito está aquí, y debemos permanecer atentos y estar preparados para contraatacar con todas las herramientas a nuestra disposición.












