Los analistas humanos ya no pueden defenderse eficazmente contra la creciente velocidad y complejidad de los ataques de ciberseguridad. La cantidad de datos es simplemente demasiado grande para filtrarla manualmente.
La IA generativa, la herramienta más transformadora de nuestro tiempo, permite una especie de jiu jitsu digital. Permite a las empresas convertir la fuerza de los datos que amenazan con abrumarlas en una fuerza que fortalece sus defensas.
Los líderes empresariales parecen estar listos para la oportunidad que se les presenta. En una encuesta reciente, los CEOs dijeron que la ciberseguridad es una de sus tres principales preocupaciones, y ven la IA generativa como una tecnología líder que ofrecerá ventajas competitivas.
La IA generativa conlleva riesgos y beneficios. Un blog anterior describía seis pasos para iniciar el proceso de seguridad de la IA empresarial.
Aquí hay tres formas en que la IA generativa puede reforzar la ciberseguridad.
Comience con los Desarrolladores
En primer lugar, proporcione a los desarrolladores un copiloto de seguridad.
Todo el mundo desempeña un papel en la seguridad, pero no todo el mundo es un experto en seguridad. Entonces, este es uno de los lugares más estratégicos para comenzar.
El mejor lugar para comenzar a reforzar la seguridad es en el front-end, donde los desarrolladores escriben software. Un asistente impulsado por IA, capacitado como experto en seguridad, puede ayudarlos a garantizar que su código siga las mejores prácticas de seguridad.
El asistente de software de IA puede volverse más inteligente cada día si se alimenta de código previamente revisado. Puede aprender de trabajos anteriores para ayudar a guiar a los desarrolladores sobre las mejores prácticas.
Para dar una ventaja a los usuarios, NVIDIA está creando un workflow para crear dichos copilotos o chatbots. Este workflow en particular utiliza componentes de NVIDIA NeMo, un framework para crear y personalizar grandes modelos de lenguaje.
Ya sea que los usuarios personalicen sus propios modelos o utilicen un servicio comercial, un asistente de seguridad es solo el primer paso para aplicar la IA generativa a la ciberseguridad.
Un Agente para Analizar Vulnerabilidades
En segundo lugar, deje que la IA generativa ayude a navegar por el mar de vulnerabilidades de software conocidas.
En cualquier momento, las empresas deben elegir entre miles de parches para mitigar los exploits conocidos. Esto se debe a que cada fragmento de código puede tener raíces en docenas, si no miles, de ramas de software diferentes y proyectos de código abierto.
Un LLM centrado en el análisis de vulnerabilidades puede ayudar a priorizar qué parches debe implementar primero una empresa. Es un asistente de seguridad particularmente poderoso porque lee todas las bibliotecas de software que utiliza una empresa, así como sus políticas sobre las funciones y API que admite.
Para probar este concepto, NVIDIA creó un pipeline para analizar los contenedores de software en busca de vulnerabilidades. El agente identificó las áreas que necesitaban parches con alta precisión, lo que aceleró el trabajo de los analistas humanos hasta 4 veces.
La conclusión es clara. Es hora de recurrir a la IA generativa como primera respuesta en el análisis de vulnerabilidades.
Llene el Vacío de Datos
Por último, utilice los LLM para ayudar a llenar la creciente brecha de datos en ciberseguridad.
Los usuarios rara vez comparten información sobre violaciones de datos porque son muy sensibles. Eso hace que sea difícil anticipar los exploits.
Los modelos de IA generativa pueden crear datos sintéticos para simular patrones de ataque nunca antes vistos. Estos datos sintéticos también pueden llenar los vacíos en los datos de entrenamiento para que los sistemas de machine learning aprendan a defenderse de los exploits antes de que ocurran.
Puesta en Escena de Simulaciones Seguras
No esperes a que los atacantes demuestren lo que es posible. Cree simulaciones seguras para aprender cómo podrían intentar penetrar las defensas corporativas.
Este tipo de defensa proactiva es el sello distintivo de un programa de seguridad sólido. Los adversarios ya están utilizando la IA generativa en sus ataques. Es hora de que los usuarios aprovechen esta poderosa tecnología para la defensa de la ciberseguridad.
Para mostrar lo que es posible, otro workflow de IA utiliza IA generativa para defenderse contra el spear phishing, los correos electrónicos falsos cuidadosamente dirigidos que cuestan a las empresas un estimado de $ 2.4 mil millones solo en 2021.
Este workflow generó correos electrónicos sintéticos para asegurarse de que tenía muchos buenos ejemplos de mensajes de spear phishing. El modelo de IA entrenado con esos datos aprendió a comprender la intención de los correos electrónicos entrantes a través de las capacidades de procesamiento de lenguaje natural en NVIDIA Morpheus, un framework para la ciberseguridad impulsada por IA.
El modelo resultante detectó un 21% más de correos electrónicos de spear phishing que las herramientas existentes. Echa un vistazo a nuestro blog para desarrolladores o mira el siguiente vídeo para obtener más información.
Dondequiera que los usuarios decidan comenzar este trabajo, la automatización es crucial, dada la escasez de expertos en ciberseguridad y los miles y miles de usuarios y casos de uso que las empresas deben proteger.
Estas tres herramientas (asistentes de software, analistas de vulnerabilidades virtuales y simulaciones de datos sintéticos) son excelentes puntos de partida para aplicar la IA generativa a un viaje de seguridad que continúa todos los días.
Pero esto es solo el comienzo. Las empresas necesitan integrar la IA generativa en todas las capas de sus defensas.
Asista a un seminario web para obtener más detalles sobre cómo comenzar.