Cómo la IA Basada em Agentes Permite el Siguiente Salto en Ciberseguridad

La pila de seguridad de IA de NVIDIA permite la confianza, el control y la gobernanza para sistemas de agentes avanzados.
por David Reber Jr.

La IA basada en agentes está redefiniendo el panorama de la ciberseguridad, introduciendo nuevas oportunidades que exigen replantearse cómo proteger la IA y, al mismo tiempo, ofrecer las claves para abordar esos desafíos.

A diferencia de los sistemas de IA estándar, los agentes de IA pueden realizar acciones autónomas, interactuando con herramientas, entornos, otros agentes y datos confidenciales. Esto ofrece nuevas oportunidades para los defensores, pero también introduce nuevas clases de riesgos. Las empresas ahora deben adoptar un doble enfoque: defenderse con y contra la IA basada en agentes.

Creación de Defensa de la Ciberseguridad con IA Basada en Agentes

Los equipos de ciberseguridad están cada vez más abrumados por la escasez de talento y el creciente volumen de alertas. La IA basada en agentes ofrece nuevas formas de reforzar la detección de amenazas, la respuesta y la seguridad de la IA, y requiere un giro fundamental en los cimientos del ecosistema de ciberseguridad.

Los sistemas de IA basada en agentes pueden percibir, razonar y actuar de forma autónoma para resolver problemas complejos. También pueden servir como colaboradores inteligentes para que los expertos cibernéticos protejan los activos digitales, mitiguen los riesgos en los entornos empresariales y aumenten la eficiencia en los centros de operaciones de seguridad. Esto libera a los equipos de ciberseguridad para que se centren en decisiones de alto impacto, lo que les ayuda a ampliar su experiencia y, al mismo tiempo, reduce potencialmente el agotamiento de la equipo laboral.

Por ejemplo, los agentes de IA pueden reducir el tiempo necesario para responder a las vulnerabilidades de seguridad del software investigando el riesgo de una nueva vulnerabilidad o exposición común en cuestión de segundos. Pueden buscar recursos externos, evaluar entornos y resumir y priorizar los hallazgos para que los analistas humanos puedan tomar medidas rápidas e informadas.

Organizaciones líderes como Deloitte están utilizando NVIDIA AI Blueprint para el análisis de vulnerabilidades, NVIDIA NIM y NVIDIA Morpheus para permitir a sus clientes acelerar la aplicación de parches de software y la gestión de vulnerabilidades. AWS también colaboró con NVIDIA para crear una arquitectura de referencia de código abierto utilizando este modelo de IA de NVIDIA para la aplicación de parches de seguridad de software en entornos de nube de AWS.

Los agentes de IA también pueden mejorar la clasificación de alertas de seguridad. La mayoría de los centros de operaciones de seguridad se enfrentan a un número abrumador de alertas todos los días, y separar las señales críticas del ruido es lento, repetitivo y depende del conocimiento y la experiencia institucional.

Los principales proveedores de seguridad están utilizando el software de IA de NVIDIA para avanzar en la IA basada en agentes en la ciberseguridad, incluidos CrowdStrike y Trend Micro. Charlotte AI Detection Triage de CrowdStrike ofrece un triaje de detección 2 veces más rápido con un 50% menos de cómputo, lo que reduce la fatiga de las alertas y optimiza la eficiencia del centro de operaciones de seguridad.

Los sistemas basados en agentes pueden ayudar a acelerar todo el workflow, analizando alertas, recopilando contexto de las herramientas, razonando sobre las causas raíz y actuando en función de los hallazgos, todo en tiempo real. Incluso pueden ayudar a incorporar nuevos analistas capturando el conocimiento experto de analistas experimentados y convirtiéndolo en acción.

Las empresas pueden crear agentes de clasificación de alertas utilizando el NVIDIA AI-Q Blueprint para conectar agentes de IA a los datos empresariales y el kit de herramientas NVIDIA Agent Intelligence, una biblioteca de código abierto que acelera el desarrollo de agentes de IA y optimiza los workflows.

Protección de las Aplicaciones de IA Basada en Agentes

Los sistemas de IA basada en agentes no solo analizan la información, sino que razonan y actúan en consecuencia. Esto introduce nuevos desafíos de seguridad: los agentes pueden acceder a herramientas, generar salidas que desencadenan efectos posteriores o interactuar con datos confidenciales en tiempo real. Para garantizar que se comportan de forma segura y predecible, las organizaciones necesitan pruebas previas a la implementación y controles de tiempo de ejecución.

Red teaming y las pruebas ayudan a identificar las debilidades en la forma en que los agentes interpretan las indicaciones, usan herramientas o manejan entradas inesperadas, antes de que entren en producción. Esto también incluye sondear qué tan bien los agentes siguen las restricciones, se recuperan de errores y resisten ataques manipuladores o adversarios.

Garak, un escáner de vulnerabilidades de grandes modelos de lenguaje, permite realizar pruebas automatizadas de agentes basados en LLM mediante la simulación del comportamiento de los adversarios, como la inyección de avisos, el uso indebido de herramientas y los errores de razonamiento.

Las barreras de protección en tiempo de ejecución proporcionan una forma de hacer cumplir los límites de las políticas, limitar los comportamientos inseguros y alinear rápidamente las salidas de los agentes con los objetivos de la empresa. El software NVIDIA NeMo Guardrails permite a los desarrolladores definir, implementar y actualizar rápidamente fácilmente las reglas que rigen lo que los agentes de IA pueden decir y hacer. Esta adaptabilidad de bajo costo y bajo esfuerzo garantiza una respuesta rápida y eficaz cuando se detectan problemas, manteniendo el comportamiento de los agentes consistente y seguro en la producción.

Empresas líderes como Amdocs, Cerence AI y Palo Alto Networks están aprovechando NeMo Guardrails para ofrecer experiencias de agente confiables a sus clientes.

Las protecciones en tiempo de ejecución ayudan a proteger los datos confidenciales y las acciones de los agentes durante la ejecución, lo que garantiza operaciones seguras y confiables. La Computación Confidencial de NVIDIA ayuda a proteger los datos mientras se procesan en tiempo de ejecución, es decir, proteger los datos en uso. Esto reduce el riesgo de exposición durante el entrenamiento y la inferencia para modelos de IA de todos los tamaños.

La Computación Confidencial de NVIDIA está disponible en los principales proveedores de servicios a nivel mundial, incluidos Google Cloud y Microsoft Azure, y próximamente estará disponible en otros proveedores de servicios en la nube.

La base de cualquier aplicación de IA basada en agentes es el conjunto de herramientas de software, bibliotecas y servicios utilizados para construir la pila de inferencia. La plataforma de software NVIDIA AI Enterprise se produce utilizando un proceso de ciclo de vida del software que mantiene la estabilidad de la interfaz de programación de aplicaciones al tiempo que aborda las vulnerabilidades a lo largo del ciclo de vida del software. Esto incluye análisis de código regulares y la publicación oportuna de parches de seguridad o mitigaciones.

La autenticidad y la integridad de los componentes de IA en la cadena de suministro son fundamentales para aumentar la confianza entre los sistemas de IA basada en agentes. La pila de software de NVIDIA AI Enterprise incluye firmas de contenedores, firma de modelos y una lista de materiales de software para permitir la verificación de estos componentes.

Cada una de estas tecnologías proporciona capas adicionales de seguridad para proteger los datos críticos y los modelos valiosos en múltiples entornos de implementación, desde las instalaciones hasta la nube.

Protección de la Infraestructura de Agentes

A medida que los sistemas de IA basada en agentes se vuelven más autónomos e integrados en los workflows empresariales, la infraestructura en la que confían se convierte en una parte fundamental de la ecuación de seguridad. Ya sea que se implemente en un data center, en el edge o en una fábrica, la IA basada en agentes necesita una infraestructura que pueda reforzar el aislamiento, la visibilidad y el control, por diseño.

Los sistemas basados en agentes, por diseño, operan con una autonomía significativa, lo que les permite realizar acciones impactantes que pueden ser tanto beneficiosas como potencialmente dañinas. Esta autonomía inherente  requiere la protección de las cargas de trabajo en tiempo de ejecución, la supervisión operativa y la aplicación estricta de los principios de confianza cero para proteger estos sistemas de forma eficaz.

Las DPU NVIDIA BlueField, combinadas con NVIDIA DOCA Argus, proporcionan un framework que permite a las aplicaciones acceder a una visibilidad completa y en tiempo real del comportamiento de la carga de trabajo de los agentes y identificar con precisión las amenazas a través de análisis forenses de memoria avanzados. La implementación de controles de seguridad directamente en las DPU BlueField, en lugar de en las CPU de los servidores, aísla aún más las amenazas a nivel de infraestructura, lo que reduce sustancialmente el radio de explosión de los posibles compromisos y refuerza una arquitectura integral de seguridad en todas partes.

Los integradores también utilizan la Computación Confidencial de NVIDIA para fortalecer las bases de seguridad de la infraestructura de agentes. Por ejemplo, EQTYLab desarrolló un nuevo sistema de certificados criptográficos que proporciona la primera gobernanza en silicio para garantizar que los agentes de IA cumplan con las normas en tiempo de ejecución. Se presentó en RSA como uno de los 10 mejores RSA Innovation Sandbox destinatario.

La Computación Confidencial de NVIDIA es compatible con las GPU NVIDIA Hopper y NVIDIA Blackwell, por lo que las tecnologías de aislamiento ahora se pueden extender a la máquina virtual confidencial cuando los usuarios pasan de una sola GPU a varias GPU.

Secure AI es proporcionada por Protected PCIe y se basa en la Computación Confidencial de NVIDIA, lo que permite a los clientes escalar las cargas de trabajo de una sola GPU a ocho GPU. Esto permite a las empresas adaptarse a sus necesidades de IA basada en agentes y, al mismo tiempo, ofrecer seguridad de la manera más eficaz.

Estos componentes de infraestructura admiten la atestación local y remota, lo que permite a los clientes verificar la integridad de la plataforma antes de implementar cargas de trabajo confidenciales.

Estas capacidades de seguridad son especialmente importantes en entornos como las fábricas de IA, donde los sistemas basados en agentes están comenzando a impulsar la automatización, el monitoreo y la toma de decisiones en el mundo real. Cisco es pionero en la infraestructura de IA segura mediante la integración de las DPU NVIDIA BlueField, formando la base de Cisco Secure AI Factory con NVIDIA para ofrecer implementaciones de IA escalables, seguras y eficientes para las empresas.

La extensión de la IA basada en agentes a los sistemas ciberfísicos aumenta lo que está en juego, ya que los compromisos pueden afectar directamente el tiempo de actividad, la seguridad y la integridad de las operaciones físicas. Socios líderes como Armis, Check Point, CrowdStrike, Deloitte, Forescout, Nozomi Networks y World Wide Technology están integrando las tecnologías de IA de ciberseguridad de pila completa de NVIDIA para ayudar a los clientes a reforzar la infraestructura crítica contra las amenazas cibernéticas en industrias como la energía, los servicios públicos y la manufactura.

Generar Confianza a Medida que la IA Pasa a la Acción

Hoy en día, todas las empresas deben asegurarse de que sus inversiones en ciberseguridad incorporen la IA para proteger los workflows del futuro. Cada carga de trabajo debe acelerarse para finalmente dar a los defensores las herramientas para operar a la velocidad de la IA.

NVIDIA está incorporando las capacidades de IA y seguridad en las bases tecnológicas para que los socios del ecosistema ofrezcan soluciones de ciberseguridad impulsadas por IA. Este nuevo ecosistema permitirá a las empresas crear sistemas seguros y escalables de IA basada en agentes.