El Salvaje Oeste tenía pistoleros, robos de bancos y recompensas: la frontera digital de hoy tiene robo de identidad, fraude con tarjetas de crédito y devoluciones de cargos.
Sacar provecho del fraude financiero se ha convertido en una empresa criminal multimillonaria. Y la IA generativa en manos de los estafadores solo promete hacer que esto sea más rentable.
Se espera que las pérdidas de tarjetas de crédito en todo el mundo alcancen los 43.000 millones de dólares en 2026, según el Informe Nilson.
El fraude financiero se perpetra de un número creciente de formas, como la recolección de datos pirateados de la dark web para el robo de tarjetas de crédito, el uso de IA generativa para phishing de información personal y el lavado de dinero entre criptomonedas, billeteras digitales y monedas fiduciarias. Muchos otros esquemas financieros están al acecho en el submundo digital.
Para mantenerse al día, las empresas de servicios financieros están utilizando la IA para la detección de fraudes. Esto se debe a que muchos de estos delitos digitales deben detenerse en tiempo real para que los consumidores y las empresas financieras puedan detener las pérdidas de inmediato.
Entonces, ¿cómo se utiliza la IA para la detección de fraudes?
La IA para la detección de fraudes utiliza múltiples modelos de machine learning para detectar anomalías en los comportamientos y conexiones de los clientes, así como patrones de cuentas y comportamientos que se ajustan a las características fraudulentas.
La IA Generativa Puede Ser Aprovechada Como Copiloto de Fraude
Gran parte de los servicios financieros involucran mensajes de texto y números. La IA generativa y los grandes modelos de lenguaje (LLM), capaces de aprender significado y contexto, prometen capacidades disruptivas en todas las industrias con nuevos niveles de producción y productividad. Las empresas de servicios financieros pueden aprovechar la IA generativa para desarrollar chatbots más inteligentes y capaces y mejorar la detección de fraudes.
En el lado opuesto, los estafadores pueden eludir las barreras de seguridad de la IA con astutas indicaciones de IA generativa para usarla para el fraude. Y los LLM están ofreciendo una escritura similar a la humana, lo que permite a los estafadores redactar correos electrónicos más relevantes contextualmente sin errores tipográficos ni gramaticales. Se pueden crear rápidamente muchas versiones personalizadas diferentes de correos electrónicos de phishing, lo que hace que la IA generativa sea un excelente copiloto para perpetrar estafas. También hay una serie de herramientas de la dark web como FraudGPT, que pueden explotar la IA generativa para cometer ciberdelitos.
La IA generativa también puede ser explotada para causar daños financieros en las medidas de seguridad de autenticación de voz. Algunos bancos están utilizando la autenticación de voz para ayudar a autorizar a los usuarios. La voz de un cliente bancario puede clonarse utilizando tecnología deep fake si un atacante puede obtener muestras de voz en un esfuerzo por violar dichos sistemas. Los datos de voz se pueden recopilar con llamadas telefónicas no deseadas que intentan atraer al destinatario de la llamada para que responda por voz.
Las estafas de chatbots son un problema tal que la Comisión Federal de Comercio de EE. UU. expresó su preocupación por el uso de LLM y otras tecnologías para simular el comportamiento humano para videos falsos profundos y clones de voz aplicados en estafas de impostores y fraudes financieros.
¿Cómo Aborda la IA Generativa el Uso Indebido y la Detección de Fraudes?
La revisión de fraudes tiene una nueva y poderosa herramienta. Los trabajadores que manejan las revisiones manuales de fraude ahora pueden ser asistidos con asistentes basados en LLM que ejecutan RAG en el backend para aprovechar la información de los documentos de políticas que pueden ayudar a acelerar la toma de decisiones sobre si los casos son fraudulentos, acelerando enormemente el proceso.
Los LLM se están adoptando para predecir la próxima transacción de un cliente, lo que puede ayudar a las empresas de pagos a evaluar preventivamente los riesgos y bloquear las transacciones fraudulentas.
La IA generativa también ayuda a combatir el fraude en las transacciones al mejorar la precisión, generar informes, reducir las investigaciones y mitigar el riesgo de cumplimiento.
La generación de datos sintéticos es otra aplicación importante de la IA generativa para la prevención del fraude. Los datos sintéticos pueden mejorar el número de registros de datos utilizados para entrenar modelos de detección de fraude y aumentar la variedad y sofisticación de los ejemplos para enseñar a la IA a reconocer las últimas técnicas empleadas por los estafadores.
NVIDIA ofrece herramientas para ayudar a las empresas a adoptar la IA generativa para crear chatbots y agentes virtuales con un workflow que utiliza la generación aumentada de recuperación. RAG permite a las empresas utilizar indicaciones en lenguaje natural para acceder a vastos conjuntos de datos para la recuperación de información.
El aprovechamiento de los workflows de IA de NVIDIA puede ayudar a acelerar la creación y la implementación de capacidades de nivel empresarial para producir respuestas precisas para varios casos de uso, utilizando modelos de base, el framework NVIDIA NeMo, el Servidor de Inferencia NVIDIA Triton y la base de datos vectorial acelerada por GPU para implementar chatbots con tecnología RAG.
La industria se centra en la seguridad para garantizar que la IA generativa no se explote fácilmente para hacer daño. NVIDIA lanzó NeMo Guardrails para ayudar a garantizar que las aplicaciones inteligentes impulsadas por LLM, como ChatGPT de OpenAI, sean precisas, apropiadas, acordes con el tema y seguras.
El software de código abierto está diseñado para ayudar a evitar que las aplicaciones impulsadas por IA sean explotadas para cometer fraudes y otros usos indebidos.
¿Cuáles Son los Beneficios de la IA para la Detección de Fraudes?
La detección del fraude ha sido un reto en la banca, las finanzas, el comercio minorista y el comercio electrónico. El fraude no solo perjudica financieramente a las organizaciones, sino que también puede dañar la reputación.
También es un dolor de cabeza para los consumidores cuando los modelos de fraude de las empresas de servicios financieros reaccionan de forma exagerada y registran falsos positivos que cierran transacciones legítimas.
Por lo tanto, los sectores de servicios financieros están desarrollando modelos más avanzados que utilizan más datos para fortalecerse contra las pérdidas financieras y de reputación. También tienen como objetivo reducir los falsos positivos en la detección de fraudes para las transacciones con el fin de mejorar la satisfacción del cliente y ganar una mayor participación entre los comerciantes.
Las Empresas de Servicios Financieros Adoptan la IA para la Verificación de Identidad
El sector de los servicios financieros está desarrollando la IA para la verificación de la identidad. Las aplicaciones impulsadas por IA que utilizan el deep learning con redes grafos neuronales (GNN), el procesamiento del lenguaje natural (NLP) y la visión artificial pueden mejorar la verificación de la identidad para los requisitos de conocimiento del cliente (KYC) y contra el blanqueo de capitales (AML), lo que conduce a un mejor cumplimiento normativo y a una reducción de los costes.
La visión artificial analiza la documentación fotográfica, como las licencias de conducir y los pasaportes, para identificar las falsificaciones. Al mismo tiempo, NLP lee los documentos para medir la veracidad de los datos de los documentos a medida que la IA los analiza para buscar registros fraudulentos.
Las ganancias en los requisitos de KYC y AML tienen enormes implicaciones regulatorias y económicas. Las instituciones financieras, incluidos los bancos, fueron multadas con casi 5.000 millones de dólares por AML, incumplimiento de sanciones y fallos en los sistemas KYC en 2022, según el Financial Times.
Aprovechamiento de las Redes Grafo Neuronales y las GPU NVIDIA
Las GNN han sido aceptadas por su capacidad para revelar actividades sospechosas. Son capaces de analizar miles de millones de registros e identificar patrones de actividad previamente desconocidos para establecer correlaciones sobre si una cuenta ha enviado en el pasado una transacción a una cuenta sospechosa.
NVIDIA tiene una alianza con el equipo de Deep Graph Library, así como con el equipo de PyTorch Geometric, que proporciona una oferta en contenedores de marco GNN que incluye las últimas actualizaciones, bibliotecas NVIDIA RAPIDS y más para ayudar a los usuarios a mantenerse actualizados sobre técnicas de vanguardia.
Estos contenedores de marco GNN están optimizados para NVIDIA y han ajustado el rendimiento y se han probado para aprovechar al máximo las GPU de NVIDIA.
Con acceso a la plataforma de software NVIDIA AI Enterprise, los desarrolladores pueden aprovechar NVIDIA RAPIDS, Servidor de Inferencia NVIDIA Triton y el kit de desarrollo de software NVIDIA TensorRT para respaldar implementaciones empresariales a escala.
Mejora de la Detección de Anomalías con GNN
Los estafadores tienen técnicas sofisticadas y pueden aprender formas de burlar los sistemas de detección de fraude. Una forma es desencadenando complejas cadenas de transacciones para pasar desapercibidas. Aquí es donde los sistemas tradicionales basados en reglas pueden pasar por alto patrones y fallar.
Las GNN se basan en un concepto de representación dentro del modelo de estructura local y contexto de características. La información de las entidades en el edge y nodo se propaga con agregación y paso de mensajes entre nodos vecinos.
Cuando las GNN ejecutan varias capas de convolución de grafos, los estados finales de los nodos contienen información de los nodos a varios saltos de distancia. El campo receptivo más amplio de las GNN puede rastrear las cadenas de transacciones más complejas y largas utilizadas por los perpetradores de fraude financiero en un intento de ocultar sus huellas.
Las GNN Permiten la Formación no Supervisada o Autosupervisada
La detección de patrones de fraude financiero a gran escala se ve desafiada por las decenas de terabytes de datos de transacciones que deben analizarse en un abrir y cerrar de ojos y una relativa falta de datos etiquetados para la actividad de fraude real necesaria para entrenar modelos.
Si bien las GNN pueden lanzar una red de detección más amplia sobre los patrones de fraude, también pueden capacitarse en una tarea no supervisada o autosupervisada.
Mediante el uso de técnicas como Bootstrapped Graph Latents, un método de aprendizaje de representación de grafos, o la predicción de enlaces con muestreo negativo, los desarrolladores de GNN pueden preentrenar modelos sin etiquetas y ajustar modelos con muchas menos etiquetas, produciendo representaciones gráficas sólidas. El resultado de esto se puede utilizar para modelos como XGBoost, GNN o técnicas de agrupamiento, lo que ofrece mejores resultados cuando se implementa para la inferencia.
Abordar la Explicabilidad y el Sesgo del Modelo
Las GNN también permiten la explicabilidad del modelo con un conjunto de herramientas. La IA explicable es una práctica de la industria que permite a las organizaciones utilizar dichas herramientas y técnicas para explicar cómo los modelos de IA toman decisiones, lo que les permite protegerse contra el sesgo.
El transformador de grafos heterogéneos y la red de atención de grafos, que son modelos GNN, permiten mecanismos de atención en cada capa de la GNN, lo que permite a los desarrolladores identificar las rutas de mensajes que utilizan las GNN para llegar a un resultado final.
Incluso sin un mecanismo de atención, se han sugerido técnicas como GNNExplainer, PGExplainer y GraphMask para explicar las salidas de GNN.
Las Principales Empresas de Servicios Financieros Adoptan la IA para Obtener Ganancias
- American Express: se mejoró la precisión de la detección de fraudes en un 6 % con modelos de deep learning y se utilizó NVIDIA TensorRT en el Servidor de Inferencia NVIDIA Triton.
- BNY Mellon: Bank of New York Mellon mejoró la precisión de la detección de fraudes en un 20% con el aprendizaje federado. BNY creó un framework colaborativo de detección de fraudes que ejecuta la computación multipartita segura de Inpher, que protege los datos de terceros en los sistemas NVIDIA DGX.
- PayPal: PayPal buscaba un nuevo sistema de detección de fraude que pudiera operar en todo el mundo de forma continua para proteger las transacciones de los clientes de posibles fraudes en tiempo real. La compañía ofreció un nuevo nivel de servicio, utilizando la inferencia impulsada por GPU NVIDIA para mejorar la detección de fraudes en tiempo real en un 10% y reducir la capacidad del servidor casi 8 veces.
- Swedbank: Entre los bancos más grandes de Suecia, Swedbank entrenó redes generativas adversarias impulsadas por GPU de NVIDIA para detectar actividades sospechosas en un esfuerzo por detener el fraude y el lavado de dinero, ahorrando 150 millones de dólares en un solo año.
Descubre cómo NVIDIA AI Enterprise aborda la detección de fraudes en este seminario web.