Detección de Fraudes Digitales con Inteligencia Artificial
En medio de Covid, la IA es más importante que nunca para la detección de fraude.
La detección de fraude es un desafío sustancial. Esto se debe al hecho de que las transacciones fraudulentas solo pueden representar una fracción muy pequeña de la actividad financiera, lo que hace que encontrarlas sea equivalente a una aguja en un pajar. El uso de sistemas basados en reglas para detectar fraude es muy difícil, ya que es un desafío fenomenal crear una regla que abarque cada transacción anómala. La detección de fraude en cambio se basa en una comprensión de lo que es “normal” y en la capacidad de detectar desviaciones de la actividad estándar.
Para combatir esto, los sistemas de aprendizaje automático (ML) han sido reconocidos durante mucho tiempo como una tecnología clave para la prevención del fraude; pueden procesar una gran cantidad de datos muy rápidamente e identificar las cualidades típicas de las transacciones fraudulentas y no fraudulentas. Por su propio diseño, los modelos ML están destinados a discernir patrones en conjuntos de datos y detectar valores atípicos y anomalías.
Además, los modelos de ML son adaptables, y por lo tanto pueden responder rápidamente a la sofisticada delincuencia organizada, cuyos métodos a menudo cambian rápidamente. Mediante el uso de técnicas de detección de anomalías, los modelos de IA están bien posicionados para observar y responder a patrones cambiantes que indican fraude. Por todas estas razones, no debería sorprender que haya habido una tendencia subyacente dentro de las instituciones financieras, los auditores y los gobiernos hacia la adopción de ML como parte de su infraestructura de detección de fraude.
El último año ha visto esta tendencia se ha acelerado notablemente, culminando en la reciente puesta a disposición general de la plataforma de detección de fraude de Amazon. Uno puede ver el aumento de la tecnología de detección de fraude como una inevitabilidad, en realidad es el caso de que los rápidos desarrollos recientes han sido estimulados en gran parte por los desafíos creados por la pandemia de Covid-19.
Un aumento en el fraude, una reducción de la capacidad
Entre 2020 y 2024, se espera que las pérdidas por fraude de dinero digital aumenten en un 130 por ciento. Se prevé que la cantidad de transacciones fraudulentas podría alcanzar los 10.000 millones de dólares para 2024. La pandemia vio esta tendencia acelerarse notablemente, con su primera fase de marzo a mayo viendo un aumento del 6 por ciento en el fraude digital contra las empresas. Los estafadores han trabajado para explotar la transición repentina que las empresas y los empleados hicieron a principios de este año, con toda la interrupción del negocio y la comunicación que vino con ella.
Al mismo tiempo, muchos de los equipos responsables de monitorear el fraude tuvieron que cambiar rápidamente al trabajo a distancia a principios de este año, y muchos otros fueron puestos en licencia. Esto significa que si bien hubo un aumento en el fraude, que pondría a prueba a los equipos incluso en condiciones comerciales normales, los equipos antifraude se encontraron con poca mano de obra y tuvieron que operar en un entorno desconocido.
Esto hizo de la pandemia un momento perfecto para que muchas organizaciones aceleraran la implementación de plataformas de IA para la detección de fraude. El gran potencial que tiene la IA para los procesos de detección de fraude significaba que era inevitable una mayor adopción de los modelos de IA, pero la pandemia ha acelerado esta tendencia al crear un impulso a corto plazo para que las empresas automaticen y adopten la IA.
Desafíos que enfrenta la IA para la detección de fraude
Implementar y escalar la IA entre los equipos de lucha contra el fraude plantea algunos desafíos novedosos, que los tecnólogos y los equipos tienen que considerar a fondo. Más allá del mero desafío técnico de implementar modelos de IA entre los equipos, la IA también presenta una serie de problemas regulatorios, de cumplimiento y éticos.
Uno de esos problemas es el de la explicabilidad. Cuando se trata de detectar y probar una transacción fraudulenta, es importante que los equipos puedan explicar qué características de una transacción parecen ser fraudulentas. Sin embargo, si se implementa incorrectamente, la IA puede poner en peligro la explicabilidad. Esto se debe a que los “modelos de aprendizaje profundo” más avanzados, como las redes neuronales, pueden consistir en representaciones matemáticas altamente complejas que pueden hacerlas difíciles o casi imposibles de interpretar mirando sus representaciones internas, convirtiéndola en una “caja negra”.
Una brecha de explicabilidad de cualquier tipo abre el margen para que una IA también comience a detectar casos de falsos positivos, con operadores humanos incapaces de examinar las razones por las que la IA lo hizo. Esto podría perjudicar en última instancia a los clientes normales que solo buscan hacer una compra por encima de la borda, lo que a su vez los alejará del negocio.
Otro problema es que sin un desarrollo y funcionamiento adecuados, una IA puede hacer predicciones basadas en sesgos no deseados. Si no se controlan, estos sesgos no deseados pueden convertirse en una discriminación abierta sobre la base de rasgos como la raza, el sexo u otras características protegidas. Esto se debe a que el proceso de toma de decisiones de una IA se decide en última instancia por los datos con los que está “entrenada” – si estos datos de capacitación no son representativos o están sesgados de alguna manera, entonces una IA en última instancia heredará tales sesgos y emitirá juicios sobre esa base.
Los desafíos de explicabilidad y sesgo probablemente plantearán desafíos difíciles y apremiantes para muchos proveedores de servicios financieros, especialmente dado que muchos habrán tenido que ampliar sus plataformas de detección de fraude de IA tan rápidamente debido a la crisis. Afortunadamente, existen herramientas y mejores prácticas para ayudar a los equipos a garantizar que sus modelos sigan siendo explicables y evitar sesgos, como técnicas de explicabilidad y bibliotecas que ayudan a explicar y codificar exactamente lo que está sucediendo en la “caja negra” de la IA.
Otra práctica que está bien posicionada para abordar estos problemas es el modelo de prueba e implementación “humano en el bucle”. Esto implica que los seres humanos curan cuidadosamente los datos utilizados para entrenar a la IA, involucrándose en ajustar regularmente el modelo de IA para refinar sus predicciones, y también probar regularmente el rendimiento del modelo. Cuando se implementa, un modelo humano en el bucle garantiza que un agente responsable nunca esté lejos de la toma de decisiones de una IA, para monitorear y asegurar que sus decisiones sean explicables y éticamente sólidas. Human-in-the-loop también garantiza que haya alguien que rinda cuentas de las decisiones tomadas por las plataformas de IA implementadas en el contexto de la detección de fraude.
La crisis ha demostrado ser un período crucial para la adopción de la IA para la detección de fraude. No se trata de un cambio temporal, sino de una transición duradera que solo se ha acelerado debido a la necesidad económica. A través de la adopción de buenas prácticas, como el ser humano en el bucle, los proveedores de servicios financieros pueden garantizar que sus plataformas de IA tengan problemas mínimos de dentición y demostrar ser no solo un ungüento a corto plazo, sino un cambio de juego para sus negocios a largo plazo.