A medida que los bancos despliegan cada vez más herramientas de inteligencia artificial para tomar decisiones crediticias, tienen que volver a examinar un hecho ingrato sobre la práctica de los préstamos: Históricamente, ha estado plagado de sesgos contra características protegidas, como la raza, el género y la orientación sexual. Estos sesgos son evidentes en las decisiones de las instituciones en cuanto a quién obtiene crédito y en qué condiciones. En este contexto, confiar en algoritmos para tomar decisiones de crédito en lugar de aplazar el juicio humano parece una solución obvia. ¿Qué máquinas carecen de calor, seguramente compensan en objetividad, verdad?
Lamentablemente, lo que es cierto en teoría no se ha confirmado en la práctica. Los prestamistas a menudo encuentran que los motores basados en inteligencia artificial exhiben muchos de los mismos sesgos que los humanos. A menudo se les ha alimentado con una dieta de datos parciales de decisión crediticia, extraída de décadas de inequidades en los mercados de vivienda y préstamos. Dejados sin control, amenazan con perpetuar los prejuicios en las decisiones financieras y ampliar las brechas de riqueza del mundo.
El problema del sesgo es endémico, que afecta tanto a las empresas de servicios financieros como a los titulares. Un hito Estudio 2018 realizado en la UC Berkeley encontró que a pesar de que los algoritmos fintech cobran a los prestatarios minoritarios un 40% menos en promedio que los prestamistas presenciales, todavía asignan intereses hipotecarios adicionales a los prestatarios que son miembros de clases protegidas. Recientemente, Singapur, el Reino Unido y algunos países europeos publicaron directrices en las que se exigía a las empresas que promovieran la equidad en su uso de la IA, incluso en los préstamos. Muchos aspectos de la equidad en los préstamos están regulados legalmente en los Estados Unidos, pero los bancos todavía tienen que tomar algunas decisiones en términos de qué métricas de equidad deben priorizarse o despriorizarse y cómo deben abordarla.
Entonces, ¿cómo pueden las instituciones financieras que recurren a la IA revertir la discriminación pasada y, en cambio, fomentar una economía más inclusiva? En nuestro trabajo con empresas de servicios financieros, encontramos que la clave radica en la construcción de sistemas impulsados por IA diseñados para fomentar una menor precisión histórica pero una mayor equidad. Eso significa capacitarlos y probarlos no sólo en los préstamos o hipotecas emitidos en el pasado, sino más bien en cómo debería haberse prestado el dinero en un mundo más equitativo.
El problema es que los humanos a menudo no pueden detectar la injusticia que existe en los conjuntos de datos masivos que analizan los sistemas de aprendizaje automático. Por lo tanto, los prestamistas dependen cada vez más de la IA para identificar, predecir y eliminar los sesgos contra las clases protegidas que inadvertidamente se hornean en algoritmos.
Aquí está cómo:
Elimine el sesgo de los datos antes de crear un modelo.
Una forma intuitiva de eliminar el sesgo de una decisión crediticia es eliminar la discriminación de los datos antes de crear el modelo. Pero esto requiere más ajustes que simplemente eliminar variables de datos que sugieren claramente género u origen étnico, ya que el sesgo anterior tiene efectos que se expanden en todo. Por ejemplo, las muestras de datos sobre préstamos para mujeres suelen ser más pequeñas porque, proporcionalmente, las instituciones financieras han aprobado cada vez menos préstamos a mujeres en los últimos decenios que a hombres con calificaciones crediticias e ingresos equivalentes. Esto da lugar a errores más frecuentes y falsas inferencias para las candidatas subrepresentadas y tratadas de manera diferenciada. Las intervenciones manuales para tratar de corregir el sesgo en los datos también pueden terminar en profecías autocumplidas, ya que los errores o supuestos cometidos pueden repetirse y amplificarse.
Para evitar esto, los bancos pueden ahora utilizar la IA para detectar y corregir patrones de discriminación histórica contra la mujer en los datos brutos, compensando los cambios a lo largo del tiempo alterando deliberadamente estos datos para dar una probabilidad artificial y más equitativa de aprobación. Por ejemplo, al utilizar la IA, un prestamista descubrió que, históricamente, las mujeres tendrían que ganar un 30% más que los hombres en promedio para aprobar préstamos de tamaño equivalente. Utilizó la IA para equilibrar retroactivamente los datos que entraron en el desarrollo y la prueba de su modelo de decisión crediticia impulsado por la IA, cambiando la distribución femenina, moviendo la proporción de préstamos previamente concedidos a mujeres a la misma cantidad que para los hombres con un perfil de riesgo equivalente, manteniendo al mismo tiempo la clasificación relativa. Como resultado de una representación más justa de cómo deberían haberse tomado las decisiones sobre préstamos, el algoritmo desarrollado fue capaz de aprobar préstamos más en consonancia con la forma en que el banco deseaba conceder créditos de manera más equitativa en el futuro.
Elige mejores objetivos para los modelos que discriminan.
Sin embargo, incluso después de ajustar los datos, los bancos a menudo pueden necesitar una capa adicional de defensa para evitar que se arrastren sesgos o rastros restantes de sus efectos. Para lograrlo, «regularizan» un algoritmo de modo que no solo apunta a encajar los datos históricos, sino también a puntuar bien en cierta medida de equidad. Lo hacen al incluir un parámetro adicional que penaliza el modelo si trata las clases protegidas de manera diferente.
Por ejemplo, un banco descubrió al aplicar AI que los solicitantes muy jóvenes y muy viejos no estaban obteniendo el mismo acceso al crédito. Para fomentar decisiones crediticias más justas, el banco diseñó un modelo que requería su algoritmo para minimizar una puntuación de injusticia. La puntuación se basó en la brecha entre los resultados para personas de diferentes grupos de edad con el mismo perfil de riesgo, incluyendo intersecciones entre subgrupos, como las mujeres mayores. Al adoptar este enfoque, el modelo final impulsado por la IA podría cerrar la brecha matemática entre cómo se trata a personas similares de diferentes grupos en un 20%.
Introduce a un adversario impulsado por la IA.
Incluso después de corregir los datos y regularizar el modelo, todavía es posible tener un modelo aparentemente neutral que sigue teniendo un impacto dispar en las clases protegidas y no protegidas. Muchas instituciones financieras dan un paso más y construyen un modelo adicional, llamado «adversario», impulsado por la IA, para ver si puede predecir el sesgo de clase protegida en las decisiones tomadas por el primer modelo. Si el impugnante detecta con éxito alguna característica protegida como raza, etnia, religión, género, sexualidad, discapacidad, estado civil o edad, a partir de la forma en que el primer modelo de crédito trata a un solicitante, entonces se corrige el modelo original.
Por ejemplo, los modelos contradictorios impulsados por IA a menudo pueden detectar códigos postales de minorías étnicas a partir de los resultados de un modelo de crédito propuesto. Esto a menudo puede deberse a una interacción confusa con salarios más bajos asociados con códigos postales superpuestos. De hecho, hemos visto modelos contradictorios que muestran que es probable que un modelo original ofrezca límites más bajos a las aplicaciones de códigos postales asociados a una minoría étnica, incluso si el modelo original o los datos disponibles no tenían la raza o la etnia como entrada para verificar.
En el pasado, estos problemas se habrían tratado intentando cambiar manualmente los parámetros del modelo original. Pero ahora podemos usar la IA como un enfoque automatizado para volver a ajustar el modelo para aumentar la influencia de las variables que contribuyen a la equidad y reducir aquellas que contribuyen al sesgo, en parte agregando segmentos, hasta que el modelo del retador ya no sea capaz de predecir la etnia utilizando códigos postales como proxy. En un caso, esto dio lugar a un modelo que todavía diferenciaba entre los códigos postales, pero redujo la brecha en la tasa de aprobación hipotecaria para algunas etnias en hasta un 70%.
Sin duda, las instituciones financieras deben prestar con prudencia, en función de si la gente está dispuesta a pagar la deuda y es capaz de hacerlo. Pero los prestamistas no deben tratar a las personas de manera diferente si tienen perfiles de riesgo similares, ya sea que esa decisión sea tomada por redes neuronales artificiales o por cerebros humanos. Reducir el sesgo no es solo una búsqueda socialmente responsable, sino que también hace que los negocios sean más rentables. Los primeros en reducir el sesgo a través de la IA tendrán una ventaja competitiva real además de cumplir con su deber moral.
Los algoritmos no pueden decirnos qué definiciones de equidad usar o qué grupos proteger. Dejados a sus propios dispositivos, los sistemas de aprendizaje automático pueden cimentar los mismos sesgos que queremos que eliminen.
Pero la IA no necesita ir desmarcada. Armados con una conciencia más profunda de los sesgos que acechan en los datos y con objetivos que reflejan tanto objetivos financieros como sociales, podemos desarrollar modelos que hagan bien y que hagan bien.
Hay pruebas mensurables de que las decisiones de préstamo basadas en sistemas de aprendizaje automático examinados y ajustados por los pasos descritos anteriormente son más justas que las adoptadas anteriormente por las personas. Una decisión a la vez, estos sistemas están forjando un mundo más equitativo desde el punto de vista financiero.
Fuente: HBR