La IA podría ayudar a la inclusión en la banca

La IA podría ayudar a la inclusión en la banca

Por Elsa Basile - La incorporación de herramientas de IA para tomar decisiones crediticias exige  a las entidades a revisar los sesgos de sus parámetros. Se trata de prejuicios incluidos en los motores de scoring como estado civil, género en otros.  Esto trae una esperanza sobre las decisiones que pueda tomar el algoritmo desarrollado con inteligencia artificial, que, aunque no es tan cálido es más objetivo que un humano.

Pero, la noticia no del todo alentadora, porque  los motores que utilizan las entidades crediticias están basados en muchos de los sesgos humanos, precisamente porque se han nutrido de datos obtenidos de decisiones crediticias sesgadas.

Si bien en países como Estados Unidos los motores de  préstamos están regulados legalmente, los bancos aún tienen que tomar algunas decisiones en términos de qué métricas de equidad deben priorizarse y cómo deben abordarlas.

Entonces, lo que sigue es tratar de comprender cómo la inteligencia artificial podría fomentar una economía más inclusiva.

Antes de empezar se debería eliminar el sesgo de los datos al crear un nuevo modelo. Pero  las intervenciones manuales para intentar corregir el sesgo en los datos también pueden terminar en profecías autocumplidas, ya que los errores o suposiciones pueden repetirse y ampliarse. Para evitar esto, los bancos ahora pueden usar la inteligencia artificial para detectar y corregir patrones de discriminación histórica. Un ejemplo:  un banco descubrió mediante la aplicación de IA que los solicitantes muy jóvenes y mayores no tenían el mismo acceso al crédito. Para enmendarlo el banco diseñó un modelo que requería que su algoritmo minimizara una puntuación injusta.

Lo siguiente, elegir mejores parámetros para modelos que discriminen. Sin embargo, incluso después de que se ajustan los datos, los bancos a menudo pueden necesitar una capa adicional para evitar que el sesgo, o los que datos anteriores se filtren. Para lograr esto, "regularizan" un algoritmo para que su objetivo no solo se ajuste al historial datos, sino también puntuar bien en alguna medida de equidad.

Pero Incluso después de corregir los datos y regularizar el modelo, todavía es posible tener un modelo aparentemente neutral que continúa teniendo un impacto dispar. Por eso, muchas instituciones financieras dan un paso más y construyen un modelo adicional, denominado "adversario", impulsado por IA, para ver si puede predecir el sesgo en las decisiones tomadas por el primer modelo. En caso de detectar alguna característica sesgada de la forma en que el primer modelo de crédito trata a un solicitante, entonces se corrige el modelo original.

Vemos con esperanza cómo la inteligencia artificial podría ayudar a una banca más inclusiva, pero hemos de advertir, que aunque hablamos de tecnología, la decisión humana es la que tiene la última palabra para el paso hacia la inclusión.