El diario El País publicaba el 1 de febrero de 2017, es decir, hace ya un año, que una start up había logrado automatizar el análisis de riesgo de crédito a pymes gracias al big data y a la inteligencia artificial (ver enlace).
https://cincodias.elpais.com/cincodias/2017/02/01/empresas/1485971052_790983.html
Se trata de un algoritmo que analiza el riesgo de las empresas que solicitan financiación eliminando la barrera del tiempo de respuesta (de media las entidades tardan en dar una respuesta entre 2 y 4 semanas), reduciendo costes en torno al 60-80% y, según sus creadores, lo más importante para cualquier entidad financiera, alcanzar niveles de morosidad < 2% ( la media de la banca está en el 7%).
Este algoritmo utilizan más de 500 millones de datos de una serie histórica de 10 años partiendo de una base de datos de más de 60.000 empresas, algunas de las cuales presentaron concurso de acreedores. De esta manera, establece patrones y el sistema encuentra correlaciones para predecir la probabilidad de default. Este programa ha recogido datos de la crisis de 2008 para poder anticiparse a otra posible crisis y funciona como una machine learning; es decir, a más información en más tiempo, mejores predicciones porque aprende por sí mismo.
No es ciencia ficción, es una realidad que están estudiando implantar entidades financieras por tres motivos fundamentales: ahorro de costes, menores tiempos de respuesta y reducción de morosidad.
Todo esto me hace recordar el duelo hace más de 20 años entre el campeón del mundo de ajedrez Kasparov y la computadora Deep Blue. En esa fecha el hombre ganó a la máquina pero era cuestión de tiempo que cambiara el vencedor.
El buen análisis es un arte con grandes dosis de inteligencia emocional, y ésta es una característica que todavía no poseen los algoritmos matemáticos. Pero, sin duda, el analista tendrá que especializarse aún más y se centrará en analizar operaciones de mayor complejidad puesto que las renovaciones de circulante serán tarea de los bots.
https://cincodias.elpais.com/cincodias/2017/02/01/empresas/1485971052_790983.html
Se trata de un algoritmo que analiza el riesgo de las empresas que solicitan financiación eliminando la barrera del tiempo de respuesta (de media las entidades tardan en dar una respuesta entre 2 y 4 semanas), reduciendo costes en torno al 60-80% y, según sus creadores, lo más importante para cualquier entidad financiera, alcanzar niveles de morosidad < 2% ( la media de la banca está en el 7%).
Este algoritmo utilizan más de 500 millones de datos de una serie histórica de 10 años partiendo de una base de datos de más de 60.000 empresas, algunas de las cuales presentaron concurso de acreedores. De esta manera, establece patrones y el sistema encuentra correlaciones para predecir la probabilidad de default. Este programa ha recogido datos de la crisis de 2008 para poder anticiparse a otra posible crisis y funciona como una machine learning; es decir, a más información en más tiempo, mejores predicciones porque aprende por sí mismo.
No es ciencia ficción, es una realidad que están estudiando implantar entidades financieras por tres motivos fundamentales: ahorro de costes, menores tiempos de respuesta y reducción de morosidad.
Todo esto me hace recordar el duelo hace más de 20 años entre el campeón del mundo de ajedrez Kasparov y la computadora Deep Blue. En esa fecha el hombre ganó a la máquina pero era cuestión de tiempo que cambiara el vencedor.
El buen análisis es un arte con grandes dosis de inteligencia emocional, y ésta es una característica que todavía no poseen los algoritmos matemáticos. Pero, sin duda, el analista tendrá que especializarse aún más y se centrará en analizar operaciones de mayor complejidad puesto que las renovaciones de circulante serán tarea de los bots.
Comentarios
Publicar un comentario