banking, blog, digitalisation, science
Leave a comment

¿Explicable?

© Joachim Löning

Resumen

Nuestras soluciones proporcionan datos empleando diversos métodos como el análisis de regresión. Para los clientes finales, estos métodos son complejos de entender rápidamente y en detalle. Los asesores de inversión están en una posición perfecta para ofrecer narraciones adecuadas para cada cliente. El acercamiento a la «explicabilidad» no está al alcance de los roboadvisors. El artículo describe el creciente impulso de la «eXplainable Artificial Intelligence» (XAI) y resume cómo nuestras herramientas ofrecen información útil para que los asesores creen las narrativas adecuadas para poder asesorar a los inversores.

En el ámbito de la asesoría de inversión la gestión de la complejidad es un desafío permanente. Los asesores que consiguen transmitir a sus clientes la información con facilidad y claridad entregan valor de forma inmediata. El cliente ahorra tiempo, ya que trata de forma más sencilla temas que percibe como complejos.

La narrativa que puede ofrecer el asesor se limita necesariamente a extractos de la realidad y es el vehículo que inspira la confianza del cliente en su competencia. Para el cliente se hace tangible por qué el asesor es una mejor elección que el método más económico del «hágalo usted mismo». Las narraciones del asesor refuerzan la confianza del cliente y deben ser activamente buscadas por el asesor, para que el inversor delegue en él sus decisiones de inversión.

No se trata de saber cuáles son los métodos utilizados por el asesor «adecuado», sino de proporcionar un asesoramiento competente. Esto se puede desglosar en los dos componentes, el conocimiento especializado y la competencia de asesoramiento. Un buen asesor debe ser capaz de combinar ambos elementos de manera flexible. Por lo general, además, dispone de herramientas de software para manejar la componente especializada. La competencia de asesoramiento construye un puente entre los parámetros calculados por el software y la visión del cliente.

Los algoritmos para calcular los parámetros individuales de asesoramiento de inversión también están disponibles en un Robo-Advisor. Sin embargo, este último, carece de la flexibilidad que aporta el componente humano, y que permite responder a su cliente de forma individual. Empleando un Robo-Advisor esta flexibilidad no está disponible, dado que el modelo de negocio busca prescindir del componente humano. La flexibilidad que aporta un asesor humano es precisamente la carencia de los robots.

El asesor aporta la “explicabilidad” de los métodos utilizados. De esta forma, el Reglamento General de Protección de Datos Europeo (RGPD), en vigor desde 2018, define el deber de explicar. El cliente tiene derecho a la transparencia en la recopilación y procesamiento de los datos. En ningún caso se discute aquí si la inversión de un cliente que ha surgido de una relación contractual está sujeta a los requisitos del RGPD en materia de elaboración de perfiles. Lo que está claro, sin embargo, es la demanda de completa transparencia en lo relativo a los motivos por los que un cliente ha sido clasificado sobre la base de sus datos personales.

Existe un término técnico muy específicamente dedicado a la “explicabilidad” y es el «eXplainable Artificial Intelligence» o XAI y que puede traducirse como inteligencia artificial explicable. El objetivo principal aquí es hacer que los resultados de los procesos automatizados sean comprensibles. Son las personas las que tienen la responsabilidad y las que no deben ser sometidas ciegamente al resultado de los algoritmos. Aunque el XAI se preocupó inicialmente de dejar la decisión a los operadores de los drones, la analogía con el papel del asesor de inversión es clara. El asesor debe ser capaz de convertir los resultados generados por la máquina en una narración para su cliente.

Gunnell (2017), por ejemplo, exige que los resultados obtenidos con métodos de inteligencia artificial sean comprensibles. Esto no significa que el asesor deba conocer exhaustivamente los algoritmos utilizados: basta con que comprenda por qué no se logra un determinado resultado, sepa cuándo algo es correcto o incorrecto, cuándo se puede confiar en el resultado de la máquina o cuándo es probable que se haya producido un error. Esto es importante cuando se trata de tomar una decisión de gran alcance utilizando métodos de inteligencia artificial. Los seres humanos deben tener la «última palabra», deben asumir la responsabilidad y por lo tanto entender los resultados generados por los algoritmos. Los algoritmos calculan la base para decisiones de gran alcance sobre el futuro financiero del cliente. El cliente hará responsable al asesor y por lo tanto el asesor debe realmente entender lo que está sucediendo.

Con la mirada puesta en el procedimiento estándar de la llamada Teoría Moderna de Cartera, el desafío de explicar la inversión puede hacerse evidente. Se utilizan modelos de regresión cuyo comportamiento es complejo y difícil de entender para el usuario. Para evitar los riesgos de agrupación y así optimizar la diversificación de una cartera, la matriz de varianza/covarianza, también conocida como método de Markowitz, es el método elegido. Las correlaciones describen el comportamiento de cada valor en relación con el resto, sin embargo su comprensión intuitiva no está al alcance de cualquiera. Como resultado de los cálculos de optimización, la distribución entre los distintos instrumentos financieros varía. La respuesta a esta situación es simple (mejorar la diversificación de la cartera) pero a la vez compleja, porque incluso pequeñas modificaciones sobre el depósito inicial producen alteraciones sustanciales del resultado y muchos clientes y asesores encuentran ese comportamiento del sistema insatisfactorio a la vez que complicado.

No sólo los métodos y algoritmos para invertir el dinero son complejos, sino que también se cuestionan cada vez más los productos destinados a la inversión y sus categorías. Mittnik (2020), que ha estudiado las complejas reglas de construcción de los índices y, por tanto, de los fondos pasivos, ofrece una lectura interesante sobre el tema de la complejidad en los fondos pasivos y activos.

Los ejemplos muestran por qué es importante que un asesor ofrezca a sus clientes una narración clara y comprensible. El asesor no necesita comprender de forma exhaustiva la complejidad de los parámetros generados algorítmicamente ni los complejos detalles que hay detrás de los índices de éxito más reciente. Sin embargo, cuenta con la combinación adecuada de conocimiento especializado y aptitudes de asesoramiento para ofrecer las explicaciones oportunas a sus clientes.

Estamos a la altura del desafío de la “explicabilidad”. El asesor no debe temer explicar al cliente que los métodos analíticos de regresión provienen de la caja de herramientas de la inteligencia artificial y son complejos de entender al detalle. Hace años empezamos a utilizar la optimización de Markowitz, hicimos tangible la cartera de forma intuitiva y en una herramienta completamente nueva ofrecemos al asesor la interpretación de los resultados del análisis de la cartera. Entre la visualización del contenido de la cartera y los métodos (IA) que se ejecutan en segundo plano, hemos construido la llamada Caja de Calidad como elemento de conexión. En esta caja, se ofrecen al asesor ayudas explicativas que se traducen en narraciones individuales que pueden usar con sus clientes. Esta capa de interpretación se genera a su vez con procesos automatizados, pero los métodos utilizados se basan en reglas y por lo tanto pueden explicarse de manera clara e intuitiva.

Así es precisamente como el asesor puede diferenciarse de una oferta de Robo-Advisor y reforzar la confianza del cliente en la delegación de las decisiones de inversión.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *