Banking, Blog, Digitization, Science, Tetralog
Kommentare 1

Explainable?

© Joachim Löning

Zusammenfassung

Unsere Lösungen stellen für die Anlageberatung Parameter zur Verfügung, die unter anderem mit regressionsanalytischen Methoden berechnet werden. Für Endkunden sind solche Methoden zu komplex, um sie in einer hinreichend kurzen Zeit nachzuvollziehen. Berater sind in einer hervorragenden Position ein sinnstiftendes Narrativ für Endkunden zu liefern, während dieser Brückenschlag für Robo-Advisor schwieriger ist. Der Artikel beschreibt die zunehmende Forderung nach Erklärbarer Künstliche Intelligenz. Unsere Lösungen liefern Beratern hilfreiche Hinweise für die Bildung erklärender Narrative in der Anlageberatung.

In der Anlageberatung ist der Umgang mit Komplexität eine ständige Herausforderung. Berater, die es schaffen ihren Kunden mit Leichtigkeit einen Sachverhalt zu vermitteln, liefern einen unmittelbaren Nutzwert. Dem Kunden wird die aufwändig empfundene Beschäftigung mit einem wichtigen, als kompliziert empfundenen Thema erspart.

Die sinnstiftende Erzählung, das Narrativ, das der Berater anbietet, ist notwendigerweise auf Ausschnitte der Realität beschränkt und stiftet beim Kunden das Vertrauen in die Kompetenz des Beraters. Für den Kunden wird greifbar, warum der Berater besser ist als ein kostengünstigeres Do-It-Yourself Verfahren. Narrative stärken das Vertrauen des Kunden zur Delegation seiner Anlageentscheidungen und sollten vom Berater aktiv gesucht werden.

Hier soll es nicht um die Frage gehen, welche Methoden die „richtige“ Anlageberatung verwendet, es geht um die Vermittlung kompetenter Beratung. Diese lässt sich zerlegen in die beiden Bestandteile Fachwissen und Beratungskompetenz. Ein guter Berater sollte in der Lage sein, die beiden Elemente flexibel einzusetzen. Er hat in der Regel softwaregestützte Hilfsmittel zur Verfügung, die den fachlichen Teil erledigen. Die Beratungskompetenz des Beraters wird greifbar als Narrativ, mit dem der Berater eine Brücke schlägt von den berechneten softwaregestützten Parametern hin zur Einsicht des Kunden.

Softwarebasierte Algorithmen zur Berechnung der individuellen Parameter der Anlageberatung gibt es auch bei einem Robo-Advisor. Allerdings fehlt dort der Vorteil der Flexibilität eines menschlichen Gegenübers, der auf seinen Kunden individuell eingehen kann. Beim Robo-Advisor steht diese Flexibilität, bedingt durch das Geschäftsmodell nicht zur Verfügung, weil es ja gerade darum geht auf menschliche Betreuung zu verzichten. Die Flexibilität eines menschlichen Beraters ist genau das, was ein Roboter nicht beherrscht.

Die Perspektive des Beraters ist die Erklärbarkeit der verwendeten Methoden. So wird in der seit 2018 gültigen europäische Datenschutzgrundverordnung (DSGVO) die Pflicht zur Erklärung definiert. Der Kunde hat einen Anspruch auf Transparenz der Datenerhebung und -verarbeitung. Ob die unter einem Vertragsverhältnis zustande gekommene Geldanlage eines Kunden den Anforderungen der DSGVO zum Thema Profiling unterworfen ist, soll hier nicht erörtert werden. Klar ist hingegen die Forderung nach vollständiger Transparenz in der Frage warum ein Kunde auf Basis seiner persönlichen Daten wie eingestuft wurde.

Ganz spezifisch der Erklärbarkeit gewidmet ist ein Fachbegriff, der als „erklärbare künstliche Intelligenz“ übersetzt werden kann und unter eXplainable Artificial Intelligence oder XAI verbreitet ist. Hierbei geht es vor allem darum, die Ergebnisse maschineller Verfahren verstehbar und nachvollziehbar zu machen. Es sind Menschen, die Verantwortung tragen und Menschen, die nicht blind dem Resultat eines automatischen Algorithmus unterworfen werden sollen. Während es bei XAI zunächst darum ging, Drohnen-Operateuren die Entscheidung zu überlassen, ist doch die Analogie zur Rolle des Beraters zur Gelanlage nicht von der Hand zu weisen. Der Berater soll verstehen können, wie er maschinell erzeugte Ergebnisse für den Kunden in ein Narrativ kleidet.

Gunnell (2017) fordert etwa, dass mit Methoden der künstlichen Intelligenz gewonnene Ergebnisse verstehbar sein sollen. Das heisst nicht, dass der Berater die verwendeten Algorithmen umfassend durchdringen muss – es genügt zu verstehen, warum ein bestimmtes Ergebnis nicht erreicht wird, zu wissen, wann etwas richtig oder falsch ist, wann einem maschinellen Ergebnis vertraut werden kann und wann vermutlich ein Fehler passiert ist. Das ist wichtig, wenn es darum geht mit Methoden der künstlichen Intelligenz eine weitreichende Entscheidung zu treffen. Menschen sollen das „das letzte Wort“ haben, müssen es verantworten und deshalb die Ergebnisse leistungsfähiger Algorithmen verstehen. Algorithmen berechnen die Grundlagen für weitreichende Entscheidungen zur finanziellen Zukunft des Kunden. der Kunde wird den Berater verantwortlich machen und dieser muss daher verstehen, was geschieht.

Mit einem Blick auf das Standardverfahren der sog. Modernen Portfoliotheorie mag die Herausforderung der Erklärbarkeit von Geldanlage deutlich werden. Dort verwendet werden Regressionsmodelle, deren Verhalten vom Nutzer nur noch schwer nachvollzogen werden kann. Zur Vermeidung von Klumpenrisiken und damit zur Optimierung der Diversifikation in einem Portfolio ist die auch als Markowitz Methode bezeichnete Varianz/Kovarianzmatrix die Methode der Wahl. Die verwendeten Zusammenhangsmaße beschreiben das Verhalten von Wertpapieren zueinander und sind nur für wenige intuitiv verstehbar. Als Ergebnis einer Optimierungsrechnung werden Werte reduziert und aufgestockt. Die Antwort warum dies geschieht ist einerseits einfach (bessere Streuungswirkung in Relation zu den anderen im Portfolio befindlichen Werten) aber andererseits komplex, weil schon geringe Modifikationen am Ausgangsdepot das Ergebnis verändern und viele Kunden und Berater ein solches Systemverhalten als kompliziert und nicht zufriedenstellend empfinden.

Nicht nur die Methoden und Algorithmen zum Geldanlegen sind komplex, sondern auch etablierte Produkte und Produktkategorien werden zunehmend hinterfragt. Lesenswertes zum Thema Komplexität bei passiven und aktiven Fonds findet sich bei Mittnik (2020), der einen Blick auf die außerordentlich komplexen Konstruktionsregeln von Indizes und damit passiven Fonds geworfen hat.

Die Beispiele zeigen, warum es für einen Berater wichtig ist, ihren Kunden intuitiv verstehbare Narrative anzubieten. Der Berater muss nicht umfassend die Komplexität algorithmisch erzeugter Parameter oder aber die komplexen Details hinter den zuletzt so erfolgreichen Indizes verstehen, aber wenn er wie Eingangs formuliert die richtige Mischung aus Fachkompetenz und Beratungskompetenz hat, wird er seinem Kunden die Bedeutung erklären.

Wir stellen uns der Herausforderung der Erklärbarkeit. Der Berater sollte keine Scheu davor haben, dem Kunden nahezubringen, dass regressionsanalytische Methoden aus dem Werkzeugkasten der künstlichen Intelligenz stammen und „naturgemäß“ schwer zu erklären sind. Wir haben früh begonnen, die Markowitz Optimierung zu visualisieren, haben das Portfolio mit Touch-Gesten anfassbar gemacht und machen in einem ganz neuen Tool dem Berater Interpretationsangebote für die Ergebnisse der Portfolioanalyse. Zwischen der Visualisierung von Portfolioinhalten und den im Hintergrund laufenden (KI-)Methoden haben wir als verbindendes Element die sog. Quality Box gebaut. Darin angeboten findet der Berater Erklärungshilfen, die er für den Kunden in individuelle Narrative übersetzt. Diese Interpretationsschicht ist ihrerseits mit maschinellen Verfahren erzeugt worden, allerdings sind die dort verwendeten Verfahren regelbasiert und damit klar und intuitiv erklärbar.

Der Berater kann sich genau damit von einem Robo-Advisor Angebot abgrenzen und das Vertrauen des Kunden in die Delegation der Anlageentscheidung stärken.

Quellen:

Prof. Stefan Mittnik: Kostolanys Depot, FAS v. 2.8.20, Seite 28

David Gunning: DARPA/I2O Program Update November 2017, PDF Document

1 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.