Künstliche Intelligenz

Vertrauen durch Verständnis

Norderstedt, 11. Dezember 2019 – Die Gesellschaft für Informatik e.V. (GI) und das Bundesministerium für Bildung und Forschung hat zehn herausragende junge KI-Forscherinnen und Forscher ausgezeichnet. Theresa Tran, Data Scientist bei Lufthansa Industry Solutions, ist KI-Newcomerin in der Kategorie Naturwissenschaften und wurde für ihre Forschung auf dem Gebiet Explainable Artificial Intelligence (XAI) geehrt. Wir haben mit Theresa Tran über ihre Auszeichnung und das Vertrauen in die Entscheidungen einer Künstlichen Intelligenz gesprochen.

Die Gesellschaft für Informatik hat Sie zur KI-Newcomerin des Jahres 2019 gekürt. Wofür wurden Sie ausgezeichnet?

In meiner Masterarbeit habe ich mich mit dem Gebiet Explainable Artificial Intelligence (XAI) befasst, einem noch recht jungen Forschungsbereich. Mit Explainable AI sind Ansätze gemeint, die Entscheidungen von KI-Systemen nachvollziehbar machen. Lassen Sie mich ein Beispiel geben. Einem Arzt wird durch ein KI-System ein Diagnose-Vorschlag gemacht – möglicherweise mit einer Gewissheit versehen (z.B. 98%). Der Arzt kann sich nun alleine auf diese Gewissheit verlassen. Wäre es aber nicht hilfreicher, wenn das KI-System zusätzlich die ausschlaggebenden Symptome benennen würde? Mit dieser Zusatzinformation kann der Arzt viel leichter entscheiden, ob er dem Vorschlag vertraut oder nicht.

Während eines Praktikums habe ich aus erster Hand erfahren, dass die besten KI-Systeme nutzlos sind, wenn der Anwender ihnen nicht vertraut. Weil ich glaube, dass Vertrauen durch Verständnis entsteht, untersuchte ich in meiner Masterarbeit, wie man KI-Systeme interpretierbar machen kann, und bewies die Funktionstüchtigkeit der Methoden mathematisch rigoros.

Wie sind Sie dabei vorgegangen?

Konkret habe ich zwei verschiedene Erklärmethoden untersucht. Auf der einen Seite haben wir die Shapley Value Explanations. Sie garantieren Fairness im Sinne der kooperativen Spieltheorie, aber ihre Berechnung dauert in der Praxis zu lange. Auf der anderen Seite haben wir LIME. Diese Methode ist vergleichsweise schnell, aber ihre Ergebnisse haben nicht die erwünschten Fairness-Eigenschaften.

Durch eine bestimmte Parameterwahl für LIME stimmen beide Erklärmethoden überein. Der resultierende Algorithmus heißt Kernel SHAP und kombiniert das Beste aus beiden Welten. Allerdings gab es keinen mathematisch fundierten Beweis für diese Schlüsselerkenntnis. Ich habe diesen Beweis in meiner Masterarbeit geführt und damit die Verwendung von Kernel SHAP legitimiert. Soweit ich weiß, wurde dieser Beweis noch nie zuvor gegeben.

Warum hat Sie gerade dieses Thema so gereizt?

Mir ist ein verantwortungsvoller Umgang mit Künstlicher Intelligenz sehr wichtig. XAI kann in Form von menschlich-verständlichen Erklärungen dabei helfen. Diese haben drei Vorteile. Erstens liefern die Erklärungen Entwicklern wichtige Insights, um Trainingsdaten und Modellarchitekturen zu verbessern. Zweitens helfen die Erklärungen dabei, Bias aufzudecken und zu beheben. Beispielsweise kann erkannt werden, dass Personen aufgrund ihres Geschlechts oder ihrer ethnischen Herkunft von einem KI-System benachteiligt werden. XAI kann somit zu mehr Fairness beitragen. Zu guter Letzt bauen die Erklärungen Vertrauen auf und sorgen so für mehr Akzeptanz von KI-Systemen.

Wir werden in Zukunft umgeben sein von intelligenten Dingen, die uns Entscheidungen abnehmen. Wieviel können wir überhaupt kontrollieren oder müssen wir der Technologie einfach vertrauen?

Das ist gerade das Schöne an XAI, dass jede Prädiktion erklärbar gemacht werden kann. Mein grundsätzlicher Anspruch ist schon, dass wir auch erklären können, was wir tun. Ob aber in jedem Einzelfall, wie etwa bei der automatisierten Schaltung von Werbeanzeigen, eine umfassende Nachvollziehbarkeit unbedingt notwendig ist, ist die andere Frage. Auf jeden Fall müssen alle Entscheidungen, die eine Person persönlich betreffen, nachvollziehbar sein. Hier gibt es auch mit der DSGVO in Europa gesetzliche Vorgaben, die erfüllt werden müssen.

Nachvollziehbarkeit, Erklärbarkeit und Transparenz sind Forderungen von Daten- und Verbraucherschützern für den verantwortungsvollen Umgang mit KI. Was können wir als IT-Dienstleister dazu beitragen, um diesen Ansprüchen gerecht werden zu können?

Wir können dazu erheblich beitragen. Zum einen, indem wir unsere Kunden aktiv auf die Möglichkeiten – und teilweise die Notwendigkeit – von XAI hinweisen. Ich habe mich auch ganz bewusst für LHIND als Arbeitgeber entschieden, weil ich anhand der Anwendungsfälle sehen konnte, wie verantwortungsvoll und diskursiv mit Technologie umgegangen wird. Zum anderen, ist es wichtig, diesen Diskurs auch nach außen zu tragen. So bin ich selbst als Kommunikatorin unterwegs und habe bereits mehrere Vorträge für LHIND zum Thema XAI gehalten. Ein persönliches Highlight war dieses Jahr auch die Hackerschool, bei der ich zusammen mit meinem Kollegen Julian Gimbel einen 2-tägigen KI-Workshop für Kinder angeboten habe. Ich finde es wichtig, dass ein generelles Grundverständnis für KI in der Gesellschaft existiert. Was ist mit KI möglich? Und was nicht?

Laut einer Studie von Capgemini festigt sich die Kundenbindung, wenn KI-Interaktionen als ethisch wahrgenommen werden. Wird Ethik bei KI zum Wettbewerbsfaktor für Unternehmen?

Ja. Es ist sehr wichtig, dass die ethischen Aspekte bei der Anwendung von Künstlicher Intelligenz betrachtet werden, denn blindes Vertrauen kann schnell gefährlich werden. Wie gehen wir mit KI um, wenn es um unsere eigene medizinische Diagnose geht? Oder das Übernehmen des Steuers beim autonomen Fahren? Technisch ist schon sehr viel möglich, aber es bleibt die Frage, was wir wie realisieren wollen.

Über Lufthansa Industry Solutions

Lufthansa Industry Solutions ist ein Dienstleistungsunternehmen für IT-Beratung und Systemintegration. Die Lufthansa-Tochter unterstützt ihre Kunden bei der digitalen Transformation ihrer Unternehmen. Die Kundenbasis umfasst sowohl Gesellschaften innerhalb des Lufthansa Konzerns als auch mehr als 200 Unternehmen in unterschiedlichen Branchen. Das Unternehmen mit Hauptsitz in Norderstedt beschäftigt über 2.000 Mitarbeiter an mehreren Niederlassungen in Deutschland, der Schweiz und den USA.