Vortrag

Machine Learning Interpretability

Marcel Spitzer sprach beim Business Analytics Day in Offenburg über Interpretierbarkeit von ML-Modellen. 

Interpretationstechniken von Machine-Learning-Modellen haben die Zielsetzung, die Ursachen einer Prognose offenzulegen und eine daraus abgeleitete Entscheidung für einen Menschen nachvollziehbar zu erklären. Durch die Nachvollziehbarkeit von Prognosen lässt sich z. B. sicherstellen, dass deren Herleitung konsistent zum Domänenwissen eines Experten ist. Auch ein unfairer Bias lässt sich durch die Erklärung aussagekräftiger Beispiele identifizieren.

Prognosemodelle lassen sich grob in intrinsisch interpretierbare Modelle und nicht-interpretierbare (auch Blackbox) Modelle unterscheiden. Intrinsisch interpretierbare Modelle sind dafür bekannt, dass sie für einen Menschen leicht nachvollziehbar sind. Ein typisches Beispiel für ein intrinsisch interpretierbares Modell ist der Entscheidungsbaum, dessen regelbasierter Entscheidungsprozess intuitiv und leicht zugänglich ist. Im Gegensatz dazu gelten Neuronale Netze als Blackbox-Modelle, deren Prognosen durch die komplexe Netzstruktur schwer nachvollziehbar sind.

In diesem Talk erläutert Marcel das das Konzept von Interpretierbarkeit im Kontext von Machine Learning und stellt gängige Verfahren zur Interpretation von Modellen vor. Besonderen Fokus legt er dabei auf modellunabhängige Verfahren, die sich auch auf prognosestarke Blackbox-Modelle anwenden lassen.

Event: Business Analytics Day 2019

Datum: 07.03.2019

Der Vortrag wird auch am 14.05.2019 auf der M3 Minds Mastering Machines gehalten.

Hier geht's zum Blog-Artikel „Machine Learning Interpretability“.

Weiterer Vortrag auf dem Business Analytics Day: Künstlich Intelligent?

***

Machine learning has a great potential to improve data products and business processes. It is used to propose products and news articles that we might be interested in as well as to steer autonomous vehicles and to challenge human experts in non-trivial games. Although machine

learning models perform extraordinary well in solving those tasks, we need to be aware of the latent risks that arise through inadvertently encoding bias, responsible for discriminating individuals and strengthening preconceptions, or mistakenly taking random correlation for causation. In her book „Weapons of Math Destruction“, Cathy O’Neil even went so far as to say that improvident use of algorithms can perpetuate inequality and threaten democracy. Filter bubbles, racist chat bots, and foolable face detection are prominent examples of malicious outcomes of learning algorithms.

The problem with blackbox models is the lack of trust caused by their opaque nature. A decision system should be doing the right thing in the right way but we are usually not able to guarantee that a certain prediction is derived in a way that it should have been. Consequently, it is hard to predict the models‘ future behaviour and to fix it in a targeted way in case of failure. The Dog-or-Wolf-classifier, described by Ribeiro et al., which turned out to be nothing else but a snow detector on steroids, is an illustrative example of a model that, despite of its predictive power, is not aligned with its problem domain.

Interpretability in the context of machine learning describes the process of revealing causes of predictions and explaining a derived decision in a way that is understandable to humans. The ability to understand the causes that lead to a certain prediction enables data scientists to ensure that a model is consistent to the domain knowledge of an expert. An intuitive definition of interpretability in the context of machine learning is provided by Been Kim and Finale Doshi-Velez in „Towards A Rigorous Science of Interpretable Machine Learning“, where they describe it as the ability to explain or to present [a models decision process] in understandable terms to a human.

This talk covers the concept of Interpretability in the context of Machine Learning as well as popular techniques like LIME to explain blackbox models.

***

Speaker: Marcel Spitzer

Marcel Spitzer

Marcel Spitzer ist Big Data Scientist bei inovex. Er beschäftigt sich damit, lernende Systeme zu entwickeln und zu produktivieren sowie Batch- und Streaming-Anwendungen basierend auf Hadoop und Spark zu implementieren. Regelmäßig und mit großer Leidenschaft spricht er auf Tech-Konferenzen über Data Science und Machine Learning und coacht angehende Spark-Entwickler. Er studierte Mathematik und Informatik mit den Schwerpunkten Numerik und Operations Research.

***

Marcel Spitzer is Big Data Scientist at inovex. His daily work is to develop and operationalize Learning Systems as well as to implement Batch and Streaming Applications based on Hadoop and Spark. He speaks about Data Science and Machine Learning at various tech conferences and coaches aspiring Spark developers, both regularly and with great passion. He studied Mathematics and Computer Science with a special focus on Numerical Analysis and Operations Research.

Sie haben Fragen oder möchten zu diesem Thema beraten werden?

Dann rufen Sie uns an unter +49 (0)721 619 021-0 oder schreiben Sie uns eine E-Mail. Wir freuen uns auf Ihre Nachricht!

inovex Events

Hier geht's zu unseren aktuellen Messen, Konferenzen und Meetups.

Zur Event-Liste

inovex Voträge

Alexander Pospiech I 20.11.2018

Dark Side of AI/ML

Zum Vortrag

Aktuelle News über inovex und die Branche

inovex Newsletter

Jetzt hier anmelden!

inovex Case Study

mobile.de: Use Cases für Recommendations bei Online-Portalen anhand von Datenprodukten

Case Study lesen