[Online Meetup] Biases in AI

inovex
November 2021
MO DI MI DO FR SA SO
01 02 03 04 05 06 07
08 09 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 01 02 03 04 05

Hey Tech Heads,

in diesem Meetup stellen euch Angelie Kraft und Eva Engel vor, wie es im Bereich der künstlichen Intelligenz und speziell bei Recommender-Systemen zu Biases kommen kann.

Die Forschung im Bereich der künstlichen Intelligenz (KI) hat in den letzten Jahren Modelle hervorgebracht, die z.B. in der Lage sind, fließende, prosaische Texte zu generieren. Ihre atemberaubenden Fähigkeiten erlangen diese Modelle unter anderem, weil sie auf enormen Datenmengen trainiert werden. Diese Daten bestehen aus Konversationen, Blogbeiträgen, News und anderen Inhalten, die aus dem Internet ausgelesen werden. Leider spiegeln diese Inhalte jedoch auch unerwünschte Aspekte des menschlichen Diskurses wider, wie z. B. Rassismen und Sexismen. In der Folge können auch in den Modellen selbst Stereotype und sogenannte Biases nachgewiesen werden. Eine aktuelle Analyse hat gezeigt, dass sich dieser Trend fortsetzt und auch große multimodale Datensätze (Bild + Text) degradierende Attributionen zum Inhalt haben. Künstliche Intelligenzen werden zunehmend Teil unseres Alltags werden. Wir werden mit ihnen interagieren und sie werden uns Entscheidungen abnehmen. Unfaire Modelle können also im schlimmsten Fall zu bereits existierenden Diskriminierungen beitragen und diese aufrechterhalten.

Bias in Recommender-Systemen

Wenn wir ein Web-System nutzen, werden wir in der Regel von einem Recommender-System unterstützt. Ob Produkte bei Amazon, Reels bei Instagram oder Filme bei Netflix – jedes Item wird vom Recommender-System gezielt ausgewählt und uns angezeigt. Dabei bestimmt das System relevante Items, die hauptsächlich auf vorherigem Feedback basieren. Benutzerinteraktionen deuten auf Präferenzen hin und werden zur Erstellung von Empfehlungen genutzt. Mit diesen Empfehlungen interagieren wir, wodurch erneut Feedback Daten generiert werden.

In dieser Feedback-Schleife entstehen jedoch Biases. Neben der gesellschaftlichen als auch unserer persönlichen Befangenheit stehen Recommender-Systeme vor weiteren Herausforderungen, in denen die Daten, der Algorithmus oder die Benutzerinteraktionen verzerrt sein können. Der Popularity Bias zum Beispiel beschreibt die Situation, dass das System beliebte Items aufgrund des übermäßigen Feedbacks als relevanter einstuft. Unbeliebte oder lediglich neue Items werden demnach weniger empfohlen und bleiben ungesehen. Dieser Zustand hebt eine grundlegende Herausforderung von Recommender-Systemen hervor: Nutzende können nur mit den Items interagieren, die sie sehen können. Das heißt, dass Recommender-Systeme den Nutzenden eine begrenzte Anzahl an Items zur Verfügung stellen, aus denen sie dann die Präferenzen ableiten. Dieser Presentation oder auch Exposure Bias steht im Zusammenhang mit den bekannten Problemen der Filter Bubble und dem Echo Chamber Effekt.

Recommender-Systeme sind eine unersetzliche Unterstützung, die verhindert, dass die Nutzenden mit Informationen überschüttet werden. Sie haben einen direkten – von manchen Nutzenden vielleicht nicht bewusst wahrgenommenen – Einfluss. Deswegen ist es wichtig, dass die Empfehlungen trotz der Biases weiterhin fair und divers bleiben. Das wird erreicht, indem Biases zunächst identifiziert und anschließend durch Veränderungen der Implementierung, Bereinigung der Daten oder anderer Strategien verringert werden.

Im Anschluss an die Vorträge ist ausreichend Zeit für eure Fragen eingeplant.

Infos und Anmeldung:

Das Meetup wird in deutscher Sprache durchgeführt.

Anmeldung bitte über eine unserer Meetup-Seiten oder unter meetups@inovex.de

inovex Meetup Karlsruhe

inovex Meetup München

inovex Meetup Köln

inovex Meetup Hamburg

Wir freuen uns auf euch!

Zur Durchführung des Online Meetups verwenden wir „Zoom”. Hinweise zur Datenverarbeitung findet ihr unter https://www.inovex.de/de/datenschutz/.