It's all about AI

Vortrag von Mai Phuong Mai bei unserem Meetup am 20.07.2023 in Erlangen

In ihrem Vortrag ging Mai Phuong Mai auf das Thema „About risks and responsibility in Generative AI“ ein.

Die Relevanz von Generative AI nimmt in verschiedensten Anwendungsbereichen zu und nutzt dabei den leichten Zugriff auf die Daten extrem großer Datenbanken. Die möglichst schnelle und deshalb oft unreflektierte Verarbeitung der Daten führt dazu, dass Modelle sehr groß werden und Risiken bergen:

  • Verzerrungen können zu ‚biased‘ und diskriminierenden Outcomes führen, die wiederum die Verzerrungen festigen
  • AI-generierter Content wird häufig bei der Verbreitung nicht ausreichend validiert („Hallucination“)
  • User hinterfragen Content nicht und Fake News sowie Deep Fakes können öffentliche Meinungen lenken
  • Privacy & Copyright sind nicht klar geregelt
  • der Umgang mit Konsequenzen ist nicht definiert
  • u.v.m.

Aber wie können wir mit diesen Bedenken und Risiken, nicht nur aus User- sondern auch aus Developer-Perspektive umgehen? Zuerst einmal müssen die Biases weitgehend eingedämmt werden, beispielsweise durch Analysieren des Outcomes mit Detektoren oder Scores für toxischen oder polarisierenden Content auf User-Seite, das Messen einer diversen Repräsentation und kritische Filtern der Datenbasis von Delevopern. Außerdem muss der Wahrheitsgehalt verifiziert werden, z.B. mithilfe integrierter fast-checking Mechanismen, der Schulung von Usern bezüglich GenAI Models und deren Eigenschaften oder von Developern eingesetzte Metriken zur Evaluation der Daten. Um kritischen Content zu ermitteln, können User verschiedene Tools nutzen, die ‚harmful content‘ kennzeichnen, während Developer Richtlinien für den Code entwickeln können, die solchen Content verbieten. Zum Sichern von Privacy & Copyright können User Programme und Tools nutzen, die die Autor:innenschaft kenntlich macht oder Lizenzen einholen, Developer ist insbesondere wichtig, Daten mit bedacht zu wählen und bei der Verwendung von Code-Snippets auf die Lizenzierung zu achten.

Kurz: In der Verantwortung der User liegt besonders das kritische Hinterfragen des konsumierten Contents, Developer sollten sich an aktuelle Richtlinien halten und stets neue Entwicklungen in Forschung und Regulierung nachverfolgen.

Wie können wir Sie unterstützen?

Hans-Peter Zorn

Head of Artificial Intelligence