Was, wenn plötzlich ein privates Foto von Dir in einem Datensatz auftaucht, der benutzt wird, um Künstliche Intelligenz zu trainieren? Ein riesiger Datensatz, in dem nicht nur Deine Fotos, sondern auch alle möglichen anderen Bilder aus dem Internet versammelt sind. Auch pornographisches oder rassistisches Material. Spoiler: Das passiert bereits. Was Firmen, die KI trainieren, dürfen und was nicht, klären wir in dieser Folge 11KM mit Elisa Harlan von BR Data/AI Lab. Und wir erklären, wie man selbst herausfinden kann, ob das eigene Bild in so einem Datensatz aufzufinden ist. Hier der Link zur Recherche von Elisa Harlan und Katharina Brunner von BR Data/AI Lab: https://interaktiv.br.de/ki-trainingsdaten/ Und wenn ihr euch dafür interessiert, wie diskriminierend KI sein kann, dann findet ihr hier die 11KM Folge zu diesem Thema hier: “Zu sexy - wie Online-Algorithmen Frauen benachteiligen“: https://www.ardaudiothek.de/episode/11km-der-tagesschau-podcast/zu-sexy-wie-online-algorithmen-frauen-benachteiligen/tagesschau/12361731/ Unser Podcast-Tipp: Banksy ist ein echtes Phantom. Es gibt viele Rätsel um seine Person und niemand weiß, wer er ist. Die ganze Geschichte gibt es ab heute im Podcast „Banksy – Rebellion oder Kitsch?“ exklusiv in der ARD Audiothek: https://www.ardaudiothek.de/sendung/banksy-rebellion-oder-kitsch/94558198/ An dieser 11KM-Folge waren beteiligt: Folgenautor: Hans Christoph Böhringer Mitarbeit: Marc Hoffmann und Katharina Hübel Produktion: Christiane Gerheuser-Kamp, Fabian Zweck und Hanna Brünjes Redaktionsleitung: Fumiko Lipp und Lena Gürtler 11KM: der tagesschau-Podcast wird produziert von BR24 und NDR Info. Die redaktionelle Verantwortung für diese Folge trägt der NDR.