Die Workshopleitenden

AG KI und Medien

(Workshopleitende und Text: Michèle Borcherding & Romany Schmidt)

Laut dem Global Risk Report 2024 sehen Expert:innen KI-generierte Desinformation als größten Risikofaktor für globale Krisen in den kommenden zwei Jahren an. Der Reuters Digital News Report 2025 zeigt zudem: Besonders junge Menschen unter 25 nutzen zunehmend KI-Chatbots zur Informationsbeschaffung, obwohl viele Inhalte aus KI Systemen weiterhin mit Skepsis betrachtet werden. Beide Berichte machen deutlich, wie stark sich das Vertrauen in klassische Nachrichtenquellen durch den wachsenden Einsatz generativer Technologien verschiebt, insbesondere bei jungen Zielgruppen.

Die Arbeitsgruppe 4 setzte genau hier an. Unter dem Thema „KI und Medien“ stellte sie sich der Leitfrage: Welche Herausforderungen und Chancen entstehen durch Künstliche Intelligenz im digitalen Zeitalter – und wie verändert sie die Medienlandschaft sowie die Qualität, Wahrnehmung und Glaubwürdigkeit von Informationen?

Dabei wurde ein binationaler Blick auf Deutschland und Südkorea geworfen. Die Ausgangslage ist vergleichbar: In beiden Ländern verbreiten sich KI-generierte Inhalte rasant. In Südkorea spielen Deepfake-Pornografie, KI-basierte Wahlkampagnen, aber auch Deepfakes im Rahmen von Wahlen und automatisierte Inhalte im Journalismus eine immer größere Rolle.

Auch in Deutschland stellen KI-generierte Deepfakes im Wahlkontext eine zunehmende Herausforderung dar. Daneben stehen insbesondere das Erstarken von KI-gestützten Nachrichtenformaten und die regulatorische Umsetzung supranationaler Gesetzgebung, wie des EU AI Acts, im Fokus.

Inhalte der Diskussion

Die Diskussion in der AG war von kritischer Reflexion geprägt. Zu Beginn sammelten die Teilnehmenden ihre Gedanken in einer Assoziationswolke. Wichtige Schlagwörter waren Begriffe wie „Verantwortung“, „Deepfakes“, „Medienabhängigkeit“, „Authentizität“ oder „Konzentrationsabbau“. Schnell zeigte sich: Viele Teilnehmer:innen wähnten sich im Umgang mit KI-generierten Inhalten relativ sicher, besonders im Hinblick auf Fake News, algorithmisch getriebene Meinungsblasen und Desinformationskampagnen in sozialen Netzwerken. Die Notwendigkeit der „Media Literacy“, d. h. eines differenzierten und ethischen Umgangs mit Medieninhalten, wurden dabei zunächst vorrangig mit älteren Generationen in Verbindung gebracht, denen der Zugang zu digitalen Medienwelten oft schwerer fällt. In einer Übung zur Erkennung von KI-generierten Inhalten zeigte sich jedoch, dass auch jüngere oder medienaffine Personen diese nicht immer treffsicher identifizieren können. Die Annahme einer altersbedingten Kompetenzdifferenz relativierte sich und unterstrich, dass Medien- und damit auch KI-Kompetenz heute alle Altersgruppen betrifft.

Ein besonders dynamischer Moment war die Auseinandersetzung mit einer KI generierten Nachrichtensendung, denn er förderte die Diskussion: Wie gut kann man noch zwischen menschen- und maschinengemachten Inhalten und Bildern unterscheiden? Welche Inhalte wirken glaubwürdig? Und wo verlaufen rote Linien?

Es wurde deutlich, dass sich eine generationenübergreifende Medienbildung und ein stärkerer Fokus auf Kennzeichnungspflichten, Kontrollinstanzen und journalistische Sorgfalt als zentrale Gegenmaßnahmen etablieren müssen. Dabei spielt vor allem auch eine emotionale Komponente eine Rolle: Der Wunsch nach Orientierung und Vertrauen in Politik und Medien.

Gleichzeitig wurden auch Chancen erkannt – etwa bei der Unterstützung inklusiver Formate, im Community-Building oder in der Erleichterung journalistischer Arbeit durch automatisierte Prozesse und in der Etablierung neuer Berufsgruppen. In allen Diskussionen spiegelte sich ein Spannungsfeld zwischen kreativer Nutzung und ethischen Bedenken.

Unsere AG-Session

Einblick in den Hörsaal, den wir für unsere Arbeit nutzen durften

Ergebnis-Präsentation unserer Arbeitsgruppe

Inhalte des Expert:innengesprächs

Prof. Heesoo Jang (University of Massachusetts Amherst) analysierte in ihrem Vortrag die Rolle von generativer KI aus globaler und ethischer Perspektive. Sie ging dabei auf vier Schwerpunkte ein: (1) KI und Demokratie, (2) KI-Governance, (3) kulturelle Repräsentation und (4) globale Machtverhältnisse. Jang stellte dar, dass KI keinesfalls neutral sei, sondern existierende Ungleichheiten – z. B. koloniale Narrative oder genderbasierte Diskriminierung – algorithmisch verfestigen könne.

Am Beispiel des südkoreanischen Chatbots Lee-Luda zeigte sie auf, wie durch unreflektiertes Datentraining reale Menschen diffamiert wurden. Sie warnte zudem vor einem rein output-orientierten Blick auf KI, da die eigentliche Gefahr oft in der „unsichtbaren Arbeit“ hinter der Technologie liege: Klickarbeit im Globalen Süden, Ressourcenverbrauch, Umweltfolgen und eine damit einher gehende Verstärkung globaler Asymmetrien. KI sei nicht nur Code, sondern physisch, geopolitisch und Resultat menschlicher Arbeitskraft. Ein weiteres zentrales Argument war, dass Medienethik im KI-Zeitalter nicht nur neue Tools braucht, sondern neue Kategorien: Für welchen Zweck werden Inhalte generiert? Wer trägt Verantwortung für ihren Impact?

Abschlussdiskussion & Thesen

1. KI schafft die Medienlandschaft nicht ab
2. Social Media macht euch alle abhängig von KI (und andersherum)!
3. Die Mechanismen, um Falschkennzeichnungen von KI in den Medien zu melden, sind unzureichend

Diskussion zu These 1:
Die Arbeitsgruppe 4 betonte, dass KI-generierte Inhalte eine zunehmende Rolle in der Medienwelt spielen, sowohl technisch als auch gesellschaftlich. Diskutiert wurden die kreativen und produktiven Potenziale von KI ebenso wie ihre Risiken: etwa der Verlust menschlicher Nuancen, ethische Grauzonen, offene Fragen zu Urheberrecht und Qualitätssicherung. Als Lösungsansätze wurden die Einführung einer Kennzeichnungspflicht, klare Leitlinien für den KI-Einsatz sowie die Rolle des Menschen als überwachende Instanz formuliert. Die Gruppe war sich einig, dass menschlich geschaffene Inhalte – gerade durch ihre nicht automatisierbaren Eigenschaften – auch in Zukunft eine besondere Wertschätzung erfahren werden und die Medienlandschaft langfristig durch KI zwar verändert, aber nicht ersetzt wird. In der Abschlussdiskussion wurde diese Haltung jedoch kritisch hinterfragt. Es wurde die These aufgeworfen, dass
diese Perspektive zu kurz greife und in einer weiten Zukunftsperspektive durchaus denkbar sei, dass die Medienlandschaft durch KI vollständig ersetzt werde. Diese Prognose wurde in der Gruppe nicht direkt entkräftet, obwohl mögliche Gegenargumente durchaus Raum gehabt hätten: etwa die enormen Kosten für
generative KI, ihre Abhängigkeit von menschlichen Trainingsdaten oder der Hinweis auf den Gartner Hype Cycle, der nahelegt, dass technologische Entwicklungen oft zunächst überschätzt, dann reguliert und erst später produktiv eingeordnet werden.

Diskussion zu These 2:
Die Arbeitsgruppe 4 diskutierte, wie KI zur Abhängigkeit von Social Media und vice versa beiträgt. Genannt wurden algorithmische Verstärkungsmechanismen, Doomscrolling, Filterblasen und Deepfakes, insbesondere gegen Frauen. Als Lösung wurden Medienbildung, altersgerechte Aufklärung und die Förderung kritischen Denkens vorgeschlagen. Einigkeit bestand darin, dass bestehende Plattformstrukturen durch KI effizienter wirken. In der Abschlussdiskussion überwog Zustimmung zur These. Betont wurde, dass Social Media gezielt mit Nutzerverhalten arbeitet, um Algorithmen zu optimieren. KI verstärke diese Dynamiken. Gleichzeitig gab es Zweifel, ob regulatorische Maßnahmen wie Kennzeichnungspflichten in der Praxis durchsetzbar sind.

Diskussion zur These 3:
Die Arbeitsgruppe 4 stellte zuletzt die These auf, dass die Mechanismen zur Meldung von Falschkennzeichnungen KI-generierter Inhalte in den Medien unzureichend sind. Dabei wurden fehlende gesetzliche Standards, mangelnder Datenschutz, Persönlichkeitsrechtsverletzungen sowie der zunehmende Einsatz von Deepfakes als zentrale Problemfelder benannt. Als Lösungsansätze wurden unter anderem eine internationale Aufsicht (z. B. „AI-Interpol“), klare gesetzliche Regelungen und stärkere Plattformverantwortung vorgeschlagen. In der Abschlussdiskussion wurde der These überwiegend zugestimmt. Gleichzeitig äußerten einige Zweifel, ob eine verlässliche und flächendeckende Umsetzung solcher Maßnahmen in der Praxis realistisch ist.

Persönlicher Eindruck

„Ich war mir vor dem Workshop gar nicht bewusst, wie viele Inhalte in meinem Feed wahrscheinlich KI-generiert sind. Jetzt sehe ich plötzlich viel mehr KI in meinem Feed, einfach, weil ich gelernt habe, sie zu erkennen. Seit dem Workshop achte ich bewusster auf Details und wende die Techniken an, die wir gelernt haben. Es ist ein gutes Gefühl, wenn man bei einem Video direkt sagen kann: Das ist KI. Danke für das Wissen, das mich jetzt sicherer macht!“