
Ganz am Ende ging es noch in die Karaoke-Bar
AG KI im Bereich Gesellschaft und Ethik
(Workshopleiter und Text: Jiye Josephine Lee)
Einleitung
Künstliche Intelligenz prägt zunehmend alle Bereiche von Gesellschaft, Wirtschaft und Politik. Durch ihre Fähigkeit, große Datenmengen zu verarbeiten und Muster zu erkennen, bietet sie enorme Chancen – von medizinischen Innovationen bis hin zu effizienteren Infrastrukturen. Gleichzeitig wirft der Einsatz von KI fundamentale ethische, rechtliche und geopolitische Fragen auf: Wem gehören die Daten? Welche Werte sind in den Systemen verankert? Und wie lassen sich Risiken wie Diskriminierung oder technologische Abhängigkeiten vermeiden? Diese Fragen sind hochrelevant, da sie nicht nur die Innovationskraft einzelner Staaten, sondern auch deren digitale Souveränität betreffen. Besonders im Vergleich von Korea und Deutschland zeigt sich, dass Länder unterschiedliche Strategien entwickeln, um Chancen zu nutzen und Risiken einzudämmen. Ziel der AG war es, diese Spannungsfelder sichtbar zu machen und Handlungsperspektiven zu entwickeln.
Inhalte der Diskussion
In der Diskussion standen zunächst die gesellschaftlichen Auswirkungen von KI im Vordergrund: So ermöglicht sie innovative Lösungen in der öffentlichen Infrastruktur,
etwa bei Busfahrplänen in Korea, oder in der Gesundheitsvorsorge, wie durch Apps zur Pandemiebekämpfung. Auch die Forschung profitiert, da Daten schneller ausgewertet und neue wissenschaftliche Erkenntnisse gewonnen werden können. Beispielsweise die Erkennung von 3D-Strukturen in Proteinen oder Entwicklungen wie der „AI Scientist“, das Experimente anstoßen, Codes schreiben und Forschungsergebnisse aufarbeiten kann.
Kontrovers diskutiert wurden dagegen Risiken: Zum einen die geopolitische Abhängigkeit von US- und chinesischen Anbietern, die eine geopolitische Abhängigkeitssituation begründen kann. Zum anderen die Gefahr von Verzerrungen durch voreingenommene Trainingsdaten, die zu Diskriminierung führen. Genannt wurden Fälle wie KI-basierte Recruiting-Systeme, die bestehende Bias wiederholen und diskriminierende Strafmaß-Prognosen. Diese Beispiele machten deutlich, dass vergangenheitsbasierte Daten immer Spuren alter Ungleichheiten enthalten. Besonders beim Datenschutz wurde ein Paradox sichtbar: Manche Daten sind übermäßig geschützt, andere werden unbedacht preisgegeben. Während einige Teilnehmer für eine Lockerung im Forschungsbereich plädierten, forderten andere strengere Transparenz und Mitbestimmung.
Inhalte des Expertengesprächs
Das Expertengespräch machte deutlich, dass KI weit mehr als eine technologische Frage ist – sie ist zugleich diplomatische, sicherheitspolitische und kulturelle Herausforderung. Im Zentrum stand das Konzept der „Sovereign AI“, also KI-Systeme, die auf nationaler Infrastruktur und Datensätzen beruhen, um kulturelle Werte und gesellschaftliche Kontexte widerzuspiegeln. Am Beispiel Südkoreas wurde gezeigt, dass staatlich getriebene Investitionen in Rechenleistung, Datenzentren und Gesetzgebung strategisch genutzt werden, um technologische Abhängigkeiten zu reduzieren und eine eigenständige Innovationsfähigkeit zu sichern. Gleichzeitig wurden Risiken wie das Black-Box-Problem und die Möglichkeit des Missbrauchs – etwa bei autonomen Waffensystemen – betont.
Eine zusätzliche Perspektive brachte die philosophische Reflexion: Ist KI bloß Werkzeug oder ein Subjekt, das Verantwortung übernehmen könnte? Während Philosophen Fragen nach Sinn und Verantwortung aufwerfen, bleibt die Entscheidung bei den Menschen. Diskutiert wurde auch, dass KI stets nur auf Vergangenheitsdaten trainiert ist und damit bestehende Muster reproduziert – mit der Gefahr, wichtige Informationen zu übersehen. Daraus leitet sich die zentrale Frage ab: Wie können wir sicherstellen, dass hochwertige und repräsentative Daten von gestern genutzt werden, ohne neue Verzerrungen für morgen zu schaffen?

Vortrag von Dr. Dongmin Shin, Leiter der AI-Diplomacy-Abteilung des südkoreanischen Außenministeriums (MOFA)

Einblick in den Hörsaal, den wir für unsere Arbeit nutzen durften

Fishbowl-Diskussion mit Dr. Kwon Jea vom Max Planck Institut für Sicherheit und Privatsphäre
Thesen
- Ein internationaler ethischer Kompass ist nötig, damit KI dem gesellschaftlichen Fortschritt dient.
- KI-Anbieter können unsere Werte prägen, was neue Abhängigkeiten schafft.
- Weil KI Voreingenommenheiten aus der Vergangenheit verfestigt, muss Bias bewusst korrigiert werden.
- Souveräne KI kann Unabhängigkeit stärken, birgt aber das Risiko staatlicher Einflussnahme auf Werte.
Abschlussdiskussion
In der Abschlussdiskussion kristallisierte sich heraus, dass KI kein Selbstzweck ist, sondern als Werkzeug für gesellschaftlichen Fortschritt verstanden werden muss. Um ihr Potenzial zur Verbesserung der Lebensqualität zu nutzen, braucht es einen klaren ethischen Kompass sowie internationale Governance, die soziale Ungleichheiten abbaut. Konsens bestand darin, dass sich die Abhängigkeiten bei KI von wirtschaftlichen hin zu wertebasierten Dimensionen verschieben: Anbieter erhalten dadurch eine erhebliche Macht, Werte zu prägen und gesellschaftliche Leitbilder zu beeinflussen.
Besonders hervorgehoben wurde, dass KI-Modelle auf historischen Daten trainiert sind und damit Verzerrungen und Ungleichheiten der Vergangenheit fortschreiben. Damit dies nicht die gesellschaftliche Entwicklung behindert, muss Bias bewusst korrigiert werden. Schließlich wurde deutlich, dass „Sovereign AI“ einerseits ein wichtiges Instrument zur Stärkung nationaler Unabhängigkeit sein kann, andererseits aber das Risiko birgt, neue Formen staatlicher Einflussnahme auf Werte und kulturelle Orientierungen zu etablieren.
Gleichzeitig zeigten sich kulturelle Unterschiede: In Korea wird KI im Strafmaß vorsichtiger diskutiert, während technologische Souveränität strategisch forciert wird. Deutschland verfolgt stärker einen regulativen Ansatz und nutzt bestehende Infrastrukturen. Einigkeit herrschte darüber, dass Transparenz über Trainingsdaten und Modelle unverzichtbar ist und dass Bildungsoffensiven – insbesondere zur Förderung von KI-Kompetenz in Schulen – dringend erforderlich sind. Internationale Kooperationen wurden als Schlüssel gesehen, um Missbrauchsrisiken wie Diskriminierung oder militärische Anwendungen einzudämmen. Insgesamt bestand Konsens, dass die Gesellschaft aktiv mitgestalten muss, wie KI eingesetzt wird – zwischen Innovation, Sicherheit und Verantwortung.
Persönliche Eindrücke
„Besonders spannend war der Vergleich zwischen Korea und Deutschland: Während Korea auf Geschwindigkeit und technologische Souveränität setzt, ist Deutschland vorsichtiger und stärker regulativ. Die Diskussion hat gezeigt, wie wichtig es ist, unterschiedliche kulturelle, wissenschaftliche und ethisch-moralische Perspektiven einzubeziehen.“