Rückblick: Veranstaltung „Künstliche Intelligenz, Demokratie und Menschenrechte“
Am 22. Jänner 2026 diskutierte eine interdisziplinäre Expert*innenrunde auf Einladung der Österreichischen UNESCO-Kommission die gesellschaftlichen Auswirkungen von KI mit besonderem Fokus auf Grund- und Menschenrechte.
Den inhaltlichen Auftakt der Veranstaltung bildete ein Lightning Talk von Prof.in Christiane Wendehorst (Universität Wien) zum Konzept von KI-Systemen gemäß dem EU AI Act. „KI-Systeme“ sind in Art. 3 (1) der Verordnung definiert. Das Problem dabei: Anhand dieser Definition ließen sich KI-Systeme kaum von anderen Systemen abgrenzen, was zu erheblicher Rechtsunsicherheit führe. Mit ihren Leitlinien zur Definition von KI-Systemen (2025) wollte die EU-Kommission Abhilfe schaffen; dies sei nach Einschätzung von Christiane Wendehorst jedoch nicht gelungen.
Die Definition gemäß EU AI Act werde auch eine zentrale Rolle bei der Bestimmung des Anwendungsbereichs weiterer Rechtsvorschriften spielen – etwa im (inzwischen zurückgezogenen) Vorschlag für eine KI-Haftungsrichtlinie und nun im „Digital Omnibus“, mit dem die EU-Kommission bestehende digitale Regulierungen vereinfachen möchte – und in dem Kritiker*innen eine Gefahr für Schutzstandards insbesondere im Bereich von Grund- und Menschenrechten sehen.
Definition von KI als Voraussetzung für wirksamen Grund- und Menschenrechtsschutz
In der anschließenden Diskussion betonten die Expert*innen, dass eine Definition von KI, die möglichst viele Systeme in den Anwendungsbereich der Regulierung einbeziehe, für den Schutz von Grund- und Menschrechten am förderlichsten sei. Denn nicht nur KI, auch weniger komplexe regelbasierte IT-Systeme, beispielsweise in der Bonitätsprüfung, könnten Grundrechte verletzen. Das Podium sprach sich für einen technologieneutralen Ansatz aus, der alle Systeme mit potenziellen Auswirkungen auf Grund- und Menschenrechte unabhängig davon reguliere, ob diese KI seien oder nicht.
Darüber hinaus sei Technologie nicht neutral. Anhand von Beispielen wie diskriminierender Gesichtserkennung oder verzerrten Recruiting-Algorithmen wurde aufgezeigt, wie KI bestehende gesellschaftliche Ungleichheiten verstärken könne. Im Fokus standen der Schutz des Rechts auf Privatsphäre, des Rechts auf Gleichheit und Nichtdiskriminierung sowie des Rechts auf einen wirksamen Rechtsbehelf. Insbesondere letzteres wurde als besonders kritisch hervorgehoben. Viele Betroffene wüssten nicht, dass KI-Systeme über ihre Anliegen entscheiden oder hätten keine Möglichkeit, diese Entscheidungen nachzuvollziehen oder anzufechten. Transparenz und Erklärbarkeit seien daher zentrale Voraussetzungen für demokratische Kontrolle.
Von Prinzipien zur Umsetzung
Das Podium sprach weiters von großen Herausforderungen bei der praktischen Umsetzung des AI Act. Instrumente wie Fundamental Rights Impact Assessments seien zwar grundsätzlich etabliert, in Bezug auf die konkrete Durchführung gebe es jedoch Unsicherheiten. Das Podium forderte daher präzisere Leitlinien, etwa zu Datenqualität, Erklärbarkeit sowie zur systematischen Einbindung betroffener Gruppen. Weiters wurde betont, dass es keine „ethischen Algorithmen“ an sich gebe. Ethik entstehe erst im Zusammenspiel von Technologie, Anwendungskontext und bestehenden Machtverhältnissen. Besonders kritisch wurde eine wachsende Machtasymmetrie bewertet: Während viele Nutzer*innen KI-Systeme ohne reale Mitbestimmungsmöglichkeiten anwenden oder testen würden, läge die Kontrolle über die Technologie bei wenigen Akteuren.
AI Act und darüber hinaus
Der EU AI Act wurde insgesamt als wichtiger Fortschritt für den Schutz von Grundrechten bewertet – insbesondere durch die Regulierung sogenannter Hochrisiko-KI-Systeme. Gleichzeitig wurde darauf hingewiesen, dass individuelle Rechtsdurchsetzungsmöglichkeiten bislang vergleichsweise schwach ausgestaltet seien. Gefordert wurde daher ein technologieneutraler Ansatz, bei dem Haftungs- und Antidiskriminierungsrecht gleichermaßen für KI- und Nicht-KI-Systeme gelten. Ergänzend dazu spielten internationale Soft-Law-Instrumente eine zentrale Rolle. Die UNESCO-Empfehlung zur Ethik der Künstlichen Intelligenz diene als globale normative Orientierung und stärke einen menschenzentrierten Zugang zur Entwicklung und Anwendung von KI.
Die Veranstaltung schloss mit einer offenen Diskussion mit dem Publikum und einem informellen Get-together.
Lightning Talk „Das Konzept eines KI-Systems gemäß dem EU AI Act“:
- Prof.in Christiane Wendehorst, Professorin für Zivilrecht (Universität Wien)
Podiumsdiskussion mit:
- Dr.in Christine Andreeva Gajo, Postdoktorandin am Zentrum für Europäische Integrationsforschung (Universität Wien)
- Prof. Peter Knees, Professor für Informationsverarbeitung und -abruf & UNESCO-Lehrstuhl für Digitalen Humanismus (TU Wien)
- Dr. David Reichel, Leiter des Daten- und Digitalsektors (Agentur der Europäischen Union für Grundrechte)
- Prof.in Christiane Wendehorst, Professorin für Zivilrecht (Universität Wien)
Moderiert wurde die Veranstaltung von Anastasia Lopez (Nachrichtenjournalistin & Faktencheckerin).
Hintergrund
Die Österreichische UNESCO-Kommission fungiert als nationale Koordinations- und Verbindungsstelle der UNESCO. Im Jahr 2023 richtete sie den Beirat für die Ethik der Künstlichen Intelligenz ein. Dieses Expert*innengremium unterstützt die Umsetzung der UNESCO-Empfehlung zur Ethik der Künstlichen Intelligenz (2021) in Österreich und fördert den Dialog über die gesellschaftlichen Auswirkungen dieser Technologie. Die UNESCO-Empfehlung zur Ethik der Künstlichen Intelligenz ist der weltweit erste globale Standard für KI-Ethik und setzt sich für einen menschenzentrierten Ansatz in der Entwicklung und Anwendung von KI ein.
Die Veranstaltung wird vom Bundesministerium für Frauen, Wissenschaft und Forschung sowie von der Wirtschaftsagentur Wien gefördert.