EU-Einigung: Künstliche Intelligenz soll stärker geregelt werden Von Regina Wank, dpa
09.12.2023 11:19
Künstliche Intelligenz, das ist für die einen die Verheißung der
Zukunft, für die anderen eine große Gefahr. Die EU hat sich jetzt in
einer Marathonsitzung auf Regeln geeinigt. In Brüssel wird das als
«historisch» gefeiert - aber was bedeutet das nun?
Brüssel (dpa) - Nach zähen Verhandlungen hat sich die EU auf
schärfere Regeln für Künstliche Intelligenz (KI) geeinigt. Es seien
weltweit die ersten Regeln für KI, teilten Europaparlament und die
EU-Staaten am Freitagabend in Brüssel mit. Die wichtigsten Fragen und
Antworten:
Was ist KI und wie funktioniert sie?
Unter Künstlicher Intelligenz (KI) versteht man den Versuch,
menschliches Lernen und Denken auf den Computer zu übertragen. Ziel
ist es, komplexe Aufgaben erledigen zu lassen, die normalerweise
menschliche Intelligenz erfordern. Generelle Problemlösungsmaschinen
(Artificial General Intelligence) sind trotz aller Fortschritte noch
nicht in Sicht. Allerdings finden enger definierte KI-Anwendungen in
unserer heutigen Welt bereits breite Verwendung: Dazu zählen etwa
automatische Übersetzungen, personalisierte Empfehlungen beim
Online-Shopping, Gesichtserkennung am Handy, aber auch intelligente
Thermostate oder Navis. Auch die Anwendungen der generativen KI wie
der Text-Roboter ChatGPT gehören zu den enger definierten
KI-Anwendungen.
Warum braucht man ein Gesetz dafür?
KI gilt als Zukunftstechnologie. Experten vermuten, dass die
Technologie künftig praktisch alle Aspekte in der Wirtschaft, aber
auch im Alltag betreffen könnte und sich zum Beispiel der
Arbeitsmarkt dadurch massiv wandeln wird: Manche Jobs werden sich
verändern, andere werden vielleicht ganz verschwinden. KI gilt aber
auch als Technologie, die Gefahren birgt. So warnte etwa der Chef des
ChatGPT-Erfinders OpenAI, Sam Altman, vor Falschinformationen mit
Hilfe Künstlicher Intelligenz und sprach sich deshalb für eine
Regulierung aus. Fotos oder Videos können durch KI leicht manipuliert
werden. Als Problem gilt auch, dass KI teilweise mit verzerrten
Datensätzen trainiert wurden und damit Personen diskriminiert werden.
Auch der Einsatz in der Kriegsführung wird für möglich gehalten.
Worauf hat sich die EU nun verständigt?
Die nun vorgelegten Vorschriften legen Verpflichtungen für KI auf
Grundlage ihrer potenziellen Risiken und Auswirkungen fest. Als
besonders riskant werden KI eingestuft, die ein erhebliches
Schadenspotenzial etwa für Gesundheit, Demokratie, Umwelt oder
Sicherheit haben.
Bestimmte Anwendungen werden komplett verboten, etwa biometrische
Kategorisierungssysteme, die sensible Merkmale wie zum Beispiel die
sexuelle Orientierung oder religiöse Überzeugungen verwenden. Auch
das ungezielte Auslesen von Bildern aus dem Internet oder aus
Überwachungsaufnahmen für Gesichtserkennungsdatenbanken soll nicht
erlaubt sein. Allerdings wird es Ausnahmen für biometrische
Identifizierungen im öffentlichen Raum in Echtzeit geben, etwa bei
der Gefahr eines Terroranschlags oder bei der gezielten Suche von
Opfern von Menschenhandel. Um diesen Punkt wurde intensiv gerungen,
das EU-Parlament wollte eigentlich ein komplettes Verbot.
Ein weiterer Streitpunkt war die Regulierung von sogenannten
Basismodellen. Das sind sehr leistungsfähige KI-Modelle, die mit
einem breiten Satz an Daten trainiert wurden. Sie können die
Grundlage für viele andere Anwendungen sein. Dazu zählt etwa GPT.
Deutschland, Frankreich und Italien hatten zuvor gefordert, dass nur
konkrete Anwendungen von KI reguliert werden sollten, nicht aber die
Basis-Technologie an sich. Nun einigten sich die Unterhändler auf
bestimmte Transparenzpflichten für diese Modelle.
Wie fallen die Reaktionen aus?
Je nach Interesse und Blickwinkel ganz unterschiedlich: Kritisiert
wird entweder eine zu starke, innovationsfeindliche Regulierung oder
nicht ausreichende Beschränkungen von KI-Anwendungen.
EU-Kommissionspräsidentin Ursula von der Leyen begrüßte die Einigung
und bezeichnete das Gesetz als «weltweites Novum».
Nach Ansicht des Bundesverbands der Deutschen Industrie (BDI) droht
Europa bei der Schlüsseltechnologie KI nun ins Hintertreffen zu
geraten. «Mit der umfassenden Regulierung von KI-Basismodellen und
KI-Anwendungen gefährdet der AI Act die Wettbewerbs- und
Innovationsfähigkeit sowohl auf Hersteller- als auch auf
Anwenderseite», sagte BDI-Geschäftsführungsmitglied Iris Plöger.
Die
Regulierung basiere auf unausgereiften Kriterien, die den Unternehmen
weniger statt mehr Rechtssicherheit brächten.
Die Bundesverbraucherschutzministerin Steffi Lemke (Grüne) sieht in
der KI-Verordnung hingegen einen Schutz für Verbraucher vor den
Risiken der neuen Technologie. «In den Verhandlungen haben wir uns
besonders dafür eingesetzt, dass KI-Systeme transparent,
nachvollziehbar und überprüfbar gestaltet werden. So müssen nun
künftig Unternehmen, die den Einsatz von KI-Technologien anbieten,
Informationen über die Funktionsweise ihrer Systeme bereitstellen und
KI-gestützte Entscheidungen erläutern», berichtete Lemke am Samstag.
Bei Verstößen könnten Verbraucherverbände mit Verbandsklagen
gerichtlich dagegen vorgehen.
Die europäische Verbraucherschutzorganisation Beuc kritisierte, dass
sich die EU zu sehr auf den guten Willen der Unternehmen zur
Selbstregulierung verlasse. «So werden beispielsweise virtuelle
Assistenten oder KI-gesteuerte Spielzeuge nicht ausreichend
reguliert, da sie nicht als Hochrisikosysteme gelten. Auch Systeme
wie ChatGPT oder Bard werden nicht die notwendigen Leitplanken
erhalten, damit die Verbraucher ihnen vertrauen können», hieß es.
Wie geht es nun weiter?
Zunächst müssen EU-Staaten und Europaparlament dem Vorhaben noch
offiziell zustimmen. Das gilt aber als Formsache. Gelten soll das
Gesetz dann zwei Jahre nach Inkrafttreten.