Legal Lexikon

Wiki»Legal Lexikon»IT Recht»Artificial Intelligence

Artificial Intelligence


Begriff und Definition: Artificial Intelligence

Artificial Intelligence (deutsch: Künstliche Intelligenz, abgekürzt KI) bezeichnet einen Bereich der Informatik, der sich mit der Entwicklung von Systemen befasst, die in der Lage sind, Aufgaben zu erfüllen, die üblicherweise menschliche Intelligenz erfordern. Hierzu zählen insbesondere Wahrnehmung, Spracherkennung, Entscheidungsfindung und Problemlösung. Die Ausgestaltung rechtlicher Rahmenbedingungen für Artificial Intelligence ist Gegenstand zahlreicher nationaler, europäischer sowie internationaler Regulierungsansätze und betrifft dabei verschiedenste Rechtsgebiete.


Rechtliche Grundlagen und Regulierungsansätze

Nationale Gesetzgebung

In Deutschland gibt es bislang kein eigenständiges Gesetz, das ausschließlich Artificial Intelligence regelt. Gleichwohl sind zahlreiche Rechtsnormen betroffen, darunter Datenschutzrecht, Produkthaftungsrecht, IT-Sicherheitsgesetzgebung sowie Normen zum Schutz von Verbraucherinteressen. Grundrechtliche Erwägungen, insbesondere die Achtung der Menschenwürde und das Recht auf informationelle Selbstbestimmung, spielen eine zentrale Rolle bei der Entwicklung und Anwendung KI-basierter Systeme.

Europäische Rechtsrahmen

Mit dem Vorschlag für einen „AI Act“ (Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz) strebt die Europäische Union erstmals eine umfassende Regulierung an. Der europäische Ansatz sieht insbesondere eine risikobasierte Kategorisierung von Anwendungen, Transparenz- und Dokumentationspflichten sowie besondere Schutzmaßnahmen für Hochrisiko-KI-Systeme vor. Ziel ist die Gewährleistung von Sicherheit, Grundrechten und Vertrauenswürdigkeit von Artificial Intelligence in der gesamten Union.

Internationale Standards

Über EU-Initiativen hinaus existieren Empfehlungen und Leitlinien internationaler Organisationen, etwa der OECD, UNESCO sowie des Internationalen Standardisierungsrates. Diese geben Anhaltspunkte für die verantwortungsvolle Entwicklung, Implementierung und Nutzung KI-basierter Technologien.


Datenschutzrecht und Artificial Intelligence

Grundsätzliche Anforderungen

Artificial Intelligence verarbeitet in der Regel große Mengen personenbezogener Daten. Für die Entwicklung und Anwendung von KI-Systemen ist insbesondere die EU-Datenschutz-Grundverordnung (DSGVO) relevant. Hiernach müssen die Grundsätze der Datenminimierung, Zweckbindung, Transparenz und Rechtmäßigkeit beachtet werden.

Profiling und automatisierte Entscheidungsfindung

Nach Art. 22 DSGVO haben Einzelpersonen das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden. KI-Systeme, die ohne menschliches Zutun Entscheidungen treffen, müssen daher so gestaltet sein, dass individuelle Rechte gewährleistet bleiben. Betroffene Personen müssen über die Logik, Tragweite und angestrebten Auswirkungen der Entscheidungsfindung informiert werden.

Herausforderungen bei der Anonymisierung

Da KI-Systeme durch das Aggregieren und Analysieren von Daten Rückschlüsse auf Personen ermöglichen können, bestehen besondere Herausforderungen für die wirksame Anonymisierung und Pseudonymisierung personenbezogener Daten.


Haftungsrechtliche Aspekte von Artificial Intelligence

Produkthaftung

KI-basierte Produkte und Systeme unterliegen dem Produkthaftungsgesetz (ProdHaftG), sofern sie als fehlerhafte Produkte einen Schaden verursachen. Mit Blick auf adaptive und lernende Systeme ist die Bestimmung des Fehlerbegriffs sowie die Zurechnung der Verantwortlichkeit komplex. In solchen Fällen stellt sich die Frage, ob und wann ein System als fehlerhaft gilt, insbesondere wenn es sich durch maschinelles Lernen verändert.

Deliktsrechtliche Verantwortlichkeit

Neben der verschuldensunabhängigen Haftung können auch deliktische Ansprüche aus unerlaubter Handlung entstehen, etwa bei Verletzung von Leben, Körper, Gesundheit oder sonstigen Rechten durch den Einsatz von KI-Systemen. Die zentrale Herausforderung ergibt sich aus der Frage, ob Verantwortlichkeiten dem Hersteller, dem Betreiber oder – bei autonomen Systemen – weiteren Personenstromen zugeordnet werden können.

Vertragsrechtliche Fragestellungen

Im Vertragsrecht stellen sich zudem zahlreiche Fragen, insbesondere zu Gewährleistungsrechten, Schadenersatz und Haftungsbeschränkungen beim Kauf oder der Nutzung von KI-gestützter Software oder Dienstleistungen.


Immaterialgüterrecht und Artificial Intelligence

Urheberrechtlicher Schutz von KI-Erzeugnissen

Werden durch Artificial Intelligence eigenständige Werke geschaffen, stellt sich die Frage, ob und wem ein urheberrechtlicher Schutz zusteht. Nach geltendem deutschen und europäischen Recht kann bislang lediglich ein Mensch als Urheber gelten, nicht aber ein KI-System. Urheberrechtliche Schutzfähigkeit besteht somit nur, wenn die Werke maßgeblich auf menschlichen Input zurückzuführen sind.

Schutz von KI-Software und Algorithmen

Die zugrunde liegenden Computerprogramme und Algorithmen sind dem urheberrechtlichen Schutz als Computerprogramme zugänglich. Soweit Patente betroffen sind, bestehen Anforderungen an die Technizität und Neuheit der verwendeten Verfahren.


Verbraucher- und Vertragsrecht mit Bezug zur Artificial Intelligence

Transparenz und Informationspflichten

Beim Vertrieb und der Nutzung von KI-Produkten und -Dienstleistungen bestehen gegenüber Verbrauchern weitreichende Informationspflichten. Dazu zählen Hinweise zur Funktionsweise, zu Einsatzgrenzen und ggf. zu Risiken der eingesetzten künstlichen Intelligenz.

AGB-Kontrolle und Haftungsbeschränkungen

Allgemeine Geschäftsbedingungen, die im Zusammenhang mit Artificial Intelligence zur Anwendung kommen, unterliegen der gerichtlichen Kontrolle. Klauseln, mit denen haftungsrechtliche Verantwortung für Fehlfunktionen ausgeschlossen oder beschränkt werden soll, müssen transparent und mit den gesetzlichen Schutzvorschriften vereinbar sein.


Arbeitsrechtliche Implikationen von Artificial Intelligence

Automatisierung und Beschäftigungsschutz

Der zunehmende Einsatz von Artificial Intelligence am Arbeitsplatz wirft Fragen nach dem Schutz vor Arbeitsplatzverlust, arbeitsrechtlichen Mitwirkungs- und Mitbestimmungsrechten sowie neuen Anforderungsprofilen auf. Hier sind insbesondere das Betriebsverfassungsgesetz (BetrVG) sowie einschlägige arbeitsrechtliche Mitbestimmungstatbestände von Bedeutung.

Datenschutz am Arbeitsplatz

KI-Systeme, die zur Überwachung oder Leistungsbewertung von Arbeitnehmern eingesetzt werden, unterliegen strengen arbeitsrechtlichen und datenschutzrechtlichen Vorgaben. Die Transparenz und Nachvollziehbarkeit automatisierter Entscheidungen ist auch in diesem Kontext sicherzustellen.


Ethik, Grundrechte und fundamentale Rechtsprinzipien

Schutz der Menschenwürde und Nichtdiskriminierung

Die Einhaltung der durch das Grundgesetz und europäische Grundrechte gesetzten Standards, insbesondere der Schutz der Menschenwürde und das Diskriminierungsverbot, müssen bei der Konzeption und Anwendung von Artificial Intelligence stets berücksichtigt werden. Dies betrifft u. a. diskriminierungsfreies Profiling sowie faire und transparente Entscheidungsmechanismen.

Verantwortung und Kontrolle

Mit zunehmender Autonomie von KI-Systemen gewinnt die Frage nach verantwortlicher Kontrolle an Bedeutung. Der Gesetzgeber ist gefordert, angemessene Rahmenbedingungen für die Nachvollziehbarkeit, Kontrolle und Regulierung automatisierter Entscheidungen zu schaffen.


Ausblick: Zukünftige Entwicklungen und Regulierungsbedarf

Artificial Intelligence stellt das Recht vor fundamentale neue Herausforderungen. Insbesondere im Kontext von autonomen Systemen, generativer KI und Deep Learning entstehen kontinuierlich neue Fragestellungen, etwa im Hinblick auf Verantwortlichkeiten, Transparenz, Nachvollziehbarkeit und ethische Standards. Nationale und internationale gesetzgeberische Maßnahmen werden in den kommenden Jahren maßgeblich sein, um einen ausgewogenen und innovationsfreundlichen Rechtsrahmen zu schaffen, der zugleich die Rechte und Interessen von Individuen und Gesellschaft schützt.


Diese umfassende Betrachtung des Begriffs Artificial Intelligence unter rechtlichen Gesichtspunkten dient als Überblick über den aktuellen Stand der gesetzlichen Regelungen und Herausforderungen in Deutschland, Europa und auf internationaler Ebene. Die rechtlichen Anforderungen sind Gegenstand ständiger Anpassung, um mit den technologischen Entwicklungen Schritt zu halten.

Häufig gestellte Fragen

Wer haftet für Schäden, die durch den Einsatz von Künstlicher Intelligenz entstehen?

Die Haftung für Schäden, die durch Artificial Intelligence (AI) verursacht werden, ist derzeit Gegenstand intensiver rechtlicher Diskussionen und variiert je nach Jurisdiktion und Einzelfall erheblich. Grundsätzlich kommen mehrere Anspruchsgrundlagen in Betracht: deliktische Haftung, vertragliche Haftung sowie Produkthaftung. Bei typischen Anwendungen von AI, zum Beispiel in selbstfahrenden Autos oder medizinischen Diagnosegeräten, ist zu klären, ob ein menschliches Fehlverhalten vorliegt (z.B. fehlerhafte Bedienung oder mangelnde Überwachung), oder ob ein Systemfehler bzw. ein Fehler im Algorithmus vorliegt. Hersteller, Betreiber und manchmal sogar Programmierer können unter Umständen haftbar gemacht werden. In der Regel wird geprüft, wer im jeweiligen Stadium der Entwicklung, des Betriebs oder der Integration in eine konkrete Anwendung eine Pflichtverletzung begangen hat. Mit dem Vorschlag der EU für die KI-Haftungsrichtlinie (EU AI Liability Directive) sollen neue Haftungsregelungen eingeführt werden, um insbesondere Opfern von Schäden durch autonome Systeme den Beweis ihrer Ansprüche zu erleichtern. Die Regelungen umfassen dabei Beweiserleichterungen, insbesondere wenn Betreiber die Nachweispflichten bezüglich der Funktionsweise ihrer Systeme nicht erfüllen.

Wie ist der Schutz personenbezogener Daten bei der Verwendung von Artificial Intelligence geregelt?

Im rechtlichen Kontext ist insbesondere die EU-Datenschutz-Grundverordnung (DSGVO) maßgeblich, wenn personenbezogene Daten mit Hilfe von Künstlicher Intelligenz verarbeitet werden. Schon bei der Entwicklung und beim Einsatz von AI-Systemen müssen Grundsätze wie Datenminimierung, Zweckbindung und Transparenz berücksichtigt werden. Verantwortliche sind verpflichtet, technische und organisatorische Maßnahmen zu treffen, die gewährleisten, dass ausschließlich relevante Daten genutzt und verarbeitet werden. Betroffene müssen über die Art der Datenverarbeitung, die Zwecke sowie ihre Rechte aufgeklärt werden. Besonders problematisch sind oftmals automatisierte Entscheidungen ohne menschliches Eingreifen. Die DSGVO sieht hierfür strenge Voraussetzungen vor (Art. 22 DSGVO) und räumt den Betroffenen etwa das Recht auf menschliches Eingreifen sowie die Anfechtung automatisierter Entscheidungen ein. Verstöße gegen datenschutzrechtliche Vorgaben können empfindliche Bußgelder und weitere Sanktionen nach sich ziehen.

Welche Anforderungen müssen bei der Transparenz und Nachvollziehbarkeit von AI-Systemen beachtet werden?

Transparenz und Nachvollziehbarkeit sind zentrale rechtliche Anforderungen an den Einsatz von Artificial Intelligence, vor allem in regulierten Bereichen wie Finanzdienstleistungen, Gesundheitswesen oder der öffentlichen Verwaltung. Neben den Transparenzpflichten nach der DSGVO gibt es branchenspezifische Vorschriften, die eine verständliche und nachprüfbare Dokumentation der Funktionsweise von Algorithmen fordern. Die Nachvollziehbarkeit („Explainability“) bezieht sich darauf, dass Entscheidungen von AI-Systemen für Nutzer, Betroffene und gegebenenfalls Aufsichtsbehörden ausreichend erklärbar sind. Dies erfordert nicht nur technische Dokumentation, sondern auch rechtssichere Nutzerinformationen sowie die Möglichkeit zur externen Überprüfung – insbesondere dann, wenn AI-Systeme Menschen unmittelbar betreffen und deren Rechte beeinträchtigt werden können.

Unterliegt das Training von AI-Systemen urheberrechtlichen Schranken?

Beim Training von AI-Systemen mit urheberrechtlich geschützten Inhalten stellt sich die Frage, inwiefern dieses Vorgehen rechtlich zulässig ist. Grundsätzlich sind das Kopieren, Auslesen und Verwenden von Werken für Trainingszwecke echten Werken vorbehalten, sofern keine Ausnahmeregelung greift. Die EU-Richtlinie über das Urheberrecht im digitalen Binnenmarkt (DSM-Richtlinie) sieht unter bestimmten Voraussetzungen Schrankenregelungen zum Text und Data Mining (TDM) vor. Insbesondere nicht-kommerzielle Forschungseinrichtungen dürfen Korpora mit geschützten Inhalten zu Analysezwecken nutzen (§ 44b UrhG). Kommerzielle Zwecke erfordern das Vorliegen einer entsprechenden Lizenz. Unberechtigtes Training kann sowohl zivil- als auch strafrechtlich verfolgt werden und Schadensersatzansprüche der Rechteinhaber nach sich ziehen.

Wie sind ethische und rechtliche Aspekte bei der Diskriminierung durch AI-Systeme geregelt?

Diskriminierung durch AI – beispielsweise bei der Personalauswahl oder Kreditvergabe – kann gegen Antidiskriminierungsvorschriften wie das Allgemeine Gleichbehandlungsgesetz (AGG) oder das EU-Recht (z. B. Art. 21 EU-Grundrechtecharta) verstoßen. Entwickler und Betreiber sind verpflichtet, AI-Systeme so zu gestalten, dass Diskriminierungen erkannt und minimiert werden. Dies umfasst Audits bezüglich der verwendeten Daten und Algorithmen, das Monitoring im laufenden Betrieb und regelmäßige Kontrollen. Rechtlich problematisch wird es, wenn Vorurteile („Biases“) in Trainingsdaten übernommen werden oder Algorithmen fehleranfällig für Diskriminierung sind. Werden dadurch betroffene Rechte verletzt, können Schadensersatz- und Unterlassungsansprüche entstehen. Die EU will mit dem vorgeschlagenen „AI Act“ künftig strenge Anforderungen an sogenannte Hochrisiko-KI-Systeme stellen, um Diskriminierung vorzubeugen.

Welche Mitwirkungs- und Informationspflichten bestehen gegenüber Nutzern von AI-Systemen?

Betreiber von Artifical-Intelligence-Systemen sind verpflichtet, Nutzer transparent über Funktion, mögliche Risiken, Reichweite und Grenzen der Systeme zu informieren. Dies betrifft sowohl klassische Endnutzer als auch Geschäftspartner oder staatliche Stellen, die mit dem System interagieren. Im Einzelfall sind gesetzliche oder vertragliche Informationspflichten einzuhalten, etwa nach dem Produkthaftungsgesetz, bei Dienstleistungen im Gesundheitswesen oder im Rahmen des Verbraucherschutzes. Je nach Einsatzbereich können weitergehende Informationspflichten aus spezialgesetzlichen Regelungen (z.B. Fernabsatzrecht oder Medizinprodukterecht) resultieren. Ein Verstoß gegen diese Pflichten kann neben zivilrechtlichen Ansprüchen auch zu aufsichtsrechtlichen und strafrechtlichen Konsequenzen führen.

Welche Besonderheiten gelten beim Einsatz von AI im Arbeitsrecht?

Beim Einsatz von Artificial Intelligence im Arbeitsumfeld sind zahlreiche arbeitsrechtliche Aspekte zu beachten. Personalentscheidungen, Überwachungssysteme oder automatisierte Schichtplanung mittels AI unterliegen den strengen Vorgaben des Betriebsverfassungsgesetzes (BetrVG) sowie des Datenschutzrechts. Der Betriebsrat besitzt bei der Einführung und Anwendung entsprechender Systeme weitreichende Mitbestimmungsrechte (§ 87 BetrVG). Transparenz sowie die Wahrung der Persönlichkeitsrechte der Beschäftigten müssen jederzeit gewährleistet sein. Kommt es durch AI-unterstützte Entscheidungen zu Benachteiligungen, können Arbeitnehmer Ansprüche wegen Diskriminierung oder Verletzung des allgemeinen Persönlichkeitsrechts geltend machen. Speziell das Thema „Algorithmische Entscheidungsfindung“ in Entlassungs- oder Beförderungsverfahren erfordert eine besonders sorgfältige arbeitsrechtliche Prüfung, da im Streitfall die Gerichte eine umfangreiche Darlegungs- und Begründungspflicht des Arbeitgebers verlangen.