Legal Lexikon

Large


Begriff „Large“ im Recht: Definition und rechtliche Bedeutung

Der Begriff „Large“ wird im rechtlichen Kontext in verschiedenen Zusammenhängen und Rechtsgebieten verwendet. Je nach Anwendungsfall kann Large eine normative, quantitative oder qualitative Bedeutung zukommen. Die Auslegung und rechtliche Relevanz des Begriffs richtet sich dabei im Wesentlichen nach dem jeweiligen Sachgebiet und der anwendbaren Gesetzgebung. Im Folgenden wird eine umfassende Übersicht über die Definition, Anwendungsbereiche sowie die rechtlichen Implikationen des Begriffs „Large“ gegeben.


Definition und allgemeiner Bedeutungsgehalt

Begriffliche Herleitung

Das Wort „Large“ stammt aus dem Englischen und bedeutet wörtlich übersetzt „groß“, „umfangreich“ oder „weitreichend“. In der rechtlichen Terminologie dient der Begriff häufig als Kategorisierungsmerkmal zur Abgrenzung von Größenordnungen, Kapazitäten oder Reichweiten.

Verwendung in Gesetzen und Rechtsvorschriften

In der Gesetzgebung, insbesondere bei der Umsetzung von europäischen Richtlinien und internationalen Abkommen, wird der Begriff „Large“ häufig zur Kennzeichnung bestimmter Schwellenwerte oder Kategorien verwendet, beispielsweise bei Unternehmen, Organisationen oder Datenmengen.


Anwendungsbereiche des Begriffs Large im Recht

Unternehmensrecht: „Large Undertakings“ und „Large Companies“

Definition im Kontext des Unternehmensrechts

Im Unternehmensrecht finden sich vielfach Regelungen, die zwischen kleinen, mittleren und großen Unternehmen unterscheiden. Der Begriff „Large“ wird insbesondere in europäischen Rechtsvorschriften und internationalen Standards, wie zum Beispiel den International Financial Reporting Standards (IFRS), zur Definition von „Large Undertakings“ oder „Large Companies“ herangezogen.

Relevante Schwellenwerte und Kriterien

Die Einordnung als „Large“ Unternehmen richtet sich regelmäßig nach bestimmten quantifizierbaren Kriterien, wie:

  • Bilanzsumme
  • durchschnittliche Anzahl der Beschäftigten
  • Jahresumsatzerlöse

Beispielsweise gelten im Europäischen Recht Unternehmen als „groß“, wenn sie an zwei aufeinanderfolgenden Bilanzstichtagen mindestens zwei der folgenden drei Merkmale überschreiten: eine Bilanzsumme von 20 Millionen Euro, einen Jahresumsatz von 40 Millionen Euro oder mehr als 250 Beschäftigte.

Rechtsfolgen und Besonderheiten

Die Kategorisierung als „Large“ ist unter anderem für die Anwendung spezifischer Berichts-, Prüfungs- und Offenlegungspflichten relevant, betrifft etwa:

  • Erweiterte Publizitätspflichten (z.B. im Handelsrecht)
  • Anwendbarkeit der Abschlussprüfungspflicht
  • Teilnahme an bestimmten öffentlichen Aufträgen
  • Umweltrechtliche Berichtspflichten (z.B. nach CSR-Richtlinie)

Datenschutz- und IT-Recht: „Large Scale“ Verarbeitung

Begrifflichkeit im Datenschutz

Die Datenschutz-Grundverordnung (DSGVO) verwendet den Begriff „Large Scale“ im Zusammenhang mit der Verarbeitung personenbezogener Daten. „Large Scale“ bezeichnet dabei die Verarbeitung durch Unternehmen, die aufgrund der Menge, des Umfangs oder der geografischen Ausdehnung als groß einzustufen ist.

Rechtliche Konsequenzen

Im Zuge von „Large Scale“-Verarbeitung bestehen erhöhte Anforderungen, etwa:

  • Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung (Art. 35 DSGVO)
  • Bestellung eines Datenschutzbeauftragten
  • Erhöhte Rechenschafts- und Dokumentationspflichten

Zur Auslegung, ob eine Verarbeitung als „Large Scale“ einzustufen ist, orientieren sich Behörden an der Anzahl der betroffenen Personen, dem Umfang der verarbeiteten Daten und dem räumlichen wie auch zeitlichen Ausmaß der Verarbeitung.


Banken- und Finanzwesen: „Large Exposures“ und Risikovorschriften

Begriffliche Einordnung

Im Finanzaufsichtsrecht ist insbesondere der Begriff „Large Exposures“ von Bedeutung. Nach der EU-Verordnung über Aufsichtsanforderungen an Kreditinstitute und Wertpapierfirmen (CRR) werden als „Large Exposures“ Kreditengagements bezeichnet, die einen bestimmten Prozentsatz des haftenden Eigenkapitals einer Bank überschreiten.

Relevanz und Pflichten

Bei Überschreitung der Schwellenwerte sind Institute verpflichtet:

  • Ihre Großkredite gegenüber der Aufsichtsbehörde zu melden
  • Qualität und Zusammensetzung ihrer Risikopositionen offen zu legen
  • Weitere aufsichtsrechtliche Beschränkungen und Sicherungsmaßnahmen einzuhalten

Die Einordnung als „Large Exposure“ zielt auf die Begrenzung von Konzentrationsrisiken und Sicherstellung der Finanzmarktstabilität.


Steuerrecht und Rechnungswesen: Anwendung im Kontext „Large Scale Taxpayers“

Abgrenzungsmerkmale

In verschiedenen nationalen Steuergesetzen existieren Bestimmungen für „Large Scale Taxpayers“ oder Großunternehmen, deren Umsätze oder Steuerschulden bestimmte Schwellenwerte überschreiten.

Steuerliche Implikationen

Für diese Unternehmen gelten typischerweise:

  • Besondere Melde- und Erklärungspflichten
  • Erhöhte Anforderungen an Buchführung und Dokumentationspflichten
  • Regelung spezieller Prüfverfahren durch die Finanzbehörden

Rechtliche Auslegung und Bestimmtheitsgrundsatz

Notwendigkeit eindeutiger Definitionen

Im Rahmen grundrechtsorientierter Normprüfung ist zu beachten, dass der Begriff „Large“ aus dem englischen Sprachgebrauch stammt und im deutschen Recht aus Gründen der Bestimmtheit (Art. 20 Abs. 3 GG) klar definiert sein muss. Unbestimmte oder auslegungsbedürftige Verwendungen können dem Bestimmtheitsgebot widersprechen und unter Umständen zur Unwirksamkeit von Regelungen führen, sofern dies nicht durch einfachgesetzliche Definitionen oder ständige Verwaltungspraxis präzisiert wird.

Auslegungskriterien

Für die rechtskonforme Auslegung werden folgende Kriterien herangezogen:

  • Gesetzeswortlaut und Verweistexte
  • Zielsetzung und Normzweck
  • Referenzierung auf bestehende Schwellenwerte (europäisches oder nationales Recht)
  • Verwaltungspraxis und bestehende Guidance-Dokumente (z.B. Leitlinien der Europäischen Kommission, des Europäischen Datenschutzausschusses)

Internationale und supranationale Rechtsquellen

Europäische Union

Die Europäische Union nutzt den Begriff „Large“ in zahlreichen Richtlinien und Verordnungen zur Kategorisierung von Unternehmen und Institutionen. Prominente Beispiele sind:

  • Rechnungslegungsrichtlinie (2013/34/EU)
  • Datenschutz-Grundverordnung (DSGVO)
  • Kapitaladäquanzverordnung (CRR)

Internationale Organisationen und Standards

Auch internationale Organisationen wie die OECD, das IFRS-Board oder die G20 verwenden ähnliche Kategorisierungssystematiken im Kontext von Großunternehmen oder „Large Scale“-Projekten mit entsprechend differenzierten Rechtsfolgen.


Fazit

Der Begriff „Large“ stellt im Recht ein wesentliches Unterscheidungs- und Kategorisierungskriterium in vielfältigen Anwendungsbereichen dar. Seine Bedeutung ist abhängig vom sachlichen Kontext und jeweils näher bestimmt durch gesetzliche Definitionen, Verwaltungsvorschriften oder internationale Standards. Insbesondere im Unternehmensrecht, Datenschutz, Finanzrecht und Steuerrecht entfaltet die Einordnung als „Large“ wichtige Rechtsfolgen hinsichtlich Pflichten, Prüfungen und Meldeerfordernissen. Zur Sicherstellung der Rechtssicherheit ist eine präzise gesetzgeberische Ausgestaltung und eindeutige Auslegung unerlässlich.

Häufig gestellte Fragen

Wer haftet für Schäden beim Einsatz von Large Language Models (LLMs) in Unternehmen?

Im rechtlichen Kontext stellt sich beim Einsatz von Large Language Models (LLMs) insbesondere die Frage der Haftung für etwaige Schäden, die durch fehlerhafte Ausgaben, unerlaubte Datenverarbeitung oder Falschinformationen entstehen können. Grundsätzlich richtet sich die Haftung nach allgemeinen zivilrechtlichen Vorschriften, wie etwa § 823 BGB (Deutschland) hinsichtlich unerlaubter Handlungen. Unternehmen, die LLMs einsetzen, sind verpflichtet, geeignete technische und organisatorische Maßnahmen zu implementieren, um Risiken zu minimieren. Wird beispielsweise ein LLM zur automatischen Generierung von Texten genutzt, ist das Unternehmen dafür verantwortlich, die Inhalte auf ihre Richtigkeit und Rechtskonformität zu prüfen. Kommt es dabei zu Rechtsverletzungen – etwa durch die Verbreitung personenbezogener Daten oder urheberrechtlich geschützter Inhalte – kann sowohl eine zivilrechtliche Haftung (Schadensersatz, Unterlassung) als auch eine öffentlich-rechtliche Sanktion (Bußgelder, aufsichtsrechtliche Maßnahmen) durch Datenschutzbehörden oder andere zuständige Stellen drohen. Hersteller und Anbieter von LLMs können ebenfalls in die Haftung genommen werden, wenn ein Mangel in der Software vorliegt, wobei dies jedoch eine sorgfältige Prüfung der Vertrags- und Haftungsstrukturen im Einzelfall voraussetzt.

Welche datenschutzrechtlichen Anforderungen gelten beim Einsatz von LLMs?

Die Verarbeitung personenbezogener Daten mithilfe von Large Language Models unterliegt den strengen Vorgaben der Datenschutz-Grundverordnung (DSGVO). Unternehmen müssen vor der Nutzung von LLMs klären, ob und in welchem Umfang personenbezogene Daten verarbeitet werden. Die Einhaltung von Grundsätzen wie Datenminimierung, Zweckbindung und Transparenz ist zwingend erforderlich. Besonders kritisch ist die Frage der Rechtsgrundlage: So ist etwa eine Einwilligung notwendig, sofern vertrauliche oder sensible Daten genutzt werden. Ergänzend ist zu prüfen, ob eine Auftragsverarbeitung nach Art. 28 DSGVO vorliegt, was vertragliche Klarstellungen zwischen dem datenschutzrechtlich Verantwortlichen und dem Dienstleister (LLM-Betreiber) verlangt. Unternehmen müssen zudem sicherstellen, dass die Datenverarbeitung nicht zu unzulässigen Profilbildungen oder Diskriminierungen führt und im Falle des internationalen Datentransfers geeignete Garantien (etwa EU-Standardvertragsklauseln) umgesetzt werden.

Wie gestaltet sich die Urheberrechtssituation bei durch LLMs generierten Inhalten?

Im deutschen und europäischen Urheberrecht ist für den Schutz eines Werkes die persönliche geistige Schöpfung eines Menschen erforderlich (§ 2 UrhG). Da Inhalte, die vollständig durch LLMs generiert werden, in der Regel ohne menschliche Kreativleistung entstehen, genießen diese Inhalte regelmäßig keinen urheberrechtlichen Schutz. Werden jedoch menschliche Eingaben (Prompts) in den Erstellungsprozess eingebracht, kann im Einzelfall eine Schutzfähigkeit diskutiert werden, wenn die menschliche Einflussnahme hinreichend kreativ ist. Andererseits sind bei der Verwendung von LLM-Ausgaben stets die Rechte Dritter zu beachten – etwa, wenn Trainingsdaten urheberrechtlich geschützte Werke beinhalten und das Modell daraus schutzfähige Fragmente reproduziert. In solchen Konstellationen drohen Abmahnungen und Unterlassungsansprüche, weshalb Unternehmen klare Nutzungsrichtlinien aufstellen und gegebenenfalls rechtliche Beratung einholen sollten.

Welche Informationspflichten bestehen gegenüber Nutzern beim Einsatz von LLMs?

Unternehmen, die LLMs einsetzen, sind gemäß DSGVO und TMG (Telemediengesetz) zur umfassenden Information der Nutzer verpflichtet. Dies schließt Informationen über die Funktionsweise des Systems, die Verarbeitung personenbezogener Daten, die Zwecke der Verwendung sowie die eingesetzten Algorithmen mit ein. Weiterhin müssen Unternehmen offenlegen, ob und in welchem Umfang automatisierte Entscheidungen getroffen werden, die Nutzer betreffen könnten (Art. 13, 14 DSGVO sowie Art. 22 DSGVO). Werden personenbezogene Daten verarbeitet, so sind die Nutzer rechtzeitig und transparent darüber zu informieren; dies umfasst insbesondere den Hinweis auf die Möglichkeit, Auskunft, Löschung oder Berichtigung ihrer Daten verlangen zu können. Im Rahmen des Verbraucherrechts ergeben sich zudem ergänzende Informationspflichten, etwa im Hinblick auf die Gewährleistung, Haftung und Rücktrittsrechte.

Ist die Weitergabe von Daten an Anbieter von LLMs rechtlich zulässig?

Die Weitergabe von Daten an externe Anbieter von LLMs unterliegt besonders hohen rechtlichen Anforderungen, da sie regelmäßig einen Datentransfer an Dritte – oftmals auch ins Ausland – darstellt. Insbesondere ist zu prüfen, ob der jeweilige Anbieter datenschutzrechtlich als Auftragsverarbeiter oder eigenständiger Verantwortlicher agiert. Für die Übermittlung personenbezogener Daten ist eine gesetzliche Grundlage nach Art. 6 DSGVO erforderlich; bei internationalen Datentransfers kommen weitere Anforderungen wie Angemessenheitsbeschlüsse, Standardvertragsklauseln oder Binding Corporate Rules hinzu (Art. 44ff. DSGVO). Unternehmen sollten ebenfalls vertragliche Vorkehrungen zum Schutz von Geschäftsgeheimnissen sowie zur Wahrung des Datenschutzes und der IT-Sicherheit treffen. Die eigentliche Auswahl des Anbieters bedarf einer sorgfältigen Due-Diligence-Prüfung unter Einbeziehung von Datenschutz, Informationssicherheit und Vertragsrecht.

Welche Besonderheiten bestehen für die Nutzung von LLMs im Arbeitsrecht?

Beim Einsatz von Large Language Models im Arbeitsverhältnis sind zahlreiche arbeitsrechtliche Vorgaben zu beachten. Insbesondere die Mitbestimmungsrechte des Betriebsrats nach dem Betriebsverfassungsgesetz (§ 87 BetrVG) spielen eine zentrale Rolle, sobald LLMs als technische Einrichtungen eingeführt werden, die das Verhalten oder die Leistung der Arbeitnehmer überwachen können. Ferner muss bei der Verarbeitung von Mitarbeiterdaten durch LLMs der Grundsatz der Erforderlichkeit sowie das Verbot der Zweckentfremdung beachtet werden (§ 26 BDSG). Arbeitgeber unterliegen zudem einer gesteigerten Hinweispflicht bezüglich des Einsatzes von KI-Systemen und müssen sicherstellen, dass Arbeitnehmer durch die Nutzung nicht diskriminiert, benachteiligt oder unangemessen bewertet werden. Die Einbindung des Datenschutzbeauftragten und ggf. eine Datenschutz-Folgenabschätzung gemäß Art. 35 DSGVO sind in der Praxis regelmäßig erforderlich.

Welche Sorgfaltspflichten treffen Unternehmen bei der Einführung von LLMs?

Unternehmen unterliegen bei der Einführung von Large Language Models umfangreichen Sorgfalts- und Prüfpflichten. Dazu zählen die Risikoanalyse und Folgenabschätzung im Hinblick auf Datenschutz und IT-Sicherheit, die Implementierung angemessener technischer sowie organisatorischer Maßnahmen zur Vermeidung von Rechtsverstößen, sowie die Dokumentation des gesamten Entscheidungsprozesses im Rahmen der Rechenschaftspflicht nach Art. 5 Abs. 2 DSGVO. Unternehmen sind verpflichtet, kontinuierliche Schulungen und Sensibilisierungen der Mitarbeiter durchzuführen, um einen rechtskonformen Einsatz der Technologie zu gewährleisten. Im Hinblick auf Produkthaftung und Compliance müssen Geschäftsprozesse angepasst sowie Haftungsrisiken und potenzielle Schwachstellen regelmäßig evaluiert werden. Dies schließt auch das Monitoring des Outputs von LLMs sowie die Möglichkeit der schnellen Fehlerkorrektur und Notfallmaßnahmen im Falle von Rechtsverstößen ein.