Podcast
Folge 4: General-Purpose AI, die "Allzweck"-KI
Wenn von künstlicher Intelligenz die Rede ist, denken viele zunächst an KI-Modelle wie GPT von OpenAI oder Google Gemini. Solche "General-Purpose AI", kurz GPAI, findet etwa in Chatbots wie ChatGPT oder digitalen Assistenten Anwendung, und für sie gelten besondere Regeln. In dieser Folge der Podcast-Reihe erfahren Sie von Rechtsanwalt Matthias Orthwein und DIHK-Experte Arian Siefert, worauf Sie beim Einsatz von GPAI achten müssen.
Ein GPAI-Modell ist die Basis, auf der konkrete KI-Systeme entstehen. Sobald ein Modell mit einer Benutzeroberfläche kombiniert wird, wird daraus ein vollständiges KI-System. Die größten und besonders rechenintensiv trainierten Modelle gelten als mit systemischen Risiko behaftet und unterliegen zusätzlichen Sicherheits- und Prüfpflichten.
Pflichten vor allem für GPAI-Anbieter
Die KI-Verordnung konzentriert sich bei GPAI vor allem auf die Modell-Anbieter, weniger auf die Betreiber. Das bedeutet: Die meisten Regeln betreffen Unternehmen, die selbst ein KI-Modell entwickeln oder anbieten. Wer lediglich ein bestehendes Modell wie GPT über eine Schnittstelle (API) nutzt, um einen eigenen Chatbot zu betreiben, gilt als Betreiber und muss vor allem Transparenzpflichten erfüllen. Vorsicht: Wer das Modell unter eigener Marke anbietet oder durch Finetuning wesentlich verändert, wird rechtlich zum Anbieter – mit deutlich mehr Pflichten.
Anbieter müssen umfassende Dokumentation und Transparenz sicherstellen, damit andere Unternehmen die Fähigkeiten und Grenzen des Modells verstehen. Dazu gehört eine verständliche Beschreibung des Modells und eine Zusammenfassung der Trainingsinhalte. Außerdem müssen Anbieter sicherstellen, dass Urheber ihre Inhalte vom Training ausschließen können – durch maschinenlesbare "Opt out"-Hinweise. Für systemische Modelle gelten zusätzliche Anforderungen wie umfangreiche Tests, Meldung schwerwiegender Vorfälle an das EU-KI-Büro und Maßnahmen zur Cybersicherheit.
Was bedeutet das für KMU?
Die meisten kleinen und mittleren Unternehmen (KMU) werden GPAI nicht selbst entwickeln, sondern fertige Systeme wie ChatGPT oder Copilot nutzen. Wichtig ist, dass Sie bei der Auswahl des Systems prüfen, ob es die gesetzlichen Anforderungen erfüllt – etwa Kennzeichnungen für KI-generierte Inhalte. Wenn Sie KI für kritische Zwecke einsetzen, wie Emotionserkennung oder automatisierte öffentliche Informationen, müssen Sie Ihre Kunden klar darauf hinweisen, dass Inhalte von einer KI stammen.
Top-Tipps
Was Sie bedenken sollten
Nutzen und Risiken abwägen: Überlegen Sie, ob Sie mit einem GPAI-Modell arbeiten und eine eigene Anwenderoberfläche zum KI-System entwickeln wollen oder ob Sie ein fertiges GPAI-System verwenden möchten. KI-Modelle bieten mehr Flexibilität, erfordern aber höhere Compliance-Aufwände.
Transparenz sicherstellen: KI-erzeugte Inhalte müssen nur dann sichtbar als KI gekennzeichnet werden, wenn es sich um Deepfakes handelt (also um gefälschte, aber täuschend echt wirkende Medien) oder um Texte zu Themen von öffentlichem Interesse (PR-Mitteilungen et cetera). Im Übrigen reicht die nicht sichtbare, maschinenlesbare Kennzeichnung als KI. Prüfen Sie, ob Ihr KI-System dies tut. Chatbots, in denen die KI direkt mit Menschen interagieren soll, müssen sich als KI-System erkennbar geben.
Urheberrechte respektieren: Achten Sie darauf, dass Ihr KI-Modell keine urheberrechtlich geschützten Inhalte ohne Zustimmung verwendet. Implementieren Sie maschinenlesbare Trainingsvorbehalte (Opt-out-Möglichkeiten).
Anwendungshinweise beachten: Anbieter von KI-Systemen müssen Hinweise zu deren rechtskonformer Anwendung bereitstellen, an die Sie sich als Betreiber des KI-Systems zu halten haben.
- Relevant im Themenfeld:
- Innovation
- Schwerpunkte:
-
- Digitalisierung
Veröffentlicht 02.03.2026
Ansprechpartner
Arian Siefert
Referatsleiter Wirtschaft digital
Jonas Wöll
Referatsleiter Digitaler Binnenmarkt, EU-Verkehrspolitik, Regionale Wirtschaftspolitik