A. Grundsätzliche Fragen (Ziel, Geltung, Rechtsgrundlage, Ausnahmen)
1. Was ist das Hauptziel der KI-Verordnung (KI-VO)?
Kurze Zusammenfassung
Die Verordnung soll „einheitliche Vorschriften“ für KI-Systeme in der EU schaffen, „um ein hohes Maß an Schutz für Gesundheit, Sicherheit und Grundrechte zu gewährleisten“ und „zugleich das reibungslose Funktionieren des Binnenmarktes zu fördern“ (vgl. Art. 1). Zudem betont sie, dass die Entwicklung und der Einsatz von KI „im Einklang mit den Werten der Union“ erfolgen müssen (Erwägungsgrund 1).
Darüber hinaus wird der rechtliche Ansatz in der Begründung häufig als zweigliedrig beschrieben:
- Gesetzlicher Rahmen: Kategorisierung von KI-Systemen nach Risikogruppen, um passende Vorschriften festzulegen.
- Sicherung menschlicher Verantwortung: Jederzeitige Möglichkeit, die autonome Technik zu kontrollieren oder zu stoppen, damit ein „Mensch in der Schleife“ bleibt.
Offizieller Wortlaut (Auszug)
Art. 1: „[…] Ziel dieser Verordnung ist die Gewährleistung, dass KI-Systeme, die in der Union in Verkehr gebracht oder in Betrieb genommen werden, sicher sind und die grundlegenden Rechte und die Werte der Union geachtet werden, um das Vertrauen in und die Akzeptanz von KI zu stärken […].“ (Art. 1, KOM(2021) 206 endg.)
Erwägungsgrund 1: „[…] KI-Systeme können zahlreiche Vorteile mit sich bringen, sie müssen jedoch so entwickelt und verwendet werden, dass sie den Werten der Union entsprechen und das Vertrauen der breiten Öffentlichkeit gewährleisten […].“
Begründung
Der Gesetzgeber verfolgt ein doppeltes Ziel: Einerseits soll im Binnenmarkt einheitlich und innovationsfreundlich reguliert werden. Andererseits werden Schutzmaßnahmen eingeführt, damit fundamentale Rechte und Werte (Menschenwürde, Gleichheit, Datenschutz usw.) gewahrt bleiben.
2. Für wen gilt die KI-VO?
Kurze Zusammenfassung
Die KI-VO gilt für alle, die KI-Systeme beruflich und in eigener Verantwortung einsetzen („Betreiber“). Dazu zählen:
- Unternehmen und Behörden,
- Selbstständige und Freiberufler,
- jede natürliche Person, die KI nicht nur privat, sondern im beruflichen Kontext nutzt.
Offizieller Wortlaut (Auszug)
Art. 2 Abs. 1: „Diese Verordnung gilt für Anbieter, die KI-Systeme in Verkehr bringen oder in Betrieb nehmen, sofern diese Systeme in der Union verwendet werden oder ihre Ergebnisse in der Union genutzt werden […].“
(Siehe sinngemäß auch Erwägungsgrund 22)
Begründung
Reine Privatnutzung (etwa im familiären Umfeld) fällt nicht unter die KI-VO, da hier keine berufliche oder kommerzielle Verwendung vorliegt.
3. Gilt die Verordnung auch für KI-Systeme aus Drittstaaten?
Kurze Zusammenfassung
Ja. Gemäß Art. 2 Abs. 1 erfasst die Verordnung alle KI-Systeme, die in der Union „in Verkehr gebracht, in Betrieb genommen oder verwendet“ werden – unabhängig davon, ob sie innerhalb oder außerhalb der EU entwickelt wurden.
Offizieller Wortlaut (Auszug)
Art. 2 Abs. 1: „Diese Verordnung gilt für Anbieter, die KI-Systeme in Verkehr bringen oder in Betrieb nehmen, sofern diese Systeme in der Union verwendet werden oder ihre Ergebnisse in der Union genutzt werden […].“
Erwägungsgrund 22: „[…] Dies gilt für Anbieter mit Sitz innerhalb der Union sowie in Drittländern, sofern deren Systeme Auswirkungen im Binnenmarkt entfalten […].“
Begründung
Die extraterritoriale Wirkung soll verhindern, dass Anbieter aus Drittstaaten durch laxe Vorgaben Wettbewerbsvorteile erlangen.
4. Ab wann gilt die KI-VO?
Kurze Zusammenfassung
Die KI-VO ist seit dem 1. August 2024 in Kraft. Um eine reibungslose Einführung zu ermöglichen, werden die Regelungen schrittweise wirksam.
Wichtig: Die Pflicht zur KI-Kompetenz (Art. 4 KI-VO) greift ab dem 02. Februar 2025.
Begründung
Der Übergangszeitraum soll allen Betroffenen (Behörden, Unternehmen, Bildungsbereichen) genug Zeit geben, sich auf die neuen Pflichten und Prozesse einzustellen.
5. Auf welche Rechtsgrundlage stützt sich die Verordnung?
Kurze Zusammenfassung
Die Verordnung basiert in erster Linie auf Artikel 114 AEUV (Binnenmarkt) und Artikel 16 AEUV (Schutz personenbezogener Daten). Beide Bestimmungen sollen einerseits die Harmonisierung des Binnenmarktes ermöglichen und andererseits den Datenschutz fest in die Verordnung integrieren.
Offizieller Wortlaut (Auszug)
Erwägungsgrund 1: „[…] Diese Verordnung wird auf der Grundlage der Artikel 16 und 114 des Vertrags über die Arbeitsweise der Europäischen Union erlassen […].“
(Siehe sinngemäß auch Erwägungsgrund 2)
Begründung
Art. 114 AEUV erlaubt das Schaffen einheitlicher Marktregeln, während Art. 16 AEUV die Verankerung des Datenschutzes als Grundrecht sicherstellt.
6. Gibt es Ausnahmen von der Verordnung?
Kurze Zusammenfassung
Bestimmte Bereiche sind vom Anwendungsbereich explizit ausgenommen, darunter militärische KI-Systeme, nationale Sicherheitsmaßnahmen, rein private und nicht-kommerzielle Nutzung sowie reine Forschungs- und Entwicklungsvorhaben (solange kein Inverkehrbringen erfolgt).
Offizieller Wortlaut (Auszug)
Art. 2 Abs. 3: „Diese Verordnung gilt nicht für KI-Systeme, die ausschließlich für militärische Zwecke entwickelt oder verwendet werden […].“
Art. 2 Abs. 4: „Diese Verordnung gilt nicht für rein private und nicht-kommerzielle Entwicklungen […] wenn kein wirtschaftlicher Nutzen erzielt wird […].“
Art. 2 Abs. 5: „Diese Verordnung gilt nicht für KI-Forschungs- und Entwicklungstätigkeiten, die nicht in Verkehr gebracht oder in Betrieb genommen werden […].“
Begründung
Die Verordnung soll Innovation nicht behindern und nationale Sicherheitsbelange unangetastet lassen.
B. Grundbegriffe und Definitionen
7. Was ist KI laut KI-VO?
Kurze Zusammenfassung
Nach der KI-VO ist KI eine „besondere, insbesondere autonome und deshalb unbeherrschbare Technik, die sich ohne menschliches Zutun verändern kann“. Häufig ist jedoch gar nicht eindeutig, ob im Einzelfall tatsächlich eine KI im Sinne dieser Verordnung vorliegt.
Begründung
Die KI-VO definiert KI vergleichsweise weit. Entscheidend ist, dass ein System selbstlernende oder adaptionsfähige Komponenten aufweist und autonome Entscheidungen oder Prognosen treffen kann.
8. Wie funktioniert KI?
Kurze Zusammenfassung
KI-Systeme greifen auf große Datenpools zurück und erzeugen daraus Ergebnisse, die für Menschen (z. B. als Text, Bild, Sprachausgabe) aufbereitet sind. Beispiele sind ChatGPT (Textausgaben) oder Dall‑E (Bilder).
Begründung
Dank Methoden wie Machine Learning und Deep Learning können KI-Systeme Muster erkennen und komplexe Aufgaben ausführen. Je nach Datenqualität und Trainingsmethode schwankt die Zuverlässigkeit.
9. Was bedeutet es konkret, ein KI-System zu „betreiben“?
Kurze Zusammenfassung
„Betreiber“ ist nach der KI-VO, wer ein KI-System beruflich oder im Rahmen einer öffentlichen Tätigkeit nutzt. Sobald also beispielsweise ChatGPT im Unternehmen zur Kundenkommunikation eingesetzt wird, gilt man als Betreiber.
Begründung
Entscheidend ist der berufliche oder gewerbliche Kontext. Rein private Anwendungen (z. B. zuhause zu Unterhaltungszwecken) fallen nicht darunter.
10. Müssen Lehrkräfte oder Schulen auch etwas beachten?
Kurze Zusammenfassung
Ja. Sobald Lehrkräfte oder Schulen KI-Systeme (z. B. ChatGPT) in den Unterricht integrieren, gelten sie als Betreiber – denn Hausaufgaben und Lernprozesse gehören zum staatlichen Bildungsauftrag, also kein reiner Privatbereich.
Begründung
Die KI-VO erfasst jede nicht-private Nutzung. Schulen und Lehrer müssen daher u. a. sicherstellen, dass Datenschutz, Transparenz und eventuelle Risikobewertungen beachtet werden.
11. Müssen alle Betreiber KI-Kompetenz nachweisen?
Kurze Zusammenfassung
Ja. Nach Art. 4 KI-VO müssen alle Betreiber von KI-Systemen ab Februar 2025 belegen können, dass sie oder ihre Mitarbeitenden eine angemessene KI-Kompetenz besitzen bzw. entsprechende Schulungen anbieten.
Begründung
Dadurch soll sichergestellt werden, dass mit KI-Systemen sachgerecht umgegangen wird – insbesondere bei Bewertung, Risikomanagement und Fehlerbehebung.
C. Klassifikation von KI-Systemen
12. Wie werden KI-Systeme in der Verordnung klassifiziert?
(Zusammenführung der Fragen 5 und 26)
Kurze Zusammenfassung
Die Verordnung sieht einen risikobasierten Ansatz mit verschiedenen Risikostufen vor (Art. 5 ff.). Üblicherweise werden vier Kategorien unterschieden:
- Verbotene KI-Systeme (Art. 5),
- Hochrisiko-KI-Systeme (Anhang III, Art. 6 ff.),
- KI-Systeme mit besonderen Transparenzpflichten (z. B. Deepfakes, Chatbots),
- Geringes oder minimales Risiko (keine besonderen Auflagen).
Offizieller Wortlaut (Auszug)
Erwägungsgrund 26: „[…] Ein risikobasierter Ansatz ist unerlässlich, um KI-Anwendungen in Abhängigkeit von ihrem potenziellen Schaden zu regulieren […].“
Art. 6, 7: enthalten die Kriterien für die Einstufung von KI-Systemen als „Hochrisiko“.
Begründung
Nicht alle KI-Systeme stellen gleiche Gefahrenpotenziale dar. Der Gesetzgeber konzentriert sich vor allem auf hochriskante Anwendungen.
13. Was sind Hochrisiko-KI-Systeme?
Kurze Zusammenfassung
Hochrisiko-KI-Systeme sind solche, die in sensiblen Bereichen wie Medizin, Strafverfolgung, Grenzmanagement oder Justiz eingesetzt werden. Anhang III des Entwurfs (in Verbindung mit Art. 6 ff.) listet diese konkret auf.
Offizieller Wortlaut (Auszug)
Art. 6 Abs. 1: „[…] KI-Systeme, die als Medizinprodukte im Sinne der Verordnung (EU) 2017/745 eingestuft werden […].“
Art. 6 Abs. 3: „[…] KI-Systeme im Bereich der Strafverfolgung […].“
(usw.)
Begründung
Diese Bereiche bergen ein erhöhtes Risiko für Grundrechtsverletzungen (z. B. Diskriminierung, Datenschutz). Deshalb gelten hier besonders strenge Auflagen.
14. Welche KI-Systeme sind ausdrücklich verboten?
Kurze Zusammenfassung
Mehrere Praktiken werden direkt untersagt, z. B. solche, die Menschen unzulässig manipulieren, Social-Scoring-Systeme oder bestimmte Formen biometrischer Fernidentifizierung im öffentlichen Raum.
Offizieller Wortlaut (Auszug)
Art. 5 Abs. 1 Buchst. a: „KI-Systeme, deren Zweck oder Wirkung darin besteht, das Verhalten von Personen durch unlautere Techniken zu manipulieren […].“
Art. 5 Abs. 1 Buchst. b: „KI-Systeme […] zum Zwecke der allgemeinen sozialen Bewertung oder Einstufung natürlicher Personen (Social Scoring) […].“
Art. 5 Abs. 1 Buchst. d: „[…] Echtzeit-Fernbiometrische Identifizierung im öffentlich zugänglichen Raum […] (mit Ausnahme eng definierter Fälle, vgl. Art. 6) […].“
Begründung
Solche Systeme werden als unverhältnismäßig riskant eingestuft und verletzen Grundrechte wie Privatsphäre oder die Menschenwürde.
15. Warum sind Social-Scoring-Systeme verboten?
Kurze Zusammenfassung
Social Scoring (etwa anhand des Verhaltens oder sozialer Merkmale) wird als gravierender Eingriff in Persönlichkeitsrechte angesehen und kann zu weitreichender Diskriminierung führen.
Offizieller Wortlaut (Auszug)
Art. 5 Abs. 1 Buchst. b: „[…] jegliche allgemeine Bewertung oder Einstufung natürlicher Personen, die auf deren sozialen Verhalten, persönlichem oder wirtschaftlichem Status oder persönlichen Merkmalen basiert […].“
Erwägungsgrund 31: „Solche Praktiken können zu systematischer Diskriminierung führen […] und sind daher untersagt.“
Begründung
Eine Einstufung nach sozialem Verhalten widerspricht fundamental den Werten der Union.
16. Gibt es Ausnahmen für Echtzeit-Biometrie?
Kurze Zusammenfassung
Ja, in Ausnahmefällen (z. B. bei Terrorabwehr oder Suche nach vermissten Personen) dürfen Strafverfolgungsbehörden Echtzeit-Systeme zur biometrischen Fernidentifizierung verwenden, jedoch nur nach richterlicher Genehmigung und unter strengen Auflagen.
Offizieller Wortlaut (Auszug)
Art. 6 Abs. 1: „[…] Ausnahmen für die Verwendung von Fernbiometrischen Echtzeitsystemen im öffentlichen Raum gelten nur bei schwersten Straftaten […] und nur unter Aufsicht gerichtlicher oder unabhängiger Behörden […].“
Erwägungsgrund 32: „[…] Eine solche Verwendung muss verhältnismäßig, zeitlich begrenzt und streng zweckgebunden sein […].“
Begründung
Obwohl Echtzeit-Biometrie grundsätzlich als zu riskant gilt, sollen Sicherheitsbehörden in extremen Fällen handlungsfähig bleiben.
17. Ist KI gefährlich?
Kurze Zusammenfassung
Ob KI gefährlich ist, hängt vom Verwendungszweck, der Datenqualität und dem Risiko ab. Die KI-VO verknüpft die rechtlichen Vorgaben mit einer Risikoeinschätzung. Wer KI z. B. nur zur einfachen Textgenerierung nutzt, hat ein anderes Gefahrenpotenzial als Anbieter hochriskanter Systeme (z. B. Medizinsoftware).
Begründung
Ziel ist ein ausgewogener Ansatz: KI-Einsatz soll nicht pauschal verboten, aber je nach Gefährdungsgrad streng reguliert werden.
D. Pflichten und Anforderungen
18. Welche Verpflichtungen gelten für Hochrisiko-KI-Anbieter?
Kurze Zusammenfassung
Anbieter von Hochrisiko-KI-Systemen unterliegen besonders umfangreichen Auflagen:
- Risikomanagementsystem (Art. 9),
- Qualitätskontrollen und Datenanforderungen (Art. 10),
- ausführliche technische Dokumentation (Art. 11),
- Informations- und Transparenzpflichten (Art. 13),
- menschliche Aufsicht (Art. 14).
Offizieller Wortlaut (Auszug)
Art. 9: „[…] Einrichtung und Aufrechterhaltung eines Risikomanagementsystems […].“
Art. 10: „[…] Daten- und Datengovernance-Anforderungen […].“
Art. 14: „Menschliche Aufsicht […] ist sicherzustellen.“
Begründung
In diesen Sektoren ist das Risiko für Grundrechte hoch. Daher muss sichergestellt sein, dass die KI-Systeme sorgfältig entworfen, validiert und kontrolliert werden.
19. Wie werden Hochrisiko-KI-Systeme geprüft?
Kurze Zusammenfassung
Vor dem Inverkehrbringen oder der Inbetriebnahme wird eine Konformitätsbewertung durchgeführt. Je nach System kann dies über eine interne Prüfung (Anbieter selbst) oder durch eine notifizierte Stelle (externe Zertifizierung) erfolgen.
Offizieller Wortlaut (Auszug)
Art. 43 Abs. 1: „[…] Hochrisiko-KI-Systeme unterliegen einer Konformitätsbewertung […] vor ihrem Inverkehrbringen oder ihrer Inbetriebnahme […].“
Erwägungsgrund 47: „[…] In bestimmten Fällen kann der Anbieter eine interne Kontrolle durchführen; in anderen Fällen ist eine Drittzertifizierung erforderlich […].“
Begründung
Das Verfahren stellt sicher, dass technische und rechtliche Anforderungen eingehalten werden, bevor das Produkt im Markt erscheint.
20. Wie müssen Unternehmen KI-Risiken managen?
Kurze Zusammenfassung
Unternehmen müssen ein fortlaufendes Risikomanagementsystem implementieren, um mögliche Gefahren für Nutzer, Grundrechte und Sicherheit zu identifizieren, zu bewerten und zu mindern – während des gesamten Lebenszyklus des KI-Systems.
Offizieller Wortlaut (Auszug)
Art. 9 Abs. 1: „[…] Anbieter richten ein Risikomanagementsystem ein, das die Analyse, Bewertung, Minderung und Überwachung der Risiken […] umfasst […].“
Erwägungsgrund 65: „[…] Ein dynamisches und kontinuierliches Risikomanagement ist zwingend erforderlich, da KI-Systeme sich im Laufe der Zeit anpassen können […].“
Begründung
Insbesondere Machine-Learning-Modelle ändern sich durch neue Daten. Das Risikomanagement darf daher nicht einmalig, sondern muss laufend aktualisiert werden.
21. Welche KI-Systeme müssen besonders transparent sein?
Kurze Zusammenfassung
Artikel 52 KI-VO schreibt vor, dass bei bestimmten KI-Systemen offengelegt wird, dass es sich um eine KI handelt (z. B. Chatbots). Auch Deepfakes oder Emotionserkennung sind besonders zu kennzeichnen.
Offizieller Wortlaut (Auszug)
Art. 52 Abs. 1: „[…] Nutzer ist darüber zu informieren, dass er mit einem KI-System interagiert […].“
Art. 52 Abs. 3: „[…] Verwendung synthetischer Inhalte (‚Deepfakes‘) ist so zu kennzeichnen […]“
Art. 52 Abs. 2: „[…] Bei Systemen zur Emotionserkennung oder biometrischen Kategorisierung sind die relevanten Informationen […] bereitzustellen […].“
Begründung
Transparenzpflichten sollen sicherstellen, dass Menschen bewusst entscheiden können, wie sie mit KI kommunizieren.
22. Wie wird Datenschutz in der Verordnung geregelt?
Kurze Zusammenfassung
Die KI-VO ergänzt die DSGVO. Anbieter von Hochrisiko-KI-Systemen müssen gewährleisten, dass sie personenbezogene Daten (falls nötig) minimieren, pseudonymisieren oder verschlüsseln.
Offizieller Wortlaut (Auszug)
Art. 10 Abs. 5: „[…] Anbieter haben angemessene technische und organisatorische Maßnahmen zur Gewährleistung der Einhaltung der Datenschutzvorschriften zu treffen […] einschließlich Pseudonymisierung […].“
Erwägungsgrund 69: „[…] Diese Verordnung steht im Einklang mit der DSGVO […].“
Begründung
Die DSGVO bleibt uneingeschränkt gültig. Die KI-VO enthält jedoch zusätzliche Pflichten, um Datenschutzrisiken speziell bei Hochrisiko-Systemen abzudecken.
23. Welche Pflichten haben KI-Betreiber konkret?
Kurze Zusammenfassung
Neben den Vorgaben für Hochrisiko-Anbieter (Art. 9 ff.) hat die KI-VO für alle Betreiber bestimmte Mindestanforderungen vorgesehen, z. B.:
- Nachweis von KI-Kompetenz (Art. 4),
- Überwachung und Kontrolle der KI-Ergebnisse,
- Dokumentationspflichten und Transparenz,
- ggf. Meldung von Fehlfunktionen an Aufsichtsbehörden.
Begründung
Der Umfang hängt von der Risikokategorie der Anwendung ab. Doch auch bei einfacheren KI-Systemen gelten bestimmte Grundpflichten zur Sorgfalt.
E. Sanktionen und Durchsetzung
24. Welche Strafen drohen bei Verstößen gegen die KI-VO?
Kurze Zusammenfassung
Die Verordnung sieht abgestufte Bußgelder vor, die sich am Schweregrad des Verstoßes orientieren. Bei verbotenen KI-Systemen (Art. 5) drohen die höchsten Strafen, bei weniger gravierenden Verstößen entsprechend geringere Bußgelder. Daneben können Auflagen oder Untersagungen ausgesprochen werden.
Offizieller Wortlaut (Auszug)
Art. 71 Abs. 4: „[…] Für Verstöße gegen Artikel 5 können Geldbußen von bis zu 30 Millionen Euro oder bis zu 6 % des weltweiten Jahresumsatzes […] verhängt werden […].“
(In einigen Entwürfen sind abweichende Summen wie 35 Mio. € oder 7 % genannt; die finale Fassung kann differieren.)
Begründung
Es soll ein spürbarer Abschreckungseffekt erzielt werden, um verbotene Praktiken zu unterbinden und die Einhaltung der Anforderungen zu sichern.
25. Wer überwacht die Einhaltung der Verordnung?
Kurze Zusammenfassung
Die Überwachung liegt bei den nationalen Marktüberwachungsbehörden der Mitgliedstaaten. Auf EU-Ebene wird ein „European Artificial Intelligence Board“ eingerichtet, das koordinierend tätig ist.
Offizieller Wortlaut (Auszug)
Art. 59: „Jeder Mitgliedstaat benennt eine oder mehrere zuständige Behörden für die Marktüberwachung […].“
Art. 56: „Auf Unionsebene wird ein Europäischer Ausschuss für künstliche Intelligenz […] eingerichtet […].“
Begründung
Ähnlich wie bei der DSGVO gibt es eine dezentrale Struktur in den Mitgliedstaaten, ergänzt durch eine koordinierende Stelle auf EU-Ebene.
F. Forschung, Innovation und Start-ups
26. Sind KI-Startups von der Verordnung betroffen?
Kurze Zusammenfassung
Ja. Grundsätzlich gilt die KI-VO für alle Anbieter. Allerdings ermöglicht Art. 53 den Einsatz sogenannter „regulatorischer Sandboxes“, in denen Start-ups zeitlich befristet KI-Systeme testen können, ohne sofort alle Auflagen erfüllen zu müssen.
Offizieller Wortlaut (Auszug)
Art. 53: „[…] Die zuständigen Behörden können kontrollierte Umgebungen (regulatorische Sandboxes) bereitstellen, in denen KI-Systeme zeitlich befristet entwickelt und getestet werden können […].“
Erwägungsgrund 68: „[…] KMU und Startups sollen von diesem Innovationsinstrument profitieren […].“
Begründung
Die EU will so Innovation fördern und zugleich sicherstellen, dass bei der Marktreife sämtliche Anforderungen erfüllt werden.
27. Welche Vorteile bietet die Verordnung für die Forschung?
Kurze Zusammenfassung
Forschungs- und Entwicklungstätigkeiten sind ausgenommen, solange die entwickelten KI-Systeme nicht in Verkehr gebracht oder in Betrieb genommen werden. Damit soll wissenschaftliche Innovation gefördert werden.
Offizieller Wortlaut (Auszug)
Art. 2 Abs. 5: „[…] Diese Verordnung gilt nicht für KI-Forschungs- und Entwicklungstätigkeiten, die nicht in Verkehr gebracht oder in Betrieb genommen werden […].“
Erwägungsgrund 25: „[…] Forschungstätigkeiten sind für Innovation und Wissenstransfer von entscheidender Bedeutung und sollen nicht durch unverhältnismäßige Auflagen behindert werden […].“
Begründung
Erst bei einer (kommerzialisierbaren) Marktreife oder Anwendung im echten Betrieb greift der volle Regelungsrahmen.
G. Weitere Rechtsfragen und Praxis
28. Welches Recht ist neben der KI-VO noch zu beachten?
Kurze Zusammenfassung
Abhängig vom Einsatzbereich der KI können weitere Rechtsgebiete relevant sein:
- Datenschutzrecht (DSGVO),
- Urheber- und Markenrecht (bei generierten Texten/Bildern),
- Arbeitsrecht, Verbraucherschutzrecht, Jugendschutzrecht – je nach Kontext.
Begründung
Die KI-VO regelt KI-spezifische Fragen, verdrängt aber keine anderen Gesetze. Vielmehr müssen sämtliche relevanten Rechtsvorschriften parallel angewendet werden.
29. Wie kann man KI-Kompetenz im Unternehmen vermitteln?
Kurze Zusammenfassung
Es gibt verschiedene Ansätze:
- Interne oder externe Schulungen (Einführung in KI-Grundlagen und rechtliche Aspekte),
- E-Learning-Plattformen (Webinare, Onlinekurse),
- Workshops im Team (praktisches Üben mit KI-Tools),
- Zertifizierungen (anerkannte Programme oder Abschlüsse).
Begründung
Gemäß Art. 4 KI-VO sind Unternehmen verpflichtet, ihre Mitarbeitenden bei der sicheren und verantwortungsvollen Nutzung von KI-Systemen zu schulen.
30. Welche Beispiele gibt es für „Betrieb“ eines KI-Systems?
Kurze Zusammenfassung
Typische Beispiele beruflicher oder öffentlicher Nutzung:
- Marketingabteilung generiert Flyer mit Bild-KI,
- Handwerksbetrieb nutzt ChatGPT für Kundenkommunikation,
- Schule gibt Schülern Zugang zu KI-Tools im Unterricht,
- Rechtsanwaltsbüro wertet Dokumente KI-basiert aus.
Begründung
In all diesen Fällen liegt eine professionelle bzw. gewerbliche Nutzung vor – somit greift der Betreiberbegriff der KI-VO.
31. Worauf sollte man besonders achten, wenn man KI im eigenen Betrieb einführt?
Kurze Zusammenfassung
- Kompetenzaufbau: Ausreichendes KI-Know-how ist essenziell (Art. 4 KI-VO).
- Risikoeinstufung: Welche Daten werden verarbeitet, welche Gefahren bestehen?
- Rechtskonformität: Neben KI-VO auch Datenschutz- oder Urheberrecht beachten.
- Transparenz: Mitarbeiter und ggf. Kunden informieren, wenn KI zum Einsatz kommt.
Begründung
Ein durchdachtes Vorgehen verhindert Rechtsverstöße und erhöht die Akzeptanz der KI-Anwendungen bei allen Beteiligten.
