Verbotene KI-Praktiken
KI-Systeme, die laut Art. 5 AI Act komplett verboten sind – z.B. Social Scoring, Manipulation, biometrische Massenüberwachung
Was sind verbotene KI-Praktiken?
Verbotene KI-Praktiken sind KI-Systeme, die laut AI Act (Artikel 5) komplett verboten sind. Diese Systeme haben ein inakzeptables Risiko für Grundrechte und Sicherheit.
Wichtig: Diese KI-Systeme dürfen nicht entwickelt, verkauft oder genutzt werden. Das Verbot gilt seit Februar 2025.
Welche KI-Praktiken sind verboten?
Der AI Act definiert 5 Hauptkategorien verbotener KI-Praktiken:
1. Social Scoring durch Behörden
KI-Systeme, die Menschen auf Basis ihres Verhaltens bewerten und kategorisieren (z.B. wie in China).
Beispiel: Ein System, das Bürgern "Punkte" gibt basierend auf ihrem Verhalten und daraus Konsequenzen ableitet (z.B. Reiseverbot).
2. Manipulation von Verhalten
KI-Systeme, die das Verhalten von Menschen manipulieren, ohne dass diese es merken.
Beispiel: Eine App, die subtile psychologische Tricks nutzt, um Kinder zu gefährlichem Verhalten zu verleiten.
3. Ausnutzung von Schwächen
KI-Systeme, die Schwächen von Menschen (Alter, Behinderung, soziale Lage) ausnutzen.
Beispiel: Ein Chatbot, der gezielt Senioren täuscht, um Geld zu stehlen.
4. Biometrische Massenüberwachung
KI-Systeme zur biometrischen Echtzeit-Identifikation im öffentlichen Raum (z.B. Gesichtserkennung in Menschenmengen).
Ausnahme: Nur für Strafverfolgungsbehörden in eng definierten Fällen (z.B. Terrorismus, Kindesentführung).
5. Emotionserkennung am Arbeitsplatz und in Schulen
KI-Systeme, die Emotionen von Mitarbeitern oder Schülern analysieren (z.B. durch Gesichtserkennung).
Ausnahme: Medizinische oder sicherheitsrelevante Gründe (z.B. Müdigkeitserkennung bei LKW-Fahrern).
Warum ist das wichtig?
Verbotene KI-Praktiken haben die höchsten Bußgelder im AI Act:
- Bis zu 35 Millionen Euro ODER
- 7% des weltweiten Jahresumsatzes
Das Verbot gilt absolut. Es gibt keine Möglichkeit, durch Auflagen oder Zertifizierungen eine Ausnahme zu erhalten.
Betrifft das KMU?
Gute Nachricht: Die meisten KMU nutzen KEINE verbotenen KI-Praktiken.
Standard-KI wie ChatGPT, DeepL oder GitHub Copilot fallen NICHT unter verbotene Praktiken.
Grenzfälle: Wann wird es kritisch?
Seid vorsichtig bei:
- Emotionserkennung: Software, die Emotionen von Mitarbeitern analysiert (z.B. via Webcam)
- Verhaltens-Tracking: Überwachungssoftware, die Mitarbeiter bewertet
- Manipulation: Marketing-KI, die gezielt Schwächen ausnutzt
Beispiel: Müller GmbH
Die Müller GmbH (25 Mitarbeiter) nutzt:
- ChatGPT für Texte → ✅ Erlaubt
- DeepL für Übersetzungen → ✅ Erlaubt
- Crisp Chatbot → ✅ Erlaubt
Ergebnis: Keine verbotenen KI-Praktiken.
Gegenbeispiel: Schmidt Personalvermittlung
Die Schmidt Personalvermittlung nutzt eine Software, die:
- Gesichtsausdrücke von Bewerbern im Video-Interview analysiert
- Emotionen bewertet ("Ist der Bewerber authentisch?")
Problem: Emotionserkennung am Arbeitsplatz ist verboten (Art. 5).
Lösung: Software abschalten, auf menschliche Bewertung umstellen.
Wie prüfe ich, ob ich verbotene Praktiken nutze?
Nutzt den kostenlosen KI-VO Check. In 5 Minuten wisst ihr, ob ihr betroffen seid.
Was passiert, wenn ich verbotene Praktiken nutze?
Konsequenzen:
- Bußgelder: Bis zu 35 Millionen Euro oder 7% des Jahresumsatzes
- Sofortige Abschaltung: Das System muss sofort außer Betrieb genommen werden
- Strafverfolgung: In schweren Fällen drohen strafrechtliche Konsequenzen
- Reputationsschaden: Öffentliche Bekanntmachung des Verstoßes