KI-Verordnung

Verbotene KI-Praktiken

KI-Systeme, die laut Art. 5 AI Act komplett verboten sind – z.B. Social Scoring, Manipulation, biometrische Massenüberwachung

Was sind verbotene KI-Praktiken?

Verbotene KI-Praktiken sind KI-Systeme, die laut AI Act (Artikel 5) komplett verboten sind. Diese Systeme haben ein inakzeptables Risiko für Grundrechte und Sicherheit.

Wichtig: Diese KI-Systeme dürfen nicht entwickelt, verkauft oder genutzt werden. Das Verbot gilt seit Februar 2025.

Welche KI-Praktiken sind verboten?

Der AI Act definiert 5 Hauptkategorien verbotener KI-Praktiken:

1. Social Scoring durch Behörden

KI-Systeme, die Menschen auf Basis ihres Verhaltens bewerten und kategorisieren (z.B. wie in China).

Beispiel: Ein System, das Bürgern "Punkte" gibt basierend auf ihrem Verhalten und daraus Konsequenzen ableitet (z.B. Reiseverbot).

2. Manipulation von Verhalten

KI-Systeme, die das Verhalten von Menschen manipulieren, ohne dass diese es merken.

Beispiel: Eine App, die subtile psychologische Tricks nutzt, um Kinder zu gefährlichem Verhalten zu verleiten.

3. Ausnutzung von Schwächen

KI-Systeme, die Schwächen von Menschen (Alter, Behinderung, soziale Lage) ausnutzen.

Beispiel: Ein Chatbot, der gezielt Senioren täuscht, um Geld zu stehlen.

4. Biometrische Massenüberwachung

KI-Systeme zur biometrischen Echtzeit-Identifikation im öffentlichen Raum (z.B. Gesichtserkennung in Menschenmengen).

Ausnahme: Nur für Strafverfolgungsbehörden in eng definierten Fällen (z.B. Terrorismus, Kindesentführung).

5. Emotionserkennung am Arbeitsplatz und in Schulen

KI-Systeme, die Emotionen von Mitarbeitern oder Schülern analysieren (z.B. durch Gesichtserkennung).

Ausnahme: Medizinische oder sicherheitsrelevante Gründe (z.B. Müdigkeitserkennung bei LKW-Fahrern).

Warum ist das wichtig?

Verbotene KI-Praktiken haben die höchsten Bußgelder im AI Act:

  • Bis zu 35 Millionen Euro ODER
  • 7% des weltweiten Jahresumsatzes

Das Verbot gilt absolut. Es gibt keine Möglichkeit, durch Auflagen oder Zertifizierungen eine Ausnahme zu erhalten.

Betrifft das KMU?

Gute Nachricht: Die meisten KMU nutzen KEINE verbotenen KI-Praktiken.

Standard-KI wie ChatGPT, DeepL oder GitHub Copilot fallen NICHT unter verbotene Praktiken.

Grenzfälle: Wann wird es kritisch?

Seid vorsichtig bei:

  • Emotionserkennung: Software, die Emotionen von Mitarbeitern analysiert (z.B. via Webcam)
  • Verhaltens-Tracking: Überwachungssoftware, die Mitarbeiter bewertet
  • Manipulation: Marketing-KI, die gezielt Schwächen ausnutzt

Beispiel: Müller GmbH

Die Müller GmbH (25 Mitarbeiter) nutzt:

  • ChatGPT für Texte → ✅ Erlaubt
  • DeepL für Übersetzungen → ✅ Erlaubt
  • Crisp Chatbot → ✅ Erlaubt

Ergebnis: Keine verbotenen KI-Praktiken.

Gegenbeispiel: Schmidt Personalvermittlung

Die Schmidt Personalvermittlung nutzt eine Software, die:

  • Gesichtsausdrücke von Bewerbern im Video-Interview analysiert
  • Emotionen bewertet ("Ist der Bewerber authentisch?")

Problem: Emotionserkennung am Arbeitsplatz ist verboten (Art. 5).

Lösung: Software abschalten, auf menschliche Bewertung umstellen.

Wie prüfe ich, ob ich verbotene Praktiken nutze?

Nutzt den kostenlosen KI-VO Check. In 5 Minuten wisst ihr, ob ihr betroffen seid.

Was passiert, wenn ich verbotene Praktiken nutze?

Konsequenzen:

  • Bußgelder: Bis zu 35 Millionen Euro oder 7% des Jahresumsatzes
  • Sofortige Abschaltung: Das System muss sofort außer Betrieb genommen werden
  • Strafverfolgung: In schweren Fällen drohen strafrechtliche Konsequenzen
  • Reputationsschaden: Öffentliche Bekanntmachung des Verstoßes

Verwandte Begriffe

Mehr erfahren

Suche

Enter zum Suchen Esc zum Schließen