- KI ist nicht nur für Konzerne – tausende KMU nutzen sie bereits
- Wer KI einsetzt, wird automatisch zum Betreiber im Sinne der KI-Verordnung
- Transparenzpflicht: Kunden müssen wissen, wenn sie mit KI interagieren
- Dokumentation: Einsatzzweck und Risiken erfassen
- Datenschutz: DSGVO beachten, besonders bei US-Tools
Der Mythos: KI ist nur was für Konzerne
Falsch.
Tausende kleine und mittlere Unternehmen nutzen bereits KI-Technologien – oft unbewusst:
Das bedeutet für euch: Wenn ihr glaubst, KI sei nur was für Große, schaust ihr an der Realität vorbei. Die Frage ist nicht "ob", sondern "wie" ihr KI einsetzt. Berater-Kosten gespart: 1.200-2.500 Euro für eine KI-Compliance-Prüfung bei Kundenprojekten.
- Chatbots für Kundenservice
- Automatische Rechnungsprüfung
- Produktvorschläge im Online-Shop
- KI-gestützte Texterstellung
Bleibt die Frage: Wie macht ihr es richtig -- rechtlich und praktisch?
Eure Verantwortung als Betreiber
Wer KI-Systeme einsetzt – auch wenn sie von Dritten stammen – wird automatisch zum "Betreiber" nach der KI-Verordnung (Verordnung (EU) 2024/1689).
Wer das ignoriert, riskiert Probleme auf drei Ebenen:
- Euer Unternehmen (Bußgelder)
- Eure Kundenbeziehungen (Vertrauensverlust)
- Eure Wettbewerbsposition (rechtliche Unsicherheit)
Das bedeutet für euch: Ihr kannst euch nicht rausreden mit "Das Tool kommt von OpenAI". Ihr nutzt es für euer Business – also bist ihr verantwortlich für Transparenz und Dokumentation.
Was KI in Kundenprojekten kann
KI-Systeme werden in vielen Bereichen für Kunden eingesetzt. Hier typische Anwendungsbeispiele:
| Anwendung | Beispiel |
|---|---|
| Chatbots | Automatisierte 24/7-Kundenbetreuung |
| Texterstellung | Marketing- und Korrespondenztexte |
| Datenanalyse | Mustererkennung und Empfehlungen |
| Bild- und Spracherkennung | Support und Qualitätssicherung |
Rechtliche Anforderungen
1. Transparenzpflicht
Kunden müssen informiert werden, wenn sie direkt mit KI interagieren.
Beispiel: "Diese Fragen beantwortet ein KI-System."
Ausnahme: Wenn ihr KI-Entwürfe selbst überarbeitet, ist keine Kennzeichnung nötig – ihr übernehmt die Verantwortung.
2. Risikobewertung
Dokumentiert für jedes KI-System:
- Einsatzzweck der KI
- Risikokategorie gemäß KI-Verordnung
3. Dokumentation
Bei Hochrisiko-Systemen – etwa automatisierte Bewerbungsablehnungen – muss die Entscheidungsfindung erklärbar sein.
4. Datenschutz (DSGVO)
Viele US-amerikanische KI-Systeme verarbeiten Daten außerhalb der EU. Empfehlung: Personenbezogene Daten anonymisieren, bevor sie an KI-Tools gehen.
Praktische Umsetzung
1. Bewusste Tool-Auswahl
Nutzt nur Tools, bei denen Herkunft, Funktionsweise und Datenverarbeitung nachvollziehbar sind.
2. Dokumentation
Erfasst für jedes Tool:
- Name und Einsatzzweck
- Betroffene Kundendaten
- Auswirkungen auf Kunden
- Personenbezogene Daten (ja/nein)
3. Pragmatische Risikobewertung
Vereinfachte Formate reichen für KMU. Wichtig ist, dass ihr die Risiken einmal sauber durchdenkt – nicht wie das Dokument aussieht.
4. Offene Kommunikation
Kunden reagieren auf versteckte KI-Nutzung deutlich negativer als auf offene. Wer proaktiv informiert, stärkt die Beziehung.
Fazit
Unser Rat: Startet mit dem KI-Inventar.
Schreibt auf, welche Tools eure Leute in Kundenprojekten nutzen.
Prüft dann für jedes Tool, ob Kundendaten reinfließen und ob der Kunde davon weiß.
Das dauert eine Stunde – und danach wisst ihr, wo ihr steht.
Alles andere – Dokumentation, Risikobewertung, AV-Verträge – baut darauf auf.
Ohne Überblick keine Compliance.
Mit Überblick ist es machbar, auch ohne Rechtsabteilung.
Und nebenbei: Ein sauberes KI-Inventar für Kundenprojekte macht sich gut in Pitches. Es zeigt, dass ihr strukturiert arbeitet – und Risiken im Griff habt. Das kann bei Ausschreibungen den Zuschlag bedeuten.