e-laborat

/ Blog

KI und DSGVO: Was Unternehmen beim Einsatz von ChatGPT & Co. beachten müssen

e-laborat
KI für UnternehmenDSGVODatenschutzChatGPTKI ComplianceDatenschutzerklärungMittelstand

Jeden Tag geben Mitarbeiter in KMU Kundendaten, Projektergebnisse und Geschäftsgeheimnisse in ChatGPT, Copilot und andere KI-Tools ein — ohne zu wissen, dass dies DSGVO-Verstöße auslösen kann. Die zentrale Frage ist: Darf ein Mitarbeiter einen Kundennamen, eine Bestellhistorie oder gar eine Vertragsdatei in ein Cloud-basiertes KI-Tool eingeben? Die Antwort ist meist nein. Dieser Leitfaden zeigt dir, wie du DSGVO-konform mit KI arbeitest — welche Daten rein dürfen, welche nicht, und wie du Verträge mit KI-Anbietern absicherst.

Die DSGVO-Grundfrage: Wer darf auf meine Daten zugreifen?

Die DSGVO (Europäische Datenschutz-Grundverordnung) schützt personenbezogene Daten. Sobald ein Datensatz einen Menschen identifizierbar macht oder hätte machen können, ist es ein personenbezogenes Datum. Beispiele: Name, E-Mail, Telefonnummer, Kundennummer, sogar IP-Adressen und Cookie-IDs.

Die Kernregel der DSGVO lautet: Ein Unternehmen muss eine Rechtsgrundlage haben, um personenbezogene Daten zu verarbeiten — meist die Einwilligung oder ein Vertrag mit dem Kunden. Wenn du Kundendaten an ein Drittunternehmen (z.B. OpenAI für ChatGPT) weitergibst, brauchst du normalerweise wieder eine Rechtsgrundlage und einen sogenannten Data Processing Agreement (DPA).

Hier ist die kritische Stelle: Wenn ein Mitarbeiter eine Kundenliste in ChatGPT copy-pastet, gibt er die Daten an OpenAI weiter. Wenn es keinen DPA gibt, ist das rechtlich fragwürdig. Wenn dazu der Kunde nicht darüber informiert wurde (und dem nicht zugestimmt hat), ist es wahrscheinlich ein DSGVO-Verstoß.

Die gute Nachricht: Mit richtigem Setup ist KI-Nutzung DSGVO-konform möglich.

Welche Daten dürfen in ChatGPT, Copilot & Co.?

Hier ist die praktische Faustregel:

Kategorie Grün (Daten, die rein dürfen): - Öffentliche Informationen: allgemeine Branchenfragen, öffentliche Websites, veröffentlichte Fachartikel - Anonymisierte/pseudonymisierte Daten: \"Mitarbeiter von 5 Unternehmen arbeiten in der Abteilung X\" (keine Namen) - Allgemeine interne Prozessfragen: \"Wie optimiere ich Code-Performance?\" (ohne sensible Business-Logik) - Allgemeine Kundenfragen: \"Welche E-Commerce-Trends gibt es 2026?\" (ohne Kundennamen)

Kategorie Orange (Daten mit Vorsicht): - Firmendaten mit Datenschutz-Agreement: Mit manchen KI-Providern (z.B. Microsoft Copilot Enterprise) gibt es Verträge, die sicherstellen, dass Daten nicht für Training genutzt und bei OpenAI bleiben. Diese Daten können eingegeben werden, WENN ein DPA vorliegt und der Datenschutzbeauftragte zugestimmt hat. Beispiel: Ein anonymisiertes Projekt-Briefing (keine Kundennamen, nur generische Projekttypen). - Kleine Mengen personenbezogener Daten (z.B. \"Max Müller ist Kundenmanager\") — auch hier: Nur mit DPA und wenn wirklich notwendig.

Kategorie Rot (Daten, die absolut nicht rein dürfen): - Kundenlisten mit Namen, E-Mails, Telefonnummern - Vertragsdetails mit Kundennamen und spezifischen Bedingungen - Mitarbeiterdaten: Gehälter, Sozialversicherungsnummern, Krankenstandsdetails - Medizinische, genetische oder biometrische Daten (besonders sensible Daten nach DSGVO Art. 9) - Finanzielle Identifikatoren: Kreditkartennummern, Bankkonten, Steuer-IDs - Passwörter, API-Keys, geheime Zugangsdaten

Ein reales Beispiel: Ein Controller eines Versicherungsmaklers gab in ChatGPT ein, \"Wir haben einen Kunden namens Stadtwerke München mit Jahresumsatz 5 Mio., Vertragsdetails: [lange Aufzählung]\". Das ist ein DSGVO-Verstoß, weil personenbezogene oder zumindest geschäftlich sensible Daten mit einem Dritten geteilt wurden, ohne rechtliche Grundlage.

Server-Standorte und Datentransfers in die USA

Ein großer Schreckenspunkt: ChatGPT und viele KI-Tools werden von US-amerikanischen Unternehmen betrieben und deren Server stehen in den USA.

Das Problem: Die USA haben kein Datenschutzniveau, das die EU als gleichwertig anerkennt. Der US Patriot Act und Executive Order 14086 erlauben US-Behörden und dem FBI, auf Daten zuzugreifen. Das ist ein politisches und rechtliches Übel für EU-Daten. Im Jahr 2023 gab es daher Diskussionen, ob Datentransfer in die USA erlaubt ist.

Die aktuelle Lage (Stand März 2026): Die EU und USA haben ein neues Abkommen, die Trans-Atlantic Data Privacy Framework (DPF), das Datentransfers in gewissem Maße erlaubt. Allerdings: Der DPF ist umstritten und wurde schon mehrfach vor Gericht in Frage gestellt. Der österreichische Datenschutzaktivist Max Schrems hat erneut Bedenken angemeldet.

Für KMU bedeutet das praktisch: Personenbezogene Daten sollten nicht in Cloud-KI-Tools in den USA hochgeladen werden, es sei denn, ein explizites Data Processing Agreement mit dem Anbieter liegt vor, das safeguards gegen US-Zugriff garantiert. Mit anderen Worten: Standard-ChatGPT ist für Kundendaten problematisch. Microsoft Copilot mit Enterprise-DPA ist besser. Europäische Alternativen (z.B. Mistral oder lokale, selbstgehostete Modelle) sind am sichersten.

Ein praktisches Beispiel: Die Deutsche Telekom nutzt für ihre internen KI-Anwendungen ein selbstgehostetes Sprachmodell, nicht ChatGPT — spezifisch um diese Server-Standort-Probleme zu vermeiden.

Data Processing Agreements (DPA): Was du brauchst

Ein DPA ist ein rechtlich verbindlicher Vertrag zwischen dir (als Datenverantwortlicher) und dem KI-Anbieter (als Datenverarbeiter). Der DPA regelt:

  1. **Was genau wird verarbeitet?** Z.B. \"Anonymisierte Projektdaten, keine Kundennamen\".
  2. **Wie wird es verarbeitet?** \"Nur zur Beantwortung von Anfragen, nicht zum Training des Modells.\"
  3. **Wie lange wird es gespeichert?** \"Automatische Löschung nach 30 Tagen\".
  4. **Wo sind die Server?** \"Nur in der EU\" oder \"EU oder EWR mit explizitem DPF-Safeguard\".
  5. **Was sind Sub-Processor-Rechte?** \"Der Anbieter darf Daten nicht an Dritte weitergeben ohne Benachrichtigung\".
  6. **Datensicherheitsmaßnahmen:** Verschlüsselung, Zugangskontrollen, regelmäßige Sicherheits-Audits.

Gute Nachricht: Viele große KI-Anbieter bieten mittlerweile DPAs an: - OpenAI: Seit Februar 2024 gibt es ein DPA, aber mit Caveats (z.B. Daten können noch zum Training herangezogen werden, wenn sie nicht spezifisch als \"Don't Train\" markiert sind). - Microsoft (Copilot): Mit Enterprise-Agreement und DPA. - Google (Gemini): Mit Business Agreement und DPA möglich. - Claude (Anthropic): Klares DPA, Modell wird nicht mit Nutzerdaten trainiert.

Was du tun solltest: 1. Frage den KI-Anbieter explizit nach einem DPA. 2. Lass deinen Datenschutzbeauftragten (oder eine Anwaltin) den DPA reviewen. 3. Dokumentiere, welche Daten du mit welchem Tool unter welchem DPA verarbeitest. 4. Aktualisiere deine Datenschutzerklärung und Kundenmitteilungen, um Transparenz zu schaffen.

Anonymisierung und Pseudonymisierung: Die Lösung für viele Fälle

Wenn personenbezogene Daten so anonymisiert sind, dass ein Mensch nicht mehr identifizierbar ist, greift die DSGVO nicht mehr.

Beispiele: - Nicht anonymisiert: \"Max Müller arbeitet bei Firma XYZ, Tel. 030-12345\" - Pseudonymisiert: \"Mitarbeiter_123 arbeitet bei Firma_ABC, Telefon [gelöscht]\" - Anonymisiert: \"Ein durchschnittlicher Mitarbeiter in der IT-Branche\"...

Für KMU ist Pseudonymisierung oft praktischer als vollständige Anonymisierung. Wenn du eine Datenbank mit Kundenprojekten hast und du möchtest, dass KI diese analysiert, kannst du: 1. Alle Kundennamen durch Nummern oder Codes ersetzen. 2. Spezifische identifizierende Details (Telefonnummern, Adresse) löschen. 3. Nur die wesentlichen Projektmerkmale behalten (Branche, Projektgröße, Dauer, Outcome).

Danach kannst du diese pseudonymisierten Daten in ChatGPT einspeisen, ohne DSGVO-Verstöße zu begehen — weil eine einzelne Person nicht identifiziert werden kann. Das Unternehmen (als aggregiertes Konzept) ist identifiziert, aber \"Unternehmen\" sind keine natürlichen Personen und fallen nicht unter die DSGVO.

Praktisches Beispiel: Ein Beratungsunternehmen hatte eine Datenbank mit 200 abgeschlossenen Projekten. Sie wollten KI nutzen, um Muster zu erkennen. Lösung: Sie haben alle Kundennamen anonymisiert, konkrete Projektdetails generalisiert (statt \"Finanzierungsrunde für Startup XYZ\" schrieben sie \"Finanzberatung für Tech-Startup\"), und dann die Daten in ChatGPT analysieren lassen. DSGVO-konform.

Checkliste: DSGVO-Konform mit KI arbeiten

Datenkategorien definieren: Welche Daten verarbeitet dein Unternehmen mit KI-Tools? Mache eine Bestandsaufnahme.

Rechtsgrundlage überprüfen: Hast du eine Rechtsgrundlage (Einwilligung, Vertrag, berechtigte Interesse) für die Verarbeitung? Für Kundendaten brauchst du meist explizite Zustimmung oder einen Vertrag.

DPA mit Anbietern abschließen: Kontaktiere die KI-Anbieter und frage nach einem Data Processing Agreement. (Tipp: Microsoft, Google und Anthropic bieten dies an. OpenAI ist etwas komplizierter, aber auch möglich.)

Datenschutzbeauftragten einbeziehen: Wenn dein Unternehmen einen Datenschutzbeauftragten hat, lass ihn die DPAs reviewen und genehmigen.

Anonymisierung/Pseudonymisierung prüfen: Wo möglich, bereinige sensible Daten bevor sie in KI-Tools gehen.

Datenschutzerklärung aktualisieren: Informiere Kunden, dass du KI-Tools (und welche) nutzt und wie ihre Daten verarbeitet werden.

Mitarbeiterschulung: Schule deine Belegschaft auf die KI-Policy. Mit Szenarien: \"Darf ich diese Datei hochladen? Ja oder Nein?\"

Incident Response Plan: Was tust du, wenn doch mal sensible Daten hochgeladen werden? Dokumentiere das.

Verträge mit Kunden prüfen: Wenn deine Kunden dir explizit Daten anvertrauen, überprüfe, ob dein Vertrag erlaubt, dass diese Daten in Dritttools verarbeitet werden. Wenn nicht, brauchst du entweder Zustimmung oder eine Kündigung.

Konkrete Szenarien: Erlaubt oder nicht?

Szenario 1: KI-Unterstützung für Code-Review \"Ein Entwickler gibt einen Code-Snippet in ChatGPT ein mit der Frage 'Wie kann ich diesen Bug debuggen?'\" → Erlaubt. Solange der Code keine API-Keys, Passwörter oder Kundendaten enthält. Der Code allein ist typischerweise nicht personenbezogen.

Szenario 2: Analyse eines Kundenprojekts \"Ein PM erstellt ein Briefing für ein Kundenprojekt und gibt es in Copilot ein: 'Kunde XYZ AG, Budget 50k, Zeitrahmen 3 Monate, Anforderung: [Details]'. Die Frage: Kann ich das optimieren?\" → Nur mit DPA. Der Kundennamen und die Projektdetails sind geschäftlich sensibel. Mit einem Microsoft Copilot Enterprise-Agreement und DPA ist es ok. Mit Standard-ChatGPT ist es problematisch.

Szenario 3: Mitarbeiter-Onboarding-Dokumente \"Eine HR-Spezialistin hat einen Entwurf für ein Onboarding-Playbook. Sie tippt es in ChatGPT ein und fragt 'Wie kann ich das verbessern?'\" → Vorsicht. Wenn das Dokument keine Namen oder persönliche Informationen von Mitarbeitern enthält, ist es ok. Wenn es Namen, Abteilungen von einzelnen Menschen enthält, sollte das anonymisiert werden.

Szenario 4: Kundensuport-Chatbot trainieren \"Eine E-Commerce-Firma will einen Chatbot mit bisherigen Support-Tickets trainieren. Die Tickets enthalten Kundennamen, Bestellhistorie, teils sogar Bankdaten.\" → Nur mit extremer Vorsicht. Das ist sensibel. Lösung: Anonymisiere alle Kundendaten, behalte nur die \"Fragen und Antworten\" ohne identifizierende Details. Lass den Datenschutzbeauftragten genehmigen.

Szenario 5: Marktforschung und öffentliche Daten \"Ein Unternehmen nutzt KI, um öffentliche Website-Inhalte, Social Media Posts und Pressemitteilungen zu analysieren.\" → Erlaubt. Öffentliche Daten sind (meist) nicht unter DSGVO geschützt. Das ist legitim.

Die Rolle des Datenschutzbeauftragten

Wenn dein Unternehmen einen Datenschutzbeauftragten (DSB) hat oder haben sollte (ab 10 Mitarbeitern, die regelmäßig Kundendaten verarbeiten), ist der DSB dein bester Partner:

  1. **Bewertung von KI-Tools:** Der DSB kann überprüfen, ob ein Tool DSGVO-konform ist.
  2. **DPA-Review:** Der DSB liest und genehmigt Data Processing Agreements.
  3. **Dokumentation:** Der DSB hilft, dass dein Unternehmen alles richtig dokumentiert.
  4. **Schulung:** Der DSB schulet Mitarbeiter auf Datenschutz im KI-Kontext.
  5. **Notfall-Support:** Falls doch ein Datenschutzverstoß passiert, weiß der DSB, wie zu handeln ist.

Für KMU ohne internen DSB gibt es externe Datenschutzbeauftragte, die stundenweise beraten können. Das ist oft billiger, als einen internen DSB zu beschäftigen.

Fazit

DSGVO und KI sind keine Gegenspieler. Mit den richtigen Maßnahmen — klare Datenkategorien, DPAs mit Anbietern, Anonymisierung wo möglich, Mitarbeiterschulung und Dokumentation — kann ein Unternehmen KI DSGVO-konform nutzen. Der Schlüssel ist: Transparenz, Dokumentation und kein \"egal, es wird schon gutgehen\".

Die meisten DSGVO-Verstöße in KMU mit KI-Tools sind vermeidbar. Sie entstehen, weil Mitarbeiter nicht trainiert sind, keine Policy existiert, oder der Datenschutzbeauftragte nicht involviert ist. Mit unserem KI-Audit prüfen wir dein Unternehmen auf Compliance-Risiken und zeigen dir konkret: Welche Tools sind ok? Welche DPAs brauchst du? Wie schulst du deine Belegschaft? So schaffst du dir Sicherheit, dass deine KI-Nutzung legal und ethisch ist.