DSGVO-konforme KI-Tools: Was Unternehmen 2026 wirklich beachten müssen

11 Min. Lesezeit
DSGVO-konforme KI-Tools: Compliance und Datenschutz

Warum DSGVO und KI gerade 2026 zusammen gedacht werden müssen

KI-Tools sind in Unternehmen angekommen. Vertrieb schreibt Angebote mit ChatGPT, das Marketing generiert Bilder mit Midjourney, der Support nutzt Copilot für Antwortvorschläge. Was viele dabei übersehen: Jede dieser Anwendungen verarbeitet personenbezogene Daten, die unter die DSGVO fallen.

Die Aufsichtsbehörden schauen seit 2025 genauer hin. Der Hamburger Datenschutzbeauftragte hat erste Bußgelder gegen Unternehmen verhängt, die ChatGPT ohne ausreichende technische und organisatorische Maßnahmen einsetzen. Die EU-KI-Verordnung (AI Act) ergänzt seit Februar 2025 die DSGVO und verschärft die Anforderungen zusätzlich.

Für den Mittelstand heißt das: KI-Nutzung ist kein rechtsfreier Raum mehr. Wer KI-Tools einsetzt, muss die gleichen Sorgfaltspflichten erfüllen wie bei jeder anderen Datenverarbeitung. Das gilt für Cloud-KI genauso wie für interne Chatbots oder automatisierte Workflows.

Was ein KI-Tool DSGVO-konform macht

DSGVO-konform heißt nicht: das Tool verspricht Datenschutz. Es heißt: das Tool erfüllt die rechtlichen Anforderungen nachprüfbar und der Einsatz wird vom nutzenden Unternehmen sauber dokumentiert. Vier Kriterien sind entscheidend.

Auftragsverarbeitungsvertrag (AVV)

Wer ein KI-Tool nutzt und dabei personenbezogene Daten eingibt, braucht einen AVV mit dem Anbieter. Ohne diesen Vertrag ist die Verarbeitung rechtswidrig, unabhängig davon, wie sicher die Infrastruktur im Hintergrund ist. OpenAI bietet AVVs für Enterprise-Kunden, nicht für die kostenlose ChatGPT-Version. Dasselbe gilt für die meisten anderen großen Anbieter.

Serverstandort und Datenflüsse

Die DSGVO erlaubt Datenübermittlung in die USA nur unter strengen Bedingungen. Seit dem EU-US Data Privacy Framework gibt es einen Angemessenheitsbeschluss, aber der steht juristisch auf wackligen Beinen. Sicherer ist: EU-Hosting oder Self-Hosting. Viele Anbieter haben mittlerweile EU-Regionen für ihre Services, aber nicht für alle Modelle.

Zweckbindung und Trainingsverwendung

Werden die eingegebenen Daten zum Training des Modells verwendet? Das ist der kritischste Punkt. Standard-ChatGPT nutzt Eingaben für Modellverbesserungen, Enterprise-Versionen und API-Zugriffe typischerweise nicht. Wer Kundendaten eingibt, muss das vertraglich ausschließen können, sonst ist die Verarbeitung mit dem Zweck der Datenerhebung nicht vereinbar.

Löschkonzepte und Betroffenenrechte

Betroffene haben das Recht auf Löschung ihrer Daten. Bei KI-Modellen ist das technisch schwierig, weil Daten in Modellgewichten einfließen können. Ein DSGVO-konformes Tool muss mindestens die Eingaben und Ausgaben löschbar machen und darf keine personenbezogenen Daten dauerhaft im Modell ablegen.

Typische DSGVO-Fallstricke bei KI-Einsatz

In unseren Projekten sehen wir immer wieder dieselben Fehler. Die gute Nachricht: Alle lassen sich mit vernünftiger Architektur vermeiden.

Schatten-IT mit privaten ChatGPT-Accounts

Mitarbeiter nutzen die kostenlose ChatGPT-Version mit ihrer privaten E-Mail-Adresse und füttern sie mit Kundendaten, Gehaltsinformationen oder internen Dokumenten. Das ist aus DSGVO-Sicht ein klarer Verstoß, und im Zweifel haftet das Unternehmen. Die Lösung ist nicht Verbot, sondern ein offizielles, konformes KI-Tool, das so gut ist, dass niemand mehr zum privaten Account greifen muss.

Personendaten in Prompts

Viele Prompts enthalten unbewusst personenbezogene Daten: "Fasse das Kundengespräch mit Frau Müller zusammen" oder "Schreib eine E-Mail an Herrn Schmidt". Jeder dieser Prompts ist eine Verarbeitung personenbezogener Daten, die dokumentiert sein muss. Bessere Alternative: Pseudonymisierung vor der Eingabe oder lokale Vorverarbeitung im Unternehmen.

Unkontrollierte API-Integrationen

Ein Workflow greift automatisch auf die OpenAI-API zu, schickt Support-Tickets durch und bekommt Antwortvorschläge zurück. Wenn niemand dokumentiert, welche Daten wann an wen fließen, entsteht ein blinder Fleck in der Datenverarbeitung. Genau das prüfen Aufsichtsbehörden zuerst. Jede KI-Integration braucht einen Eintrag im Verzeichnis von Verarbeitungstätigkeiten.

Welche KI-Tools sind aktuell DSGVO-konform?

Eine pauschale Antwort gibt es nicht, weil Konformität immer vom konkreten Einsatz abhängt. Einige Faustregeln helfen aber bei der Erstbewertung.

ChatGPT

Die kostenlose Version ist für personenbezogene Daten nicht nutzbar. ChatGPT Team und Enterprise bieten AVVs, EU-Datenräume und Opt-out vom Training. Für viele Anwendungsfälle eine praktikable Option, solange die Mitarbeiter die richtige Version nutzen.

Microsoft Copilot

Microsoft 365 Copilot läuft über EU-Tenants und bietet die üblichen Microsoft-AVVs. Datenschutzrechtlich meist unkritisch, wenn der Tenant richtig konfiguriert ist. Kritiker weisen aber darauf hin, dass Copilot Zugriff auf alle Dokumente hat, die der Nutzer sehen darf. Das schafft neue interne Datenschutzrisiken, etwa bei falsch gesetzten Berechtigungen.

Google Gemini

Gemini for Workspace ist über EU-Datenräume nutzbar, allerdings gibt es bei einigen Sub-Prozessoren Unklarheiten. Wer ohnehin Google Workspace einsetzt, kann Gemini mit AVV sauber nutzen. Für reinen Microsoft-Stack selten die erste Wahl.

Deutsche und europäische Alternativen

Anbieter wie Aleph Alpha, Mistral AI oder spezialisierte Lösungen wie DeutschlandGPT oder Kamium hosten in Deutschland beziehungsweise der EU. Sie sind oft die einfachste Wahl, wenn Rechtsabteilung und Betriebsrat überzeugt werden müssen. Technisch reichen sie für die meisten Mittelstandsanwendungen locker aus.

Self-Hosted Open-Source-Modelle

Llama, Mistral oder Qwen lassen sich auf eigener Infrastruktur oder in der deutschen Cloud betreiben. Datenschutzrechtlich die sauberste Lösung, weil keine Daten das Unternehmen verlassen. Für viele Workflows mittlerweile qualitativ konkurrenzfähig zu Cloud-LLMs.

Self-Hosting als DSGVO-Lösung: Der Weg mit eigenem LLM

Wenn die Daten das Unternehmen nicht verlassen, entfallen die meisten DSGVO-Probleme. Genau das macht Self-Hosting aktuell so attraktiv. Die Idee: Ein Open-Source-LLM läuft auf einem Server in der eigenen Rechenzentrum oder in einer deutschen Cloud, und alle KI-Aufrufe gehen ausschließlich dorthin.

Technisch braucht es dafür drei Bausteine. Erstens eine Modellinfrastruktur, zum Beispiel Ollama oder vLLM, die Open-Source-Modelle lokal bereitstellt. Zweitens eine Orchestrierung, die KI-Aufrufe in bestehende Prozesse einbindet, etwa n8n oder ein eigenes Backend. Drittens eine Benutzeroberfläche oder API-Anbindung, über die Mitarbeiter und Systeme auf die KI zugreifen.

Der Charme der Lösung: Die Daten bleiben komplett im Unternehmen. Kein AVV mit einem US-Anbieter, kein Datenexport in Drittländer, kein Risiko, dass Prompts in einem externen Trainingslauf landen. Mehr dazu in unserem Leitfaden zum n8n-Hosting in der EU.

Die Einstiegshürde ist nicht die Technik, sondern die Modellauswahl. Llama 3.1 oder Mistral Large liefern heute Qualität, die noch vor zwei Jahren nur bei OpenAI denkbar war. Für viele Aufgaben (Klassifikation, Extraktion, Zusammenfassung, Übersetzung) reichen sogar deutlich kleinere Modelle auf einer einzelnen GPU.

5 Schritte zur DSGVO-konformen KI-Nutzung

Der Weg von Wildwuchs zu einem geordneten, rechtssicheren KI-Einsatz führt über fünf Stationen. Die Reihenfolge spart nachträgliche Korrekturen.

Schritt 1: Bestandsaufnahme

Welche KI-Tools werden im Unternehmen heute bereits genutzt, offiziell und inoffiziell? Ohne ehrliche Bestandsaufnahme ist jeder weitere Schritt Makulatur. In den meisten Unternehmen ist die Schatten-IT größer als erwartet, und genau dort sitzen die größten Risiken.

Schritt 2: Use Cases priorisieren

Welche Anwendungsfälle bringen den größten Nutzen, welche sind datenschutzrechtlich am sensibelsten? Diese beiden Achsen gegeneinander aufgetragen ergibt eine Matrix, aus der sich eine sinnvolle Umsetzungsreihenfolge ableitet. Niedrig sensibel und hohen Nutzen zuerst, weil das schnelle Erfolge bringt ohne Datenschutzrisiken.

Schritt 3: Tool-Entscheidung

Für jeden priorisierten Use Case die passende Toolkategorie wählen. Cloud-KI mit AVV für unsensible Daten, EU-gehostete Lösungen für normale Personendaten, Self-Hosting für besonders sensible Fälle. Eine einzige Lösung für alle Use Cases ist selten die beste Wahl.

Schritt 4: Governance und Dokumentation

AVVs abschließen, Verzeichnis von Verarbeitungstätigkeiten aktualisieren, Richtlinien für Mitarbeiter schreiben, Schulungen durchführen. Das ist nicht die spannendste Arbeit, aber sie entscheidet im Prüfungsfall über Bußgeld oder Entwarnung.

Schritt 5: Technische Integration

Erst jetzt kommt die Technik: KI in Workflows einbinden, APIs anschließen, Benutzeroberflächen bauen. Wer diese Reihenfolge einhält, erspart sich teure Nachbesserungen. Details zur technischen Umsetzung findet ihr in unserem Beitrag zu n8n-Workflows im Großhandel.

Checkliste vor dem KI-Rollout

Bevor ein neues KI-Tool produktiv geht, sollten diese Fragen alle mit Ja beantwortet sein.

  • AVV mit dem Anbieter ist unterschrieben und archiviert.
  • Serverstandort ist dokumentiert, EU-Hosting oder sauberer Drittlandtransfer ist geklärt.
  • Training auf Kundendaten ist vertraglich ausgeschlossen.
  • Eintrag im Verzeichnis von Verarbeitungstätigkeiten ist erstellt.
  • Mitarbeiter wissen, welche Daten sie eingeben dürfen und welche nicht.
  • Prozess für Betroffenenanfragen ist definiert (Auskunft, Löschung, Widerspruch).
  • Datenschutzfolgenabschätzung ist gemacht, wenn der Einsatz hohe Risiken birgt.
  • Betriebsrat und Datenschutzbeauftragter sind eingebunden.

Diese Liste ist die Basis, keine Kür. Je nach Branche und Anwendungsfall kommen weitere Punkte hinzu, etwa bei Gesundheitsdaten, Finanzinformationen oder Arbeitnehmerdaten. Wer unsicher ist, ob die eigene KI-Architektur trägt, findet in unserer KI-Implementierung eine fundierte Einschätzung.

Fazit: DSGVO ist kein Blocker, sondern ein Rahmen

DSGVO-Konformität bei KI klingt kompliziert, ist aber mit klaren Architekturentscheidungen gut beherrschbar. Die meisten Probleme entstehen nicht durch die Regulierung selbst, sondern durch fehlende Prozesse und Wildwuchs. Wer von Anfang an sauber plant, hat am Ende sogar die flexiblere Lösung, weil er nicht auf einen einzelnen US-Anbieter angewiesen ist.

Der Mittelstand hat hier einen unerwarteten Vorteil: Die eigene Infrastruktur ist oft überschaubarer als bei Konzernen, und Entscheidungen fallen schneller. Wer jetzt auf eine gute Kombination aus EU-Hosting und Self-Hosted Open-Source-Modellen setzt, baut eine KI-Landschaft, die in drei Jahren noch tragfähig ist, auch wenn sich einzelne Anbieter ändern.

Wenn ihr wissen wollt, wie eure aktuelle KI-Nutzung aussieht und wo die größten DSGVO-Risiken stecken, meldet euch. In einem kostenlosen Erstgespräch machen wir eine ehrliche Standortbestimmung und zeigen, wie ihr eure KI-Tools rechtssicher und produktiv nutzen könnt.