KI-Agenten im Unternehmen: Datenschutz & Compliance

Lesezeit: 12 Minuten

Das Wichtigste in Kürze

  • Definition: KI-Agenten sind autonome Systeme, die selbstständig planen, entscheiden und handeln – und dabei fast immer personenbezogene Daten verarbeiten.
  • Doppeltes Recht: DSGVO und KI-Verordnung gelten gleichzeitig. Beide Regelwerke müssen Unternehmen als Betreiber einhalten.
  • AVV Pflicht: Für jeden LLM-Anbieter (OpenAI, Microsoft, Google, Anthropic) ist ein Auftragsverarbeitungsvertrag (Art. 28 DSGVO) zwingend erforderlich.
  • DSFA: Bei KI-Agenten mit Personenbezug ist in den meisten Fällen eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO Pflicht.
  • Fristen 2026: Voraussichtlich ab 2. August 2026 greifen vollständig die Hochrisiko-Pflichten der KI-VO.

Ihr KI-Agent qualifiziert Leads, beantwortet Kundenanfragen rund um die Uhr und erstellt erste Entwürfe für Ihre Vertriebsmails – und das alles ohne menschliches Zutun. Was klingt wie eine Effizienzrevolution, ist für viele Unternehmen bereits Alltag. Laut einer aktuellen Bitkom-Studie setzt bereits jedes dritte Unternehmen in Deutschland KI-Systeme ein, und die Zahl wächst.

In diesem Beitrag erfahren Sie, welche rechtlichen Anforderungen für KI-Agenten in Ihrem Unternehmen gelten, welche Pflichten Sie jetzt umsetzen müssen und wie Sie in fünf Schritten zu einem rechtskonformen Einsatz kommen – mit einer Checkliste zum direkten Einstieg.

Was ist ein KI-Agent?

Definition: KI-Agent

Ein KI-Agent ist ein KI-System, das auf Basis eines Large Language Models (LLM) oder ähnlicher Technologie eigenständig Ziele verfolgt: Es nimmt Eingaben entgegen, analysiert Informationen, trifft Entscheidungen und führt Aktionen aus – ohne dass jeder Schritt vom Menschen gesteuert wird. Der entscheidende Unterschied zu einem einfachen Chatbot: KI-Agenten handeln autonom in mehrstufigen Prozessen.

Wie arbeitet ein KI-Agent?

KI-Agenten arbeiten in einem kontinuierlichen Kreislauf aus vier Phasen:

  1. Wahrnehmen: Der Agent empfängt Eingaben – Texte, Daten, E-Mails, CRM-Einträge oder Kalenderinformationen.
  2. Analysieren: Er interpretiert diese Informationen mithilfe seines zugrundeliegenden KI-Modells und seines Kontextwissens.
  3. Entscheiden: Er wählt die passende nächste Aktion aus – eigenständig und nach internen Regeln (sog. Guardrails).
  4. Handeln: Er führt die Aktion aus: einen Termin buchen, eine E-Mail senden, ein Ticket priorisieren oder eine Bewerbung vorfiltern.

Typische KI-Agenten in der Unternehmenspraxis

Die Einsatzbereiche sind vielfältig. Besonders verbreitet sind KI-Agenten im Kundenservice (autonome Support-Bots), im Marketing und Vertrieb (Lead-Qualifizierung, Content-Erstellung), im HR-Bereich (Vorauswahl von Bewerbungen) sowie in der IT-Sicherheit (Anomalie-Erkennung). Allen gemeinsam: Sie verarbeiten fast immer personenbezogene Daten – und genau hier beginnt die datenschutzrechtliche Verantwortung Ihres Unternehmens.

Praxis-Hinweis: Wichtig für die rechtliche Einordnung: Es spielt keine Rolle, ob Sie den KI-Agenten selbst entwickelt haben oder ein fertiges Tool einsetzen. Als Betreiber sind Sie nach DSGVO und KI-VO der Verantwortliche – mit allen Pflichten, die dazugehören.

Rechtlicher Rahmen: DSGVO und KI-Verordnung im Zusammenspiel

Wer KI-Agenten einsetzt, bewegt sich in einem doppelten Rechtsrahmen: Die Datenschutz-Grundverordnung (DSGVO) regelt den Schutz personenbezogener Daten – sie gilt schon heute und unverändert. Die KI-Verordnung (KI-VO) schafft darüber hinaus neue Anforderungen an die Sicherheit und Vertrauenswürdigkeit von KI-Systemen. Beide Regelwerke müssen gleichzeitig eingehalten werden – eines ersetzt das andere nicht.

Die DSGVO: Datenschutz bleibt die Grundlage

Die DSGVO gilt immer dann, wenn ein KI-Agent personenbezogene Daten verarbeitet – also Informationen, die einer natürlichen Person zugeordnet werden können. Das betrifft Kundendaten, Mitarbeiterdaten, Bewerberdaten, IP-Adressen und nahezu alles, was in Geschäftsprozessen anfällt.

Die wichtigsten DSGVO-Artikel für den KI-Agenten-Einsatz:

  • 5 DSGVO – Grundsätze: Jede Datenverarbeitung durch den KI-Agenten muss rechtmäßig, zweckgebunden und auf das Notwendige beschränkt sein. Datensparsamkeit gilt auch bei KI.
  • 6 DSGVO – Rechtsgrundlage: Vor dem Einsatz muss dokumentiert sein, auf welcher Rechtsgrundlage der Agent personenbezogene Daten verarbeitet. Häufig: berechtigtes Interesse (lit. f) oder Vertragserfüllung (lit. b).
  • 22 DSGVO – Automatisierte Entscheidungen: KI-Agenten dürfen keine vollautomatischen Entscheidungen mit erheblicher rechtlicher Wirkung auf Personen treffen, ohne dass ein Mensch die finale Kontrolle hat.
  • 25 DSGVO – Privacy by Design: Datenschutz muss von Anfang an in die KI-Architektur eingebaut sein – nicht nachträglich ergänzt werden.
  • 28 DSGVO – Auftragsverarbeitung (AVV): LLM-Anbieter wie OpenAI, Microsoft oder Google sind Auftragsverarbeiter. Ein schriftlicher AVV ist zwingend erforderlich.
  • 30 DSGVO – Verarbeitungsverzeichnis: Jeder KI-Agenten-Use-Case muss im Verzeichnis von Verarbeitungstätigkeiten dokumentiert werden.
  • 35 DSGVO – Datenschutz-Folgenabschätzung (DSFA): Bei Hochrisiko-Verarbeitungen – und KI-Agenten sind in der Regel als risikoreich einzustufen – ist eine DSFA vor dem Einsatz Pflicht.

Die KI-VO: Neue Anforderungen nach Risikoklasse

Die KI-VO gilt seit August 2024 und wird stufenweise angewendet. Sie klassifiziert KI-Systeme nach ihrem Risikopotenzial und knüpft daran unterschiedlich strenge Pflichten. Für Unternehmen als Betreiber bedeutet das: Zuerst die Risikoklasse ermitteln – dann die richtigen Maßnahmen ergreifen.

Risikoklasse Gilt seit / ab Typische KI-Agenten im Unternehmen
Verboten seit 2.2.2025 Emotionserkennung am Arbeitsplatz, Social Scoring, biometrische Echtzeit-Überwachung
Hochrisiko ab 2.8.2026 KI in Personalauswahl/Beurteilung, Kreditvergabe, kritische Infrastruktur, Bildung
Begrenztes Risiko ab 2.8.2026 Chatbots & Content-Generatoren (Transparenzpflicht nach Art. 50 KI-VO)
Minimales Risiko sofort Spam-Filter, einfache Prozessautomatisierung ohne Personenbezug

Für die meisten KI-Agenten im Unternehmensalltag – Kundenservice-Bots, Content-Assistenten, Prozessautomatisierung – gilt die Klasse Begrenztes Risiko. Das bedeutet: Transparenzpflicht. Betroffene müssen wissen, dass sie mit einer KI interagieren (Art. 50 KI-VO, anwendbar ab August 2026). Wer jedoch KI im Personalwesen oder bei der Kreditvergabe einsetzt, bewegt sich im Hochrisiko-Bereich – mit deutlich umfangreicheren Anforderungen an Dokumentation, Risikomanagement und menschliche Aufsicht.

Wichtig: KI-VO und DSGVO schützen unterschiedliche Güter: Die DSGVO schützt personenbezogene Daten, die KI-VO schützt Grundrechte und die Sicherheit von KI-Systemen insgesamt. Wer eine DSFA nach DSGVO sauber durchführt, deckt damit bereits einen Großteil der KI-VO-Risikoanalyse ab – nutzen Sie diese Synergie.

7 Schritte für konformen KI-Agenten-Einsatz

Die Theorie ist das eine – die Umsetzung das andere. Dieser Leitfaden zeigt, wie Sie KI-Agenten strukturiert und rechtssicher in Ihrem Unternehmen einführen:

Schritt 1: KI-Inventar erstellen

Verschaffen Sie sich zuerst einen vollständigen Überblick: Welche KI-Agenten und KI-Tools werden in Ihrem Unternehmen bereits eingesetzt? Welche Daten verarbeiten sie – und fließen personenbezogene Daten in diese Systeme? Kartieren Sie die Datenflüsse und erstellen Sie eine Bestandsliste. Ohne diesen Überblick ist eine fundierte Risikobeurteilung nicht möglich.

Schritt 2: Risikoklasse nach KI-VO bestimmen

Ordnen Sie jeden KI-Agenten einer Risikoklasse zu. Entscheidend sind Einsatzbereich, Grad der Autonomie und die Auswirkungen auf betroffene Personen. Ein HR-Screening-Tool ist ein anderes Risikoprofil als ein interner Kalender-Assistent. Bei Hochrisiko-KI gilt: Frühzeitig mit den Vorbereitungen beginnen, denn die Anforderungen ab August 2026 sind umfangreich.

Schritt 3: Rechtsgrundlage festlegen und AVV abschließen

Dokumentieren Sie die Rechtsgrundlage für jeden Use Case im Verarbeitungsverzeichnis. Prüfen Sie, welcher Anbieter-Tarif einen AVV enthält, und schließen Sie diesen vor dem produktiven Einsatz ab. Stellen Sie EU-Datenspeicherung sicher und deaktivieren Sie das Modelltraining mit Ihren Eingaben.

Schritt 4: DSFA & GRFA durchführen

Führen Sie für jeden KI-Agenten mit Personenbezug eine Datenschutz-Folgenabschätzung (DSFA) durch. Bewerten Sie die Risiken realistisch und leiten Sie daraus konkrete Schutzmaßnahmen ab. Wenn eine Grundrechte-Folgenabschätzung nach KI-VO erforderlich ist, kombinieren Sie beide Instrumente. Die DSFA ist kein einmaliger Akt – aktualisieren Sie sie bei wesentlichen Änderungen des Systems oder der Verarbeitungssituation.

Schritt 5: Interne Richtlinie erstellen und Mitarbeitende schulen

Erlassen Sie eine verbindliche KI-Nutzungsrichtlinie, die regelt: Welche KI-Agenten dürfen von wem eingesetzt werden? Welche Daten dürfen in Prompts eingegeben werden? Wo ist menschliche Überprüfung vorgeschrieben? Schulen Sie Ihre Mitarbeitenden entsprechend – das ist nicht nur gute Praxis, sondern seit Februar 2025 als Kompetenzpflicht nach Art. 4 KI-VO auch rechtliche Anforderung.

Schritt 6: Transparenz herstellen (Art. 13/14 DSGVO + Art. 50 KI-VO)

Betroffene Personen haben das Recht zu wissen, dass ihre Daten von einem KI-Agenten verarbeitet werden – und wie. Das ergibt sich aus den Informationspflichten der Art. 13 und 14 DSGVO und muss in Ihrer Datenschutzerklärung abgebildet sein.

Ab August 2026 kommt Art. 50 KI-VO hinzu: KI-generierte oder KI-manipulierte Inhalte müssen als solche gekennzeichnet werden. Wer also KI-Agenten für die Erstellung von Texten, Bildern oder anderen Inhalten einsetzt, die extern kommuniziert werden, muss deren KI-Ursprung transparent machen. Das gilt für Chatbots, KI-generierten Content und synthetische Medien gleichermaßen.

Schritt 7: Technische Schutzmaßnahmen implementieren (Art. 25 & 32 DSGVO)

Privacy by Design und Privacy by Default sind keine optionalen Features – sie sind rechtliche Anforderungen. Art. 32 DSGVO verpflichtet zur Implementierung geeigneter technischer und organisatorischer Maßnahmen (TOMs), um ein dem Risiko angemessenes Schutzniveau zu gewährleisten.

Konkrete TOMs für den KI-Agenten-Einsatz:

  • Datensparsamkeit in Prompts: Keine sensiblen oder unnötigen Daten in Prompt-Templates eingeben. Interne Richtlinie erstellen, die Mitarbeitende konkret anleitet.
  • Zugriffskontrollen: Nur berechtigte Personen dürfen den KI-Agenten mit personenbezogenen Daten befüllen oder seine Ausgaben einsehen.
  • Audit Logs: Alle Interaktionen des KI-Agenten mit personenbezogenen Daten müssen nachvollziehbar protokolliert sein – für Betroffenenanfragen und Behördenprüfungen.
  • Verschlüsselung: Daten in Transit und at Rest verschlüsseln. EU-Datenspeicherung beim Anbieter sicherstellen.
  • Löschkonzept: Klare Regeln, wann und wie KI-verarbeitete personenbezogene Daten gelöscht werden – sowohl beim Anbieter als auch intern.

Häufige Fragen zu KI-Agenten und Datenschutz

Was sind die größten Datenschutzrisiken beim Einsatz von KI-Agenten?

Die größten Datenschutzrisiken bestehen darin, dass unrechtmäßig voll automatisiert personenbezogene Daten durch KI-Agenten verarbeitet werden. Daher ist es geboten immer eine menschliche Freigabe zu implementieren. Zur menschlichen Entscheidung bzw. menschlichen Aufsicht gibt es spezielle Vorschriften aus der DSGVO und der KI-VO.

Brauche ich für jeden KI-Agenten einen Auftragsverarbeitungsvertrag?

Ja – wenn der KI-Anbieter im Rahmen des Betriebs personenbezogene Daten verarbeitet, liegt eine Auftragsverarbeitung nach Art. 28 DSGVO vor. Einen AVV benötigen Sie für alle gängigen LLM-Dienste wie OpenAI, Microsoft Azure OpenAI, Google Vertex AI oder Anthropic Claude. Voraussetzung ist in jedem Fall ein Business- oder Enterprise-Tarif des jeweiligen Anbieters.

Ist eine DSFA bei KI-Agenten immer verpflichtend?

In den meisten Fällen: ja. KI-Agenten, die Profiling betreiben, automatisierte Entscheidungen mit Wirkung auf Personen treffen oder besondere Datenkategorien verarbeiten, lösen die DSFA-Pflicht nach Art. 35 DSGVO aus. Datenschutzaufsichtsbehörden stufen KI-Systeme generell als risikoreich ein. Im Zweifel empfehlen wir, eine DSFA durchzuführen – sie schützt Sie rechtlich und verbessert Ihre Risikokontrolle.

Darf ein KI-Agent Bewerbungen eigenständig ablehnen?

Nein. Art. 22 DSGVO verbietet Entscheidungen, die ausschließlich auf automatisierter Verarbeitung beruhen und erhebliche Auswirkungen auf Personen haben – die automatische Ablehnung einer Bewerbung ist ein klassisches Beispiel. KI-Agenten dürfen vorfiltern und Empfehlungen geben, aber die finale Entscheidung muss von einem Menschen getroffen werden. Zusätzlich greift für HR-KI ab August 2026 das Hochrisiko-Regime der KI-VO.

Kann ich ChatGPT oder Copilot DSGVO-konform im Unternehmen einsetzen?

Mit dem richtigen Tarif: ja. ChatGPT Enterprise und Team sowie Microsoft Copilot for Microsoft 365 bieten AVV, EU-Datenspeicherung und Training-Opt-Out. Die kostenlose Version von ChatGPT ist für die Verarbeitung personenbezogener Geschäftsdaten nicht geeignet – ihr fehlt der AVV. Vor dem Einsatz empfehlen wir eine DSFA und die Ergänzung der Datenschutzerklärung.

Was ist der Unterschied zwischen KI-Anbieter und KI-Betreiber nach der KI-VO?

Anbieter ist, wer das KI-System entwickelt und in Verkehr bringt – beispielsweise OpenAI als Hersteller von GPT-4. Betreiber ist, wer das KI-System im eigenen Unternehmen für einen konkreten Zweck einsetzt – also in der Regel Ihr Unternehmen. Als Betreiber tragen Sie die Pflichten für den konkreten Einsatz: DSFA, Dokumentation, menschliche Aufsicht, KI-Nutzungsrichtlinie und KI-Kompetenzschulung.

Autor