Zum Hauptinhalt springen
Zurück zum Blog
Ratgeber

EU AI Act & KI-Telefonassistenten: Was 2026 für Unternehmen gilt

Ab August 2026 gilt der EU AI Act in voller Schärfe — und KI-Telefonassistenten sind eine der ersten Anwendungen, bei denen Aufsichtsbehörden konkrete Pflichten prüfen werden. Was Unternehmen jetzt prüfen müssen, welche Risikoklasse für Voice-AI gilt, und welche 12 Punkte Sie an Ihren Anbieter stellen sollten.

bhomy
bhomy Team
4. Mai 2026
13 Min. Lesezeit
TL;DR — In 30 Sekunden

KI-Telefonassistenten fallen typisch in die EU-AI-Act-Klasse „begrenztes Risiko" (Art. 50) — Hauptpflicht: Anrufer müssen vor Gesprächsbeginn klar erfahren, dass sie mit einer KI sprechen. Hinzu kommen Anforderungen aus DSGVO, AI-Act-Transparenz, Logging-Pflichten und ggf. Hochrisiko-Erweiterungen (Bewerbung, Bonität, Behörden). Bußgelder bis 35 Mio. €. Unsere 12-Punkte-Checkliste deckt alle relevanten Anforderungen ab — anbieterneutral.

Transparenzhinweis

Dieser Leitfaden basiert auf Verordnung (EU) 2024/1689 (AI Act), DSGVO, EDSA-Leitlinien sowie öffentlichen Veröffentlichungen der EU-Kommission und nationaler Aufsichtsbehörden (Stand: Mai 2026). Er ersetzt keine juristische Einzelfallberatung — bei Hochrisiko-Anwendungen empfehlen wir die Abstimmung mit DSB und Justiziariat.

02.08.2026
volle Anwendbarkeit AI Act für GPAI- & Allgemein-Pflichten
bis 35 Mio. €
Höchstbußgeld bei verbotenen Praktiken (Art. 99)
Art. 50
einschlägige Norm für KI-Telefon: Transparenzpflicht
12 Punkte
minimaler Compliance-Check pro Anbieter
01

Was der EU AI Act ist — und was er nicht ist

Die Verordnung (EU) 2024/1689 — kurz EU AI Act — ist das weltweit erste umfassende KI-Gesetz. Sie regelt nicht KI an sich, sondern KI-Systeme nach ihrer Anwendung und ihrem Risikopotenzial. Vier Klassen: verboten (Art. 5), hohes Risiko (Anhang III), begrenztes Risiko (Art. 50), minimales Risiko (Standard-KI-Anwendungen).

Der Act ergänzt — und ersetzt nicht — bestehende Gesetze: DSGVO, BGB, ProdHaftG, BDSG, ePrivacy. Wer DSGVO-konform aufgestellt ist, hat 60–70 % der AI-Act-Pflichten bereits abgedeckt. Die restlichen 30 % sind die wirklich neuen Anforderungen, um die es im Folgenden geht.

02

In welche Risikoklasse fällt ein KI-Telefonassistent?

Die kurze Antwort: typisch **begrenztes Risiko** (Art. 50, Abs. 1). Die längere Antwort hängt vom konkreten Einsatzszenario ab. Drei Szenarien, drei Klassen:

01**Standard-Empfang (begrenztes Risiko, Art. 50)** — Termine buchen, Standardauskünfte, Eskalation. Hauptpflicht: Transparenzhinweis vor Gesprächsbeginn („Sie sprechen mit einer KI…").
02**Outbound-Marketing/Cold-Call (begrenztes Risiko + UWG/TKG)** — zusätzlich: Einwilligung nach UWG/TTDSG, klare Identifikation des Werbenden, Opt-Out in jedem Anruf.
03**Bonitätsprüfung, Kreditvergabe, Bewerber-Screening (Hochrisiko, Anhang III)** — vollständige Konformitätsbewertung, technische Dokumentation, Logging, menschliche Aufsicht. **Nicht** ohne juristische Vorprüfung einsetzen.
Verbotene Anwendungen (Art. 5)

Manipulative KI-Sprachausgaben, die Personen täuschen sollen (z. B. Deepfake-Stimme eines Familienmitglieds), Social-Scoring-Systeme oder verdeckte emotionale Manipulation am Arbeitsplatz sind absolut verboten. Bußgeld bis 35 Mio. € oder 7 % Welt-Jahresumsatz, je nachdem was höher ist.

03

Die Kernpflicht: Transparenz nach Art. 50

Für KI-Telefonassistenten ist Art. 50 Abs. 1 die Schlüsselnorm. Wörtlich: „Anbieter stellen sicher, dass KI-Systeme, die für die direkte Interaktion mit natürlichen Personen bestimmt sind, so gestaltet und entwickelt werden, dass die betreffenden natürlichen Personen darüber informiert werden, dass sie mit einem KI-System interagieren."

Konkret heißt das in der Praxis: Der Anrufer muss vor dem ersten echten Austausch wissen, dass er mit einer KI spricht. „Hallo, ich bin der digitale Assistent der Praxis Dr. Müller. Wie kann ich helfen?" reicht — „Hallo, hier Anna von Praxis Müller…" reicht nicht. Eine Stimme, die suggeriert, eine echte Person zu sein, ist konformitätswidrig und kann auch als arglistige Täuschung gewertet werden.

Konformer Eröffnungssatz — Vorlage

„Schönen Tag, hier ist der digitale Assistent der Praxis Dr. Müller. Ich helfe gerne bei Termin-Anliegen, Sprechzeiten und Standard-Auskünften. Bei medizinischen Notfällen rufen Sie bitte umgehend den Notruf 112. Wie kann ich Sie unterstützen?" — enthält KI-Hinweis, Identifikation, Eskalations-Hinweis und offene Frage.

04

Die 12-Punkte-Compliance-Checkliste für KI-Telefon-Anbieter

Diese Punkte sollten Sie vor Vertragsabschluss schriftlich vom Anbieter bestätigt bekommen — sie sind das Minimum für eine prüffeste Compliance-Akte:

01**Transparenzhinweis** — wo, wie, in welchen Sprachen wird er ausgespielt? Anpassbar oder fest?
02**Risikoklassifikation des Anbieters** — schriftliche Bewertung, ob das System „begrenztes Risiko" oder „Hochrisiko" ist.
03**Logging & Aufbewahrung** — werden Anrufaufzeichnungen/Transkripte gespeichert? Wie lange? Wo? Wer hat Zugriff?
04**EU-Hosting** — Server-Standort dokumentiert (mit konkretem Rechenzentrum, nicht „EU-Region")? AVV nach Art. 28 DSGVO.
05**Sub-Auftragsverarbeiter** — vollständige Liste mit Drittland-Transfers, Standardvertragsklauseln, ggf. TIA (Transfer Impact Assessment).
06**Modell-Karte / Technische Doku** — auf welchem Sprachmodell basiert die KI? Anbieter? Trainingsdaten-Status? Updates und Versionierung?
07**Daten-Trennung** — werden Anrufdaten zur Modell-Verbesserung verwendet? Kann das vertraglich ausgeschlossen werden („no-train"-Klausel)?
08**Bias- & Sprachqualitäts-Tests** — wurde das System für Dialekte, ältere Menschen, Hörbehinderungen evaluiert? Liegen Reports vor?
09**Menschliche Aufsicht (Art. 14)** — wer überwacht das System? Welche Eskalationspfade? Stop-Mechanismus bei Fehlverhalten?
10**Vorfall-Meldepflicht** — wer meldet schwerwiegende Vorfälle (Art. 73) innerhalb welcher Frist?
11**Recht auf Erläuterung (Art. 86)** — wie kann ein Betroffener nachvollziehen, was passiert ist (Transkript, Logging, Erklärung)?
12**EU-Datenbank-Eintrag (Art. 49/71)** — falls Hochrisiko: Registrierungsnachweis. Falls nicht: schriftliche Erklärung.
Vorlage für Anbieter-Anfrage

Senden Sie diese 12 Punkte als nummerierte Liste an Ihren Anbieter mit Bitte um Bestätigung pro Punkt — schriftlich, nicht im Telefonat. Wer Punkt 4, 6 oder 7 nicht klar beantworten kann, ist 2026 nicht mehr enterprise-ready. Anbieter, die alle 12 Punkte solide beantworten, signalisieren Compliance-Reife.

05

Zusammenspiel mit der DSGVO — was zusätzlich zu prüfen ist

Der AI Act sagt mehrfach: „unbeschadet der DSGVO". Wer also AI-Act-konform ist, ist nicht automatisch DSGVO-konform — und umgekehrt. Vier zusätzliche Punkte, die DSGVO verlangt:

01**Rechtsgrundlage (Art. 6 DSGVO)** — Vertragserfüllung (Art. 6 Abs. 1 lit. b) für Mandanten-/Kundenanrufe; berechtigtes Interesse (Art. 6 Abs. 1 lit. f) für Standardauskünfte; Einwilligung (Art. 6 Abs. 1 lit. a) bei Marketing.
02**Auftragsverarbeitungsvertrag (AVV, Art. 28)** — schriftlich oder elektronisch, mit Sub-Verarbeiter-Liste und Audit-Recht.
03**Datenschutz-Folgenabschätzung (DPIA, Art. 35)** — bei systematischer Überwachung von Anrufen oder Hochrisiko-Anwendungen erforderlich.
04**Informationspflichten (Art. 13/14)** — neben dem AI-Act-Transparenzhinweis ist auch eine Datenschutzinformation zur Verarbeitung im Telefonat zu geben (Verweis auf Datenschutzerklärung im IVR-Eingang reicht).
06

Bußgelder, Haftung, Reputation

Der AI Act sieht ein gestuftes Bußgeldregime vor (Art. 99). Drei Klassen, jeweils der höhere Wert: bis 35 Mio. € / 7 % Welt-Jahresumsatz (verbotene Praktiken), bis 15 Mio. € / 3 % (Pflichtverletzungen), bis 7,5 Mio. € / 1,5 % (irreführende Angaben gegenüber Behörden). Für KMU sind diese Bußgelder schmerzhaft — die Reputation ist oft kostspieliger.

Wer haftet — Anbieter oder Anwender?

Beide. Der **Anbieter** (provider, Art. 16) muss die technische Konformität sicherstellen. Der **Betreiber** (deployer, Art. 26) muss das System bestimmungsgemäß einsetzen, Anweisungen befolgen, Beschäftigte informieren und schwere Vorfälle melden. Für die Praxis heißt das: Wer einen KI-Telefonassistenten einsetzt, ist mit verantwortlich — nicht nur „der Hersteller".

07

Roadmap bis 02. August 2026 — was jetzt zu tun ist

01**Q2 2026:** AI-Inventory anlegen (welche KI-Anwendungen werden im Unternehmen eingesetzt?). Klassifizierung pro System (verboten/hoch/begrenzt/minimal).
02**Q2 2026:** Anbieter mit der 12-Punkte-Liste konfrontieren, schriftliche Antworten einsammeln, Lücken dokumentieren.
03**Q3 2026:** Transparenzhinweise im Live-Betrieb prüfen — sind sie in jedem Telefonat tatsächlich am Anfang? In allen Sprachen?
04**Q3 2026:** Prozessdoku ergänzen: AI-Inventory, DPIA-Updates, Eskalations- und Vorfall-Meldewege bis zum DSB.
05**Vor 02.08.2026:** Schulung der Beschäftigten (Art. 4 AI-Act-Pflicht zur „AI Literacy") — auch ohne Hochrisiko-Anwendung verpflichtend.
06**Ab 02.08.2026:** laufende Überwachung: monatliche Stichprobe von 5–10 Mitschnitten, Vorfall-Logbuch, jährlicher Review.
Was Sie heute tun können

1) AI-Literacy-Pflicht (Art. 4) erfüllen — kostenlose Schulungen z. B. der bayerischen Datenschutzaufsicht, der KI-Strategie der Bundesregierung oder Stiftung Datenschutz nutzen. 2) Bestehenden KI-Telefon-Anbieter mit der 12-Punkte-Liste konfrontieren. 3) Anrufaufzeichnungen stichprobenartig prüfen: Wird der Transparenzhinweis tatsächlich gegeben?

Schrittweise. Die meisten Pflichten — inkl. Transparenzpflicht (Art. 50), GPAI-Pflichten und Bußgeldregime — werden ab 2. August 2026 voll anwendbar. Hochrisiko-Pflichten (Anhang III) stufenweise bis August 2027.

Compliance-Pack anfordern

Wir senden Ihnen unsere AI-Act- & DSGVO-Compliance-Doku (12-Punkte-Antworten, AVV-Vorlage, Transparenzhinweis-Mustertexte in 30 Sprachen) — kostenlos und ohne Vertragsbindung.

Pack anfragen

Entdecke bhomy

Erlebe den Unterschied mit deinem eigenen KI-Telefonassistenten.

🍪

Cookies & Datenschutz

Wir verwenden Cookies, um Ihnen die bestmögliche Nutzung unserer Website zu ermöglichen. Einige davon sind technisch notwendig, andere helfen uns, die Website zu verbessern.