Schatten-KI als Verkaufsargument: Wie deutsche KI-Anbieter vor US-Tools warnen — und sie selbst nutzen
Bis zu 85 % der Mitarbeiter nutzen ChatGPT ohne Freigabe. Deutsche KI-Anbieter warnen davor — und routen die Daten im Hintergrund an dieselben US-Anbieter weiter. Eine ehrliche Analyse mit fünf Fragen für Entscheider.
Die Warnung — und was dahinter steckt
Wer sich heute als Unternehmen für eine KI-Plattform interessiert, wird sofort mit einer Warnung empfangen: „Ihre Mitarbeiter nutzen ChatGPT — und das ist ein Sicherheitsrisiko."
Die Statistik klingt dramatisch: Bis zu 85 % der Mitarbeitenden nutzen KI-Tools, die nicht freigegeben sind. Sogenannte Schatten-KI. Unkontrolliert. Gefährlich. Ein Compliance-Albtraum.
Soweit das Marketing. Und ja — der Kern stimmt. Wenn Mitarbeiter Kundendaten, Verträge oder Personalakten in ChatGPT eingeben, ist das ein echtes Problem. Die Daten landen auf US-Servern, unterliegen dem CLOUD Act, und OpenAI nutzt sie möglicherweise für das Training seiner Modelle.
Das Problem dahinter
Was die meisten dieser Anbieter verschweigen: Sie lösen das Problem nicht. Sie verschieben es nur.
Ein typischer deutscher KI-Anbieter funktioniert so: Sie bekommen ein deutsches Dashboard, eine deutsche Website, einen deutschen Ansprechpartner und eine AVV mit deutscher GmbH-Adresse. Alles sieht vertrauenswürdig aus.
Aber wenn Sie eine Frage stellen, passiert im Hintergrund Folgendes: Ihre Eingabe wird an die API von OpenAI, Anthropic oder Google gesendet. Die Sprachverarbeitung — also der Kern der KI — findet auf US-Servern statt. Ihre Daten verlassen die EU.
Sie sollen also aufhören, Ihre Daten direkt an US-Anbieter zu geben — und stattdessen Ihre Daten über einen deutschen Mittelsmann an die gleichen US-Anbieter geben. Mit einem Aufpreis.
Das ist kein Datenschutz. Das ist eine zusätzliche Abrechnungsschicht.
DSGVO-konform ist nicht gleich datensouverän
Der Begriff „DSGVO-konform" wird in der deutschen KI-Branche inflationär verwendet. Und rein rechtlich stimmt er oft sogar — durch das EU-US Data Privacy Framework und Standardvertragsklauseln ist die Nutzung von US-APIs unter bestimmten Bedingungen zulässig.
Aber es gibt einen Unterschied zwischen legal zulässig und wirklich souverän. Eine KI-Plattform, die auf OpenAI aufsetzt, ist so souverän wie ein deutsches Auto mit amerikanischem Motor, amerikanischem Getriebe und amerikanischer Elektronik. Die Karosserie ist deutsch — aber alles was zählt, kommt von woanders.
Für Unternehmen mit sensiblen Daten — Behörden, Forschungseinrichtungen, Kanzleien, Gesundheitswesen — reicht die rechtliche Zulässigkeit nicht. Sie brauchen die Gewissheit, dass ihre Daten zu keinem Zeitpunkt den europäischen Rechtsraum verlassen. Nicht über eine API, nicht über ein CDN, nicht über ein Analysetool.
Was passiert, wenn sich die Regeln ändern?
Das EU-US Data Privacy Framework, auf das sich viele Anbieter berufen, hat eine wechselhafte Geschichte. Sein Vorgänger — das Privacy Shield — wurde 2020 vom Europäischen Gerichtshof für ungültig erklärt (Schrems II). Über Nacht standen tausende Unternehmen ohne Rechtsgrundlage für ihren Datentransfer in die USA da.
Wer garantiert, dass das aktuelle Framework bestehen bleibt? Wer garantiert, dass OpenAI nicht morgen seine Nutzungsbedingungen ändert? Wer garantiert, dass Microsoft Azure die EU-Datengrenzen nicht lockert, wenn ein neues Gesetz in den USA es verlangt?
Die ehrliche Antwort: Niemand.
Der eigentliche Test — wo läuft das Sprachmodell?
Es gibt eine einfache Frage, mit der Sie jeden KI-Anbieter entlarven können:
„Welches Sprachmodell nutzen Sie, und auf welchem Server läuft es?"
Wenn die Antwort lautet: „Wir nutzen GPT-4 über Azure in Schweden" oder „Wir nutzen Claude über AWS in Frankfurt" — dann ist der Anbieter ein Frontend für eine US-Technologie. Die Daten werden auf einer von einem US-Konzern betriebenen Infrastruktur verarbeitet, und der CLOUD Act gilt unabhängig vom physischen Standort des Servers.
Wenn die Antwort lautet: „Wir nutzen ein europäisches Sprachmodell auf eigenen oder europäischen Servern, die keinem US-Konzern unterstehen" — dann haben Sie einen Anbieter gefunden, der Datensouveränität ernst meint.
Was echte Datensouveränität bedeutet
Eine wirklich souveräne KI-Plattform erfüllt drei Kriterien:
Erstens: Europäisches Sprachmodell. Es gibt leistungsfähige Alternativen zu OpenAI. Mistral AI aus Frankreich entwickelt Modelle, die in vielen Benchmarks mit GPT-4 mithalten — und unter europäischem Recht stehen. Keine US-Jurisdiktion, kein CLOUD Act, keine Hintertüren.
Zweitens: Eigene oder kontrollierte Infrastruktur. Nicht Azure, nicht AWS, nicht Google Cloud — auch wenn der Server physisch in der EU steht. Sondern dedizierte Server bei europäischen Anbietern, die ausschließlich europäischem Recht unterliegen.
Drittens: Transparenz über die gesamte Verarbeitungskette. Nicht nur ein AVV mit dem Frontend-Anbieter, sondern Klarheit darüber, welche Sub-Auftragsverarbeiter involviert sind, wo die Embeddings berechnet werden, wo die Vektordatenbank läuft und wohin die Suchanfragen gehen.
Ein Blick in die Praxis
Einige deutsche Anbieter gehen bereits den konsequenten Weg. Sie nutzen europäische Sprachmodelle, betreiben eigene Server in deutschen Rechenzentren und verarbeiten sogar die Web-Recherche über eigene, auf deutschen Servern gehostete Suchinfrastrukturen — ohne Abhängigkeit von Google, Bing oder anderen US-Diensten.
Das ist technisch aufwändiger und wirtschaftlich anspruchsvoller als einfach die OpenAI-API anzubinden. Aber es ist der einzige Ansatz, bei dem die Werbeaussage „DSGVO-konform" auch dem entspricht, was ein Datenschutzbeauftragter unter echter Datensouveränität versteht.
Was Sie als Entscheider tun können
Bevor Sie eine KI-Plattform evaluieren, stellen Sie diese fünf Fragen:
- Welches Sprachmodell wird für die Textgenerierung verwendet? Wenn die Antwort OpenAI, Anthropic oder Google ist — fragen Sie, warum auf der Website von „Datensouveränität" die Rede ist.
- Auf welcher Infrastruktur läuft das Modell? Azure, AWS oder GCP in der EU ist nicht das Gleiche wie ein europäischer Server bei einem europäischen Anbieter.
- Wer sind Ihre Sub-Auftragsverarbeiter? Jeder seriöse Anbieter muss Ihnen eine vollständige Liste offenlegen können. Wenn OpenAI, Microsoft oder Google darauf stehen, wissen Sie Bescheid.
- Was passiert bei einem Schrems-III-Urteil? Wenn das EU-US Data Privacy Framework kippt — hat Ihr Anbieter dann noch eine Rechtsgrundlage für seinen Betrieb?
- Wird der Inhalt meiner Anfragen für KI-Training verwendet? „Nein" ist die erwartete Antwort. Aber fragen Sie nach dem vertraglichen Nachweis — nicht nur für den deutschen Anbieter, sondern für jeden Sub-Auftragsverarbeiter in der Kette.
Fazit
Die Warnung vor Schatten-KI ist berechtigt. Aber sie darf nicht als Verkaufsargument missbraucht werden — von Anbietern, die im Hintergrund dieselben US-Technologien nutzen, vor denen sie warnen.
Echte Datensouveränität ist möglich. Sie erfordert europäische Sprachmodelle, kontrollierte Infrastruktur und vollständige Transparenz. Nicht jeder Anbieter kann das leisten — aber jeder Entscheider kann danach fragen.
Denn eines ist sicher: Der nächste Datenschutz-Skandal kommt. Die Frage ist nur, auf welcher Seite Ihr Unternehmen dann steht.
Bereit für DSGVO-konforme KI?
In 30 Minuten zeigen wir Ihnen, wie Nexoria in Ihrem Arbeitsalltag funktioniert — kostenlos und unverbindlich.
Kostenlose Demo vereinbaren