Zurück zu News

Der Zug hat keine Bremse: Die Risiken der KI-Schattennutzung

14.11.2025

Der Zug hat keine Bremse: Die Risiken der KI-Schattennutzung

Generative KI, meist in Form von ChatGPT oder Copilot, ist längst im Unternehmensalltag angekommen. Dabei zeigt sich in Organisationen häufig eines der folgenden Szenarien:

a) KI wird aktiv gefördert oder sogar gehypt.
b) KI ist für ausgewählte Anwendungsfälle erlaubt oder es werden derzeit Pilotprojekte durchgeführt.
c) KI ist offiziell (noch) nicht erlaubt, da die Risiken als zu hoch eingeschätzt werden.

Unsere Beobachtung

Unabhängig davon, ob generative KI in Organisationen verboten oder gehypt ist, wird sie von Mitarbeitenden genutzt. Mancherorts geschieht das offen und mit Stolz, andernorts eher im Verborgenen. In den meisten Fällen fehlt es dabei an klaren Richtlinien oder einer gezielten Steuerung. Doch selten steckt dahinter böswillige Absicht. Vielmehr ist es ein Ausdruck pragmatischer Lösungsorientierung im Arbeitsalltag.

Ein Beispiel

Eine Kollegin erhält die Aufgabe, eine erste Marktanalyse für ein neues Produkt zu erstellen. Anstatt sich durch langwierige Recherchen zu arbeiten, fragt sie kurzerhand ChatGPT: „Wer sind unsere wichtigsten Mitbewerber? Wie ist ihre Preisgestaltung im Vergleich zu unseren Produkten? Welche Positionierungen sind üblich?“ „Effizient? – Ja. Modern? – Auf jeden Fall. Aber ebenso hochriskant für das gesamte Unternehmen!“

Um präzisere Antworten zu erhalten, ergänzt die Kollegin ihre Eingaben mit vertraulichen Informationen, etwa zu Preisstrategien, Zielgruppen oder Alleinstellungsmerkmalen. Dabei nutzt sie die kostenlose Version von ChatGPT, ohne zu wissen, dass diese Eingaben für das Training des Modells verwendet werden können. So gelangen unternehmensinterne Daten unbeabsichtigt in ein öffentlich zugängliches Modell, ein Risiko, das vielen Nutzenden nicht bewusst ist.

Das ist kein Einzelfall, sondern längst Alltag und geschieht meist unbemerkt von IT, Compliance oder Datenschutz.

Dabei verraten die eingegebenen Prompts (Fragen) oft mehr über die strategische Ausrichtung eines Unternehmens als so manches vertrauliche Strategiepapier. Wer solche Informationen teilt, gibt unter Umständen weit mehr preis als beabsichtigt, und das oft, ohne es zu merken.

Weitere Gefahren

Generative KI-Tools wie etwa ChatGPT geben keine validierten Antworten, sondern generieren Text auf Basis von Wahrscheinlichkeiten. Dies erfolgt in überzeugendem, oft sehr eloquentem Stil, wirkt kompetent, ist aber kein Ersatz für fundierte Analysen. Im besten Fall entsteht eine brauchbare erste Idee, im schlechtesten Fall übernimmt man unbewusst Halbwahrheiten oder Fehler, die aufgrund ihrer überzeugenden Formulierung unentdeckt bleiben.

Die Konsequenz

Die Nutzung generativer KI-Modelle lässt sich längst nicht mehr zurückdrehen, und Verbote zeigen in der Praxis kaum Wirkung. Selbst technische Barrieren werden häufig mühelos umgangen, oft genügt dazu schon das Privathandy, um Fragen zu stellen. Und das ist nachvollziehbar: Richtig eingesetzt können diese Tools einen enormen Mehrwert bieten. Dennoch sind viele Mitarbeitende unsicher, was genau erlaubt ist. Obwohl sie sich grundsätzlich an die bestehende Governance halten möchten, überwiegen in der Praxis oft Neugier und der wahrgenommene Nutzen.

Die Lösung Steuerung statt Verbot! Die essenziellen ersten Schritte dazu sind:

Ein nachhaltiger und sicherer Umgang mit generativer KI gelingt nicht durch Einschränkungen, sondern durch klare Strukturen und befähigte Mitarbeitende. Die ersten entscheidenden Schritte sind:

1. Grundlegende Schulung für alle Mitarbeitenden: Ein solides Fundament entsteht durch Wissen. Eine einheitliche Basisschulung stellt sicher, dass alle Mitarbeitenden, unabhängig von Funktion oder Fachbereich, ein gemeinsames Grundverständnis für den Einsatz von (generativer) KI entwickeln. Dazu gehört, die Arbeitsweise von KI-Systemen nachvollziehen zu können, ihre Nutzen im Arbeitsalltag realistisch einzuschätzen und die damit verbundenen Risiken und Grenzen zu erkennen. Nur wer versteht, wie KI arbeitet und wo ihre Schwächen liegen, kann sie verantwortungsvoll, sicher und zielgerichtet einsetzen.

2. Kompetenzteam aufbauen & Governance verankern: Im nächsten Schritt werden gezielt Ansprechpersonen identifiziert, die als Gatekeeper für den sicheren Einsatz (generativer) KI fungieren. Dieses Kompetenzteam dient als zentrale Steuerungs- und Beratungsinstanz und begleitet den internen Lernprozess. Parallel dazu werden eine klare KI-Strategie, verbindliche Richtlinien und eine Governance-Struktur entwickelt, die Rollen, Verantwortlichkeiten und Entscheidungswege eindeutig festlegen.

3. Klare Spielregeln durch Compliance und Governance schaffen: Erstellen Sie prägnante, leicht verständliche Leitlinien, idealerweise auf ein bis zwei Seiten, als zentrale „Spielregeln“ zur Governance und zu den wichtigsten Compliance-Anforderungen im Umgang mit KI. Kommunizieren Sie diese Inhalte aktiv und anhand praxisnaher Beispiele, die auf die jeweiligen Unternehmensbereiche zugeschnitten sind. So entstehen Transparenz, Verbindlichkeit und ein gemeinsames Verständnis für den sicheren und regelkonformen Einsatz generativer KI.

Generative KI ist längst Realität im Unternehmensalltag.

Wer jetzt in Aufklärung, Steuerung und klare Strukturen investiert, reduziert Risiken, nutzt Chancen gezielt und schafft Vertrauen – bei Mitarbeitenden ebenso wie bei Kundinnen und Partnern. Wir unterstützen Sie dabei, den verantwortungsvollen und sicheren Einsatz von KI in Ihrer Organisation aufzubauen, von der ersten Schulung bis zur gelebten Governance.

„Brauchen Sie professionelle Unterstützung bei der schnellen Einführung effizienter Prozesse und stabiler Compliance? Wir unterstützen Unternehmen aus allen Sektoren, indem wir neue Wege aufzeigen und unproduktive Reibungsverluste durch produktive Wissensgenerierung ersetzen.”
Dr. Tobias Höllwarth

Dr. Tobias Höllwarth (Managing Partner)

Kontaktieren Sie uns

Qualitätsberatung

Finden Sie heraus, welcher Service am besten zu Ihrem Unternehmen passt.