A
ls über den EU AI Act gesprochen wird, landen die Gespräche oft sehr schnell bei Governance-Strukturen, Risikoklassen, Registern und internen Prüfprozessen. Das ist wichtig – aber es blendet eine Realität aus, die in vielen Unternehmen darüber entscheidet, ob AI-Compliance überhaupt kontrollierbar wird: Der größte Teil der KI, die heute genutzt wird, wird nicht „gebaut“, sondern eingekauft. Und genau deshalb ist Einkauf und Vendor Management die unterschätzte Frontlinie.
Das klingt zunächst nach Zuständigkeitsdebatte, ist aber in Wahrheit eine Steuerungsfrage. Denn wenn KI-Funktionen in Standardsoftware, Cloud-Services, Plattformen oder Dienstleisterleistungen stecken, dann entstehen Pflichten und Risiken dort, wo Sie als Kunde Einfluss nehmen können: in Beschaffung, Vertragsgestaltung, laufender Steuerung und Exit-/Fallback-Logik. Wenn diese Hebel nicht sauber gesetzt sind, kann die beste interne Governance im Alltag kaum greifen. Dann haben Sie vielleicht ein KI-Register – aber die wesentlichen Informationen fehlen. Oder Sie haben eine Klassifizierung – aber kein vertragliches Fundament, um Nachweise einzufordern. Oder Sie haben Regeln – aber keine Routine, um Änderungen des Anbieters rechtzeitig zu erkennen.
In der Praxis zeigt sich das oft sehr unauffällig. Ein Fachbereich braucht schnell eine Funktion, die „intelligent“ wirkt: Dokumente zusammenfassen, Tickets vorsortieren, Anfragen klassifizieren, Texte formulieren, Bilder prüfen, Entscheidungen vorbereiten. Der Anbieter hat das Feature „out of the box“. Der Bedarf ist real, der Nutzen ist schnell sichtbar – also wird gekauft oder aktiviert. Monate später stellt jemand die Frage: „Ist das eigentlich KI im Sinne unseres Registers? Welche Daten gehen da rein? Wer ist verantwortlich? Wie haben wir das Risiko eingeordnet? Was passiert, wenn der Anbieter das Modell ändert? Können wir das nachvollziehen?“ Wenn diese Fragen erst nachträglich gestellt werden, entsteht die typische Kombination aus Stress und Reibung: Compliance will Ordnung, der Fachbereich will weiterarbeiten, IT will keine Schattenverträge, Vendor Management hat nur Standardklauseln, und am Ende wird das Thema politisch, obwohl es eigentlich operativ lösbar wäre.
Der EU AI Act verschärft das nicht, weil er „mehr Papier“ verlangt, sondern weil er Erwartungen an Transparenz, Kontrolle und Nachweisfähigkeit erhöht – je nach Einsatzkontext und Risikoklasse. Und diese Nachweisfähigkeit ist bei eingekauften Lösungen kein Automatismus. Viele Unternehmen verlassen sich hier zu stark auf zwei Annahmen: „Der Anbieter wird das schon compliant liefern“ und „Wenn es Standardsoftware ist, ist es weniger kritisch“. Beide Annahmen können stimmen – sie können aber genauso gut in die falsche Richtung führen, weil der entscheidende Faktor nicht der Produktname ist, sondern der Einsatzkontext: Was beeinflusst die KI? Welche Entscheidungen werden dadurch geprägt? Welche Nutzergruppen sind betroffen? Wie stark verlassen sich Menschen faktisch auf die Ergebnisse? Und wie gut können Sie als Kunde Qualität, Änderungen und Störungen steuern?
Wenn man das Thema auf den Punkt bringt, ist Einkauf bei KI nicht nur „Preis und Vertrag“, sondern der Ort, an dem Sie vier zentrale Dinge absichern: Erstens, dass Sie überhaupt wissen, was Sie einkaufen (und welche KI-Funktionalität enthalten ist). Zweitens, dass Sie eine belastbare Informationsbasis bekommen, um intern korrekt zu klassifizieren und zu steuern. Drittens, dass Sie im Betrieb eine Handhabe haben, wenn der Anbieter ändert, liefert oder ausfällt. Und viertens, dass Sie im Prüf- oder Incident-Fall Nachweise liefern können, ohne alles aus E-Mails und Produktbroschüren zusammenzukratzen.
Die größte Herausforderung ist dabei nicht, dass Einkauf „keine Ahnung von KI“ hätte. Die Herausforderung ist, dass klassische Beschaffungsprozesse auf Funktionen, SLA und Datenschutz ausgerichtet sind – nicht auf Modelländerungen, Drift, Trainingsdatenherkunft, Transparenzanforderungen, oder die Frage, wie man eine KI-Funktion im Betrieb zuverlässig überwacht. Wenn Sie diese Punkte nicht in Ihren Beschaffungs- und Vendor-Standard integrieren, entsteht ein strukturelles Risiko: KI wächst im Portfolio schneller, als Governance hinterherkommt.
Was hilft, ist ein pragmatischer Rahmen, der KI-Beschaffung nicht kompliziert macht, sondern klarer. In vielen Unternehmen funktioniert das am besten, wenn man nicht versucht, jede Bestellung zu „KI-Spezialfall“ zu machen, sondern wenn man einen kurzen KI-Screening-Schritt voranstellt. Screening heißt: ein paar Fragen, die schnell klären, ob ein Produkt oder Service KI-Funktionen enthält, die für Governance relevant sind. Dabei reicht oft schon: Nutzt das Tool ein Modell, das Inhalte erzeugt, klassifiziert oder priorisiert? Werden Entscheidungen oder Prozesse beeinflusst? Werden personenbezogene oder sensitive Daten verarbeitet? Gibt es externe Modellservices oder Unterauftragnehmer? Und: Kann die KI-Funktion abgeschaltet oder begrenzt werden, ohne dass der Service komplett unbrauchbar wird? Wenn dieses Screening sauber ist, können Sie sehr früh entscheiden, ob ein normaler Beschaffungsweg reicht oder ob zusätzliche Anforderungen nötig sind.
Der zweite Hebel ist die saubere Verbindung zwischen Einkauf und interner Klassifizierung. Ein KI-Register kann nur so gut sein wie die Informationen, die hineinfließen. Und genau diese Informationen liegen bei Drittprodukten häufig beim Anbieter. Wenn Sie sie nicht gezielt abfragen und dokumentieren, wird Klassifizierung zur Schätzung. Das führt entweder zu zu niedriger Einstufung (Pflichten unterschätzt) oder zu zu hoher Einstufung (Governance wird zu schwer und wird umgangen). Beides ist schlecht. Deshalb ist es sinnvoll, dass Vendor Management für KI-relevante Produkte einen kompakten Informationssatz standardisiert: Was ist der Zweck der KI-Funktion? Welche Daten gehen hinein und hinaus (grob)? Welche Grenzen sind bekannt? Welche Qualitätsmechanismen gibt es? Welche Änderungsmechanismen gibt es (Release-Info, Modellwechsel, Versionierung)? Welche Support- und Eskalationswege existieren, wenn die KI Fehlverhalten zeigt oder ausfällt? Und: Wie kann man das Feature einschränken oder deaktivieren? Das sind keine akademischen Fragen, sondern Betriebshygiene.
Ein dritter Hebel ist die Vertrags- und Steuerungslogik. Viele Verträge sind hervorragend darin, Verfügbarkeit und allgemeine Supportpflichten zu regeln. Für KI reicht das häufig nicht, wenn der Einsatzkontext kritisch ist. Sie brauchen nicht zwangsläufig lange Spezialklauseln. Aber Sie brauchen Klarheit an den Stellen, die später entscheiden, ob Sie steuerungsfähig sind: Änderungsmitteilungen (wann und wie werden relevante Änderungen angekündigt), Transparenz über Subprozessoren und Abhängigkeiten, Support- und Eskalationsregeln für schwerwiegende Vorfälle, und eine realistische Daten- und Exit-Logik (Export, Deaktivierung, Ersatzprozess). In der Praxis ist „Exit“ oft nicht kurzfristig machbar – aber ein Minimalfallback ist fast immer machbar, wenn man ihn früh denkt.
Das führt zum Punkt, der im Alltag am meisten unterschätzt wird: Betrieb und Vendor-Steuerung. KI-Funktionen sind nicht statisch. Anbieter verändern Modelle, Parameter, Features, Sicherheitsmechanismen. Wenn Sie im Vendor-Management keinen Takt haben, um solche Änderungen zu erkennen und zu bewerten, dann sind Sie im Blindflug. Und Blindflug ist das Gegenteil dessen, was AI Governance leisten soll. Ein realistischer Takt muss nicht häufig sein, aber er muss für kritische Anbieter verlässlich sein: kurze Reviews, in denen Leistung, relevante Änderungen, bekannte Probleme, offene Maßnahmen und Risiken zusammenkommen. Der Vorteil ist, dass Sie dadurch nicht nur „compliant“ wirken, sondern tatsächlich schneller reagieren können, wenn etwas kippt.
Ein typisches Praxisbeispiel macht das greifbar. Eine Standardplattform integriert ein neues KI-Feature, das Inhalte generiert, die später an Kunden gehen. Anfangs wird es manuell geprüft, später „spart man Zeit“ und prüft weniger. Irgendwann ändert der Anbieter das Modell oder das Verhalten, die Tonalität kippt, es entstehen Fehler oder unangemessene Ausgaben. Wenn Sie dann keine klare Ownership, keinen Monitoring- und Incident-Weg und keine Anbieterkommunikation im Griff haben, wird das Thema schnell größer als nötig. Nicht, weil KI „gefährlich“ ist, sondern weil Steuerung fehlt. Und diese Steuerung beginnt nicht erst in der IT, sondern beim sauberen Set-up in Beschaffung und Vendor Management: Wer ist Owner, wie werden Änderungen erkannt, was ist der Fallback, wie wird eskaliert, und wo ist die Evidenz, dass man das sauber geführt hat?
In vielen Unternehmen lohnt es sich daher, Einkauf und Vendor Management nicht als „Zulieferer“ der AI Governance zu behandeln, sondern als gleichwertigen Steuerungsbaustein. Das bedeutet nicht, dass Einkauf plötzlich technische Prüfungen machen soll. Es bedeutet, dass Einkauf die richtigen Hebel bedient: Screening, Informationsbasis, Vertragsanker, Steuerungstakt. Wenn diese Hebel sauber sind, wird die Arbeit für Governance, Risk, IT und Compliance deutlich leichter. Wenn sie fehlen, müssen diese Funktionen später versuchen, über interne Prozesse etwas zu reparieren, was im Einkauf bereits verloren ging: Einfluss.
Ein weiterer Aspekt ist die interne Kommunikation. Viele Konflikte rund um KI entstehen, weil Teams KI als Produktivitätstool sehen und Governance als Bremse. Das ist ein Kulturproblem, aber es lässt sich pragmatisch entschärfen, wenn Beschaffung und Governance denselben Satz benutzen: „Wir ermöglichen Nutzung – aber mit klarer Verantwortung und klaren Grenzen.“ Wenn das als Standard im Vendor-Flow verankert ist, wirkt es nicht wie ein nachträglicher Eingriff, sondern wie ein normaler Qualitäts- und Risikoschritt. Und genau das ist entscheidend, damit KI nicht in Schattennutzung ausweicht.
Wenn Sie sich fragen, woran man erkennt, dass Vendor Management KI wirklich „im Griff“ hat, sind es oft sehr praktische Signale: Gibt es eine saubere Liste, welche Anbieter KI-Funktionen liefern? Ist klar, welche davon in kritischen Prozessen wirken? Können Sie bei einem Anbieterwechsel oder einem Modell-Update schnell sagen, welche internen Use Cases betroffen sind? Gibt es definierte Ansprechpartner und Eskalationswege? Können Sie im Audit oder gegenüber Kunden belegen, warum Sie eine Lösung so klassifiziert haben, welche Kontrollen greifen und wie Änderungen gesteuert werden? Wenn Sie diese Fragen mit wenig Suchaufwand beantworten können, ist Ihre Frontlinie stabil.
Der EU AI Act macht diese Frontlinie nicht optional. Selbst wenn Sie nicht direkt in einer „hoch riskanten“ Kategorie unterwegs sind, wächst die externe Erwartung: Kunden fragen, interne Revision fragt, und spätestens wenn ein Vorfall passiert, wird gefragt, wie Sie das Feature geführt haben. Wer dann nur mit Produktbroschüren und allgemeinen Vertragsklauseln antworten kann, verliert Zeit und Vertrauen. Wer dagegen zeigen kann, dass Beschaffung, Betrieb und Governance eine gemeinsame Spur erzeugen, wirkt reif – und ist in der Regel auch handlungsfähiger, wenn es wirklich zählt.
Am Ende ist das eine gute Nachricht: Sie müssen KI-Compliance nicht als neues Monsterprogramm aufbauen. Sie müssen nur sicherstellen, dass Beschaffung und Vendor Management nicht „blind“ KI ins Unternehmen holen. Wenn Screening, Informationsbasis, Vertragsanker und Steuerungstakt sitzen, skaliert AI Governance deutlich leichter. Und genau das ist die unterschätzte Realität: Die sauberste AI Governance entsteht nicht im Register – sie entsteht dort, wo Sie entscheiden, welche Technologie in Ihr Haus kommt und unter welchen Bedingungen sie betrieben werden darf.