

Es knirscht selten laut, wenn es passiert. Kein großer Knall, keine rot blinkenden Warnlampen. Stattdessen: eine kleine Konfigurationsänderung bei einem Dienstleister, ein unscheinbares Update, eine freundliche E-Mail eines „Partners“, ein Browser-Plugin aus einem Hersteller-Marketplace. Wochenlang wirkt alles normal, die Dashboards bleiben grün. Und doch hat sich die Risikolage grundlegend verschoben – nur eben nicht dort, wo das eigene SOC hinschaut. Die Schwachstelle liegt außerhalb des Perimeters, außer Reichweite der üblichen Telemetrie und häufig auch jenseits der eigenen Zuständigkeiten. Genau dort, wo moderne Wertschöpfung in der Praxis stattfindet: bei Third Parties.
Dass Drittparteien zur Achillesferse werden, ist keine überraschende Schlagzeile – aber die Mechanik dahinter wird in vielen Unternehmen unterschätzt. Third Parties stehen mitten in unseren Prozessen, tragen weitreichende Berechtigungen, hosten Daten, signieren Updates, verwalten Identitäten, triagieren Tickets, betreiben Infrastruktur und liefern das, was Kundinnen und Kunden direkt erleben: Verfügbarkeit, Geschwindigkeit, Qualität. In dieser Rolle sind sie nicht „außen“, sondern innen – oft mit mehr Rechten, mehr Einblick und mehr Steuerungsmacht als das, was wir im eigenen Haus für selbstverständlich halten.
Dieser Beitrag erzählt, warum das so ist, wie Angriffe über Dienstleister tatsächlich funktionieren, weshalb „Vertrauen“ ohne Prüfbarkeit ein Geschäftsrisiko ist – und wie Unternehmen Third-Party-Beziehungen so führen, dass aus der Achillesferse eine robuste Stärke wird. Kein Alarmismus, sondern ein Blick auf Strukturen, die sich leise verschieben: von Verträgen zu Realitäten, von Einzelprüfungen zu kontinuierlicher Nachweisfähigkeit, von Checklisten zu gelebter Resilienz.
Organisationen haben zwei Arten von Komplexität: die selbst gewählte – Outsourcing, SaaS, Cloud, externe Expertise – und die geerbte – Legacy-Systeme, historische Partnerschaften, Lieferketten, die über Jahrzehnte gewachsen sind. Beide erzeugen Abhängigkeiten, aber nur die erstere wird bewusst gesteuert. Die geerbte Komplexität führt dazu, dass niemand mehr genau sagen kann, wie viele Third Parties tatsächlich an einem kritischen Prozess beteiligt sind, wo sich deren Infrastruktur befindet und welche Subdienstleister im Hintergrund arbeiten.
Das wäre weniger dramatisch, wenn Third Parties lediglich „Werkzeuge“ wären. In der Realität sind sie Mitakteure: Managed Service Provider administrieren Verzeichnisdienste und Endpunkte, Zahlungsdienstleister halten Umsatzströme am Leben, Cloud-Provider hosten Kernprozesse, spezialisierte Softwarehäuser liefern Updates für die Systeme, die Kundendaten verarbeiten. Wer hier stillsteht, steht überall still. Diese Hebelwirkung macht Drittparteien attraktiv – für Geschäftsmodelle und für Angreifer.
Drei Prinzipien erklären die Anfälligkeit:
Hinzu kommt Psychologie: Intern ist Sicherheit sichtbar – Firewalls, Patches, Pen-Tests. Bei Dritten ist Sicherheit eine Behauptung. Zwischen Behauptung und Beweis liegt die Lücke, durch die Angriffe gehen.
Third-Party-Risiken zeigen sich in unterschiedlichen „Aggregatzuständen“. Wer sie getrennt denkt, übersieht ihre Wechselwirkungen.
Gemeinsam ist allen: Ein Fehler skaliert. Nicht ein Opfer, sondern viele. Nicht ein Server, sondern ganze Regionen. Nicht ein Datensatz, sondern Millionen.
Ein Update ist die perfekte Tarnkappe: signiert, erwartet, automatisiert. Manipulierte Pipelines liefern sauberen Code plus Beifracht. Der Rollout erfolgt „as designed“. Detection? Schwierig, solange Telemetrie aus dem Anbieterland fehlt. Die ersten Spuren tauchen in Egress-Logs oder im DNS auf – wenn überhaupt.
Ein Managed Service Provider verwaltet Verzeichnisse und EDR. Ein Phishing-Angriff trifft einen Techniker, Token werden abgefischt, das RMM-Tool wird missbraucht. Innerhalb von Minuten rollen Skripte, deaktivieren Schutz, löschen Backups, setzen Policy-Ausnahmen. Nicht ein Kunde ist betroffen, sondern Dutzende gleichzeitig.
Produktivitäts-Apps werden testweise verbunden – mit Scopes wie „read/write all mail“ oder „drive.readwrite“. Die App nutzt Subprozessoren, die ihrerseits Telemetrie aggregieren. Ein einzelner kompromittierter Subdienst reicht, um legitime API-Zugriffe in Massen zu ermöglichen – ohne verdächtige Logins.
Switches kommen mit deaktivierter Signaturprüfung, Laptops werden im Transit geöffnet, Festplatten aus MFPs nicht gelöscht. Der Schaden wirkt langsam, aber tief: unerklärliche Ausfälle, sporadische Verbindungen, Datenreste in falschen Händen.
Teams laden sensible Dokumente in generative Dienste, um schneller zu arbeiten. Der Anbieter loggt Prompts, nutzt Support-Kopien oder experimentelle Features. Wochen später sickern Muster ins Ökosystem – keine klare Spur, nur Wahrscheinlichkeiten. Rechtlich sauber? Vielleicht. Risikoarm? Nein.
Zertifizierungen sind wichtig – aber sie sind Vergangenheitszeugnisse. Sie sagen etwas über den Auditzeitraum, selten über den aktuellen Sicherheitszustand. Ein SOC-Bericht kann solide Prozesse attestieren und dennoch die eine, konkrete Fehlkonfiguration nicht abbilden, die heute den Unterschied macht. Zudem ist nicht jeder Scope gleich: „ISO 27001 for the corporate HQ“ ist etwas anderes als „inklusive aller Produktionsumgebungen und Subprozessoren“. Wer nur auf Logos schaut, prüft nicht – er hofft.
Besser ist ein zweistufiges Vorgehen: (1) Zertifikate als Startsignal, (2) gezielte Nachweise für die eigene Risikolage. Es geht nicht um Misstrauen, sondern um Passung: Reicht das, was der Anbieter bietet, für das, was wir von ihm erwarten?
Effektives Third-Party-Risk-Management (TPRM) ist kein Formularwesen, sondern ein Betriebssystem für Beziehungen. Es verbindet Rechtsabteilung, Einkauf, IT, Security, Fachbereiche und Notfallmanagement zu einem durchgängigen Prozess. Die Bausteine:
Sichtbarkeit ist der Hebel: Nur wer Beziehungen kennen lernt, kann Risiken priorisieren.
Verträge, die tragen: Meldeszenarien mit Fristen, Nachweisformaten, Logs; Right-to-Audit; Subprozessor-Transparenz; Exit-Klauseln (Datenportabilität, Support, Zeitfenster); klare Regelungen zu Retention, Training und Regionen bei KI/Analytics.
Technik, die schützt: Zero-Trust-Zugänge mit SSO/MFA/Device-Compliance; PAM für privilegierte externe Sessions; Segmentierung für Integrationen; API-/KI-Gateways mit Maskierung, Ratenlimit, Protokollierung; Sigstore/SLSA-Attestierungen; SBOM-Validierung vor Rollout; Egress-Kontrollen.
Prozesse, die halten: standardisierte On-/Offboarding-Flows; Change-Ankündigungen bei Sicherheitsrelevanz; Dual-Control für Hochrisikoaktionen; dokumentierte Entsorgung/Rückläufer; Begleitung von Fremden im RZ.
Das am meisten unterschätzte Feld. Ein einziger externer Admin mit Domain-Rechten ist ein Risikotransformator. Abhilfe: JIT/JEA, MFA obligatorisch, Device-Bindung, Netz-Scopes, Sitzungsaufzeichnung, Ablaufdaten pro Zugriff. Keine geteilten Konten, nie.
„Schnell mal verbinden“ ist der neue Trojaner. Governance braucht Admin-Consent, Scope-Reviews, Rezertifizierungen, App-Allowlists, Transparenz über Subdienste. Ein internes „App-Store-Modell“ hilft: geprüfte Apps, klar markierte Risiken, einfache Beantragung.
API-Keys in Extensions, Tokens in Logs, lange Gültigkeit – das ist das Einfallstor Nummer eins für Massenzugriffe. Lösung: Vault statt Datei, Rotation, Scopes eng, Kurzläufer, Anomalie-Alarme auf Nutzungsmuster.
Ohne SBOM patchen Sie blind. Mit SBOM allein patchen Sie zu viel. Es braucht Risikobewertung: Welche Komponenten sind exponiert, kritisch, ersetzbar? Welche Mitigations existieren? Rollout-Entscheidungen folgen Kritikalität, nicht Mailinglisten.
KI ist nicht das Risiko – unkontrollierter Egress ist es. Governance für KI-Dienste heißt: Gateway mit Maskierung, No-Training-Verträge, Retention definieren, rote Daten intern halten, RAG-Grenzen hart ziehen, Prompts und Antworten klassifizieren.
Audits sind kein Hindernis, sondern eine Gelegenheit. Dritte, die bereitwillig Belege liefern, die Formate akzeptieren, die Proben zulassen, sind strategische Partner. Entscheidend ist der Wechsel von „Wir erfüllen“ zu „Wir beweisen im Alltag“: Logs, Attestierungen, Reports, wiederholbare Tests. Nachweisfähigkeit schafft nicht nur regulatorische Ruhe – sie schafft Vertrauen, das echten wirtschaftlichen Wert hat.
TPRM scheitert selten an Technik, häufiger an Kultur. Zwei Extreme sind gleichermaßen dysfunktional: Blindes Vertrauen („Die sind doch zertifiziert“) und Misstrauensbürokratie („Ohne 50 Seiten Fragebogen geht nichts“). Dazwischen liegt die reife Haltung: partnerschaftliche Strenge. Klare Erwartungen, kurze Wege, schnelle Entscheidungen, faire Fristen – und Konsequenz, wenn Zusagen nicht gehalten werden. Gute Anbieter wissen das zu schätzen; schlechte fallen dadurch auf.
Auch intern braucht es ein Mindset-Upgrade: Fachbereiche sollen früh melden, wenn sie neue Dienste brauchen; Security liefert benutzbare Pfade; Einkauf verhandelt nicht nur Preis, sondern Portabilität und Beweisführung; das Management misst nicht Papier, sondern Resilienzwert.
Diese Metriken sind keine Kosmetik. Sie verändern Verhalten – wenn sie sichtbar sind, Owner haben, Ziele und Eskalationen.
Aus jedem Scheitern lässt sich eine Regel destillieren: Beweise vor Vertrauen, Zugriff vor Dauerrecht, Risikobewertung vor Automatismus, Portabilität vor Bequemlichkeit.
TPRM ist keine Polizeiarbeit. Die besten Ergebnisse entstehen, wenn man mit Dritten gemeinsam robuste Lösungen baut: standardisierte Fragebögen in maschinenlesbarer Form; Austausch über Indicators of Compromise; gemeinsame Tabletops; abgestimmte Wartungsfenster; geteilte Runbooks für Zwischenfälle. Diese Zusammenarbeit reduziert Friktion und erhöht die Geschwindigkeit – genau das, was Fachbereiche brauchen.
Solange zehn Lieferanten kritisch sind, funktioniert Excel. Ab hundert wird es zur Bremse. Skalierbares TPRM braucht Plattformen: zentrales Verzeichnis, Workflows, Dokumente, Nachweise, Telemetrie, Integrationen ins SIEM, in das GRC, in das Identity-System. Wichtig ist Offenheit: APIs statt PDF-Gefängnis, Events statt E-Mail-Anhänge, Standards statt Insellösungen. Wer Plattformen einführt, muss trotzdem die Freiheit behalten, für besondere Risiken tiefer zu bohren – Tools unterstützen, Entscheidungen trifft die Governance.
Third-Party-Beziehungen sind auch Rechtsbeziehungen. Datenflüsse über Grenzen hinweg, Auftragsverarbeitung, Haftung bei Ausfällen, Informationspflichten – all das gehört auf den Tisch, bevor der erste Datensatz fließt. Ebenso die ethische Dimension: Wie behandeln Anbieter die Daten ihrer Kunden? Wie transparent ist ihr Umgang mit Vorfällen? Wie ernst nehmen sie die Würde derjenigen, deren Daten wir verarbeiten? In einer Welt, in der Vertrauen ein Wettbewerbsfaktor ist, zählen diese Fragen doppelt.
Ob Software, Mensch, Cloud, Gerät oder Datenfluss – überall entscheidet dasselbe Prinzip: Prüfbarkeit. Nicht absolute Sicherheit, nicht Nullrisiko, nicht Papierberge, sondern die Fähigkeit, jederzeit zu zeigen, dass Risiken verstanden, begrenzt, überwacht und im Fall der Fälle beherrscht werden. Prüfbarkeit ist die Währung, mit der man Vertrauen kauft – bei Kunden, Aufsehern, Partnern und Mitarbeitenden.
Third Parties verschwinden nicht. Im Gegenteil: Sie sind die Grundlage moderner Wertschöpfung. Die Frage ist nicht, ob wir sie nutzen, sondern wie. Wer sie als blinde Flecken behandelt, wird von ihnen überrascht. Wer sie als Partner ernst nimmt, klare Regeln setzt, Beweise fordert, Zugriffe begrenzt, Telemetrie schafft und Resilienz baut, bekommt das, was in unsicheren Zeiten am wertvollsten ist: Handlungsfähigkeit.
Die stille Gefahr ist nur so lange still, wie niemand hinhört. Zeit, hinzuhören – und zu führen.
Hinweis: Teile dieses Beitrags könnten unter Einsatz von KI-gestützten Tools erstellt oder überarbeitet worden sein. Weitere Informationen finden Sie im Impressum/Disclaimer. | Marken- und Bildrechte: Dargestellte Logos und genannten Marken liegen ausschließlich bei den jeweiligen Rechteinhabern. Nutzung erfolgt ausschließlich zu illustrativen Zwecken. |
Wenn Sie den Blog-Beitrag abonnieren, senden wir Ihnen eine E-Mail, sobald es Updates auf dieser Website gibt.