
Security-Teams stehen unter Druck. Die Angriffsflächen wachsen, die Bedrohungen werden komplexer, die Personaldecke bleibt dünn. KI gilt als Ausweg - bessere Detection, weniger Fehlalarme, schnellere Reaktion. So zumindest das Versprechen. Die Praxis zeigt ein anderes Bild. ML-Modelle liefern Scores, die niemand interpretieren kann. Anomalieerkennungen produzieren Rauschen statt Erkenntnisse. Und wenn es darauf ankommt - nachts, unter Zeitdruck, mit unvollständigen Daten - fehlt das Vertrauen in die Systeme, die eigentlich unterstützen sollten. Dieses Buch nimmt KI in der Cybersecurity auseinander. Nicht als Technologie, sondern als Faktor in Architekturen, Prozessen und Entscheidungen. Es behandelt die Voraussetzungen, die erfüllt sein müssen, bevor ML-basierte Ansätze überhaupt funktionieren können. Es beleuchtet die Schnittstellen zwischen automatisierten Bewertungen und menschlicher Verantwortung. Und es benennt die Stellen, an denen Organisationen regelmäßig scheitern - nicht an der Technik, sondern an unrealistischen Erwartungen und fehlender Vorbereitung. Ein Fachbuch für Security-Architekten, SOC-Verantwortliche, Incident-Responder und CISOs.