In der IT-Security nehmen Künstliche Intelligenz und Machine-Learning-Technologien seit einigen Jahren immer mehr Raum ein. Mit der breiten Verfügbarkeit von generativer KI erhält diese Entwicklung nun einen weiteren starken Schub. Die intelligente Automatisierung von Security-Prozessen scheint angesichts des anhaltenden Mangels an IT-Fachkräften eine attraktive Zukunftsperspektive zu bieten. Doch inwieweit können Unternehmen ihre IT-Security KI-Technologien überlassen? Welche Rolle können – oder sollten – Menschen in diesem Bereich noch spielen? Und können Mensch und KI einander sinnvoll ergänzen?
Für eine Vielzahl von Unternehmen ist ein Angriff auf ihre Infrastruktur längst eine Frage von „wann“ anstelle von „ob“. Laut einer aktuellen Statistik haben Attacken in Deutschland in 2022 im Vergleich zum Vorjahr um 27 Prozent zugenommen. 84 Prozent der Unternehmen in Deutschland seien demnach bereits Opfer einer Cyberattacke geworden, so eine Bitkom-Studie, und knapp die Hälfte rechnet mit einem Anstieg in den nächsten 12 Monaten. Diese Zunahme an Angriffen lässt sich unter anderem auf die wachsende Professionalisierung der Cyberkriminellen sowie deren Einsatz von KI-gestützten Tools, die breit angelegte Attacken ermöglichen, zurückführen.
Schwachstellen in der IT-Security mit erweitertem Risikopotenzial
Unternehmen wissen, dass sie potenzielle Ziele sind, haben sich auf diese Umstände eingestellt und nutzen ebenfalls automatisierte Test- und Monitoring-Tools. Diese können unmittelbar Alarm schlagen, ein schnelles Eingreifen ermöglichen und das Entstehen von Schäden besser verhindern. Allerdings bleiben die Fähigkeiten automatisierter Test-Tools eng auf ihren Anwendungsbereich beschränkt und eignen sich vornehmlich für das Entdecken bekannter Schwachstellen und häufiger Codierungsfehler. Es bleibt ein Restrisiko für undokumentierte Schwachstellen, die durch derartige Tools nicht abgedeckt sind. Einige von ihnen können nur durch die anhaltende Wachsamkeit eines erfahrenen Menschen entdeckt werden, der den gesamten Kontext, in dem ein System arbeitet, versteht.
Das ist ein Ansatz, den auch Cyberkriminelle für sich nutzen. Sie kombinieren die Fähigkeiten automatisierter Tools mit von Menschen entwickelten Taktiken, um wirksame Angriffe oder Betrugsmethoden in einem Umfang anzuwenden, der früher nicht möglich war. Außerdem ist zu beachten, dass in der IT-Security eingesetzte KI-Anwendungen auch Schwachstellen aufweisen können. Diese können Cyberkriminelle ausnutzen, um die Geschäftslogik zu verfälschen, Kundenbeziehungen böswillig zu stören oder sensible Daten zu exfiltrieren.
Der Mensch bleibt unverzichtbar
Für Unternehmen wird es immer wichtiger, ihre Angriffsfläche auf granularer Ebene zu verstehen und zu wissen, wie sie diese schützen können. Dazu benötigen sie dringend menschliche Experten, die ihre Infrastrukturen umfassenden Sicherheitstests unterziehen – und nicht nur verschiedene Varianten desselben Scans. Menschen sind in der Lage, kontextbezogene Analysen durchzuführen, die spezifischen Anforderungen und Feinheiten des Sicherheitsprofils einer Organisation zu verstehen und ihren Testansatz entsprechend anzupassen. Sie können Einblicke in potenzielle Schwachstellen gewähren, die für die Software, die Umgebung oder die Branche spezifisch sind und Organisationen dabei helfen, besondere Sicherheitsherausforderungen effektiv anzugehen.
Dies ermöglicht einen vielschichtigeren Sicherheitsansatz, indem automatisches Scannen mit anderen proaktiven Sicherheitsmaßnahmen wie manuellen Penetrationstests, Bedrohungsmodellierungen, Code-Reviews und Sicherheitsaudits kombiniert werden, um potenzielle unbekannte Schwachstellen aufzudecken. Untersuchungen zeigen, dass dies menschlichen Sicherheitsexperten deutlich schneller und präziser gelingt als automatisierten Lösungen: Fast 85 Prozent der Bug-Bounty-Programme decken eine oder mehrere hochgradige oder kritische Schwachstellen auf, während 92 Prozent der ethischen Hacker versichern, dass sie Schwachstellen aufdecken können, die Scanner nicht finden. Während Cyberkriminelle nach Möglichkeiten suchen, um sich ohne Erlaubnis Zugang zu einem Unternehmenssystem zu verschaffen, können ethische Hacker sicherstellen, dass Schwachstellen und Sicherheitslücken schnellstmöglich behoben werden und die Angreifer somit keinen Ansatzpunkt mehr haben.
Intelligenz der Anwender bestimmt die Fähigkeiten von KI
Die KI-gestützte Automatisierung kann also den Menschen zwar bei der IT-Security unterstützen, macht menschliche Expertise jedoch noch nicht unentbehrlich. Cyber-Bedrohungen entwickeln sich ständig weiter – damit tauchen auch neue Schwachstellen auf. Unternehmen sollten daher ihre Sicherheitspraktiken kontinuierlich bewerten und verbessern, sich über die neuesten Bedrohungsdaten auf dem Laufenden halten und in regelmäßige Sicherheitsbewertungen durch qualifizierte Sicherheitsexperten, Tester und Hacker investieren. Der Bedarf an Sicherheitsexperten wird auch in Zukunft bestehen bleiben, jedoch kann KI-Technologie Unternehmen in die Lage versetzen, diese effizienter und besser ihren individuellen Sicherheitsanforderungen entsprechend zu nutzen.
Der Autor
Dane Sherrets ist ein erfahrener Senior Solutions Architect bei HackerOne. Er hilft großen Unternehmen und Regierungen, Bug Bounty-Programme und Ethical Hacking Services erfolgreich zu nutzen, um wachsende Cyber-Risiken bestmöglich zu minimieren.