Es ging schneller als erwartet. Auf der RSA-Konferenz aus wurde Künstliche Intelligenz (KI) noch in jeder Ecke thematisiert. Doch der anfängliche Glanz verblasste rasch. Viele KI-Startups, die auf einer Welle der Übernahmen an den Markt gingen, stehen nun vor großen Problemen. Die vermeintlichen „KI-Experten“ wurden oft vorzeitig an die großen Tech-Konzerne verkauft. Das große Geld wurde in Windeseile verbrannt, wie Papier im Feuer eines Vulkans. Nun folgt die Abrechnung.
Da vielen Startups das Kapital fehlt, um wirklich durchzustarten, stehen sie nun günstig zum Verkauf. Große Tech-Unternehmen umgehen den zunehmenden Druck staatlicher Regulierungen und lizenzieren die Technologie dieser Startups. Sie übernehmen die Mitarbeiter, ohne die hohen Übernahmekosten zu tragen. Für die Newcomer hat sich der Wind gedreht, plötzlich befinden sie sich in einem Käufermarkt.
Doch KI und maschinelles Lernen (ML) waren in der IT-Sicherheit immer nur ein Teil des Puzzles. Eine wichtige, aber eben nur eine Komponente. Was die Sache noch komplizierter macht (jedenfalls für die Anbieter junger KI-Sicherheitstechnologien): Die CISA scheint nicht davon begeistert zu sein, was aufkommende KI-Tools für die Cyberoperationen der Bundesbehörden leisten könnten.
KI-Startups haben nur eine Chance
Für reine KI-Anbieter im Sicherheitsbereich bleibt oft nur eine Option: Sie müssen ihre Technologie an Unternehmen verkaufen, die bereits über die nötige Infrastruktur verfügen. Das Problem beschränkt sich nicht nur auf KI. Auch herkömmliche Sicherheitsfragen wie fehlerfreie Updates sind komplex. Sicherheitssoftware benötigt tiefen Zugriff auf Betriebssystemressourcen. Ein überstürztes Update kann Systeme einfrieren – von einzelnen Computern bis hin zu ganzen Cloud-Netzwerken.
Die Cloud bietet große Flexibilität und Leistung, doch sie birgt auch Risiken. Kriminelle Akteure könnten über raffinierte Exploits ganze Unternehmen lahmlegen und deren Sicherheit kompromittieren.
KI-Benchmarking als notwendiger Schritt
Um die junge KI-Branche zu stabilisieren, arbeiten Experten daran, Benchmarks für große Sprachmodelle (LLMs) zu entwickeln. Nach viel Show und Rauch auf Konferenzen versuchen sie nun, realistische Referenzwerte zu schaffen. Das Ziel ist klar: fundierte, empirisch gestützte Entscheidungen treffen. Diese Arbeit ist wichtig und verdient Unterstützung.
Große Forschungsgruppen sind keine Startups und verfügen über die Ressourcen, um diese anspruchsvolle Aufgabe zu bewältigen. Sie untersuchen Themen wie die automatische Generierung von Exploits, unsichere Codeausgaben und die Gefahr von Prompt-Injection-Angriffen. Die neuesten Entwicklungen konzentrieren sich auch auf offensive Sicherheitsfähigkeiten, wie automatisiertes Social Engineering und autonome Cyberoperationen. Diese Ergebnisse sind öffentlich zugänglich und bieten der Branche wertvolle Einblicke. Dies ist die Art von Dingen, bei denen Gruppen wie das NIST in der Vergangenheit geholfen haben, was für die Industrie ein Segen war.
Startups läuft die Zeit davon
Für ein kleines Startup mit wenigen Ingenieuren ist es schwer, die nächste große LLM-Innovation zu entwickeln und einen lukrativen Börsengang hinzulegen. Dennoch ist es möglich, ein spezialisiertes KI-Sicherheitsprodukt zu schaffen. Die große Herausforderung besteht darin, dieses Produkt an die Großen zu verkaufen, bevor das Kapital aufgebraucht ist.