Moderne Technik ist alles andere als narrensicher – das belegen die regelmäßig gefundenen Sicherheitslücken beispielsweise in Betriebssystemen und anderer Software. Selbstverständlich versuchen die Entwickler ihre Systeme möglichst sicher zu gestalten. Aber in der Praxis gibt es dafür einfach zu wenige Ressourcen. Denn diese werden lieber in die Gestaltung der Benutzerfreundlichkeit, die Leistungsoptimierung und die Interoperabilität mit anderen Lösungen und Diensten investiert.

Daher tritt die Sicherheit oft in den Hintergrund und ist nur auf das Nötigste beschränkt. Das gilt als besonders riskant bei sensiblen Daten, die umfassenden Schutz benötigen. Bei KI- und Machine-Learning-Systemen (KI/ML) sind unzureichende Sicherheitsmaßnahmen ein wachsendes Problem, da diese Modelle stark von ihrer Datenbasis abhängen.

Was ist Data Mining?

KI/ML-Modelle lernen durch Trainingsdaten, die mit überwachtem oder unbeaufsichtigtem Lernen permanent aktualisiert werden. Maschinelles Lernen ermöglicht das wichtige Deep Learning, das KI-Funktionen verbessert. Je verlässlicher die Daten, desto präziser sind die Ergebnisse.

Doch die Nutzung großer Datenmengen birgt Risiken. Ungeprüfte oder manipulierte Datensätze können falsche Resultate erzeugen. Besonders anfällig sind generative KI-Modelle wie große Sprachmodelle (LLMs), die gezielt manipuliert werden können.

Arten von Data Poisoning

Eine der größten Bedrohungen ist die sogenannte Datenvergiftung, bei der Angreifer das Verhalten eines Modells durch manipulierte Informationen steuern. Die Folgen reichen von fehlerhaften Antworten bis hin zu erheblichen Sicherheitsrisiken für Unternehmen und Privatpersonen. Die Folgen solcher Manipulationen können sich auf alle Anwendungen auswirken, das Vertrauen untergraben und systemische Risiken für Einzelpersonen und Organisationen mit sich bringen.

Es gibt verschiedene Arten von Data-Poisoning-Angriffen, zum Beispiel:

  • Dateninjektion: Bösartige Datensätze werden in Trainingsdaten eingefügt, um die KI zu manipulieren. Ein bekanntes Beispiel ist der Twitter-Bot Tay, den Nutzer dazu brachten, beleidigende Inhalte zu posten.
  • Insider-Angriffe: Mitarbeiter können ihre Zugriffsrechte missbrauchen, um Trainingsdaten gezielt zu verändern und die KI zu beeinflussen. Diese Angriffe sind schwer zu erkennen, da sie von autorisierten Personen ausgehen.
  • Trigger-Injektion: Angreifer integrieren versteckte Befehle in die Trainingsdaten. Diese „Trigger“ aktivieren schädliche Funktionen, wenn bestimmte Bedingungen erfüllt sind. Solche Manipulationen bleiben oft lange unbemerkt.
  • Angriff auf die Lieferkette: KI-Modelle nutzen oft Drittanbieter-Datenquellen. Schwachstellen in der Lieferkette können zur Einschleusung manipulierter Daten genutzt werden, was die Sicherheit erheblich gefährdet. Da KI-Modelle tief in Unternehmens- und Verbrauchersysteme eingebettet sind und als Assistenten oder Produktivitätssteigerer dienen, werden Angriffe auf diese Systeme zu einem erheblichen Problem.

Da KI-Modelle zunehmend in Unternehmen und Alltagsanwendungen integriert sind, steigt das Risiko solcher Angriffe. Unternehmen setzen KI-Modelle ein, die interne Daten verarbeiten, während Verbraucher-Modelle oft Nutzerdaten mit Dritten teilen. Dadurch erhöhen sich die Sicherheitsrisiken.

Wie kann die Entwicklung von ML/AI abgesichert werden?

Die Sicherheit von KI-Systemen beginnt mit bewussten Schutzstrategien. Wichtige Maßnahmen sind:

  • Regelmäßige Kontrollen und Audits: Datensätze sollten kontinuierlich überprüft werden, um Manipulationen zu erkennen und unzuverlässige Daten auszuschließen.
  • Sicherheitsfokus in der Entwicklung: KI-Entwickler können selbst Ziel von Angriffen werden. Daher ist ein präventives Sicherheitskonzept essenziell, das Angriffsflächen minimiert und Früherkennung ermöglicht.
  • Gegentraining: KI-Modelle können gezielt auf die Erkennung von bösartigen Datenpunkten trainiert werden. Dies hilft, Manipulationsversuche abzuwehren.
  • Zero Trust und Zugriffsmanagement: Unberechtigte Zugriffe auf KI-Daten sollten durch Sicherheitslösungen überwacht werden. Ein Zero-Trust-Ansatz stellt sicher, dass kein Zugriff ohne mehrstufige Verifikation gewährt wird. So kann verdächtiges Verhalten leichter erkannt und verhindert werden.

Sicherheit durch Design

KI-Plattformen müssen von Anfang an sicher konzipiert sein. Manipulierte KI-Modelle können ähnlich wie Fehlinformationen großen Schaden anrichten.

Da das Bewusstsein für KI-Risiken wächst, sollten Entwickler prüfen, ob ihre Modelle ausreichend geschützt sind. Verzerrungen, Ungenauigkeiten und Schwachstellen müssen beseitigt werden, bevor sie Probleme verursachen.

Mit der zunehmenden Integration von KI in Unternehmen und das tägliche Leben wird Sicherheit immer wichtiger. Unternehmen, Entwickler und Entscheidungsträger müssen gemeinsam daran arbeiten, robuste Schutzmechanismen für KI-Systeme zu etablieren. So lässt sich das Potenzial der KI nutzen, ohne Sicherheit und Vertrauen zu gefährden.