Neuigkeiten, Analysen und Tipps der ESET Sicherheitsexperten
Cybersicherheit, We Live Progress
Deine Stimme ist mein Passwort
KI-gesteuertes Stimmenklonen kann es Betrügern viel zu leicht machen - ich weiß das, weil ich es getestet habe, damit Sie von den Risiken nicht auf die harte Tour lernen müssen.
Der kürzliche Diebstahl meiner Stimme brachte mich an eine neue Weggabelung in Bezug auf das Potenzial der KI, die Gesellschaft zu stören. Ich war so verblüfft von der Qualität der geklonten Stimme (und von dem äußerst cleveren und doch komödiantischen Stil eines meiner Kollegen), dass ich beschloss, dieselbe Software für "schändliche" Zwecke zu verwenden und zu sehen, wie weit ich gehen könnte, um ein kleines Unternehmen zu bestehlen - natürlich mit Erlaubnis! Spoiler-Alarm: Es war überraschend einfach durchzuführen und nahm kaum Zeit in Anspruch.
"KI wird wahrscheinlich entweder das Beste oder das Schlimmste sein, was der Menschheit passieren wird" - Stephen Hawking
Seitdem das Konzept der künstlichen Intelligenz in fiktionalen Filmen wie Blade Runner und The Terminator in den Mittelpunkt des Interesses gerückt ist, haben die Menschen die unendlichen Möglichkeiten, die diese Technologie bieten könnte, in Frage gestellt. Doch erst jetzt, mit leistungsfähigen Datenbanken, zunehmender Computerleistung und der Aufmerksamkeit der Medien, hat die KI ein weltweites Publikum in einer Weise erreicht, die gleichermaßen erschreckend und aufregend ist. Mit einer Technologie wie der KI, die sich unter uns herumtreibt, ist es sehr wahrscheinlich, dass es zu kreativen und ziemlich raffinierten Angriffen mit schädlichen Folgen kommen wird.
Eskapade des Stimmenklonens
Meine frühere Tätigkeit bei der Polizei hat mir die Einstellung vermittelt, wie ein Krimineller zu denken. Dieser Ansatz hat einige sehr greifbare und doch unterschätzte Vorteile: Je mehr man wie ein Krimineller denkt und sogar handelt (ohne tatsächlich einer zu werden), desto besser kann man sich schützen. Dies ist unerlässlich, um mit den neuesten Bedrohungen Schritt zu halten und künftige Trends vorauszusehen.
Um also einige der aktuellen Fähigkeiten der KI zu testen, musste ich wieder einmal in die Denkweise eines digitalen Kriminellen schlüpfen und ein Unternehmen auf ethische Weise angreifen!
Vor kurzem habe ich einen meiner Kontakte - nennen wir ihn Harry - gefragt, ob ich seine Stimme klonen und für einen Angriff auf sein Unternehmen verwenden könnte. Harry stimmte zu und erlaubte mir, das Experiment zu beginnen, indem ich mit einer leicht erhältlichen Software einen Klon seiner Stimme erstellte. Zu meinem Glück war es relativ einfach, an Harrys Stimme heranzukommen - er nimmt oft kurze Videos auf, in denen er auf seinem YouTube-Kanal für sein Unternehmen wirbt, und so konnte ich einige dieser Videos zusammenfügen, um ein gutes Audio-Testfeld zu schaffen. Innerhalb weniger Minuten hatte ich einen Klon von Harrys Stimme erstellt, der für mich genau wie er klang, und ich konnte dann alles schreiben und es mit seiner Stimme wiedergeben lassen.
Um dem Angriff noch mehr Authentizität zu verleihen, beschloss ich, Harrys WhatsApp-Konto mit Hilfe eines SIM-Tausch-Angriffs zu stehlen - ebenfalls mit Genehmigung. Dann schickte ich eine Sprachnachricht von seinem WhatsApp-Konto an die Finanzdirektorin seines Unternehmens - nennen wir sie Sally - und forderte eine Zahlung von 250 £ an einen "neuen Auftragnehmer". Zum Zeitpunkt des Angriffs wusste ich, dass er sich auf einer nahe gelegenen Insel zu einem Geschäftsessen aufhielt, was mir die perfekte Geschichte und Gelegenheit zum Zuschlagen bot.
In der Sprachnachricht teilte er mir mit, wo er sich aufhielt und dass er die Bezahlung des "Grundrissplaners" benötigte, und sagte, er würde die Bankdaten sofort separat übermitteln. Damit war der Klang seiner Stimme zusätzlich zu der Sprachnachricht in Sallys WhatsApp-Thread verifiziert, was ausreichte, um sie davon zu überzeugen, dass die Anfrage echt war. Innerhalb von 16 Minuten nach der ersten Nachricht hatte ich 250 £ auf mein persönliches Konto überwiesen.