Die Künstliche Intelligenz (KI) ist derzeit ein heißes Thema und allgegenwärtig. Wahrscheinlich nutzen Sie sie bereits - ohne dass Sie es wissen: Der Chatbot, mit dem Sie über Ihr verlorenes Paket sprechen? Vermutlich kommunizieren Sie mit einer KI und nicht mit einem Menschen. Die „empfohlenen“ Artikel, die unter Ihren Amazon-Einkäufen angezeigt werden? Höchstwahrscheinlich vorgeschlagen von KI/ML-Algorithmen (maschinelles Lernen). Vielleicht nutzen Sie sogar schon generative KI, um Ihre LinkedIn-Beiträge oder E-Mails zu verfassen.
Aber wo verläuft die Grenze? Wenn KI monotone und sich wiederholende Aufgaben übernimmt, Inhalte viel schneller recherchiert und erstellt als ein Mensch, dann stellt sich automatisch die Frage: Wofür benötigen wir dann überhaupt noch Menschen? Ist das „menschliche Element“ tatsächlich für das Funktionieren eines Unternehmens erforderlich? Lassen Sie uns die Vorteile, Herausforderungen und Risiken für eine Jobbesetzung näher beleuchten: Lieber ein Roboter oder Mensch?
Warum KI funktioniert
Künstliche Intelligenz ist in der Lage, Geschäftsprozesse zu optimieren und den Zeitaufwand für Aufgaben zu verringern. Also all die Aufgaben zu übernehmen, die die Gesamtproduktivität und den Geschäftserfolg der Mitarbeiter während des Arbeitstages beeinträchtigen. Unternehmen setzen KI bereits für eine Vielzahl von Aufgaben ein: von der Überprüfung von Lebensläufen für Bewerbungen über die Erkennung von Anomalien in Kundendaten bis hin zur Erstellung von Inhalten für soziale Medien.
All dies geschieht in einem Bruchteil der Zeit, die ein Mensch dafür benötigen würde. In Situationen, in denen es auf eine frühzeitige Diagnose und Intervention ankommt, kann sich der Einsatz von KI auf breiter Front äußerst positiv auswirken. Ein KI-gestützter Bluttest könnte beispielsweise helfen, die Parkinson-Krankheit bis zu sieben Jahre vor dem Auftreten von Symptomen vorherzusagen – und das ist nur die Spitze des Eisbergs.
Die KI besitzt die besondere Fähigkeit, Muster in riesigen Datenmengen zu erkennen. So kann sie beispielsweise die Arbeit von Strafverfolgungsbehörden unterstützen, wahrscheinliche Tatorte und Trends zu erkennen oder vorherzusagen. KI-gestützte Werkzeuge wären auch bei der Bekämpfung von Cyberkriminalität und anderen Cyberbedrohungen eine große Hilfe. IT-Sicherheitsexperten würden davon sehr profitieren und ihre Arbeit effizienter erledigen.
Maschinelles Lernen und nun auch Künstliche Intelligenz sparen Unternehmen schon lange Zeit und Geld. Je weniger Zeit die Mitarbeiter mit lästigen Aufgaben wie dem Scannen von Dokumenten und dem Hochladen von Daten verbringen, desto mehr Zeit können sie für die Unternehmensstrategie und das Wachstum aufwenden. In einigen Fällen können KI und ML sogar Vollzeitverträge überflüssig machen und so die Personalkosten eines Unternehmens verringern (was sich verständlicherweise nicht gerade positiv auf die Beschäftigungsquote auswirkt).
KI-basierte Systeme tragen schon jetzt dazu bei, das Risiko menschlicher Fehler zu eliminieren. Nicht umsonst heißt es: „Wir sind auch nur Menschen“. Wir alle können Fehler machen, besonders nach fünf Kaffees, nur drei Stunden Schlaf und einer drohenden Deadline. Künstliche Intelligenz kann rund um die Uhr arbeiten, ohne jemals müde zu werden. Sie hat eine Art von Zuverlässigkeit, die selbst der detailverliebteste und methodischste Mensch nicht erreichen kann.
Die Grenzen der KI
Doch täuschen Sie sich nicht: Bei genauerem Hinsehen werden die Dinge etwas komplizierter. KI-Systeme können zwar Fehler aufgrund von Müdigkeit und Ablenkung minimieren, aber sie sind nicht unfehlbar. Auch die Künstliche Intelligenz begeht Fehler und „halluziniert“ zuweilen. In diesem Fall sagt sie die Unwahrheit, suggeriert aber die Wahrheit. Dieser Effekt tritt insbesondere dann auf, wenn es Probleme mit den Daten gibt, auf denen sie trainiert wurde oder mit dem Algorithmus selbst. Mit anderen Worten: KI-Systeme sind nur so gut wie die Daten, mit denen sie trainiert wurden (was wiederum menschliche Expertise und Kontrolle erfordert).
Auch wenn wir Menschen vorgeben, objektiv zu sein, sind wir doch alle anfällig für unbewusste Voreingenommenheit. Sie beruht auf unseren eigenen Erfahrungen und ist nur schwer oder gar nicht auszuschalten. Dasselbe gilt auch für die Künstliche Intelligenz, wenn die Daten, mit denen sie trainiert wurde, bereits voreingenommen sind. Mit anderen Worten: Ein KI-Tool, das mit sauberen und objektiven Daten „gefüttert“ wurde, kann tatsächlich rein datenbasierte Ergebnisse liefern und die voreingenommene menschliche Entscheidungsfindung korrigieren. Um Fairness und Objektivität in KI-Systemen zu gewährleisten, sind kontinuierliche Anstrengungen bei der Datenauswahl, der Entwicklung von Algorithmen und der laufenden Überwachung erforderlich.
Laut einer Studie aus dem Jahr 2022 sind 54 Prozent der Technologieführer sehr oder äußerst besorgt über die Voreingenommenheit von KI. Wir haben bereits gesehen, welche katastrophalen Folgen die Verwendung solcher Daten für Unternehmen haben kann: Die Verwendung verzerrter Datensätze durch eine Autoversicherung in Oregon hat zum Beispiel gezeigt, dass Frauen 11,4 Prozent mehr für ihre Autoversicherung zahlen als Männer – obwohl alles andere gleich ist! Dies kann schnell zu einem Image- und letztlich Kundenverlust führen.
Da Künstliche Intelligenz mit großen Datensätzen gefüttert wird, stellt sich zwangsläufig die Frage des Datenschutzes. Wenn es um personenbezogene Informationen geht, könnten böswillige Akteure Wege finden, Datenschutzprotokolle zu umgehen und auf diese zuzugreifen. Auch wenn es Möglichkeiten gibt, eine sicherere Datenumgebung für diese Tools und Systeme zu schaffen, müssen Unternehmen angesichts der zusätzlichen Informationsmenge auf Lücken in ihrer Cybersicherheit achten.
Darüber hinaus kann KI Emotionen nicht so gut verstehen wie (die meisten) Menschen. Wenn diese mit einer KI interagieren, empfinden sie möglicherweise einen Mangel an Einfühlungsvermögen und Verständnis, den sie bei einer echten „menschlichen“ Interaktion erleben würden. Dies kann sich auf die Kunden-/Benutzererfahrung auswirken, wie das Spiel World of Warcraft zeigt. Es verlor Millionen von Spielern, als es seinen Kundendienst – der zuvor aus echten Menschen bestand, die sogar selbst in das Spiel eintraten, um den Spielern zu zeigen, wie man Aktionen ausführt - durch KI-Bots ersetzte, denen es an Humor und Einfühlungsvermögen fehlte.
Da der KI nur ein begrenzter Datensatz zur Verfügung steht, kann der fehlende Kontext zu Problemen bei der Interpretation eben jener führen. Cybersicherheitsexperten verfügen beispielsweise über Hintergrundwissen zu einem bestimmten Bedrohungsakteur, mit dem sie Warnzeichen erkennen und markieren – im Gegensatz zu einer Maschine, die so etwas nur leistet, wenn dies perfekt mit ihrem programmierten Algorithmus übereinstimmt. Es sind gerade diese komplizierten Nuancen, die in der Folge sowohl für das Unternehmen als auch für seine Kunden enorme Auswirkungen haben können.
Während der KI der Kontext und das Verständnis ihrer Eingabedaten fehlen kann, wissen die Menschen oftmals nicht, wie ihre KI-Systeme überhaupt funktionieren. Wenn Künstliche Intelligenz in „Black Boxes“ arbeitet, ist sie nicht transparent, wie oder warum sie zu den gelieferten Ergebnissen oder Entscheidungen gekommen ist. Wenn man nicht in der Lage ist, die „Arbeitsweise“ hinter den Kulissen zu sehen, kann dies dazu führen, dass man die Validität des Systems in Frage stellt. Und wenn etwas schief geht oder die Eingabedaten verfälscht sind, macht es dieses Black Box-Szenario schwierig, das Problem zu erkennen, zu handhaben und zu lösen.
Warum wir Menschen brauchen
Menschen sind nicht perfekt. Aber wenn es darum geht, mit anderen zu sprechen, mit ihnen zusammenzuarbeiten und wichtige strategische Entscheidungen zu treffen, sind Menschen die besten Kandidaten für diesen Job.
Im Gegensatz zur KI sind Menschen in der Lage, sich an veränderte Situationen anzupassen und kreativ zu denken. Ohne die vordefinierten Regeln, begrenzten Datensätze und Eingabeaufforderungen der künstlichen Intelligenz können Menschen ihre Motivation, ihr Wissen und ihre bisherigen Erfahrungen nutzen, um Herausforderungen zu meistern und Probleme in Echtzeit zu lösen.
Dies ist besonders wichtig, wenn ethische Entscheidungen zu treffen und geschäftliche (oder persönliche) Ziele mit den Auswirkungen auf die Gesellschaft in Einklang zu bringen sind. KI-Tools, die beispielsweise in Einstellungsverfahren eingesetzt werden, berücksichtigen möglicherweise nicht die weiterreichenden Folgen der Ablehnung von Bewerbern aufgrund algorithmischer Voreingenommenheit und die weiteren Auswirkungen, die dies auf die Vielfalt und Integration am Arbeitsplatz haben könnte.
Da die Ergebnisse der Künstlichen Intelligenz durch Algorithmen erzeugt werden, besteht auch die Gefahr, dass sie formelhaft sind. Man denke nur an die generative KI, die zum Schreiben von Blogs, E-Mails und Überschriften in sozialen Medien verwendet wird: Sich wiederholende Satzstrukturen machen Texte schwerfällig und unattraktiv. Inhalte, die von Menschen verfasst wurden, haben wahrscheinlich mehr Nuancen, Perspektiven und – sein wir ehrlich – Persönlichkeit. Insbesondere in Bezug auf Markenbotschaften und Tonalität kann es schwierig sein, den Kommunikationsstil eines Unternehmens mit den strengen Algorithmen der KI nachzuahmen.
In diesem Sinne kann Künstliche Intelligenz zwar eine Liste potenzieller Markennamen liefern, aber die Menschen hinter der Marke verstehen ihr Publikum wirklich und wissen, was am besten ankommt. Mit ihrem Einfühlungsvermögen und der Fähigkeit, Situationen intuitiv zu erfassen, können Menschen besser mit anderen interagieren und engere Beziehungen zu Kunden, Partnern und Stakeholdern aufbauen. Dies ist besonders im Kundendienst von Nutzen. Wie bereits erwähnt, kann schlechter Support zu einem Verlust an Markentreue und Vertrauen führen.
Nicht zuletzt haben Menschen gelernt, sich schnell an veränderte Bedingungen anpassen. Wenn Sie dringend eine Stellungnahme des Unternehmens zu einem aktuellen Ereignis benötigen oder von einer bestimmten Zielbotschaft einer Kampagne abweichen müssen, brauchen Sie einen Menschen. Die Neuprogrammierung und Aktualisierung von KI-Tools nimmt Zeit in Anspruch, die in bestimmten Situationen möglicherweise nicht angemessen ist.
Was ist die Lösung?
Der effektivste Ansatz - auch für die Cybersicherheit - besteht darin, sich nicht ausschließlich auf KI oder Menschen zu verlassen, sondern die Stärken beider zu nutzen. Dies könnte bedeuten, dass KI für die Analyse und Verarbeitung umfangreicher Daten eingesetzt wird, während man sich bei der Entscheidungsfindung, der strategischen Planung und der Kommunikation auf menschliche Expertise verlässt. Die Künstliche Intelligenz sollte als Werkzeug zur Unterstützung und Verbesserung der Mitarbeiter eingesetzt werden und nicht um sie zu ersetzen.
KI ist das Herzstück der ESET-Produkte und ermöglicht es unseren Cybersecurity-Experten, ihre Aufmerksamkeit auf die Entwicklung der besten Lösungen für ESET-Kunden zu richten. Erfahren Sie, wie ESET KI und maschinelles Lernen für eine verbesserte Erkennung, Untersuchung und Reaktion auf Bedrohungen nutzt.