Sind KI-Bots genauso anfällig für Social Engineering wie wir?

„Social Engineering“ ist eine bewährte Taktik, die Hacker gegen den menschlichen Faktor in Computersicherheitssystemen einsetzen, oft weil es einfacher ist, als hoch entwickelte Sicherheitstechnologie zu überwinden. Wird dieser Ansatz funktionieren, wenn neue KI immer menschenähnlicher wird?

Was ist Social Engineering?

Nicht zu verwechseln mit dem ethisch fragwürdigen Konzept der Politikwissenschaft. In der Welt der Cybersicherheit ist Social Engineering die Kunst, Menschen durch psychologische Manipulation dazu zu bringen, das zu tun, was Sie wollen. Wenn Sie ein Hacker sind, möchten Sie von anderen beispielsweise, dass sie vertrauliche Informationen preisgeben, Passwörter weitergeben oder einfach direkt Geld auf Ihr Konto einzahlen.

Es gibt viele verschiedene Hacking-Techniken, die unter den Begriff Social Engineering fallen. So hängt es beispielsweise von menschlicher Neugier ab, ob man einen mit Malware infizierten USB-Stick herumliegen lässt. Der Stuxnet-Virus, der die Ausrüstung einer iranischen Atomanlage zerstörte, könnte dank eingeschleuster USB-Sticks in diese Computer gelangt sein.

Aber das ist nicht die Art von Social Engineering, die hier relevant ist. Vielmehr sind hier gängige Angriffe wie „Spear-Phishing“ (gezielte Phishing-Angriffe) und „Pretexting“ (Verwendung einer falschen Identität, um Opfer auszutricksen) relevant, bei denen eine Person im Gespräch mit einer anderen zur Täuschung führt.

Da es sich bei der „Person“, die mit Ihnen am Telefon oder im Chatroom sitzt, mit ziemlicher Sicherheit irgendwann um einen KI-Chatbot irgendeiner Art handeln wird, stellt sich die Frage, ob die Kunst des Social Engineering bei synthetischen Zielen noch wirksam sein wird.

KI-Jailbreaking gibt es bereits

Jailbreaking von Chatbots gibt es schon seit einiger Zeit und es gibt zahlreiche Beispiele, bei denen jemand einen Chatbot dazu überreden kann, seine eigenen Verhaltensregeln zu verletzen oder auf andere Weise etwas völlig Unangemessenes zu tun.

Grundsätzlich lässt die Existenz und Wirksamkeit von Jailbreaking darauf schließen, dass Chatbots tatsächlich anfällig für Social Engineering sein könnten. Chatbot-Entwickler mussten ihren Umfang wiederholt einschränken und strenge Schutzmaßnahmen einführen, um sicherzustellen, dass sie sich richtig verhalten. Dies scheint eine weitere Runde von Jailbreaking zu inspirieren, um zu sehen, ob diese Schutzmaßnahmen aufgedeckt oder umgangen werden können.

Wir können einige Beispiele hierfür finden, die von Benutzern von X (früher Twitter) gepostet wurden, wie etwa von Dr. Paris Buttfield-Addison, der Screenshots veröffentlichte, die anscheinend zeigen, wie ein Bank-Chatbot davon überzeugt werden könnte, seinen Namen zu ändern.

Können Bots vor Social Engineering geschützt werden?

Die Vorstellung, dass beispielsweise ein Bank-Chatbot dazu gebracht werden könnte, vertrauliche Informationen preiszugeben, ist zu Recht besorgniserregend. Andererseits wäre eine erste Verteidigungslinie gegen diese Art von Missbrauch, diesen Chatbots den Zugriff auf solche Informationen von vornherein zu verwehren. Es bleibt abzuwarten, wie viel Verantwortung wir einer solchen Software ohne menschliche Aufsicht übertragen können.

Die Kehrseite davon ist, dass diese KI-Programme Zugang zu Informationen benötigen, um nützlich zu sein. Es ist also keine wirkliche Lösung, ihnen Informationen vorzuenthalten. Wenn ein KI-Programm beispielsweise Hotelbuchungen abwickelt, muss es für seine Arbeit auf die Daten der Gäste zugreifen können. Die Befürchtung ist also, dass ein gewiefter Betrüger diese KI dazu bringen könnte, preiszugeben, wer in diesem Hotel übernachtet und in welchem ​​Zimmer.

Eine andere mögliche Lösung könnte die Verwendung eines „Buddy“-Systems sein, bei dem ein KI-Chatbot einen anderen überwacht und eingreift, wenn dieser aus dem Ruder läuft. Ein KI-Supervisor, der jede Antwort überprüft, bevor sie an den Benutzer weitergeleitet wird, könnte eine Möglichkeit sein, diese Art von Methode abzuschwächen.

Wenn Sie Software erstellen, die natürliche Sprache und Logik nachahmt, ist es letztlich logisch, dass dieselben Überzeugungstechniken, die bei Menschen funktionieren, auch bei zumindest einigen dieser Systeme funktionieren. Angehende Hacker sollten also neben Büchern zur Cybersicherheit auch „Wie man Freunde gewinnt und Menschen beeinflusst“ lesen.


Posted

in

by

Tags:

Comments

Leave a Reply