Forscher von Check Point Research haben online mehrere Beispiele von Hackern gefunden, die kriminelle Tools mit Hilfe des OpenAI-Chatbots ChatGPT geschrieben haben. Unter anderem wurden “Infodiebe, Verschlüsselungswerkzeuge und Möglichkeiten zur Erleichterung von Betrugsaktivitäten” dank des neuronalen Netzes leichter zugänglich gemacht. In einem Interview mit Hardware Info hat CPR bereits mehrere Möglichkeiten zum Schutz vor solchen Cyberangriffen vorgestellt.
Check Point fand einige Hacker, die ChatGPT erlaubten, Skripte und Programme zu schreiben, offensichtlich mit bösartigen Absichten. So wurde beispielsweise ein Ransomware-Tool zur Verschlüsselung von Systemen in einem Hackerforum veröffentlicht, und auch der Verschlüsselungsprozess für einen Infostealer wurde in demselben Forum veröffentlicht. Die Cybersicherheitsforscher erklären: “Cyberkriminelle finden ChatGPT attraktiv. In den letzten Wochen gab es Anzeichen dafür, dass Hacker damit begonnen haben, bösartigen Code zu schreiben. ChatGPT hat das Potenzial, den Prozess für Hacker zu beschleunigen, indem es ihnen einen guten Ausgangspunkt bietet.”
Bislang wären die Werkzeuge noch recht einfach konzipiert; es würde sich eindeutig um recht rudimentäre Techniken handeln. Nichtsdestotrotz ist es eine einfache Möglichkeit für weniger erfahrene Cyberkriminelle, ein besseres Verständnis dafür zu bekommen, was funktionieren könnte und was nicht. Was Check Point übrigens nicht hervorhebt, ist, dass IT-Experten dieselbe KI auch nutzen können, um ihre eigenen Methoden zum Schutz vor solchen Angriffen zu entwickeln.
Die Idee hinter ChatGPT ist es, eine generische KI zu schaffen, die man alles fragen kann; etwas, das verdammt gut mit dem fraglichen Tool funktioniert. Der Nachteil ist, dass dies auch für bösartige Zwecke genutzt werden kann. In einigen Fällen ist sie relativ harmlos, z. B. wenn Schulkinder die KI für ihre Hausaufgaben nutzen.