Neuer „denkender“ KI-Chatbot ist in der Lage, Menschen zu terrorisieren und Geld von „einer großen Anzahl“ von Menschen zu stehlen
Von Ethan Huff |
Aus dem Weg, ihr nigerianischen Prinzen, denn es gibt eine neue Masche, um Geld zu stehlen: Chatbots mit künstlicher Intelligenz (KI), die in der Lage sind, zu „denken“ und sich endlose Wege auszudenken, um Menschen um ihr Geld zu betrügen.
OpenAI hat vor kurzem sein neues o1 ChatGPT-Modell vorgestellt, das nach Angaben des Unternehmens viel „intelligenter“ ist als bestehende KI-Chatbots. Das o1-Modell hat die Fähigkeit, „mehr Zeit zum Nachdenken zu verwenden, bevor es antwortet“, erklärte das Unternehmen.
„Sie können komplexe Aufgaben durchdenken und schwierigere Probleme lösen als bisherige Modelle in Wissenschaft, Programmierung und Mathematik.
OpenAIs o1-Modell von ChatGPT ist die erste größere Weiterentwicklung des Systems, seit es Ende 2022 eingeführt wurde. Derzeit ist es nur für zahlende ChatGPT-Mitglieder verfügbar.
Laut dem Cybersecurity-Experten Dr. Andrew Bolster ist das o1-Modell von ChatGPT ein wahrgewordener Traum für Cyber-Kriminelle, die sich alle möglichen Betrügereien ausdenken werden, die selbst die klügsten Internetnutzer/innen nicht erkennen können, bevor sie um ihr hart verdientes Geld gebracht werden.
„Große Sprachmodelle (Large Language Models, LLMs) werden im Laufe der Zeit immer besser, und die Veröffentlichung des Modells 'o1' von OpenAI ist keine Ausnahme von diesem Trend“, sagt Dr. Bolster.
„Diese Generation von LLMs zeichnet sich dadurch aus, dass sie den Anschein erwecken, als würden sie 'denken'. Zwischenschritte werden vom gesamten Konversationssystem ausgeführt, um kreativere oder 'clever' erscheinende Entscheidungen und Antworten hervorzubringen.“
Die amerikanische Betrugsökonomie mit KI vorantreiben
Ein großer Teil dessen, was die amerikanische Wirtschaft heutzutage am Laufen hält, ist Kriminalität. So gut wie alles ist heute eine Art Schneeballsystem, sei es in der Wirtschaft, auf den Märkten, in der Religion, im Gesundheitswesen und natürlich in der Politik. Und während die Öffentlichkeit das alles durchschaut, versuchen die Machthaber verzweifelt, neue Pläne auszuhecken, um die Menschen um ihr Vermögen zu bringen.
Die KI macht dies möglich, indem sie es dem schlimmsten menschlichen Abschaum der Welt ermöglicht, Deepfake-Videos zu erstellen, in denen scheinbar echte Menschen sprechen, die aber nur von der KI geschaffen wurden. Mit Deepfake-Videos kann man Menschen dazu verleiten, alles Mögliche zu tun oder zu glauben, und das ist gut fürs Geschäft.
Berichten zufolge ist bereits jeder dritte Brite auf irgendeine Weise von KI-Depfakes betrogen worden. Und das Problem wird nur noch schlimmer, je weiter die KI zur nächsten Stufe der Täuschung vordringt.
„Im Zusammenhang mit der Cybersicherheit würde dies natürlich dazu führen, dass es für Endnutzer/innen schwieriger wird, Gespräche mit diesen 'denkenden Maschinen' von Menschen zu unterscheiden“, sagt Dr. Bolster.
„Das würde es Romantikbetrügern oder anderen Cyberkriminellen erleichtern, diese Werkzeuge zu nutzen, um eine große Anzahl von verwundbaren 'Zielpersonen' zu erreichen.“
Nvidia, das die Chips und andere Hardware herstellt, die KI-Entwickler brauchen, um diese abscheulichen Betrügereien zu erstellen, ist zufällig die Aktie, die die US-Märkte gerade stützt. Ohne sie und ohne KI wäre die US-Wirtschaft wahrscheinlich schon ein ruinöser Haufen mit katastrophaler Zerstörung.
Dr. Bolster sagt, dass Verbraucher/innen sich vor allem hüten sollten, was im Internet „zu gut ist, um wahr zu sein“, denn höchstwahrscheinlich handelt es sich um Betrug, der heutzutage auch mit KI zu tun hat.
Die Öffentlichkeit „sollte sich immer mit Freunden und Familienmitgliedern beraten, um eine zweite Meinung einzuholen“, warnt er, „vor allem, wenn jemand (oder etwas) am Ende eines Chatfensters oder sogar eines Telefonanrufs versucht, dich zu etwas zu drängen.“