Können ausgeklügelte Chatbots in den sozialen Medien Schaden anrichten

Handy-Nutzer in einer Gruppe

ChatGPT hat vielen Menschen die erste Gelegenheit gegeben, mit künstlicher Intelligenz (KI) zu experimentieren, sei es als Sprachassistent oder als Ratgeber beim Kochen.

Die Grundlage von ChatGPT ist ein hochmodernes Sprachverarbeitungssystem, das von OpenAI entwickelt wurde.

Mit Hilfe von Textdatenbanken aus dem Internet, darunter Bücher, Zeitschriften und Wikipedia-Einträge, wurde künstliche Intelligenz (KI) trainiert. Insgesamt wurden 300 Milliarden Wörter in das System eingegeben.

Das Ergebnis ist ein Chatbot mit umfangreichem Wissen, das manchmal unheimlich menschlich wirkt.

ChatGPT liefert Ihnen ein Rezept, wenn Sie ihm sagen, was sich in Ihrem Küchenschrank befindet. Kein Problem, wenn Sie eine kurze Einführung zu einer längeren Präsentation benötigen.

Die überzeugende Simulation menschlicher Reaktionen könnte ein nützliches Werkzeug für diejenigen sein, die nichts Gutes im Schilde führen, aber ist es auch zu gut?

Forscher aus den Bereichen Wissenschaft, Cybersicherheit und künstliche Intelligenz (KI) warnen davor, dass ChatGPT von unehrlichen Akteuren genutzt werden könnte, um Zwietracht zu säen und Propaganda in den sozialen Medien zu verbreiten.

Bislang war die Verbreitung von Falschinformationen mit viel Aufwand verbunden. Eine im Januar veröffentlichte Studie der Georgetown University, des Stanford Internet Observatory und von OpenAI kommt jedoch zu dem Schluss, dass eine KI wie ChatGPT es den so genannten Troll-Armeen sehr viel einfacher machen würde, ihre Operationen auszuweiten.

Die so genannten Influencer-Operationen in den sozialen Medien können durch hochentwickelte Sprachverarbeitungssysteme wie ChatGPT beeinflusst werden.

Solche Kampagnen können politische Maßnahmen unterstützen oder ablehnen sowie Kritik ablenken und die herrschende politische Partei oder den Politiker in einem günstigen Licht darstellen. Sie verbreiten auch falsche Informationen über soziale Medien, indem sie gefälschte Konten verwenden.

Der damalige republikanische Präsidentschaftskandidat Donald Trump und die demokratische Präsidentschaftskandidatin Hillary Clinton auf der Bühne bei der Debatte an der Hofstra University in Hempstead, New York am 26. September. 26, 2016.
Eine offizielle Untersuchung ergab, dass Tausende von russischen Social-Media-Posts darauf abzielten, Hillary Clintons Präsidentschaftskampagne 2016 zu sabotieren.

Eine ähnliche Kampagne wurde vor der US-Präsidentschaftswahl 2016 gestartet.

Der Geheimdienstausschuss des Senats berichtete 2019, dass die in St. Petersburg ansässige Internet Research Agency Tausende von Twitter-, Facebook-, Instagram- und YouTube-Konten betrieb, die darauf ausgerichtet waren, die Kampagne von Hillary Clinton zu untergraben und Donald Trump zu fördern.

Künftige Wahlen könnten jedoch mit einer noch größeren Flut von Falschinformationen konfrontiert werden.

Im KI-Bericht vom Januar heißt es, dass Sprachmodelle "das Potenzial haben, mit von Menschen geschriebenen Inhalten zu geringen Kosten zu konkurrieren, was darauf hindeutet, dass diese Modelle, wie jede leistungsstarke Technologie, Propagandisten, die sich dafür entscheiden, sie zu nutzen, deutliche Vorteile bieten können."

Der Bericht warnt davor, dass diese Vorteile "den Zugang zu einer größeren Zahl von Akteuren erweitern, neue Taktiken der Einflussnahme ermöglichen und die Botschaften einer Kampagne viel maßgeschneiderter und potenziell effektiver machen könnten".

Nicht nur die Quantität, sondern auch die Qualität der Falschinformationen könnte zunehmen.

Josh Goldstein, Mitverfasser der Studie und wissenschaftlicher Mitarbeiter am Center for Security and Emerging Technology in Georgetown, wo er am CyberAI-Projekt arbeitet, ist der Ansicht, dass KI-Systeme die überzeugende Qualität von Inhalten verbessern und es für normale Internetnutzer schwierig machen könnten, diese Nachrichten als Teil einer koordinierten Desinformationskampagne zu erkennen.

"Generative Sprachmodelle könnten eine Menge einzigartiger Inhalte auf einer konsistenten Basis generieren und es jedem Propagandisten unmöglich machen, denselben Text wiederholt auf Nachrichten-Websites oder Social-Media-Konten zu verwenden", so der Autor.

Weiteres zur Wirtschaftstechnologie:

Mr. Goldstein erklärt weiter, dass es für die Allgemeinheit schwieriger sein wird, zu bestimmen, was wahr ist, wenn eine Plattform mit falschen Informationen oder Propaganda überschwemmt wird. Das ist häufig die Absicht der Bösewichte, die Einflussoperationen durchführen.

In seinem Bericht wird auch erwähnt, dass nicht alle Organisationen Zugang zu diesen Systemen haben werden.

"Derzeit verfügen nur einige wenige Unternehmen oder Regierungen über erstklassige Sprachmodelle, die in Bezug auf die Aufgaben, die sie zuverlässig erledigen können, und die Sprachen, die sie produzieren können, Einschränkungen aufweisen.

Wenn mehr Akteure in hochmoderne generative Modelle investieren, könnte dies die Wahrscheinlichkeit erhöhen, dass Propagandisten Zugang zu diesen Modellen erhalten", heißt es in dem Bericht.

Gary Marcus, Experte für künstliche Intelligenz und Gründer von Geometric Intelligence, einer 2016 von Uber übernommenen KI-Firma, ist der Ansicht, dass böswillige Gruppen von KI geschriebene Inhalte als Spam wahrnehmen könnten.

"Diejenigen, die Spam verbreiten, sind darauf angewiesen, dass die gutgläubigsten Menschen auf ihre Links klicken, um so viele Menschen wie möglich zu erreichen. Aber mit KI könnte diese Spritzpistole zum größten Super Soaker aller Zeiten werden. "

Außerdem weist Marcus darauf hin, dass selbst wenn Social-Media-Sites wie Twitter und Facebook 75 Prozent der Inhalte entfernen, die diese Täter auf ihren Plattformen veröffentlicht haben, "es immer noch mindestens zehnmal so viele Inhalte wie zuvor gibt, die darauf abzielen können, Menschen online in die Irre zu führen.".

Twitter und Facebook wurden von der Ausbreitung gefälschter Social-Media-Konten geplagt, und da sich die Sprachmodellsysteme in der Gegenwart schnell weiterentwickeln, wird dies nur zu einem Anstieg der Zahl der gefälschten Profile auf diesen Plattformen führen.

Vincent Conitzer, Professor für Informatik an der Carnegie Mellon University, meint dazu: "So etwas wie ChatGPT kann die Verbreitung gefälschter Konten auf ein Niveau heben, das wir noch nie gesehen haben, und es kann schwieriger werden, jedes dieser Konten von einem Menschen zu unterscheiden." ".

Vincent Conitzer, Professor für Informatik an der Carnegie Mellon University
Vincent Conitzer zufolge werden gefälschte Konten, die die ChatGPT-Technologie nutzen, nur schwer von echten Nutzern zu unterscheiden sein.

Sowohl das Papier vom Januar 2023, das Herr Goldstein mitverfasst hat, als auch eine Goldstein mitverfasst hat, als auch ein damit zusammenhängender Bericht des Sicherheitsunternehmens WithSecure Intelligence warnen vor den Gefahren des Einsatzes von generativen Sprachmodellen zur schnellen und effektiven Erstellung von gefälschten Nachrichtenartikeln, die sich in den sozialen Medien verbreiten und die Wähler vor einer entscheidenden Wahl beeinflussen könnten.

Aber sollten die Plattformen der sozialen Medien so proaktiv wie möglich vorgehen, wenn Fehlinformationen und gefälschte Nachrichten aufgrund von KI-Systemen wie Chat-GPT zu einer noch größeren Gefahr werden? Einige Experten sind der Meinung, dass sie diese Art von Beiträgen nicht durchsetzen können.

Lus A Nunes Amaral, Co-Direktorin des Northwestern Institute on Complex Systems, meint: "Facebook und andere Plattformen sollten gefälschte Inhalte kennzeichnen, aber Facebook hat bei diesem Test spektakulär versagt."

"Die Kosten, die mit der Überwachung jedes einzelnen Beitrags verbunden sind, sowie die Erkenntnis, dass diese gefälschten Beiträge die Menschen wütend machen und spalten sollen, was das Engagement fördert, sind einige der Gründe für diese Untätigkeit. Das ist vorteilhaft für Facebook.

. "

Quelllink

You've successfully subscribed to NewsNow
Great! Next, complete checkout to get full access to all premium content.
Welcome back! You've successfully signed in.
Unable to sign you in. Please try again.
Success! Your account is fully activated, you now have access to all content.
Error! Stripe checkout failed.
Success! Your billing info is updated.
Billing info update failed.