Es gibt einen unerwünschten neuen Nutzer in unseren Social-Media-Feeds: KI-generierter Spam. Bizarre, emotional manipulative oder offen betrügerische Beiträge, die von immer ausgefeilteren Algorithmen erstellt werden, verbreiten sich auf Plattformen wie Facebook, Themen und LinkedIn. Und das Problem wird dadurch verschärft, dass es oft die sozialen Netzwerke selbst sind, die diese Inhalte aktiv bewerben und so einen Teufelskreis aus Fehlinformationen und Frustration bei den Nutzern auslösen.
Meta und Unternehmen kündigen Gegenmaßnahmen an (z. B. die Kennzeichnung von KI-Beiträgen), aber reicht das aus, um diese neue Welle von High-Tech-Spam einzudämmen?
Das bizarre Gesicht von KI-Spam
Für viele Benutzer ist die erste Begegnung mit KI-Spam surreal. „Der Text lautet ‚Schließe deine Augen zu 70 % und sieh die Magie‘.“ Und ohne zu sehr zu blinzeln, kann man deutlich eine Art Jesusbild erkennen, das aus verzerrtem Gemüse, einem Traktor und einem kleinen Mädchen besteht.
Und wollen wir über Tausende und Abertausende ähnlicher Bilder mit identischen Bildunterschriften sprechen? Emotional manipulative Beiträge, in denen behinderte Mütter und Kinder im Schlamm dargestellt werden, die aus Plastikflaschen unwahrscheinliche und komplizierte Strukturen herstellen? Wir sind bereits in einer psychiatrischen Klinik. Und sie bieten es uns auch als ersten Gang an.

Wenn der Algorithmus Spam fördert
Das Problem des KI-Spams auf Facebook wird dadurch verschärft, dass es in vielen Fällen scheinbar der plattformeigene Algorithmus ist, der diese Beiträge sichtbar macht.
Eine von Forschern der Universitäten Georgetown und Stanford durchgeführte Studie analysierte mehr als 100 Facebook-Seiten, die regelmäßig KI-Inhalte veröffentlichen, manchmal Dutzende Male am Tag. Die Ergebnisse? Sie sind alarmierend: Viele dieser Seiten sind mit Betrug und Spam beschäftigt Facebook empfiehlt aktiv weiter einige dieser Inhalte in den Feeds der Benutzer.
Wir haben KI-generierte Bilder von allem Möglichen gesehen, von Blockhäusern über Großmütter mit Geburtstagskuchen bis hin zu Kindern mit meisterhaften Gemälden, die einfach nicht real sein könnten.
Josh Goldstein, ein Georgetown-Forscher und Mitautor der Studie.
Die dunkle Seite von KI-Spam
Das ergab die Analyse von Goldstein und seinem Co-Autor einige dieser Seiten Sie stammen von klassischen Spammern, die Links zu Websites veröffentlichen, auf denen sie Werbeeinnahmen erzielen können. Andere sind Betrüger die für KI-generierte Produkte werben, die scheinbar nicht existieren. Andere jedoch, und das ist nicht unbedingt eine gute Nachricht, Sie haben keine klare finanzielle Motivation. Sie scheinen lediglich ein Publikum für unbekannte Zwecke anzulocken.
„Es könnte sich um bösartige Seiten handeln, die versuchen, ein Publikum aufzubauen und dann Waren zu verkaufen, auf werbefinanzierte Websites zu verlinken oder sogar das Thema komplett in etwas Politisches umzuwandeln“, spekuliert Goldstein. „Aber ich vermute, dass es sich bei vielen dieser Seiten eher um Urheber handelt, die erkannt haben, dass dies eine nützliche Taktik ist, um das Engagement des Publikums zu erreichen.“

Soziale Plattformen ergreifen Maßnahmen. Mehr oder weniger.
Wir wussten es, sagen wir uns seit fast drei Jahren: der Tsunami schlechter Inhalte, die durch unsachgemäßen und leichten Einsatz von KI entstehen es hätte uns überwältigt. Und was machen wir jetzt?
Angesichts der Welle von KI-Spam fordern uns soziale Plattformen auf, dem ein Ende zu setzen. Facebook hat angekündigt, damit zu beginnen, einige mit Tools der künstlichen Intelligenz erstellte Inhalte zu kennzeichnen. Letzte Woche hat TikTok damit begonnen, einige KI-generierte Beiträge auf seiner Plattform mit ähnlichen Labels zu versehen.
Meta, die Muttergesellschaft von Facebook und Instagram, sagte in einer Erklärung:
Wir arbeiten daran, die Verbreitung spammiger oder reißerischer Inhalte zu reduzieren, weil wir möchten, dass die Benutzer eine gute Erfahrung machen. Deshalb geben wir ihnen die Kontrolle darüber, was sie in ihrem Feed sehen.
Bist du sicher?
Spam AI, die negativen Auswirkungen sind stark
Für viele Nutzer reichen die in den sozialen Medien angekündigten Maßnahmen möglicherweise nicht aus. Ich habe Freunde, die davon sprechen, dass sie einen älteren Elternteil davon abhalten mussten, Holzarbeiten und andere Einrichtungsgegenstände zu kaufen, die sie auf Facebook gesehen hatten und die eindeutig gefälscht waren.
Einige Benutzer erwägen sogar, die Plattform zu verlassen, weil sie frustriert sind, ständig mit KI-Spam-Bildern bombardiert zu werden.
Abgesehen von dem Ärger (der mich so sehr trifft, dass ich alles verbiete, was mir in den Weg kommt), möchte ich mit Ihnen die umfassenderen Auswirkungen der Verbreitung künstlicher Bilder überall besprechen. Meine Vorstellung ist, dass sie kurzfristig nur den Unglauben der Menschen verstärken werden. Und sie werden es Ihnen mittelfristig noch schwerer machen, Echtes von Fälschung zu unterscheiden. Und in dieser historischen Periode ist es sehr gefährlich, den Realitätssinn zu verlieren.
Die Zukunft ist unbekannt
Werden die Gegenmaßnahmen der Herren der gesellschaftlichen Konversation ausreichen? Die Kennzeichnung von KI-generierten Inhalten mag ein Schritt in die richtige Richtung sein, aber sie wird nicht ausreichen, um den Strom gefälschter und irreführender Beiträge einzudämmen, die in unsere Feeds eindringen.
Und die Leichtigkeit, mit der jetzt jeder KI-Inhalte erstellen kann, birgt die Gefahr, dass dieser Trend zu einem endemischen Problem wird. Im Wesentlichen ist die Zunahme von KI-Spam in den sozialen Medien ein Symptom eines größeren Problems: der Schwierigkeit, sich in einer Welt zurechtzufinden, in der die Grenze zwischen Fakten und Fiktion zunehmend verschwimmt.
Dennoch müssen wir uns orientieren, auch wenn es große Anstrengungen kostet: Denn es dauert einen Moment, bis wir uns in diesem Meer der Lügen verlieren.