Haben Sie sich jemals gefragt, warum dieser überzeugende Arzt auf TikTok eine unmögliche Karriere zu haben scheint? Gynäkologe, Ernährungsberater, plastischer Chirurg und Proktologe in einer Person – in nur 13 Jahren Karriere. Die Antwort ist einfach und beängstigend: es existiert nicht. Er ist keine echte Person. Es handelt sich um ein Produkt künstlicher Intelligenz, einen digitalen Avatar, der darauf programmiert ist, alles zu wiederholen, was man ihm sagt. Und das Ergebnis ist eine Epidemie von falschen Ärzten, die die sozialen Medien heimsuchen und ungeprüfte medizinische Ratschläge zu allen möglichen Themen erteilen, vom pH-Wert der Vagina bis zur Brustform, von Wunderdiäten bis zu Hausmitteln.
Immer mehr Content-Ersteller (diesmal echte Menschen) schlagen Alarm und bringen den Benutzern bei, wie sie diese gefährlichen digitalen Hochstapler erkennen können, bevor irgendjemand ihren pseudomedizinischen Unsinn ernst nimmt.
Die Fabrik der falschen Ärzte
Eine einfache Suche auf TikTok zeigt Dutzende von Videos mit Ärzten, die Sie beginnen mit Sätzen wie „13 Jahre als Gynäkologe und niemand glaubt mir, wenn ich das sage“, und dann verrät sie angebliche medizinische Geheimnisse über straffere Brüste, flachere Bäuche, definiertere Kieferpartien und ausgeglichene pH-Werte. Doch hinter diesen „Experten“ steht kein Fachmann, kein überprüfbarer Lebenslauf, kein echter Mensch.
zweite wie Media Matters berichtettauchen dieselben Deepfake-Charaktere in unterschiedlichen Kontexten auf: mal als Verkäufer von Wellness-Produkten, mal als Hollywood-Insider, die exklusive Gerüchte ausplaudern, mal als (passenderweise) falsche Ärzte. Es ist ein digitales Theater des Absurden, in dem dieselben „Gesichter“ je nach den Bedürfnissen derjenigen, die sie kontrollieren, unterschiedliche Rollen spielen.
Es ist für jeden ganz einfach, diese Inhalte zu erstellen. Bei Apps wie Captions wählen Sie einfach einen Avatar aus (wie „Violet“, die in vielen dieser „Schwulenarzt“-Videos auftaucht), geben einen Text ein und der Avatar wiederholt ihn getreulich und erzeugt so die Illusion medizinischer Sachkenntnis, wo keine vorhanden ist.
Viele dieser KI-generierten Persönlichkeiten stammen aus einer App namens Simulatan die gesprochenen Worte mitlesen, das sich als Tool zur Erstellung und Bearbeitung von Videos mit sprechender KI präsentiert. Das Unternehmen behauptet, 100.000 Benutzer pro Tag zu haben und jeden Monat über 3 Millionen Videos zu produzieren. Ford nimmt kein Blatt vor den Mund: Der Konzern bezeichnet diesen Dienst als „zutiefst heimtückisch“.
Möglicherweise haben Sie einige dieser „Ersteller“ auf Ihrer „Für Sie“-Seite bemerkt. Keiner davon ist echt.
So „entlarvt“ man einen künstlichen Arzt
Glücklicherweise gibt es einige verräterische Anzeichen, die uns helfen können, einen echten Experten von einem digitalen Klon zu unterscheiden. Und glauben Sie mir, es sind ziemlich offensichtliche Hinweise, wenn man erst einmal weiß, wonach man suchen muss.
Mundbewegungen Ich bin das erste verdächtige Element. Die Lippenbewegungen sind nie perfekt mit dem Ton synchronisiert, was ein „erstes Warnsignal“ ist. Wir schreiben das Jahr 2025. Niemand sollte Probleme mit der Audio-Video-Synchronisierung haben.
Andere verräterische Zeichen: Augen, die zu groß sind, obwohl sie es nicht sein sollten, unnatürliche Kopfbewegungen und eine langsame Sprechweise mit seltsamen Pausen, die ein normaler Mensch nicht machen würde.
Ein besorgniserregendes Phänomen
Die Reaktion der Benutzer auf diese Enthüllungen war allgemeine Bestürzung. „Es sieht so echt aus, es ist erschreckend“, kommentierte ein Benutzer. „Das sollte illegal sein“, fügte ein anderer hinzu.
Die Verbreitung dieser falschen Ärzte wirft tiefgreifende ethische und gesundheitspolitische Fragen auf. Denken Sie an die Folgen unbegründeter medizinischer Ratschläge, die von gefährdeten Menschen oder von Menschen, die nach schnellen Lösungen suchen, befolgt werden (es gibt immer mehr davon, vielleicht frustriert durch die langen und oft vergeblichen Wartezeiten, bis man mit einem richtigen Arzt sprechen kann). Medizinische Fehlinformationen sind nicht nur ärgerlich, sie können auch gefährlich sein.
Der wertvollste Rat? Überprüfen Sie stets die Referenzen aller Personen, die Ihnen online medizinischen Rat erteilen. Wenn es zu gut (oder zu seltsam) scheint, um wahr zu sein, ist das wahrscheinlich auch so. Und natürlich geht in Gesundheitsfragen nichts über einen Besuch bei Ihrem echten Arzt.
Es stimmt, dass KI bereits gewann einen halben Nobelpreis, aber zumindest im Moment hat er noch keinen medizinischen Abschluss.