In der Stille der Nacht, während die Welt schläft, erschafft unser Gehirn ganze Universen, manchmal die Zukunft „vorhersagen“. Geschichten, Bilder, Empfindungen, die beim Aufwachen verschwinden und nur wirre Fragmente zurücklassen. Oder zumindest war es bisher so. Eine surreale Nachricht kommt heute aus den Laboren der Neuraltech AG von Genf: ein Gerät namens „SomniVision“ Es wäre in der Lage, Träume in Echtzeit aufzuzeichnen und in ansehbare Videos umzuwandeln. Ein einfaches Stirnband, das Sie vor dem Schlafengehen tragen, mit einer App auf Ihrem Telefon verbinden und am Morgen haben Sie den Film Ihrer Nacht. Schweizer Wissenschaftler sagen, dass die Technologie auf einer fortgeschrittenen Gehirnwelleninterpretation mithilfe neuromimetischer künstlicher Intelligenz basiert. Aber sind wir wirklich bereit, diese Tür zu öffnen? Um den privatesten Raum sichtbar zu machen, der schon immer unser Privatbereich war?
Die Technologie, die unsere Träume liest
Das von dem Schweizer Unternehmen entwickelte Gerät funktioniert dank ultradünner Sensoren, die die elektrische Aktivität des Gehirns während der REM-Phase erfassen. Diese Signale werden dann von dem unvermeidlichen Algorithmus der künstlichen Intelligenz verarbeitet, der Gehirnwellen in Bilder umwandelt und Szenen und Gesichter mit einer Präzision rekonstruiert, die als verstörend zu bezeichnen eine Untertreibung wäre.
Das Forschungsteam unter der Leitung von Dr. Marcus Heidegger, sagt, dass die Technologie erreichte 78 % Genauigkeit bei der Wiedergabe visueller Elemente, die den Berichten der Testpersonen nach dem Aufwachen entsprechen. Nicht perfekt, manchmal (genaue Worte) „vom Abendessen am Vorabend beeinflusst“, aber ausreichend, um Menschen, Orte und Situationen wiederzuerkennen, die unsere Träume bevölkern. Ich frage mich, ob es nicht besser gewesen wäre, diese Tür geschlossen zu lassen. Träume sind der letzte wirklich private Raum, der dem Menschen bleibt. Jetzt, da selbst dieses Heiligtum durch Algorithmen verletzt wurde, habe ich keine Probleme damit zu glauben, dass jemand früher oder später er wird dort sogar Werbung platzieren.

Surreale Nachrichten, reale Auswirkungen
Diese Technologie wirft zahlreiche und tiefgreifende Bedenken auf. Dort Europäische Gesellschaft für Neuroethik hat unter Berufung auf beispiellose Datenschutzbedenken bereits ein Moratorium für die kommerzielle Nutzung von SomniVision gefordert.
Denken Sie darüber nach: Wer wäre der Besitzer unserer Träume? Das Unternehmen, das sie registriert? Uns? Und was würde passieren, wenn diese Daten gehackt oder an Dritte verkauft würden? Unsere tiefsten Wünsche, unsere intimsten Ängste, alles könnte zur Ware werden. Noch beunruhigender: Könnte die Technologie ohne unsere Zustimmung eingesetzt werden? Könnte ein eifersüchtiger Partner unsere Träume überwachen, während wir schlafen?
Traumzukunft oder Dystopie?
Trotz dieser Bedenken stehen bereits Tausende Menschen auf der Warteliste für den Test von SomniVision. Dort Neuraltech AG plant, bis Ende des Jahres eine Verbraucherversion auf den Markt zu bringen, deren Preis rund 600 Euro betragen soll.
Enthusiasten sehen darin therapeutische Anwendungsmöglichkeiten: Hilfe für Menschen, die unter wiederkehrenden Albträumen leiden, Erforschung von Schlafstörungen und sogar Erforschung der Traumkreativität für Künstler und Kreative. Einige Psychologen spekulieren, dass es die Therapie revolutionieren könnte, indem es direkten Zugang zum großen Meer des Unbewussten bietet. Doch es bleiben mehr Fragen als Antworten. Was passiert, wenn die Grenzen zwischen Bewusstem und Unbewusstem durchlässig werden? Wann werden unsere Träume so öffentlich wie unsere Social-Media-Posts?
Vielleicht ist die eigentliche Frage, wie in jeder guten Black Mirror-Folge, nicht, ob wir können, sondern ob wir sollten. Genießen wir in der Zwischenzeit diese letzten Augenblicke, in denen das Schließen der Augen noch immer bedeutet, eine Welt zu betreten, die nur uns gehört. Denn schon bald könnten wir aufgrund einer surrealen Nachricht in einer Realität aufwachen, in der sogar Träume Zuschauer haben.