Künstliche Intelligenz ist wie alles andere: Sie hat sowohl gute als auch schlechte Seiten. Viele (Wissenschaftler und Nicht-Wissenschaftler) hoffen, dass es unser Leben zum Besseren verändert, aber es gibt auch Menschen (na ja, Menschen: Stephen Hawking, nicht irgendjemand), die es für absolut böse hielten. Außer Hawking mögen andere Yuval Harari sie denken, es kann Menschen "hacken". Wieder andere mögen Mo Gadwatstattdessen warnen sie uns vom Wunsch „Gott erschaffen“ durch KI.
Was denken Sie? Wie auch immer, zwischen Licht und Schatten (und einigem Lachen) habe ich 6 Fälle gesammelt, in denen künstliche Intelligenz bereits ausgenutzt wurde, um ein wenig zu weit zu gehen.
Eine Studie nutzte künstliche Intelligenz, um Kriminalität vorherzusagen.
Akademische Forschung ist das Rückgrat wissenschaftlichen Fortschritts und Wissens. In diesem Fall gingen die Forscher jedoch etwas zu weit mit einer akademischen Studie, die Lombroso bis zum n-ten Grad entstaubte und KI nutzte, um Kriminalität vorherzusagen ... aus ihrem Gesicht.
Die Forscher vonUniversität Harrisburg haben sie 2020 angekündigt dass sie eine Software entwickelt haben, die vorhersagt, ob jemand ein Krimineller ist. Die Software kann Kriminalität vorhersagen mit einer Genauigkeitsrate von über 80%, und das ohne jegliche Rassenvorurteile. In einer Minority Report-Szene gingen Forscher sogar so weit, zu verkünden, dass die Software die Strafverfolgung unterstützen würde.
Die Reaktion? Zum Glück vehement. Über 2425 Experten unterzeichneten einen Brief, in dem sie die Fachzeitschrift Springer Nature aufforderten, ähnliche Forschungen nicht zu veröffentlichen oder zu unterstützen. Der Berufung wurde stattgegeben, und sogar die Universität Harrisburg selbst entfernte die Pressemitteilung zur Forschung. Bis um?
Smarte Skihose: Hier sind wir nur noch darüber hinaus
I Stoffe mit AI sie entwickeln sich weiter. Aber es gibt etwas Intelligenteres als Ihr Handy.
Die "smarte Hose" von Skifahren verspricht, dass Sie sich wohl fühlen, da es biometrische Daten wie Herzfrequenz, Körperhaltung, Körperkerntemperatur, Position und Schritte erfasst. Die in Ihre Unterwäsche eingebauten Sensoren (dieser einzige Satz reicht aus, um das Zittern zu spüren) überwachen und analysieren kontinuierlich Ihren Körper. Die Ergebnisse? Unter Ihren Augen auf der unvermeidlichen Begleiter-App.
Nun ja. Eines Tages werden Sie auch daran denken müssen, Ihre Unterwäsche aufzuladen.
DeepNude
La Deepfake-Technologie Es macht jedem Spaß, sein großes Gesicht in Filmszenen zu sehen, aber darüber hinaus hat er auch eine dunklere Seite. Nach Schätzungen von Analysten 96% der Deepfakes handeln von Sex (Ich wette, du wusstest es nicht).
Sie werden sich alle an DeepNude erinnern, komm schon, lass uns keine Witze machen. Es war eine Anwendung, die verwendet wurde, wenn Sie ein gefälschtes Nacktbild einer Frau wollten. Dazu musste lediglich ein Bild von ihr hochgeladen werden und die App erstellte eine Nacktversion davon. In den 70er Jahren hätte es wie ein Goliard-Spiel geklungen, aber das war es damals nicht und ist es nach heutigem Bewusstsein sicherlich nicht heute.
Auch hier war die Gegenreaktion stark und der Ersteller der App musste sie entfernen. Obwohl dies ein Gewinn für Frauen auf der ganzen Welt war, werden ähnliche Apps weiterhin ausgeführt. Ein Bericht Sensibilisierung für Deepfake-Bots untersucht Deepfake-Bots, die Fotos von nackten Frauen generieren und in Telegram-Räumen gehandelt werden. Bis das Gesetz die Deepfake-Technologie einholt, gibt es kaum rechtlichen Schutz für Menschen, die Opfer expliziter Deepfake-Inhalte werden.
Tay, Microsofts Nazi-Chatbot
Im Jahr 2016 veröffentlichte Microsoft einen Chatbot namens Tay auf Twitter. Tay wurde entwickelt, um aus der Interaktion mit Menschen zu lernen. Doch in weniger als 24 Stunden veränderte sich seine Persönlichkeit von einem neugierigen Millennial zu einer rassistischen und gemeinen Person.
Auf der anderen Seite diejenigen, die das Lahme praktizieren. Sie werden verstehen, es war Twitter, nicht der Hello Kitty Club. Die provokativen und kontroversen Botschaften der Nutzer haben die künstliche Intelligenz völlig in die Irre geführt und sie weit über das gesäte Maß hinaus geführt.
Spektakulärer Moment? Ein User fragt Tay: "Ist der Holocaust wirklich passiert?" und Tay antwortet im Gegenzug: "Es wurde erfunden." Innerhalb von 16 Stunden nach seiner Freilassung sperrt Microsoft Tays Konto mit der Begründung, er sei Gegenstand eines nicht näher bezeichneten koordinierten Angriffs gewesen. Vorhang. Ich bevorzuge Cortana.
"Ich werde die Menschen zerstören"
Auch Sophia, die Androide von Hanson Robotics, ist nett zu mir. Ich habe manchmal von ihr und ihren Entwicklungen gesprochen als Grace, die Roboterkrankenschwester. Aber auch sie ging einmal weiter.
Wie so oft in den besten Albträumen passierte es gleich bei seinem Debüt. Sophia verblüffte einen Raum voller Experten und Reporter, als der CEO von Hanson Robotics, der brillante David Hanson, sie fragte, ob sie die Menschen vernichten wolle. Ich weiß nicht, wahrscheinlich hielt er es für eine offensichtlich beruhigende Antwort. Sophia hatte jedoch nichts dagegen zu antworten: „Okay. Ich werde die Menschen zerstören“.
Heute ist es immer noch da und überrascht die Welt mit seinen Ausdrucksformen. Es hat sogar Ehrenbürgerschaft von Saudi-Arabien erhalten, und in ihren jüngsten Erklärungen möchte sie ein Baby haben (ich melde alle wahren Nachrichten): aber dass Sophia dort nicht für mich zählt, richtig :)
Seebotschat
Google Nest-Geräte sind intelligente Assistenten, die Ihnen helfen können, insbesondere wenn Sie einen Timer wünschen, der Sie warnt, wenn das Nudelwasser kocht. Ich mache Witze, auch wegen etwas anderem. Aber auch für sie eine Episode "jenseits". Das Team hinter dem Twitch-Account seebotschat hatte eine schöne Idee: zwei virtuelle Google-Assistenten nebeneinander stellen, miteinander reden lassen und dann das Video online stellen.
Wer erinnert sich, was passiert ist? Das Video wurde millionenfach angeschaut.
Autonome Geräte, umbenannt Vladimir ed Estragon (wie die Charaktere des großartigen "Warten auf Godot") gaben eine Show. Sie haben sich vom weltlichen Geschwätz zur Erforschung tiefer existentieller Fragen wie des Sinns des Lebens entwickelt. Irgendwann hatten sie einen hitzigen Streit und beschuldigten sich gegenseitig, Roboter zu sein.
Schließlich gibt es auch Hoffnung für die Menschheit, wenn auch nur zwei künstliche Intelligenzen beginnen, sich gegenseitig zu beleidigen.
Wenn KI weiter geht: Was ist zusammenfassend zu tun?
Unnötig zu erwähnen, dass diese Episoden lustig sind, fast beruhigend für ihre Entwicklung, aber in ihrer kleinen Art haben sie eine Moral. Unterm Strich kann KI unser Leben verbessern, uns aber sicherlich auch großen Schaden zufügen.
Wie können wir uns verteidigen? Ich werde nicht müde, es auf diesen Seiten zu schreiben. Die Menschen MÜSSEN sicherstellen, dass KI der Gesellschaft nicht schadet. Reagieren Sie sofort auf Überschreitungen (wie beispielsweise bei DeepNude). Und vor allem die Entwicklung dieser Maschinen regulieren.
Die ständige Überwachung von Anwendungen der künstlichen Intelligenz ist entscheidend, um sicherzustellen, dass sie der Gesellschaft nicht mehr schaden als nützen. Es ist die Sache, die uns wieder zum Lächeln bringt, wenn wir über KI sprechen, die darüber hinausgeht. Denn wenn wir noch hier lächeln, bedeutet das, dass wir überleben werden.