Mit künstlicher Intelligenz sind die Möglichkeiten endlos. Die KI und ihre Fähigkeiten werden ständig erweitert. Drogen sind nur der neueste Meilenstein.
Diese Maschinen, Modelle und Algorithmen werden von Tag zu Tag menschlicher: Sie komprimieren im Grunde die Entscheidungs- und Erkennungskraft eines aktiven menschlichen Gehirns in Codes.
Die Ergebnisse liegen bereits außerhalb unserer begrenzten Möglichkeiten. Künstliche Intelligenz als Zukunft der Arbeit und Produktivität ist eine Untertreibung: Sie könnte im Allgemeinen und im erweiterten Sinne als DIE Zukunft betrachtet werden.
Künstliche Intelligenz kann jetzt "Medikamente verschreiben": Experten glauben, dass sich dies positiv auf die allgemeine Gesundheit auswirken wird.
Forschung über die Fähigkeit der KI, "Medikamente zu verschreiben"
Forschung zeigt, dass drogenbedingte Fehler nur in den USA verantwortlich sind, einer von 131 ambulanten Patienten und einer von 854 Todesfällen im Krankenhaus. Die Verschreibung von Medikamenten ist ebenso kompliziert wie wichtig, für die medizinische Experten Jahre üben müssen, bevor sie sie beherrschen.
AI steht jedoch kurz davor, diese Funktionen durch maschinelles Lernen zu replizieren und das Verschreiben so einfach wie das Klicken auf eine Schaltfläche zu machen.
Ein weiteres Beispiel für künstliche Intelligenz, die Menschen in ihrem eigenen Spiel schlägt? Zum Beispiel können Modelle der künstlichen Intelligenz bereits Onkologische Therapien „entwerfen“oder für eine sorgen Komplikationen in der Schwangerschaft.
Aber wie können sie das machen? Wie können KI-Modelle Medikamente verschreiben?
GPT-3: So gut, dass es buchstäblich beängstigend ist
Das Internet ist verrückt geworden GPT-3 (Generative Pre-Training Transformer-3), eine künstliche Intelligenz, entwickelt von OpenAI. Es ist ein Modell des maschinellen Lernens der dritten Generation, das Websites entwirft, Fragen beantwortet und, ja, kann Medikamente verschreiben.
Sein "großer Bruder" GPT-2 galt bereits als gefährlich
OpenAI hat die KI-Welt in der Vergangenheit mit Sicherheitsdebatten entflammt. Die Einführung von GPT-2 wurde ebenfalls erfüllt.
Obwohl GPT-2 bereits Vorteile brachte, nannten es die Kritiker zu viel gefährlich. Er konnte Schriften schaffen, die nicht von denen zu unterscheiden waren, die von echten Menschen geschrieben wurden. Er war zu gut.
Bedenken Sie, dass GPT-2 in seinem ursprünglichen Design nur 124 Millionen der möglichen 1,5 Milliarden Parameter verwendet hat. Nun: GPT-3 wird erstaunliche 175 Milliarden Parameter enthalten. Wenn GPT-2 "gefährlich" war, was sollten wir von seinem Nachfolger halten?
GPT-3, weit offen für das Phänomen (auch mit Drogen)
GPT-3 ist ein auf einem neuronalen Netzwerk basierendes Sprachmodell, das die Wahrscheinlichkeit vorhersagt, dass ein Satz in der Welt existiert.
GAN
GPT-3 nutzt ein gegnerisches generatives Modell aus GAN (Zwei neutrale Netzwerke perfektionieren sich gegenseitig für den Wettbewerb). Kann Wissen erwerben und langfristige Abhängigkeiten von verschiedenen Sätzen schriftlichen Materials mit langen Strichen zusammenhängenden Textes verarbeiten.
Als Sprachverarbeitungsmodell mit der größten Datenbank von Trainingssätzen, die jemals zur Verfügung stand, bietet die Experten Sie glauben, dass es Fragen im Zusammenhang mit der Medizin beantworten kann. Asthma diagnostizieren und Medikamente verschreiben.
Verschreibungspflichtige Medikamente: Google hat auch eine eigene KI
So leistungsfähig GPT-3 auch ist, es ist nicht das erste AI-basierte Modell, das Medikamente verschreiben kann. Googles künstliche Intelligenz könnte bieten die Rezepte, die ein Arzt schreiben wird mit einer Genauigkeit von bis zu 75%.
Es gibt mehrere ungünstige Punkte in diesem Modell. Der größte Nachteil der künstlichen Intelligenz von Google besteht darin, dass sie auf historischen Daten basiert. Es kann nur die Verschreibungsmuster des Arztes reproduzieren und nicht das ständig wachsende Wissen über Medikamente und Nebenwirkungen.
Basierend auf der Präsentation der Forscher könnte das System, das für die Gesundheitsversorgung angemessen angewendet wird, Ärzten helfen, abnormale oder falsche Verschreibungen zu identifizieren.
Es würde ähnlich wie die von Banken verwendeten Betrugserkennungsprogramme funktionieren.
Mit anderen Worten, bei der Verschreibung von Medikamenten wäre künstliche Intelligenz ein nützliches Instrument, um die Fehlerrate des menschlichen Arztes zu verringern, was in dieser Hinsicht immer noch unschlagbar ist.
Für wie lange?
Bianca Stan - Abschluss in Rechtswissenschaften, Autor mit mehreren in Rumänien veröffentlichten Büchern und Journalist für die Gruppe "Anticipatia" (Bukarest). Es konzentriert sich auf die Auswirkungen exponentieller Technologien, militärischer Robotik und deren Überschneidung mit globalen Trends, Urbanisierung und langfristiger Geopolitik. Er lebt in Neapel.