Es waren einmal zwei schöne Brüder, praktisch zwei Models: Im Ernst, eines schöner als das andere, aber nur über das erste möchte ich mit Ihnen sprechen. In der Zwischenzeit stelle ich sie Ihnen vor.
Einer wurde gerufen GPT-3, und war für die Texterstellung zuständig. Darin war er der Beste. Die gemeinnützige Organisation OpenAI, gegründet von Elon Musk und Sam Altman, hatte es geschaffen, um die Erforschung künstlicher Intelligenz zum Wohle der Menschheit voranzutreiben.
Der andere Bruder hieß Google GMP-3, und er war ein echtes Model. Sprachlich, meine ich. Ein linguistisches Modell ist ein Mechanismus, der das nächste Wort auf der Grundlage der vorherigen vorhersagt. Es verwendet einen automatischen Erkennungsansatz, ähnlich der T9-Funktion in Mobiltelefonen, und kann Text für viele Seiten erzeugen.
In In welche Richtung wollten sie den Planeten führen? Jetzt sage ich es dir. Lassen Sie uns in der Zwischenzeit jedoch über das schönere Modell der beiden sprechen.
Warum war GPT-3 schöner?
Zunächst einmal muss gesagt werden, dass GPT-3 schöner und muskulöser war als sein 2 geborener Vater GPT-2019, der an 1,5 Milliarden Parametern trainiert wurde. Und ich erzähle Ihnen nicht von seinem Großvater GPT, der 2018 an 117 Millionen Parametern trainiert wurde. GPT-3 wurde, denken Sie, auf 175 Milliarden Parametern trainiert und konnte Dinge tun, zu denen kein anderer in der Lage gewesen wäre. Er löste Probleme, schrieb Gedichte und Prosa, Nachrichten und Blogartikel (bspw. bist du sicher, dass ich das nicht auch schreibe?). Dazu brauchte er nur eine kurze Beschreibung dessen, was er schreiben sollte, und vielleicht ein paar Beispiele.
Das ist noch nicht alles: Nachdem GPT-3 viele Bücher studiert hatte, konnte es das Aussehen jeder historischen Figur annehmen. Er konnte anfangen zu reden wie Hegel und Meinungen äußern, wie es der echte Philosoph tun würde. Oder schreiben Sie ein ganzes Gespräch zwischen zwei Wissenschaftlern (wie Alan Turing und Claude Shannon) und einigen Harry-Potter-Figuren.

Wie hat er das gemacht?
Um ihn zu trainieren, haben die Entwickler von GPT-3 wirklich alles gegeben. Zum Beispiel die gesamte englische Wikipedia und sogar Romane und Webseiten. Zeitungsartikel, Gedichte, Programmieranleitungen, Fanfiction, religiöse Texte. Auch Informationen über Lateinamerika oder pseudowissenschaftliche Lehrbücher und Verschwörungsaufsätze.
GPT-3 funktionierte, wie bereits erwähnt, auf der Grundlage der automatischen Erkennung. Wenn ein Benutzer Text eingab, untersuchte das Modell die Sprache und integrierte die Textvorhersage, um ein wahrscheinliches Ergebnis zu erzielen. Auch ohne weitere Anpassungen oder Schulungen produzierte das Modell Texte, die dem, was eine echte Person schreiben würde, sehr nahe kamen.
Und wie endete die Geschichte?
Ich könnte immer noch über all die Dinge sprechen, die GPT-3 tut Er hat gemacht. Ich könnte Ihnen zum Beispiel sagen, dass GPT-3 Menschen bereits dabei geholfen hat, sich auf wichtigere Aufgaben zu konzentrieren, indem es ihre Arbeit erleichtert. Was die Fähigkeit zeigte, die menschliche Leistung zu beeinflussen, indem die Arbeit des Menschen reduziert wurde. Wie es uns ermöglichte, Projekte in den Bereichen Unterhaltung, persönliches Wachstum, Wirtschaft, wissenschaftliche Forschung, Ingenieurwesen, Wirtschaft und Politik zu planen und umzusetzen. Wie er eines Tages anfing, empfindungsfähig zu werden.
Die Wahrheit ist jedoch, dass die Geschichte noch nicht zu Ende ist. Eigentlich hat es gerade erst begonnen: GPT-3, das schönste Model aller Zeiten, wird schnell groß und könnte bald Papa werden. Haben Sie auch nur eine vage Vorstellung davon, was GPT-4 leisten könnte?