ChatGPT: Wie ein Text-Roboter die KI-Welt revolutioniert hat
14/03/2023KI-Revolution: LLaMA-Konkurrent von Meta läuft auf normalen PCs
15/03/2023GPT-4 Developer Livestream. Ehrlich gesagt, fällt es mir schwer zu glauben, dass dieser Tag gekommen ist. Open AI hat diese Technologie entwickelt, seit wir das Unternehmen gegründet haben, aber in den letzten zwei Jahren haben wir uns auf die Bereitstellung von GPT-4 konzentriert, was damit begann, dass wir unser gesamtes Training, den Stack, neu aufgebaut haben, das Modell trainiert haben und dann gesehen haben, wozu es in der Lage ist, um seine Fähigkeiten und Risiken herauszufinden, mit Partnern zusammengearbeitet haben, um es in realen Szenarien zu testen, sein Verhalten optimiert haben, um es verfügbar zu machen, damit Sie es nutzen können, und heute ist es unser Ziel, Ihnen ein wenig zu zeigen, wie Sie GPT-4 zum Glänzen bringen können, um wirklich das Beste daraus zu machen. Sie wissen schon, wo es Schwächen hat.
Schwächen sind, wo wir noch daran arbeiten und wie man es wirklich als gutes Werkzeug, als guten Partner nutzen kann. Also, wenn Sie daran interessiert sind, am Stream teilzunehmen, ähm, wenn Sie zu unserem Discord gehen, also discord.gg openai, gibt es dort Kommentare und wir nehmen ein paar Vorschläge aus dem Publikum entgegen. Also, das erste, was ich euch zeigen möchte, ist die erste Aufgabe, die GPT-4 machen könnte, die wir mit 3.5 nie wirklich hinbekommen haben, und die Art und Weise, wie man darüber nachdenkt, ist die ganze Ausbildung hindurch, dass ihr wisst, dass ihr ständig diese ganze Arbeit macht, es ist 2 A.
. Der Pager geht los, du reparierst das Modell und du fragst dich immer. Wird es klappen? Wird sich der ganze Aufwand wirklich lohnen, und so hatten wir alle eine Lieblingsaufgabe, die wir wirklich mochten und die wir alle individuell zu sehen versuchten. Ist das Modell dazu in der Lage, und ich werde Ihnen die erste Aufgabe zeigen, bei der wir bei der vierten Aufgabe Erfolg hatten, aber bei der dritten Aufgabe nie wirklich ankamen.
Beispiele
Ich kopiere also einfach den Anfang unseres Blogbeitrags von heute und füge ihn in unseren Playground ein. Das ist unser neuer Chat-Spielplatz, der vor zwei Wochen herauskam. Ich zeige ihn Ihnen zuerst mit GPT 3.5. GPT-4 hat die gleiche API, den gleichen Spielplatz, die Art und Weise, wie es funktioniert. Sie haben eine Systemnachricht, in der Sie dem Modell erklären? Was es tun soll, und wir haben diese Modelle sehr steuerbar gemacht, so dass Sie ihm wirklich jede Anweisung geben können.
Sie können sich vorstellen, was immer Sie wollen, und das Modell wird sich ziemlich gut daran halten, und in Zukunft wird es immer leistungsfähiger werden, das Modell sehr zuverlässig zu steuern. Man kann dann als Benutzer einfügen, was man will, und das Modell wird als Assistent Nachrichten zurückgeben. Man kann sich das so vorstellen, dass wir uns von einer Art Rohtext in Rohtext wegbewegen, bei dem man nicht sagen kann, woher die verschiedenen Teile der Konversation kommen, sondern hin zu diesem viel strukturierteren Format, das dem Modell die Möglichkeit gibt zu wissen. Nun, hier bittet mich der Benutzer, etwas zu tun, was der Entwickler nicht getan hat. Ich sollte dem Entwickler hier zuhören, in Ordnung, also ist es jetzt an der Zeit, Ihnen die Aufgabe zu zeigen, auf die ich mich beziehe, damit jeder damit vertraut ist, diesen, sagen wir mal, Artikel in einem Satz zusammenzufassen: okay, wir werden ein bisschen spezifischer, äh, aber wo jedes Wort mit G beginnt. Also das ist 3.
Mal sehen, was er macht, ja, er hat es nicht einmal versucht, er hat die Aufgabe einfach aufgegeben. Das ist ziemlich typisch für 3,5, die versuchen, diese Art von Aufgabe zu lösen. Wenn es sich um einen sehr gestelzten Artikel oder etwas Ähnliches handelt, kann es vielleicht gelingen, aber meistens gibt 3.5 einfach auf.
Aber versuchen wir mal die exakt gleiche Eingabeaufforderung, das exakt gleiche System, die Nachricht in GPT-4, also irgendwie grenzwertig, ob man KI zählen will oder nicht, aber sagen wir mal, KI zählt nicht. Das ist Schummeln, also fair genug. Das Modell nimmt mein Feedback gerne an, und um sicherzugehen, dass es nicht nur für die G’s gut ist, würde ich es gerne an das Publikum weitergeben. Nehme einen Vorschlag an, welchen Buchstaben ich in der Zwischenzeit als nächstes versuchen soll, während ich darauf warte, dass unsere Moderatoren den Glücksbuchstaben auswählen, werde ich es mit einem um versuchen, aber in diesem Fall sage ich GPT-4 ist in Ordnung.
Warum nicht auch eine ziemlich gute Zusammenfassung, also werde ich rüber zu unserem Discord hüpfen, alles klar, wow, wenn die Leute hier ein bisschen ehrgeizig sind, ich versuche wirklich, das Modell auf Herz und Nieren zu prüfen, wir werden Q äh, was, wenn ihr einen Moment darüber nachdenkt, ich möchte, dass die Zuhörer wirklich darüber nachdenken. Wie würden Sie eine Zusammenfassung dieses Artikels erstellen, die mit Q beginnt? Das ist nicht einfach! Es ist ziemlich gut! Das ist ziemlich gut!
Sehr gut! Ich habe dir also gezeigt, wie man einen bestehenden Artikel zusammenfasst. Ich möchte Ihnen zeigen, wie Sie Ideen zwischen verschiedenen Artikeln flexibel kombinieren können. Ich nehme also diesen Artikel, der gestern auf Hacker News stand, und füge ihn per Copy-Paste in dieselbe Konversation ein. Er steht also im Kontext zu dem, was wir gerade tun. Ich werde sagen: Finde ein gemeinsames Thema zwischen diesem Artikel und dem GPT-4-Blog. Dies ist also ein Artikel über Pinecone, ein Python-Framework für die Web- und Anwendungsentwicklung, das die Technologie benutzerfreundlicher macht.
Texte
Wenn Sie denken, dass dieser Artikel nicht aufschlussreich genug war, können Sie jederzeit ein Feedback geben und sagen, dass er nicht aufschlussreich genug war. Bitte, nein! Lassen Sie es einfach dabei bewenden und überlassen Sie es dem Modell, zu entscheiden, so dass der Brückenschlag zwischen leistungsstarker Technologie und praktischen Anwendungen nicht schlecht erscheint, und natürlich können Sie auch jede andere Art von Aufgabe stellen. Sie möchten die flexible Sprache, das Verständnis und die Synthese nutzen. Sie können um etwas bitten, wie z. B. den GPT-4-Blogpost in ein gereimtes Gedicht umzuwandeln, das auf offenen KI-Evaluierungen basiert, Open Source für alle, die dabei helfen, den Aufruf zu beantworten, der übrigens, wenn Sie zu diesem Modell beitragen möchten, uns bitte Evals geben.
Wir haben ein Open-Source-Evaluierungs-Framework, das uns und allen unseren Nutzern helfen wird, zu verstehen, wozu das Modell fähig ist, und es auf die nächste Stufe zu heben. So, das war’s. Als Nächstes möchte ich Ihnen zeigen, wie Sie mit GPT-4 bauen können, wie es ist, mit GPT-4 als Partner zu arbeiten. Wir werden also einen Discord, einen Bot, live bauen und Ihnen den Prozess zeigen, Ihnen das Debugging zeigen, Ihnen zeigen, was das Modell kann, wo seine Grenzen liegen und wie man mit ihnen arbeitet, um neue Höhen zu erreichen. Als Erstes sage ich dem Modell, dass es dieses Mal ein KI-Programmierassistent sein soll, dessen Aufgabe es ist, Dinge zuerst in Pseudocode zu schreiben und dann den Code tatsächlich zu schreiben. Das macht es auch sehr interpretierbar, weil man genau sehen kann, was das Modell gedacht hat, und man kann sogar Korrekturen geben, wenn man möchte, also hier ist die Aufforderung, die wir ihm stellen werden.
Dies ist die Art von Dingen, an denen 3.5 total ersticken würde. Wenn Sie so etwas schon einmal ausprobiert haben, aber wir fragen jetzt nach einem Discord-Bot, der die GPT-4-API zum Lesen von Bildern und Texten verwendet, gibt es ein Problem: Die Trainingsgrenze dieses Modells liegt im Jahr 2021, was bedeutet, dass es unser neues Chat-Format noch nicht gesehen hat. Das bedeutet, dass es unser neues Chat-Format noch nicht gesehen hat. Ich habe also einfach den Blogbeitrag von vor zwei Wochen kopiert und das Antwortformat eingefügt. Es hat die neue Bilderweiterung noch nicht gesehen, also habe ich das einfach aufgeschrieben – und Sie wissen schon, nur ganz minimale Details darüber, wie man Bilder einfügt, und jetzt kann das Modell tatsächlich die Dokumentation nutzen, die es nicht gespeichert hat.
Und im Allgemeinen sind diese Modelle sehr gut darin, Informationen, auf die sie trainiert wurden, auf neue Art und Weise zu nutzen und neue Inhalte zu synthetisieren, und Sie können hier sehen, dass sie tatsächlich einen völlig neuen Bot geschrieben haben. Man sollte sich also immer den Code ansehen, um ein Gefühl dafür zu bekommen, was er tut, und keinen nicht vertrauenswürdigen Code von Menschen oder von AIs ausführen. Und eine Sache, die man beachten sollte, ist, dass sich die Discord-API im Laufe der Zeit stark verändert hat, und dass es insbesondere eine Funktion gibt, die sich stark verändert hat, seit dieses Modell trainiert wurde. In der Tat. Ja, wir vermissen das intensive Schlüsselwort. Das ist etwas, das erst 2020 aufkam.
Das Modell weiß also, dass es existiert, aber es weiß nicht, welche Version der Discord-API wir verwenden. Haben wir also kein Glück? Nun, nicht ganz, wir können einfach genau die Fehlermeldung in das Modell einfügen, ohne auch nur “Hey” zu sagen. Dies ist von der Ausführung Ihres Codes. Könntest du das bitte korrigieren, wir lassen es einfach laufen und das Modell sagt: oh ja, hoppla, das heftige Argument: hier ist das richtige!
Code
Hier ist der korrekte Code! Also, versuchen wir es noch einmal, um sicherzustellen, dass wir verstehen, was der Code jetzt macht. Ein zweites Problem, das auftauchen kann, ist, dass es nicht weiß, in welcher Umgebung ich laufe, und wenn Sie es bemerken, sagt es, hey, hier ist diese undurchschaubare Fehlermeldung, die, wenn Sie Jupyter Notebook noch nicht viel mit asynchroner IO benutzt haben, wahrscheinlich keine Ahnung hat, was das bedeutet. Aber glücklicherweise können Sie dem Modell auch hier einfach sagen: Hey. Ich verwende Jupiter und würde das gerne zum Laufen bringen.
Kannst du es reparieren und das spezifische Problem ist, dass bereits eine Ereignisschleife läuft, also musst du dieses Nest async verwenden? I o Library, müssen Sie Net Nest aufrufen. I sync IO dot apply. Das Modell weiß, dass all dies korrekt instanziiert wird. All diese Teile werden in den Bot integriert.
Es hilft sogar hoffentlich sagt Ihnen oh du bist, läuft in Jupiter. Nun, Sie können dies tun. Bang pip install, um das Paket zu installieren, falls du es noch nicht hast, was sehr hilfreich war. Jetzt führen wir es aus und es sieht so aus, als ob etwas passiert ist. Als erstes gehe ich rüber zu unserem Discord und füge einen Screenshot von unserem Discord selbst ein.
Denken Sie daran: GPT-4 ist nicht nur ein Sprachmodell, sondern auch ein Sichtmodell. Tatsächlich kann es flexibel Eingaben akzeptieren, die Bilder und Text beliebig miteinander vermischen, ähnlich wie ein Dokument. Die Bildfunktion befindet sich in der Vorschau, daher wird dies ein kleiner Einblick sein. Peek, sie ist noch nicht öffentlich verfügbar. Wir arbeiten mit einem Partner namens “be my eyes” zusammen, um die Funktion zu entwickeln und sie zur Marktreife zu bringen, aber Sie können uns alles fragen, was Sie wollen, zum Beispiel “Ich kann nicht, Sie wissen schon, ich werde, sagen Sie GPT-4 hello world.
Kannst du dieses Bild und die akribische Detailarbeit beschreiben, die, zuallererst, wie du das selbst machen würdest, da gibt es eine Menge verschiedener Dinge. Du könntest eine Menge verschiedener Teile des Systems beschreiben und wir können zum eigentlichen Code übergehen und sehen, dass ja. Wir haben tatsächlich die Nachricht erhalten: Wir haben eine entsprechende Anfrage für unsere API formatiert, und jetzt warten wir, denn eines der Dinge, die wir tun müssen, ist, dass wir das System schneller machen müssen. Das ist eines der Dinge, an deren Optimierung wir in der Zwischenzeit arbeiten. Ich möchte dem Publikum nur sagen, dass wir als Nächstes eine Publikumsanfrage entgegennehmen werden. Wenn ihr also ein Bild und eine Aufgabe habt, die ihr gerne erfüllen würdet, dann schickt das bitte an den Discord, unsere Moderatoren werden eine auswählen, die dann ausgeführt wird, damit wir sehen können, dass der Discord – oh, es sieht so aus, als hätten wir eine perfekte Antwort.
Es ist also ein Screenshot einer Discord-Anwendungsoberfläche. Ziemlich gut hat es nicht einmal beschrieben. Es weiß, dass es sich um Discord handelt, es steht wahrscheinlich irgendwo Discord drauf, wo es das einfach so weiß. Aus früherer Erfahrung, Server, Icon Label GPT-4 beschreibt die Schnittstelle sehr detailliert. Spricht über all die Leute, die mir sagen, dass ich Q äh sehr, sehr freundliches Publikum tun soll und beschreibt viel von den äh, den Benachrichtigungen und den Benutzern, die im Channel sind, und so weiter.
Das ist schon was! Das ist ein ziemlich gutes Verständnis. Das nächste Beispiel zeigt, dass wir einen Beitrag erhalten haben, aber das Modell hat die Nachricht nicht gesehen. Ist das nun ein Fehler des Modells oder des Systems um das Modell herum? Nun, wir können einen Blick darauf werfen, und wie Sie sehen, ist der Inhalt ein leerer String, wir haben eine leere Nachricht erhalten.
Inhalt. Der Grund dafür ist ein schmutziger Trick, den wir der KI vorgespielt haben. Wenn Sie also die Discord-Dokumentation aufrufen und ganz nach unten scrollen, bis äh, ich sehe, dass es mir schwer fällt, die Nachricht, den Inhalt, die Absicht überhaupt zu finden, werden Sie sehen, dass dies ab September 2022 als Pflichtfeld hinzugefügt wurde. Um also eine Nachricht zu erhalten, die Sie nicht explizit kennzeichnet, müssen Sie nun diese neue Absicht in Ihren Code aufnehmen. Erinnern Sie sich daran, dass ich sagte, dass sich die Intensität im Laufe der Zeit stark verändert.
Dies ist viel neuer, als das Modell möglicherweise wissen kann. Vielleicht haben wir also Pech gehabt. Wir müssen dies von Hand debuggen, aber auch hier können wir versuchen, die Sprachverständnisfähigkeiten von GPT-4 zu nutzen, um dieses Problem zu lösen. Denken Sie daran. Dies ist ein Dokument von etwa.
Ich glaube, es sind etwa zehntausend bis fünfzehntausend Wörter, oder so ähnlich. Es ist nicht sehr gut formatiert. Das ist buchstäblich ein Befehl, ein Copy-Paste, wie das, was es analysieren soll, um in der Mitte des Dokuments diese ach so wichtige Nachricht zu finden. Inhalt, das ist jetzt erforderlich, aber schauen wir mal, ob es das kann, also fragen wir nach I I am receiving blank message. Inhalt können Sie, warum könnte das passieren?
Wie kann ich es beheben? Also eine Sache: neu bei GPT-4 ist die Kontextlänge. 32.000 Token ist sozusagen die Obergrenze, die wir im Moment unterstützen, und das Modell ist in der Lage, flexibel lange Dokumente zu verwenden.
Das ist etwas, das wir noch optimieren, also empfehlen wir, es auszuprobieren, aber nicht unbedingt zu skalieren, es sei denn, Sie haben eine Anwendung, die wirklich davon profitiert. Wenn Sie also wirklich an Long Context interessiert sind, lassen Sie es uns bitte wissen, wir wollen sehen, welche Arten von Anwendungen es freischaltet. Aber wenn Sie sehen, dass die Meldung “oh yeah message, content intent was not enabled” erscheint, dann können Sie entweder das Modell bitten, etwas Code zu schreiben. Für Sie oder für Sie könnte ich es eigentlich auf die altmodische Art und Weise machen, beides ist in Ordnung. Ich denke, dass dies ein ergänzendes Werkzeug ist, das Sie viel produktiver macht, aber es ist immer noch wichtig, dass Sie auf dem Fahrersitz sitzen und der Manager sind und wissen, was vor sich geht, also sind wir jetzt wieder verbunden und äh Boris?
Würdest du die Nachricht noch einmal abspielen, wir können sehen, dass wir sie erhalten haben, obwohl der Bot nicht explizit getaggt wurde, scheint eine ziemlich gute, ziemlich gute Beschreibung zu sein. Das ist ein interessantes Bild, es sieht tatsächlich so aus, als wäre es mit einem Dolly generiert worden, und das hier sollten wir auch mal ausprobieren. Was an diesem Bild lustig ist, ist, dass es bereits eingereicht wurde. Also können wir das noch einmal überprüfen. Wir machen die richtigen API-Aufrufe.
Eichhörnchen fressen normalerweise Nüsse. Wir erwarten nicht, dass sie eine Kamera benutzen oder sich wie ein Mensch verhalten. Ich denke also, das ist eine ziemlich gute Erklärung dafür, warum dieses Bild lustig ist. Ich habe hier eine schöne handgezeichnete Vorlage für eine Witz-Website, die es definitiv wert ist, an meinem Kühlschrank aufgehängt zu werden. Ich nehme jetzt einfach mein Handy heraus und mache ein Foto von diesem Mock-up und schicke es an unseren Discord. Also gut.
Ich schicke es an unseren Discord – und das ist natürlich der schwierigste Teil, um sicherzugehen, dass wir es auch wirklich an den richtigen Kanal schicken, was in der Tat, ich glaube, vielleicht habe ich es nicht an den falschen Kanal geschickt – es ist lustig. Es ist immer der äh. Die Nicht-Kai-Teile dieser Demos, die am schwierigsten zu machen sind – und jetzt kommt die Technologie – sind jetzt gelöst und jetzt warten wir. Das Erstaunliche ist meiner Meinung nach, dass wir hier mit einem neuronalen Netzwerk sprechen, das darauf trainiert wurde, vorherzusagen. Was als nächstes kommt.
Es hat dieses Spiel gespielt, bei dem ihm ein Teil eines Dokuments gezeigt wurde, und hat dann aus einer unvorstellbar großen Menge von Inhalten vorhergesagt, was als nächstes kommt. Es lernt all diese Fähigkeiten, die man anwenden kann, und all diese sehr flexiblen Möglichkeiten, und so können wir jetzt tatsächlich diese Ausgabe nehmen. Wir haben also wortwörtlich gesagt, dass wir den HTML-Code dieses Bildes ausgeben sollen, und hier sehen wir, wie es tatsächlich funktioniert, JavaScript hat die Witze zum Vergleich ausgefüllt, das war das Original unseres Mock-ups, und so geht es von handgezeichneter, wunderschöner Kunst, wenn ich das mal so sagen darf, zu einer funktionierenden Website – und das ist alles nur potenziell richtig – wir – Sie können viele verschiedene Anwendungen sehen. Wir sind selbst noch dabei, neue Wege zu finden, wie man das nutzen kann, also werden wir mit unserem Partner zusammenarbeiten und von dort aus skalieren, aber bitte haben Sie Geduld, denn es wird einige Zeit dauern, bis wir das wirklich für alle verfügbar machen können. Eine letzte Sache möchte ich Ihnen noch zeigen: Ich habe Ihnen gezeigt, wie man vorhandene Inhalte liest.
Steuer Profi
Ich habe Ihnen gezeigt, wie Sie mit dem System als Partner bauen können. Als Letztes zeige ich Ihnen, wie Sie mit dem System arbeiten können, um eine Aufgabe zu bewältigen, die keiner von uns gerne macht, die wir aber alle machen müssen, so dass Sie vielleicht schon erraten haben, was wir tun werden. Ist Steuern jetzt beachten Sie, dass GPT ist nicht ein zertifizierter Steuer-Profi? Ich bin es auch nicht. Ihr solltet immer mit eurem Steuerberater sprechen, aber es kann hilfreich sein, einige dichte Inhalte zu verstehen, um sich selbst in die Lage zu versetzen, Probleme zu lösen und zu verstehen, was passiert, wenn man es sonst nicht könnte.
Also noch einmal, in diesem Fall werde ich eine Systemnachricht erstellen, die besagt, dass es sich um Steuer-GPT handelt, was keine spezifische Sache ist, die wir in dieses Modell einprogrammiert haben. Sie können sehr kreativ sein, wenn Sie wollen, mit der Systemnachricht, um das Modell wirklich in die Stimmung zu bringen, was Ihre Aufgabe ist. Was sollst du also tun? Ich habe das Steuergesetzbuch eingefügt. Das sind ungefähr 16 Seiten Steuerkodex und es gibt eine Frage über Allison Bob.
Sie haben irgendwann einmal geheiratet, und das sind ihre Einkommen, und sie nehmen den Standardabzug in Anspruch, sie sind gemeinsam veranlagt. Erste Frage: Wie hoch ist ihr Standardabzug für 2018?
Während das Modell tuckert, löse ich das Problem von Hand, um Ihnen zu zeigen, worum es geht: Der Standardabzug ist der Basisstandardabzug plus die zusätzlichen Abzüge. Der Grundabzug beträgt 200 Prozent für eine gemeinsame Steuererklärung nach Unterabsatz C, der hier steht. Okay, der Zuschlag gilt also nicht.
Die Begrenzung gilt nicht. Okay. Jetzt gelten diese. Oh, warten Sie: Sonderregelungen für das Steuerjahr 2018, um das wir uns bis 2025 kümmern. Sie müssen zwölftausend für dreitausend ersetzen, also sind zweihundert Prozent von zwölftausend vierundzwanzigtausend die endgültige Antwort.
Wie Sie sehen, ist das Modell zu demselben Ergebnis gekommen, und Sie können sich die Erklärung dazu durchlesen, und ehrlich gesagt, als ich zum ersten Mal versucht habe, dieses Problem selbst zu lösen, bin ich nicht dahinter gekommen. Ich habe eine halbe Stunde damit verbracht, das Steuergesetzbuch zu lesen und zu versuchen, herauszufinden, warum es ein Programm gibt, was es überhaupt ist, und zwar nur, indem ich das Modell gebeten habe, seine Argumente darzulegen, und dann bin ich dem nachgegangen. Ich dachte: “Oh, jetzt verstehe ich es. Ich verstehe, wie es funktioniert, und darin liegt, glaube ich, die Stärke des Systems. Es ist nicht perfekt, aber Sie sind es auch nicht, und zusammen ist es dieses verstärkende Werkzeug, mit dem Sie einfach neue Höhen erreichen und weiter gehen können.
Man kann sagen: Okay, jetzt berechne ihre Gesamtverbindlichkeit, und schon macht es die Berechnung, ehrlich gesagt, jedes Mal, wenn es das tut. Es ist einfach erstaunlich. Dieses Modell ist so gut in mentaler Mathematik. Es ist viel, viel besser als ich in Kopfrechnen. Es ist nicht an einen Taschenrechner angeschlossen, was eine weitere Möglichkeit wäre, diese Systeme zu verbessern, aber es hat diese rohen Fähigkeiten, die so flexibel sind.
Es spielt keine Rolle, ob es sich um Code, Sprache oder Steuern handelt. All diese Fähigkeiten in einem System, das auf das Problem angewandt werden kann, das Ihnen am Herzen liegt, auf Ihre Anwendung, auf das, was auch immer Sie bauen, um es so zu beenden. Zum Schluss zeige ich Ihnen noch eine kleine Dosis Kreativität, nämlich das Zusammenfassen. Dieses Problem in ein gereimtes Gedicht umwandeln, und fertig ist ein wunderschönes, wunderschönes Gedicht über die Steuererklärung. Vielen Dank, dass Sie eingeschaltet haben.
Ich hoffe, Sie haben etwas darüber gelernt, was das Modell kann, wie man damit arbeitet, und ehrlich gesagt sind wir sehr gespannt darauf, was Sie bauen werden. Ich habe über openai evals gesprochen. Bitte tragen Sie dazu bei. Wir sind der Meinung, dass dieses Modell, das wir verbessern und auf die nächste Stufe bringen wollen, etwas ist, zu dem jeder beitragen kann, und dass wir glauben, dass viele Menschen davon profitieren können, und wir wollen Ihre Hilfe dabei. Also, vielen Dank an Sie.
Wir sind sehr gespannt darauf, was ihr aufbauen werdet.