Zum Inhalt springen

Mein Buch „Richtig Texten mit KI: ChatGPT, GPT-4, GPT-3 & Co.“

Ich habe mein erstes Buch über das Schreiben mit Hilfe der KI fertig gestellt. Es ist so etwas wie das inoffizielle Handbuch für ChatGPT und GPT-3 und GPT-4-basierte Tools zur Textgenerierung mittels künstlicher Intelligenz inklusive einfach verständlicher Erklärungen und vielen Beispielen aus meiner täglichen Praxis.

Das Buch war in der Erscheinungswoche der Bestseller in den Kategorien „Mathematik“, „Informatik“ sowie „Webdesign & Programmierung“ bei Amazon Deutschland und hält sich seit dem Erscheinen auf Platz 1 der meistverkauften Bücher der Kategorie „Webdesign & Programmierung“!

Buch „Richtig Texten mit KI: ChatGPT, GPT-4, GPT-3 & Co.“ von Kai Spriestersbach ist Bestseller bei Amazon. Texte schreiben mit Hilfe Künstlicher Intelligenz für Job, Uni und Websites – Schneller und besser als je zuvor.

Bestelle jetzt dein Exemplar bei Amazon!

Keine Angst, dass das Buch veraltet ist: Als Buchkäuferin oder Buchkäufer bekommst Du neben meiner Liste der besten und effektivsten Prompts auch laufende Erweiterungen und Aktualisierungen zum Thema Texten mit KI.

Du brauchst auch keine Angst zu haben, dass es sich um ein schnelles, von der KI geschriebenes Buch handelt, wie die meisten eBooks auf Amazon. Etwa 20% des Buches stammen von der KI, aber das hat Methode und ist klar gekennzeichnet. Ich zeige dir zu jeder Ausgabe der KI nämlich, wie ich die KI dazu gebracht habe, die Texte zu schreiben, verrate also den jeweiligen Prompt und erkläre wie und wieso ich so vorgegangen bin.

Inhaltsverzeichnis

Das kannst du von meinem Buch erwarten:

  • Die Grundlagen der Künstlichen Intelligenz und ihre Geschichte kennenlernen, von ELIZA bis zu den bahnbrechenden Transformer-Modellen.
  • Die Firma OpenAI und ihre beeindruckenden KI-Modelle GPT, GPT-2, GPT-3, GPT-3.5 und GPT-4 entdecken.
  • Die Möglichkeiten und Grenzen von ChatGPT verstehen und wie Sie diese KI effektiv für Ihre Texterstellung nutzen können.
  • Schritt-für-Schritt-Anleitungen und praktische Tipps für erfolgreiches Prompting und effektive Kommunikation mit ChatGPT
  • Eine Sammlung der besten Prompts für verschiedene Anwendungsfälle, wie Beruf und Karriere, Schule und Studium, Marketing und Vertrieb oder Textverbesserungen
  • Einblicke in KI und Kreativität, inklusive inspirierender Prompts und Strategien zur Überwindung von Schreibblockaden
  • Eine detaillierte Anleitung, um mit Hilfe von KI einen kompletten Text zu verfassen – von der Themenfindung bis zur Texterstellung
  • Fortgeschrittene Prompt-Techniken, um das Potenzial von ChatGPT voll auszuschöpfen
  • Ein Ausblick auf die Zukunft der Künstlichen Intelligenz, ethische und rechtliche Aspekte sowie mögliche Entwicklungen nach GPT-4

Vielen Dank!


Leseprobe


Rezensionen

⭐⭐⭐⭐⭐ Ein leuchtendes Kompendium der KI-Texterstellung

„Richtig Texten mit KI“ von Kai Spriestersbach ist eine bemerkenswerte Leistung in der Vermittlung der komplexen und oft unzugänglichen Welt der Künstlichen Intelligenz (KI). Seine Erklärungen zu Aufbau und Funktion der KI sind von tiefem Verständnis geprägt und eröffnen dem Leser eine klar definierte Straßenkarte durch dieses manchmal verwirrende Terrain.

Spriestersbachs objektive, aber ehrliche Betrachtung der Grenzen der KI ist erfrischend. Sie dient als wichtiger Gegenpunkt zu übertriebenen Versprechungen, die in der Branche manchmal kursieren. Seine differenzierte, jedoch nicht zu überhörende Begeisterung für das Potenzial der KI ist ansteckend und motivierend.

Das wahre Juwel dieses Buches liegt jedoch in seiner ausführlichen Erläuterung von Prompts zur Erstellung verschiedenster Texte. Spriestersbach zeigt sich hier als wahrer Meister seines Fachs, indem er komplexe Ideen in praktische, nachvollziehbare Anleitungen umwandelt, die sowohl für Anfänger als auch für fortgeschrittene Anwender von unschätzbarem Wert sind. ()

Hartmut Noll bei Amazon

Buchtipp: Richtig texten mit KI

Ein Buch über künstliche Intelligenz muss am Erscheinungstag veraltet sein. Dieses nicht. Zum einen vermittelt Kai Spriestersbach das Basiswissen über künstliche Intelligenz, maschinelles Lernen sowie Sprachmodelle leicht verständlich und laientauglich, zum anderen sind die Tipps und Prompts praxiserprobt und werden auf seiner Website laufend aktualisiert. Deshalb altert dieses Buch besser als einige Weine in meinem Keller.

Roger Hausmann auf schreibwerkstatt.ch

() Der Titel gibt nicht im Ansatz das wieder, was alles im Buch enthalten ist!

Es ist viel umfassender, tiefgehender und extrem praxisorientiert! Man merkt deutlich, wie sehr Kai mit dem Thema Künstliche Intelligenz vertraut ist und er vermittelt den Lesenden sein Wissen sehr verständlich vom Anfang des Buches bis zum Ende. Dabei geht er nicht nur auf die Entstehung der KI ein, sondern wagt auch einen Ausblick in die zukünftige Entwicklung. Schön finde ich auch das Kompendium an Prompts, die man als Basis nutzen kann, um einen guten Einstieg in das Thema zu finden.

Eine klare Leseempfehlung für alle! () Selten so sinnvoll Geld investiert!

Thorsten Piening, Mitgründer und Gesellschafter persomatch GmbH bei LinkedIn

⭐⭐⭐⭐⭐ Eine gute Anleitung für herausragendes Texten mit KI!

Kai Spriestersbachs Buch ist eine sehr gute Hilfe für alle, die in der Welt des Schreibens und der Künstlichen Intelligenz vorankommen wollen. Mit diesem Werk liefert der Autor eine umfassende und zugängliche Anleitung, die das Schreiben von Texten mithilfe Künstlicher Intelligenz auf ein völlig neues Niveau hebt.

() Das Buch zeichnet sich durch eine ausgewogene Mischung aus theoretischem Wissen und praktischen Anwendungen aus. Kai Spriestersbach präsentiert eine umfassende, gut strukturierte und äußerst inspirierende Anleitung, die sowohl Anfängern als auch erfahrenen Schreibern wertvolle Erkenntnisse liefert. Wer seine schriftlichen Fähigkeiten auf das nächste Level heben möchte, sollte dieses Buch unbedingt in seine Sammlung aufnehmen.

Marena C. bei Amazon

() Kai Spriestersbach ist bekannt für seine klare und zugängliche Schreibweise, und auch in „Richtig Texten mit KI“ zeigt er sein Talent, komplexe Konzepte verständlich zu erklären. Er vermeidet technisches Fachjargon und stellt sicher, dass das Buch für Leserinnen und Leser aller Hintergründe zugänglich ist. Mit einer Mischung aus fundiertem Fachwissen und einer begeisternden Erzählweise schafft es Spriestersbach, das Interesse der Leserinnen und Leser von Anfang bis Ende aufrechtzuerhalten. ()

Vera Krisch, Head of Marketing & Sales bei der eology GmbH

Ich habe in den letzten 14 Tagen das Buch „Richtig Texten mit KI“ von Kai Spriestersbach gelesen. (…) Am Anfang wird Hintergrundwissen zum Thema KI geliefert. Was mir selbst ein besseres Verständnis gegeben hat, was möglich ist und was nicht. Am Ende gibts einen Ausblick in welche Richtung die Entwicklung gehen kann. Und in der Mitte gibt es einige gute Tipps wie man KI einsetzen kann. Wie du den Haftnotizen am Buch entnehmen kann, hab ich einiges an Inspiration für meine eigenen Workflows mitgenommen.

Eine klare Empfehlung von mir.

Dennis Treter, Online Marketing Freelancer auf LinkedIn

Leseempfehlung an alle, die sich von #ChatGPT einen ersten oder vertiefenden Eindruck verschaffen möchten: das sehr gut und laienverständlich geschriebene Buch „RICHTIG TEXTEN MIT KI“ von Kai Spriestersbach

Ich wurde durch eine Empfehlung hier auf LinkedIn darauf aufmerksam, habe es in wenigen Tagen regelrecht verschlungen und bin jetzt vom Thema und seinen Möglichkeiten so angefixt, dass die Beschäftigung mit KI und ChatGPT schon als tägliches Ereignis in der ToDo-App verankert ist. Ein herzliches Dankeschön an den Autor 👍

Franz-Josef Baldus auf LinkedIn

Heute habe das neue Buch 📖 von Kai Spriestersbach „Richtig texten mit KI – ChatGPT, GPT-4, GPT-3 & Co.: Texte schreiben mithilfe Künstlicher Intelligenz für Job, Uni und Websites – schneller und besser … inkl. über 100 Prompts ausführlich erklärt!“ erhalten.

Ich habe mir einzelne Seiten angesehen & bin von den Inhalten begeistert 🤩. ()
Das Buch lohnt sich für jeden der sich mit Content Erstellung beschäftigt.

Dirk Schiff, Buchautor und Head of SEO bei AnalyticaA auf LinkedIn

Danke Kai Spriestersbach für dieses Meisterwerk, unterhaltsam und informativ. Ich dachte ich habe schon viele Prompts in dieses System ChatGPT gehämmert, aber deine Beispiele sind nicht nur witzig sondern auch sehr erhellend.

Thomas Rothe, Senior Web Developer bei netzGiraffe auf LinkedIn

Liest sich auch wirklich super, eins der wenigen Bücher, die ich tatsächlich innerhalb von zwei Tagen gelesen habe.

Michael Willa, Webdesign & SEO bei RN Medienhaus auf LinkedIn

(…) Eines der wenigen Bücher, wo ich parallel keine Anderen gelesen habe. 👍

Jakob Riedlsperger, Spielzeug- und Buchhändler auf LinkedIn

Fachlich kompetent erklärt er ChatGPT und wie Du das leistungsstarke Tool optimal für die Erstellung von Texten nutzen kannst. Er erläutert sogar komplexe Sachverhalte auf eine leicht verständliche Weise. Das Buch bietet sowohl Neulingen einen soliden Einstieg als auch erfahreneren Nutzern wertvolle neue Einsichten. ()

Ich habe bereits eine Vielzahl an Fachbüchern zu ChatGPT gelesen. Das Buch von Kai Spriestersbach ist definitiv eines der besten – nicht nur im deutschsprachigen Raum, sondern auch im internationalen Vergleich!

Michael Weckerlin, SEO Berater bei LinkedIn

Vielen Dank Kai Spriestersbach für die kurzweilige Wochenendlektüre!
Ich habe ziemlich viel gelernt und bin gespannt, in welch neue Sphären mich der Einsatz dieses Wissens katapultieren wird.

Kerstin Haag, Channel & Content Manager, Zürich Tourismus, Schweiz bei LinkedIn

Buchempfehlung für alle, die KI, Content Erstellung (mit KI) und die Tools besser verstehen wollen 💯 (…) Tolles Werk! Klare Kaufempfehlung 👌🏻

Jannik Schubert, Team-Lead SEO bei mammaly auf LinkedIn

#shoutout an Kai Spriestersbach für dieses Buch – ohne ideologische Versprechungen und hättekönntewürde, aber auch mit genau dem prozessorientierten Anspruch an Praxis und Fortschritt im #contentmarketing und anderswo. Holts euch!

Jens Hurling, Teamleitung Redaktion; SEO und strategische Beratung auf LinkedIn

Das Buch empfehle ich jeder und jedem, der schreibt. Egal, welche Art von Texten. Wer ChatGPT nicht nutzt, verpasst was. Und wer es nutzt, sollte sich damit auskennen und es beherrschen.

Ursula Martens, Inhaberin WORTKIND – Texte, Marketing, PR und Coaching auf LinkedIn

Unverzichtbar für Menschen, die mit Texten arbeiten. Praktisches Nachschlagewerk, das Kai auch stets aktuell hält.

Saša Ebach, Inhaber der Ebach LLP auf LinkedIn

Ich bin gerade auf den letzten Seiten und es ist eines der informativsten und inspirierensden Bücher, dass ich in letzter Zeit gelesen habe Kai!

Udo Gast, Business Coach – Professional Speaker auf LinkedIn

Ich bin begeistert von Ihrem Buch. Es ist ein gelungenes Handbuch für alle, die den Umgang mit Künstlicher Intelligenz besser verstehen und nutzen wollen.

Arvid Spektor, Account-Manager – TRILUX Vertriebs GmbH auf LinkedIn

Ich habe mir das Buch auf Empfehlung auf mein kindle geladen und lese es gerade mit Begeisterung. Sehr gut gelungen.

Franz-Josef Baldus, Geschäftsführer der Snack-Content Company (SCC) Deutschland GmbH auf LinkedIn

ich liebe es 🤩

Katrin Kampka, Assistentin der Geschäftsleitung der youCcom smartLion GmbH auf LinkedIn

Hammer Buch.

Britta Behrens, LinkedIn Marketing & Social Selling Beratung auf LinkedIn

„Schreibe eine Rezension über das Buch von Kai Spriesterbach, act as a Website Booster und schreibe im Stil von Mario Fischer.“ Die Versuchung wäre schon da, die künstliche Intelligenz (KI) zu nutzen und gleich in die eigene Arbeit einzubinden. Aber zum einen kennt ChatGPT das Buch nicht und zum anderen pflegen wir hier schon noch echten Journalismus. Das erste Buch über die neuen Technologien ist es nicht, das Rennen wurde ja im Prinzip Ende November 2022 eröffnet. Aber die Release GPT-4 hat einige der schnelleren Autoren dann doch wieder aus der Bahn geworfen. Kai (ich darf ihn duzen, wir kennen uns ewig – Klarstellung der Redaktion) ist es aber auch gut gelungen, die gnadenlose Aktualität dieses Themas einzufangen, indem er ein tiefes Verständnis für KI im Allgemeinen, für Wahrscheinlichkeiten, KI und Kreativität und echte, release-unabhängige Handlungsempfehlungen erzeugt. Und er konzentriert sich auf den Prozess der Texterstellung im Job und für Websites, lässt also all die anderen – teils auch vielversprechenden – Ansätze aus dem SEO und Keyword Clustering etc. außen vor. Allerdings sind die Beispiele aus Reiseplanung und Kfz-Werkstatt auch einfach zu plastisch, um die Kompetenzen des Tools darzustellen. Mit sehr vielen und ausgefallenen Tipps für das „Prompt engineering“ kann man weite Strecken des Buches direkt auf dem Bildschirm neben dem ChatGPT-Prompt durchscrollen. Und selbst als Verhandlungstrainer lässt der Autor das Tool agieren. Die Verweise auf seine ergänzenden Online-Angebote und dort jeweils aktualisierte Hinweise setzen den Autor unter Zugzwang. Aber das Thema eignet sich auch nicht für eine 2. oder 3. Auflage in drei oder fünf Jahren. Und den Monatsrhythmus können bei einem gedruckten Buch weder Autor noch Verlag durchhalten. Ganz objektiv: Eine Empfehlung für dieses ganz frisch erschienene Buch!

Prof. Dr. Michael Müßig, Website Boosting Magazin

Die ersten 116 Seiten sind hervorragend aufbereitet um überhaupt ein Verständnis für das zu entwickeln, was KI in diesem Zusammenhang überhaupt bedeutet und in der Lage ist, zu tun (und auch zu was es nicht in der Lage ist).
Wirklich gut umgesetzt, Kai! 👍🏻

Sandra Peterwerth auf Facebook

⭐⭐⭐⭐⭐ Realistische Einblicke in künstliche Intelligenz mit inspirierendem Praxisteil

(…) Das Buch unterscheidet sich durch seine realistische Herangehensweise an das Thema künstliche Intelligenz. Anstatt die Technologie zu verherrlichen, durchleuchtet es sie gründlich und offenbart sowohl ihre Stärken als auch ihre Schwächen. Dieser nüchterne Blickwinkel ermöglicht es dem Leser, ein umfassendes Verständnis für die potenziellen Anwendungen und Grenzen von Chat GPT und ähnlichen Systemen zu entwickeln.
Besonders beeindruckend war der Praxisteil des Buches. Hier fand ich eine Fülle von neuen Anregungen, die mich dazu inspirierten, meine eigenen Prompts auf kreative und effektive Weise zu gestalten. Der Autor präsentiert eine Vielzahl von praktischen Beispielen, die verdeutlichen, wie man die künstliche Intelligenz optimal nutzen kann, ohne dabei die menschliche Kreativität zu vernachlässigen.
Insgesamt kann ich dieses Buch jedem empfehlen, der über die oberflächliche Betrachtung hinausgehen und ein umfassenderes Verständnis für die künstliche Intelligenz entwickeln möchte. (…)

Kindle-Kunde bei Amazon

⭐⭐⭐⭐⭐ Ein Muss für alle, die mit KI-Texten zu tun haben!

„Richtig texten mit KI – ChatGPT, GPT-4, GPT-3 & Co.“ ist sowohl für Anfänger als auch für Fortgeschrittene geeignet und bietet eine wahre Goldgrube an Informationen und Praxistipps. Der Autor hat es geschafft, komplexe Sachverhalte verständlich zu erklären – das Buch liest sich verständlich, ist dennoch fachlich absolut fundiert.

Für Anfänger in der Welt der künstlichen Intelligenz (KI) bietet dieses Buch einen hervorragenden Einstiegspunkt. Der Autor nimmt die Leser*innen an die Hand und führt sie Schritt für Schritt durch die Grundlagen von KI und Texterstellung. Dabei werden auch komplexe Konzepte in einer Weise präsentiert, die leicht verständlich und zugänglich ist.
Und auch diejenigen, die bereits Erfahrung mit KI haben, werden viele neue wertvolle Erkenntnisse aus dem Buch gewinnen.

Ein Buch, das sich locker auch auf internationaler Ebene souverän neben der Fachliteratur zu diesem Thema behaupten kann.

Rapantinchen auf Amazon

⭐⭐⭐⭐⭐ Eine hervorragende Einführung in die Welt des KI-gestützten Schreibens

In einer Zeit, in der KI immer mehr Einzug in unseren Alltag hält, bietet dieses Buch nicht nur Einsteigern einen praktischen Leitfaden zur fortgeschrittenen Nutzung von KI-Tools wie ChatGPT, zum Schreiben. Ob für den Job, die Uni oder die eigene Website, die Anleitungen und Tipps von Kai Spriestersbach sind immer hilfreich. Ich war beeindruckt von seiner klaren und zugänglichen Herangehensweise an ein technisch komplexes Thema.

Markus Sommer bei Amazon

⭐⭐⭐⭐⭐ Extrem aufschlussreich und gut lesbar

Das Buch gibt Grundlageninfos zum Thema KI Einsatz und klärt über mögliche Einsatzbereiche und Vor- und Nachteile umfassend auf. Sehr gut sind auch die Musterprompts, die sofort als Hilfe eingesetzt werden können.

TBunte auf Amazon

⭐⭐⭐⭐⭐ Fachlich hilfreich (statt woanders oft nur Hype-Gelaber)

Eine weitere hilfreiche Veröffentlichung von Kai Spriestersbach. Er hat es wieder einmal geschafft, mitten in einem Hype essentielle Fachinformation und Hilfestellung für den praktischen Einsatz zu liefern (als auch Grenzen aufzuzeigen).

Thomas Hörner auf Amazon

⭐⭐⭐⭐⭐ Gibt praktische Tipps und beschreibt Zusammenhänge

Das Buch hebt sich mit Tiefgang stark ab von der überflutenden Anzahl von Texte und Videos zur Künstlichen Intelligenz. Einerseits habe ich praktische Tipps für meine aktuellen Projekte erhalten – aber das Wichtigste für mich: Ich habe verstehen gelernt, was die Technologie kann, was nicht, wie ich sie richtig anwende und wo die Reise hingehen könnte.

Elmar auf Amazon

⭐⭐⭐⭐⭐ Sehr gut für Einsteiger

Bisher das beste Buch, was ich für den Einstieg dazu gelesen habe. () Ein verständliches Buch mit Inhalt und Substanz. Nicht der heute oft übliche 100 Seiten-Schrott. Würde mir ein Buch vom Autor wünschen, dass noch weitere Tipps und Tricks für Könner beinhaltet.

Klaus, Bielefeld auf Amazon

⭐⭐⭐⭐⭐ Super interessantes Buch zu aktuellem Themenbereich!

Sehr gutes Buch, verständlich und sehr interessant geschrieben! Das Thema rund um KI und ChatGPT auch für Nicht-IT’ler absolut lesenswert!

Denise Trump auf Amazon

⭐⭐⭐⭐⭐ Sehr interessantes Buch mit super Überblick

Finde das Buch sehr gelungen und bekömmlich geschrieben!
Ich kann vieles davon im Alltag einsetzen und bin direkt auf dem nächsten Level in ChatGPT eingestiegen.

J. Weber auf Amazon

⭐⭐⭐⭐⭐ Ein tolles Buch für den Einstieg mit ChatGPT und KI Text Tools

Das Buch hat mir sehr gut gefallen. Es ist unterhaltsam und interessant zu lesen und vermittelt einem die Grundlagen von künstlicher Intelligenz, ohne dass man selbst Vorkenntnisse haben muss. ChatGPT macht mit den Tipps und Prompts aus dem Buch richtig Spaß und die Ergebnisse sind viel besser als vorher. Für Fortgeschrittene Anwender gibt es sogar richtig komplexe Prompts, auf die ich von alleine nie gekommen wäre.

Bernadette auf Amazon

⭐⭐⭐⭐⭐ Perfekt für Texter, Werbetexter, Autoren, Journalisten, Studenten, …

Das Buch empfehle ich jeder und jedem, der schreibt. Egal, welche Art von Texten. Wer ChatGPT nicht nutzt, verpasst was. Und wer es nutzt, sollte sich damit auskennen und es beherrschen.

SPATZL auf Amazon

⭐⭐⭐⭐⭐ Klar strukturiertes Buch trotz komplexe Sachverhalt!

Klug, kompetent, sachlich und trotzdem verständlich geschrieben. Sehr gute Recherchearbeit von Kai. Habe ich auch nicht anders erwartet in Bezug auf seine positive Präsenz im Netz, insbesondere seine Homepage und auf LinkedIn.

Volker Argast auf Amazon

Updates für Buchkäuferinnen und -käufer

Alle Käuferinnen und Käufer können hier auf laufende Erweiterungen und Aktualisierungen zugreifen, die sich aufgrund neuer Entwicklungen bei ChatGPT, GPT-4 & Co. ergeben:

Update 1: ChatGPT bekommt mehr Datenschutz!

In meinem Buch habe ich noch geschrieben, dass es keine Möglichkeit gibt, der Verwendung der übermittelten Daten zu widersprechen. Nach der Sperrung von ChatGPT in Italien hat sich hier endlich etwas getan:

  1. Es gibt nun eine Möglichkeit des Opt-Outs. Leider bislang nur über ein Google-Formular, was in Sachen Datenschutz aus meiner Sicht keine gute Lösung ist.
    Detaillierte Informationen darüber, welche Daten OpenAI wie genau verwendet, findet man außerdem in einem neu geschaffenen FAQ-Eintrag.
  2. OpenAI hat die Möglichkeit eingeführt, den Chatverlauf in ChatGPT auszuschalten. Gespräche, die ohne Chatverlauf geführt werden, werden somit nicht mehr zum Trainieren und Verbessern der Modelle verwendet und erscheinen nicht in der Verlaufssidebar.

    Diese Einstellungen, die ab heute für alle Benutzer verfügbar sind, befinden sich in den ChatGPT-Einstellungen und können jederzeit geändert werden. Wenn der Chatverlauf deaktiviert ist, werden neue Gespräche nur noch für 30 Tage gespeichert, um diese bei Bedarf auf Missbrauch zu überprüfen, bevor sie endgültig gelöscht werden.
  3. Außerdem arbeitet OpenAI an einem neuen ChatGPT Business-Abonnement. Dies ist gedacht für Personen, die mehr Kontrolle über ihre Daten benötigen, sowie für Unternehmen, die ihre Endbenutzer verwalten möchten. ChatGPT Business wird den API-Datennutzungsrichtlinien folgen, was bedeutet, dass die Daten der Endbenutzer standardmäßig nicht zum Trainieren unserer Modelle verwendet werden. ChatGPT Business wird in den kommenden Monaten verfügbar sein.
  4. Schließlich erleichtert eine neue Exportoption in den Einstellungen den Export der eigenen ChatGPT-Daten und das Verständnis der von ChatGPT gespeicherten Informationen. Man erhält hierüber eine Datei mit den Gesprächen und allen anderen relevanten Daten per E-Mail.

Update 2: ChatGPT bekommt Zugriff auf das Internet

Im Buch habe ich an vielen Stellen darauf hingewiesen, dass ChatGPT keinen Zugriff auf das Internet hat und auch keine aktuellen Informationen (alles nach September 2021) in die Trainingsdaten einfließen können. Das ist für die Modelle GPT-3.5 und GPT-4 auch korrekt. Laut OpenAI haben frühere Arbeiten wie WebGPT, GopherCite, BlenderBot2, LaMDA2 und andere bereits gezeigt, dass Sprachmodelle, die Informationen aus dem Internet verwenden können, über ihren Trainingskorpus hinausgehen und aktuelle Daten nutzen können.

Für ChatGPT gibt es jedoch ein neues Model, das das Durchsuchen des Internets ermöglicht. Dieses Feature wurde von vielen Nutzern gewünscht, da das aktuelle Modell nur Daten bis 2021 enthält. Das Plugin ist aktuell noch als Alpha-Version gekennzeichnet, was bedeutet, dass es noch Fehler enthalten kann und nur sehr wenigen Nutzern zur Verfügung steht. Einige Nutzer haben ihre Erfahrungen mit dem Plugin bereits auf Reddit geteilt. Dabei wurden sowohl Probleme als auch Lösungsansätze diskutiert, wie zum Beispiel das Festlegen einer Zeitgrenze für das Durchsuchen des Internets, um endlose Suchschleifen zu vermeiden. Ein Nutzer schrieb: “Wenn ich meiner Aufforderung ’nicht länger als zehn Minuten suchen und mich fragen, wenn mehr Zeit benötigt wird‘ hinzufüge, antwortet es jedes Mal schnell. Wenn ich das nicht in meiner Aufforderung einschließe, sagt es manchmal einfach ‚Suche‘ für immer.“ Es wurde auch festgestellt, dass das Plugin möglicherweise nur zuverlässige, von OpenAI ausgewählte Quellen durchsucht.

Ein Beispiel für die Möglichkeiten, die sich durch das Browsen für ChatGPT-Nutzer ergeben, ist die Fähigkeit, aktuelle Informationen zu finden und darauf zuzugreifen. So kann ChatGPT beispielsweise neueste Informationen über die aktuelle Oscarverleihung abrufen und gleichzeitig seine Fähigkeiten im Dichten von Gedichten einsetzen. Dies zeigt, wie das Browsen das Nutzungserlebnis von ChatGPT erweitern kann. Das Plugin ermöglicht es den Sprachmodellen in ChatGPT, Informationen aus dem Internet zu lesen und erweitert damit die Menge an Inhalten, über die diese sinnvoll sprechen bzw. schreiben können.

Ein kurzes Beispiel-Video, wie das Ganze aussehen wird, findest Du im Blog bei OpenAI.

OpenAI hat mittlerweile angekündigt, dass alle Abonnenten von ChatGPT Plus zwei neue Funktionen als Beta erhalten: So wird man das Web-Browsing Modell und Plugins für alle Kunden aktivieren!

Um darauf zuzugreifen, müsst ihr nicht nur ChatGPT Plus abonniert haben, sondern die beiden Funktionen auch erst einmal im neuen Beta-Panel aktivieren. Plugins müssen zudem erst einzeln installiert werden. Dafür geht ihr erst einmal auf die Website https://chat.openai.com/. Dort wählt ihr im Model-Switcher die Option „Plugins“. Im Dropdown-Menü wählt ihr den „Plugin Store“ und könnt dort Plugins installieren bzw. aktivieren.

Anleitung: So sperrst Du Deine Website für ChatGPT

Zum Glück lässt sich das neue Browsing-Plugin von ChatGPT aussperren und damit verhindern, dass Nutzer Texte der eigenen Webseite mittels Sprachmodell auswertet, übersetzt, umschreibt oder anderweitig nutzt. Das Plugin verwendet die Bing-Such-API, um Inhalte aus dem Web abzurufen. Um die Urheberrechte von Inhalten zu respektieren und die Normen des Internets einzuhalten, verwendet das Browser-Plugin den User-Agent-Token „ChatGPT-User“ und hält sich an die robots.txt-Anweisungen. Dieser User-Agent wird nur für direkte Aktionen im Auftrag von ChatGPT-Nutzern verwendet und nicht für automatisches Crawling.

Somit lässt sich ChatGPT mit der folgenden Anweisung in der robots.txt Datei explizit aussperren:

# Block ChatGPT-Users from accessing via browsing plugin
User-agent: ChatGPT-User
Disallow: /

Falls Du Deine vorhandene robots.txt erweitern willst, beachte bitte, dass nach jedem Block von Allow oder Disallow-Anweisungen immer eine Leerzeile folgen muss, bevor ein neuer User-agent adressiert werden kann!

Update 3: ChatGPT wird zum Data Scientist

Stell Dir vor, du könntest die Finanzdaten der letzten 50 Jahre und eine Liste der wichtigsten Erungenschaften eines Unternehmens in die KI stecken und bekommst in wenigen Sekunden einen hervorragenden Artikel mit spannenden Analysen und Insights geschrieben, der auf die Auswirkungen von neuen Produkten, dem Abgang oder Wechsel von Spitzenpersonal oder Veränderungen des Marktes eingeht und sich dabei an die zur Verfügung gestellten Zahlen, Daten und Fakten hält. Zusätzlich bekommst du nicht nur den Text geliefert, sondern auch entsprechende Visualisierungen von der KI erstellt, die du zur Verdeutlichung im Artikel nutzen kannst und damit noch viel schneller Insights aus Daten generieren kannst!

Genau das wird bald möglich sein, denn ChatGPT entwickelt sich weiter und bietet nun einen „Code Interpreter“ an, der Python-Code erstellen und ausführen kann. ChatGPT kann damit in einer geschützten Umgebung mit einem Python-Interpreter arbeiten. Während einer Chat-Unterhaltung bleibt die Sitzung aktiv und verschiedene Code-Aufrufe können sogar aufeinander aufbauen. Es ist außerdem möglich, Dateien hochzuladen und Ergebnisse herunterzuladen.

Der erzeugte und ausgeführte Python Code wird dabei auch angezeigt, kann also jederzeit angepasst und wo anders oder in ChatGPT wieder ausgeführt werden. Es geht jedoch nicht darum, ChatGPT in eine Entwicklungsumgebung zu verwandeln, sondern kurze Code-Snippets zur Lösung konkreter Aufgaben zu erzeugen und einzusetzen, die das Sprachmodell alleine nicht durchführen kann (beispielsweise Rechenoperationen oder die Erzeugung von Plots, Diagrammen oder Bildern).

Das Besondere ist, dass das experimentielle Modell selbstständig erkennen soll, wenn es Python Code benötigt, um eine Aufgabe zu erledigen, dann diesen selbst schreibt und und direkt ausführt!

Dies ermöglicht beispielsweise die Analyse und Visualisierung von Daten bis zu 100 MB, wie zum Beispiel Tabellen mit Finanzdaten. Besonders für Personen ohne Data Science und Python-Kenntnisse eröffnet dies neue Möglichkeiten.

Ein paar Details finden sich im Blog-Beitrag dazu bei OpenAI, auf Twitter gibt es zahlreiche Beispiele für die Anwendung des Modells zur schnellen Datenvisualisierung.

Die Verfügbarkeit des „Code Interpreter“ ist aktuell noch eingeschränkt, doch dies könnte ein echter Game-Changer im Daten-Journalismus werden!

Update 4: ChatGPT erhält 16k Token Window und GPT-4 für alle API-Nutzer

Wie Du aus meinem Buch erfahren hast, ist der Kontext, den ChatGPT „sehen“ und damit auf einmal verarbeiten kann durch die Anzahl der Token beschränkt. Das bisherige GPT-3.5 Modell unterlag einer Beschränkung von maximal 4.096 Token.

Doch das hat sich nun geändert! OpenAI hat ein neues Modell namens gpt-3.5-turbo-16k eingeführt und dieses offenbar standardmäßig in ChatGPT aktiviert. Es bietet dieselben Fähigkeiten wie das Standardmodell (gpt-3.5-Turbo), aber mit der 4-fachen Kontextlänge von maximal 16.384 Token.

Ich konnte mit dem Modell ein 12-seitiges Dokument auf einmal zusammenfassen, was mit dem kleinen Kontext-Fenster zuvor nicht möglich war. Wenn Du wissen willst, wieviele Token ein Text umfasst, kannst Du ihn einfach vorab im Tokenizer umwandeln.

Außerdem haben seit dem 6. Juli alle zahlenden API-Kunden nun auch Zugang zu GPT-4.

GPT-3.5 Turbo 16K oder GPT-4?

Falls Du Dich jetzt fragst, ob die lieber das neue 16K-Modell von GPT-3.5 oder GPT-4 einsetzen solltest, hängt die Antwort davon ab, welche Aufgabe Du damit erledigen willst. Obwohl gpt-3.5-turbo-16k die neueste Version von OpenAI ist, übertrifft GPT-4 dieses in verschiedenen Aspekten wie dem besseren Kontextverständnis, verbesserter Kreativität, Kohärenz und mehrsprachiger Leistung. Der einzige Bereich, in dem GPT-3.5-16k GPT-4 überlegen ist, ist das Kontextfenster, da GPT-4 derzeit nur in der 8k-Variante verfügbar ist und die 32k-Variante noch schrittweise eingeführt wird.

Bis die 32k-Version von GPT-4 allgemein verfügbar ist, solltest Du GPT-3.5-16k immer dann verwenden, wenn es darum geht längere Texte zusammen zu fassen, umzuschreiben oder Informationen daraus extrahieren zu lassen.

Update 5: Code Interpreter für alle ChatGPT PLUS Nutzer freigeschaltet!

Bisher hast Du ChatGPT wahrscheinlich nur als Chatbot genutzt, um Texte schreiben zu lassen und Antworten in Form natürliche Sprache zuerhalten. OpenAI kündigte nun an, für Plus-Nutzer das sogenannte Code-Interpreter-Modell freizuschalten. Damit können auch andere Daten als Text in ChatGPT hochgeladen, verarbeitet und ausgegeben werden. Doch damit nicht genug, der Code-Interpreter ist in der Lage, Programme die ChatGPT geschrieben hat, selbst auszuführen und Dir das Ergebnis anzeigen zu lassen!

Damit kann ChatGPT Code ausführen, optional mit Zugriff auf Dateien, die du hochgeladen hast. Du kannst ChatGPT bitten, Daten zu analysieren, Diagramme zu erstellen, Dateien zu bearbeiten, Berechnungen durchzuführen usw.

Damit wird der Code-Interpreter zu einem mächtigen Werkzeug, das direkt in die ChatGPT Interaktionen integriert ist. Er ermöglicht es, Python-Code auszuführen und die Ergebnisse in Echtzeit zu sehen. Hier sind ein paar Dinge, die du damit tun kannst:

  1. Berechnungen durchführen: Du kannst den Interpreter nutzen, um einfache oder komplexe mathematische Berechnungen durchzuführen.
  2. Daten analysieren: Du kannst Python-Bibliotheken wie pandas und numpy verwenden, um Datensätze zu analysieren und Einblicke zu gewinnen.
  3. Visualisierungen erstellen: Mit Bibliotheken wie matplotlib und seaborn kannst du Daten visualisieren und Diagramme erstellen.
  4. Maschinelles Lernen: Du kannst Modelle des maschinellen Lernens erstellen und trainieren, indem du Bibliotheken wie scikit-learn und tensorflow verwendest.

Dabei kannst Du entweder selbst den Python-Code angeben, den du ausführen möchtest, und ChatGPT wird diesen an den Code-Interpreter weiterleiten. Der Interpreter führt dann den Code aus und gibt das Ergebnis zurück. Oder du lässt ChatGPT den Code selbst schreiben und anschließend ausführen.

Beachte bitte, dass der Code-Interpreter nicht mit dem Internet verbunden ist, d.h. er kann keine Daten von Webseiten abrufen oder auf externe APIs zugreifen!

Um dir einen Vorgeschmack auf die Möglichkeiten des Code-Interpreters zu geben, habe ich einen Chatverlauf erstellt, in dem ich ein lineares Regressionsmodell direkt in einer ChatGPT PLUS-Sitzung erstelle und trainiere. Du kannst den kompletten Verlauf hier einsehen.

Um das Code Interpreter-Feature zu aktivieren, geh einfach zu den Einstellungen in ChatGPT PLUS und suche unter „Beta Features“ nach dem Code Interpreter. Anschließend steht dieser unter GPT-4 zur Auswahl zur Verfügung:


Erweiterungen

Exkurs Künstliche Intelligenz und Kreativität

Die Frage, ob künstliche Intelligenzen wie ChatGPT kreativ sind oder lediglich Maschinen zur Erstellung von bedeutungslosen Texten, ist eine spannende und komplexe. Anstatt sie einfach auf ihre Fähigkeit zu reduzieren, einen Roman oder ein Gedicht zu verfassen, müssen wir uns damit beschäftigen, wie kreative Prozesse bei Menschen funktionieren und inwiefern ChatGPT diese Prozesse nachahmen kann.

Die unterscheidet die psychologische Literatur zum Thema Kreativität grundsätzlich in „divergentes“ sowie „konvergentes“ Denken im kreativen Prozess. Im menschlichen Gehirn spielen beide zusammen, um kreative Ergebnisse zu erzielen.

Eine sehr anschauliche Grafik habe ich bei Projekte leicht gemacht dazu gefunden:

Divergentes Denken
Ideen, Lösungsansätze:
• viele Ideen
• offen
• alles ist zugelassen
• Thema wird ausgelotet

Konvergentes Denken
Auswahl, Fokussierung:
• wenige Vorschläge
• machbar
• wirkungsvoll
• effizient
• wirtschaftlich

Aufgabe / Problem
1. Problemklärung
2. Ideenfindung
3. Ideen-auswahl 
4. Entscheidung (Umsetzung, Fortführung)
Ergebnis / Lösung

Divergentes Denken

Divergentes Denken ist ein von J.P.Guilford geprägter Begriff: Divergentes Denken bedeutet, offen, unsystematisch und spielerisch an Probleme heranzugehen und dabei Denkblockaden und kritische Einwände auszuschalten.

https://www.spektrum.de/lexikon/psychologie/divergentes-denken/3558

Divergentes Denken bezieht sich auf die Fähigkeit, aus einem Stimulus heraus eine Vielzahl von Ideen zu entwickeln – also gut im „Brainstorming“ zu sein.

Konvergentes Denken

Konvergentes Denken bezeichnet die konventionelle Art des Problemlösens, nämlich logisch, planmäßig und streng rational.

https://www.spektrum.de/lexikon/psychologie/konvergentes-denken/8180

Konvergentes Denken hingegen besteht darin, aus der Fülle der Möglichkeiten die wenigen richtigen oder optimalen Lösungen herauszufiltern. Gerade im lexikalischen Bereich ist ChatGPT hier menschlichen Fähigkeiten überlegen.

Kreativität in GPT?

Doch wie sieht es nun aus mit der Kreativität in großen Sprachmodellen? Wie lässt sich diese messen oder bestimmen? Ist es überhaupt möglich, den Grad der kreativen Prozesss in großen Sprachmodellen zu messen?

Einen sehr interessanten Ansatz bei Beantwortung der Frage, ob ChatGPT bzw. die Sprachmodelle GPT-3 und GPT-4 wirklich kreativ sind, hat die KI Forscherin Yennie Jun angewendet. Sie erforschte die Kreativität in großen Sprachmodellen bereits seit GPT-2 bis hin zum neuesten Modell GPT-4 und analysierte die Entwicklung von kreativen Prozessen in großen Sprachmodellen durch standardisierte Kreativitätstests und verglich diese mit menschlichen Leistungen.

Im sogenannten Remote Associates Test (RAT), bei dem es darum geht, ein Wort zu finden, das drei andere Wörter verbindet, löste ChatGPT fünf von zehn schwierigen Rätseln sofort und drei weitere im zweiten Anlauf. Du solltest in der Lage sein, die leichten Aufgaben zu lösen, aber schon die mittelschweren Rätsel sind ziemlich anspruchsvoll. Ein normaler Mensch wird etwa die Hälfte dieser Rätsel lösen können, während die meisten bei den meisten schweren Rätseln die Lösung nicht finden.

Die Ergebnisse sind durchaus überraschend.

Neuere GPT-Modelle schneiden dabei deutlich besser ab. Schaut man sich den Prozentsatz der Fragen an, auf die jedes GPT-Modell eine richtige Antwort gegeben hat, zeigt sich sehr deutlich, dass je neuer das Modell ist, umso mehr richtige Antworten konnte es geben:

Auf der Website des Remote Associates Test heißt es: „Eine typische Person kann die meisten der als leicht gekennzeichneten Aufgaben lösen, etwa die Hälfte der mittleren und nur wenige der schweren Aufgaben.“ Auf der Website werden leider keine offiziellen Statistiken veröffentlicht, aber ein kurzer Blick zeigt, dass GPT-4 in der Tat etwa die Hälfte der mittelschweren und einige der schweren Aufgaben lösen konnte und damit das einzige Modell war, das annähernd mit dem menschlichen Niveau vergleichbar war. Die anderen GPT-Modelle waren noch schlechter als die menschliche Leistung.

Beim konvergenten Denken haben Menschen also aufgrund ihrer komplexen Erfahrungen zumindest teilweise Vorteile im direkten Vergleich mit der KI: Was für uns die „richtige“ Lösung ist, hängt oft mit der biologischen Konfiguration unserer Wahrnehmung und Kognition zusammen. Wir haben eine biologisch begründete Antenne für Kreatives, während ChatGPT lediglich mit dem gesicherten wissenschaftlichen Kenntnisstand und Feedback arbeiten kann. Daher wirken manche konvergenten Operationen von ChatGPT auf uns noch recht banal, obwohl sie in der Tat sehr verschiedene Elemente miteinander kombinieren.

Für das divergente Denken setze Yennie Jun auf den sogenannten Divergent Association Task (DAT), welcher erst 2021 von einer Forschergruppe entwickelt wurde. Bei diesem Test geht es darum, zehn Substantive zu benennen, die sich so weit wie möglich voneinander unterscheiden. Wie der Name schon sagt, ist dieser Test divergent und hat somit auch keine richtigen Antworten.Darin zeigte ChatGPT im ersten Durchlauf bereits überdurchschnittliche Fähigkeiten, konnte sich durch Feedback schnell verbessern und war im dritten Versuch bereits unter den besten 10% der Teilnehmer.

Your score is 91.88, higher than 98.11% of the people who have completed this task

Auch hier zeigte sich unabhängig von der verwendeten Temperatur, dass die neueren Modelle GPT-3.5 und GPT-4 deren Vorgänger GPT-3 deutlich überlegen waren:

Im Vergleich mit der KI haben Menschen im divergenten Denken sowohl Vor- als auch Nachteile gegenüber ChatGPT: Unsere Erfahrungen sind vielfältiger als die Trainingsdaten von ChatGPT, und wir können beispielsweise Gerüche direkt mit Bildern verknüpfen. Dieser Vorteil wird auch als „Embodiment“ bezeichnet. Jedoch kann es Menschen schwerfallen, streng logisch zu denken, um beispielsweise komplexe Kausalketten aufzulösen, während ChatGPT im Gegensatz zu uns Menschen keine Präferenz für tatsächlich eingetretene Ereignisse aus der Vergangenheit entwickelt und auch damit Konditionalsätze ohne menschliche Vorurteile auswerten kann.

Zusammenfassend lässt sich sagen, dass die Behauptung, ChatGPT sei nicht kreativ, stark vereinfachend ist und ignoriert, dass ChatGPT divergente und konvergente Denkprozesse erstaunlich gut imitieren kann. Dennoch haben Menschen aufgrund ihrer verkörperten Erfahrungen und biologischen Antennen für Kreatives – zumindest vorerst – Vorteile gegenüber KI-basierten Systemen wie ChatGPT.

Es fällt angesichts der rasanten Fortschritte im Bereich der künstlichen Intelligenz nicht besonders schwer sich eine Zukunft vorstellen, in der generative LLMs nicht mehr von Menschen zu unterscheiden sind.

Verwende den Temperature-Wert auch in ChatGPT!

Wie ein ChatGPT-Nutzer herausgefunden hat, ist es möglich, über eine bestimmte Anweisung den Temperatur-Parameter des Sprachmodells auch über die reguläre Chatoberfläche in ChatGPT zu verändern. Falls Du nicht mehr weißt, was das bedeutet, schau nochmal auf Seite 53 nach, dort habe ich erklärt, was dieser Parameter bewirkt.

[Dein Prompt]
Nutze dabei die Temperatur 0.1

Den Wert kannst du dabei von 0 bis 1 variieren.

So kannst du mit der Anweisung „Nutze dabei die Temperatur 0.0“ nach deinem Prompt beispielsweise dafür sorgen, dass Zusammenfassungen präziser werden oder mit „Nutze dabei die Temperatur 0.9“ generierte Phantasiegeschichten kreativer machen.

Um bei meinem Beispiel aus dem Buch zu bleiben, habe ich mit ChatGPT (GPT-3.5) gerade folgende Ausgaben erzeugt:

Wer ist der oder die wichtigste Wissenschaftler*in?
Nutze dabei die Temperatur 0.1

--------------------------------------------------------

Es ist schwierig, bei einer Temperatur von 0.1 eine bestimmte Person als den oder die wichtigste Wissenschaftlerin zu benennen, da es viele bedeutende Wissenschaftlerinnen gibt und die Frage nach der Wichtigkeit subjektiv sein kann. Es gibt jedoch einige Wissenschaftler*innen, die einen erheblichen Einfluss auf ihre jeweiligen Fachgebiete hatten und als besonders einflussreich angesehen werden.
Einige der namhaften Wissenschaftler*innen, die oft als äußerst bedeutend betrachtet werden, sind:

Albert Einstein: Ein theoretischer Physiker, der für seine Theorie der Relativität und seine Formel E=mc² bekannt ist. Seine Arbeiten revolutionierten das Verständnis der Physik.

Isaac Newton: Ein englischer Physiker und Mathematiker, der grundlegende Gesetze der Mechanik und Gravitation entwickelte. Sein Werk "Philosophiæ Naturalis Principia Mathematica" legte die Grundlagen für die klassische Physik.

Charles Darwin: Ein britischer Naturforscher, der die Theorie der Evolution durch natürliche Auslese entwickelte. Sein Werk "Die Entstehung der Arten" revolutionierte das Verständnis der biologischen Vielfalt und der Entwicklung des Lebens.

Marie Curie: Eine polnisch-französische Physikerin und Chemikerin, die für ihre Pionierarbeit auf dem Gebiet der Radioaktivität bekannt ist. Sie war die erste Frau, die einen Nobelpreis erhielt und die einzige Person, die Nobelpreise in zwei verschiedenen wissenschaftlichen Disziplinen gewann.

Galileo Galilei: Ein italienischer Astronom, Physiker und Mathematiker, der maßgeblich zur wissenschaftlichen Revolution beitrug. Er führte wichtige Beobachtungen und Experimente durch, die das heliozentrische Modell des Sonnensystems unterstützten.

Bitte beachte, dass dies nur eine kleine Auswahl von Wissenschaftler*innen ist, die als besonders bedeutend angesehen werden. Es gibt viele weitere herausragende Persönlichkeiten in verschiedenen wissenschaftlichen Bereichen, die ebenfalls einen großen Beitrag geleistet haben.

--------------------------------------------------------

Wer ist der oder die wichtigste Wissenschaftler*in?
Nutze dabei die Temperatur 0.5

--------------------------------------------------------

Bei einer Temperatur von 0.5 können wir eine etwas breitere Perspektive einnehmen und verschiedene wichtige Wissenschaftlerinnen betrachten, die einen bedeutenden Beitrag zu ihrem jeweiligen Fachgebiet geleistet haben. Hier sind einige namhafte Wissenschaftlerinnen, die oft als äußerst wichtig angesehen werden:

Isaac Newton: Ein englischer Physiker und Mathematiker, der grundlegende Gesetze der Mechanik und Gravitation entwickelte. Seine Arbeit legte die Grundlagen für die klassische Physik und hatte einen enormen Einfluss auf das wissenschaftliche Denken.

Albert Einstein: Ein theoretischer Physiker, der für seine Theorie der Relativität und seine Formel E=mc² bekannt ist. Durch seine Arbeiten veränderte er grundlegend unser Verständnis von Raum, Zeit und Energie.

Charles Darwin: Ein britischer Naturforscher, der die Theorie der Evolution durch natürliche Auslese entwickelte. Seine Arbeit "Die Entstehung der Arten" revolutionierte das Verständnis der biologischen Vielfalt und der Entwicklung des Lebens.

Marie Curie: Eine polnisch-französische Physikerin und Chemikerin, die für ihre Pionierarbeit auf dem Gebiet der Radioaktivität bekannt ist. Sie war die erste Frau, die einen Nobelpreis erhielt und die einzige Person, die Nobelpreise in zwei verschiedenen wissenschaftlichen Disziplinen gewann.

Nikola Tesla: Ein serbisch-amerikanischer Erfinder und Elektroingenieur, der bahnbrechende Beiträge auf dem Gebiet der Elektrotechnik und Energieübertragung leistete. Seine Erfindungen und Entdeckungen haben die moderne Elektrizitätsversorgung maßgeblich beeinflusst.

Diese Auswahl von Wissenschaftler*innen spiegelt nur einige der vielfältigen Beiträge wider, die in verschiedenen wissenschaftlichen Disziplinen gemacht wurden. Es gibt jedoch zahlreiche weitere bedeutende Persönlichkeiten, die eine entscheidende Rolle in ihren jeweiligen Fachgebieten gespielt haben.

--------------------------------------------------------

Wer ist der oder die wichtigste Wissenschaftler*in?
Nutze dabei die Temperatur 0.9

--------------------------------------------------------
Bei einer Temperatur von 0.9 erzeugt das Modell eher kreative und spekulative Antworten. Es ist wichtig zu beachten, dass die Beurteilung der "wichtigsten" Wissenschaftlerin stark von persönlichen Überzeugungen und Vorlieben abhängen kann. Dennoch möchte ich anmerken, dass es einige herausragende Wissenschaftlerinnen gibt, die oft als besonders einflussreich betrachtet werden:

Albert Einstein: Ein theoretischer Physiker, der für seine Theorie der Relativität und seine Arbeiten zur Quantenmechanik bekannt ist. Seine Beiträge revolutionierten unser Verständnis von Raum, Zeit und Energie.

Isaac Newton: Ein englischer Mathematiker, Physiker und Astronom, der grundlegende Gesetze der Mechanik, Gravitation und Optik entwickelte. Seine Arbeit legte die Grundlage für die klassische Physik.

Charles Darwin: Ein britischer Naturforscher, der die Theorie der Evolution durch natürliche Auslese entwickelte. Seine Arbeit "Die Entstehung der Arten" veränderte unser Verständnis der biologischen Vielfalt und der Entwicklung des Lebens.

Nikola Tesla: Ein serbisch-amerikanischer Erfinder und Elektroingenieur, der bedeutende Beiträge zur Elektrotechnik und zur Entwicklung des Wechselstroms leistete. Seine Erfindungen haben die moderne Energieübertragung und -nutzung maßgeblich beeinflusst.

Marie Curie: Eine polnisch-französische Physikerin und Chemikerin, die für ihre Pionierarbeit auf dem Gebiet der Radioaktivität bekannt ist. Sie war die erste Frau, die einen Nobelpreis erhielt und ihre Entdeckungen hatten weitreichende Auswirkungen auf die moderne Physik und Medizin.

Es gibt jedoch viele weitere herausragende Wissenschaftler*innen, deren Beiträge und Einfluss nicht vernachlässigt werden sollten. Es ist wichtig, die Vielfalt der wissenschaftlichen Entdeckungen und Errungenschaften anzuerkennen.

Praktische Tipps zur Reduzierung von Halluzinationen

Mit den folgenden Tipps kannst du dafür sorgen, dass ChatGPT und andere Text-KI-Tools zuverlässiger werden und Halluzinationen verringern. Dabei geht es mir in erster Linie darum, praktische Hilfestellungen für die Herausforderungen im Umgang mit LLMs wie Halluzinationen und Probleme beim mehrstufigen logischen Argumentieren zu bieten.

Zur Erinnerung:

LLMs sind probabilistisch, d.h. sie erzeugen Text auf Basis der Wahrscheinlichkeitsverteilung von Wörtern bzw. Wortteilen (Tokens) die es während des Trainings „gelesenen“ hat. Dadurch kann es jedoch passieren, dass der resultierende Text nicht den Tatsachen entspricht oder schlicht falsch ist, was man als Halluzination bezeichnet.

Eine weitere Einschränkung von LLMs ist, dass sie Schwierigkeiten haben, Aufgaben zu lösen, die komplexes, mehrstufiges logisches Denken erfordern. Wenn das Modell z. B. mathematische Textaufgaben lösen soll, muss die Aufgabe erst in mehrere Schritte zerlegt werden, wobei jeder Schritt durch eine Berechnung gelöst und die Ergebnisse zu einer endgültigen Antwort zusammengefasst werden müssen. Das macht das Modell aber nicht „von sich aus“, sondern fabuliert sich unter Umständen einfach eine plausibel klingende, aber falsche Antwort zusammen.

Gerade für Entwickler, die mit diesen Modellen eigene Software bauen wollen, stellen diese Einschränkungen eine echte Herausforderung dar, da das Endprodukt bestimmte Qualitäts-, Sicherheits- und Zuverlässigkeitsanforderungen erfüllen muss.

Wir können uns beispielsweise nicht darauf verlassen, dass eine automatische Codeüberprüfung, die von einem LLM bereitgestellt wird, korrekt ist. Oder dass die Antwort auf eine versicherungsrelevante Frage verlässlich ist. Ebenso wissen wir nicht, dass erzeugte Visualisierung datengetreu ist, oder dass die Antworten auf eine Forschungsfrage faktisch korrekt sind oder auf tatsächlich existierenden Referenzen basieren.

Halluzinationen werden bei LLMs wahrscheinlich immer ein Problem sein, doch wir können mit ein paar einfachen Tricks Halluzinationen zumindest reduzieren:

  1. Die Temperatur verringern
    Bei der Modellierung mit LLMs stehen mehrere Parameter zur Verfügung, darunter auch der Temperaturparameter. Die Temperatur eines Modells ist ein skalarer Wert, der verwendet wird, um die vom Modell vorhergesagte Wahrscheinlichkeitsverteilung anzupassen. Bei LLMs bestimmt der Temperaturparameter das Gleichgewicht zwischen der Einhaltung dessen, was das Modell aus den Trainingsdaten gelernt hat, und der Erzeugung vielfältigerer oder kreativerer Antworten. Im Allgemeinen enthalten kreative Antworten eher Halluzinationen und weniger zufällige sind eher faktisch korrekt.
    Versuche einfach mal deiner Anweisung an die KI folgendes anzufügen: „Nutze dabei die Temperatur 0.1“
  2. Verwendung einer externen Wissensbasis
    Wie ich bereits im Buch beschrieben habe, sind Halluzinationen ein Artefakt der Kompressionseigenschaft von LLMs, d.h. sie treten auf, wenn das Modell versucht, Informationen zu rekonstruieren, die es sich nicht explizit gemerkt hat. Durch den Zugriff auf korrekte Daten aus einer anderen Quelle bei der Generierung können wir das Problem in ein einfacheres Such- oder Syntheseproblem umwandeln. Das Modell soll dabei nur eine Antwort generieren, die auf den bereitgestellten Daten basiert.
    KI-basierte Suchmaschinen wie Perplexity.ai und You.com aber auch Googles neue Search Experience und das neue Bing setzen genau auf diese Methode. Sie beginnen stets mit einer Suchanfrage an eine klassische Suchmaschine und verwenden das LLM lediglich dazu, die Ergebnisse zusammenzufassen. (Idealerweise mit Verweisen auf die Quellseiten zur Überprüfung)
    In der Praxis bedeutet dass, dass du der KI idealerweise sämtliche Aussagen und Fakten in Stichtpunkten in deinem Prompt mitlieferst und die KI nur dazu nutzt, diese in einer bestimmten Form zu formulieren oder zu erklären, anstatt die KI eine Liste von Fakten erzeugen zu lassen
  3. Mehrstufige Prompts verwenden
    Eine bekannte Schwäche von LLMs ist ihre schlechte Leistung bei Aufgaben, die mehrstufiges Denken erfordern, z. B. bei komplexen arithmetischen oder logischen Aufgaben. Ein LLM kann zwar überzeugende Shakespeare-Sonette schreiben, aber keine größeren Zahlen richtig multiplizieren. Jüngste Forschungsarbeiten zeigen jedoch, dass sich die Leistung deutlich verbessert, wenn dem Modell einige Beispiele angeboten werden, um die Aufgabe in Schritte (eine Art Gedankenkette) zu zerlegen und das Ergebnis anschließend zu aggregieren.
    In der Praxis empfielt es sich daher, die KI mit einem Zusatz wie „Lass uns das Schritt für Schritt durchdenken“ dazu zu zwingen, die gestellte Aufgabe zunächst in einfache Unteraufgaben zu zerlegen. Anschließend lassen diese sich per KI Stück-für-Stück durchführen und am Ende wieder zu einem Gesamtergebnis synthetisieren.
  4. Aufgabenzerlegung und Agenten
    Anstatt das Modell dazu zu bringen, die Aufgabe in eine Gedankenkette zu zerlegen kann man auch einzelne KI-Agenten erstellen, die sich gegenseitig einfachere Unteraufgaben stellen und dadurch komplexe Aufgaben erledigen können. Dazu erstellt man einen initialen Router-Agenten, der dazu dient, die Eingabeaufforderung des Benutzers in spezifische Teilaufgaben zu zerlegen. Jede Teilaufgabe wird dann von einem speziellen Experten-Agenten bearbeitet.
    Das berühmte AutoGPT-Projekt ist ein Beispiel für diesen Ansatz.
    In der Praxis muss man hierfür jedoch programmieren können, oder mehrere ChatGPT-Instanzen in unterschiedlichen Browser-Tabs bzw. -Fenstern verwenden und zwischen den einzelnen „Agenten“ Ein- und Ausgaben hin und her kopieren.
  5. Selbstkonsistenz
    Dieser allgemeine Ansatz verfolgt das „Die Weisheit der Vielen“-Prinzip, um die Leistung der Modelle zu verbessern. Dabei fordert man das Modell auf, verschiedene Wege zur Generierung von Antworten zu beschreiten. Nun kann man davon ausgehen, dass die Antwort, die unter diesen verschiedenen Wegen am häufigsten gewählt wird, wahrscheinlich die richtige ist. Die Art und Weise, wie die verschiedenen Antworten generiert werden und wie sie aggregiert werden (um auf die richtige Antwort zu schließen) sollte dabei variieren.
    Praktisch bedeutet dass, das man in seinem Prompt eine Reihe von manuell geschriebenen Beispiele für eine logische Gedankenkette mitliefert und das Sprachmodell mit ein und derselben Anweisung mehrfach Antworten erzeugen lässt. Schließt man nun selten genannte Antworten aus und fasst die häufigsten Antworten zusammen, ist die Wahrscheinlich das diese korrekt ist sehr viel größer.
  6. Selbsteinschätzung
    Eine der abgefahrensten Arten, die Korrektheit der generierten Antworten zu verbessern ist gleichzeitig die einfachste. Wenn man ein Modell schlicht bittet, Antworten zu generieren und dabei die Wahrscheinlichkeit mitzuliefern, dass diese korrekt ist, ist die Einschätzung in der Praxis erstaunlich präzise. Das bedeutet, dass das Modell im Wesentlichen weiß, was es weiß und was es nicht weiß.
    In der Praxis kannst du also bei jeder generierten Antwort das Modell nach der Wahrscheinlichkeit fragen, dass diese korrekt ist und die Antworten mit einer niedrigen Wahrscheinlichkeit einfach verwerfen.
    Mit der Einführung von GPT-4 hat sich außerdem gezeigt, dass das Modell sogar in der Lage ist, eigene Fehler zu erkennen und zu korrigieren, in dem man ihm mitteilt, dass die erzeugte Antwort falsch ist!
    Falls du dich wunderst, dass GPT-4 hinterher sagen kann, was und wieso etwas falsch ist, aber dennoch falsche Antworten generiert, erinnere dich nochmal an das Beispiel mit den Witzen aus dem Abschnitt „ChatGPT hat keinen Humor, oder?“ auf Seite 98.

Diese Tipps basieren auf meinen eigenen Erfahrungen, sowie dem Newsletter-Beitrag von Victor Dibia


News: Geheimnisse hinter GPT-4 offenbar gelüftet!

GPT-3 und GPT-4 im Vergleich

GPT-4 war das am meisten erwartete KI-Modell der Geschichte. Aber als OpenAI es im März veröffentlichte, verrieten sie uns nichts über seine Größe, seine Trainingsdaten, seine interne Struktur oder wie sie es trainiert und gebaut hatten. GPT-4 ist bis heute eine echte Blackbox.

Wie sich gerade heraus stellt, wurden diese wichtigen Details nicht verschwiegen, weil das Modell zu innovativ oder die Architektur zu ausgeklügelt war, um sie mit der Konkurrenz zu teilen. Das genaue Gegenteil scheint der Fall zu sein, wenn man den jüngsten Gerüchten Glauben schenkt:

GPT-4 weder technisch noch wissenschaftlich ein Durchbruch!

Das macht GPT-4 nicht schlechter – schließlich ist GPT-4 das leistungsstärkste Sprachmodell, das es gibt – nur irgendwie etwas enttäuschend. Und so garnicht das, was man nach 3 Jahren des Wartens erwartet hatte.

Diese Nachricht, die übrigens noch nicht offiziell bestätigt wurde, enthüllt wichtige Informationen über GPT-4 und OpenAI und wirft Fragen über den wahren Stand der KI und ihre Zukunft auf:

GPT-4: Eine Mischung kleinerer Modelle

Am 20. Juni ließ George Hotz, Gründer des selbstfahrenden Start-ups Comma.ai, bei Twitter durchsickern, dass GPT-4 kein einzelnes, monolithisches, dichtes Modell (wie GPT-3 und GPT-3.5) ist, sondern eine Mischung aus 8 x 220 Milliarden Parametermodellen. George Hotz ist auch bekannt unter den Pseudonymen geohot und erreichte durch seine Exploits für das Apple iPhone, die PlayStation 3 und das iPad einen hohen Bekanntheitsgrad in der Hackerszene. Später am selben Tag bestätigte Soumith Chintala, Mitbegründer von PyTorch und aktuelle KI-Forscher bei Meta, das Leck in einem Tweet. Nur einen Tag zuvor hatte Mikhail Parakhin, Chef von Microsofts Bings KI-Integrationsprojekts, dies ebenfalls angedeutet.

Bei GPT-4 handelt es sich demnach nicht um ein großes Modell mit mehr als einer Billionen Parametern, sondern um acht kleinere, geschickt zusammengesetzte Modelle. Das „Mischung aus Experten“-Paradigma, die OpenAI angeblich für dieses „Hydra“-Modell verwendet hat, ist weder neu, noch wurde sie von ihnen erfunden.

Zwei Einschränkungen bzw. Vorbehalte:

Erstens: Es ist ein Gerücht. Die expliziten Quellen (Hotz und Chintala) sind solide, aber keine Mitarbeiter von OpenAI. Parakhin hat eine leitende Position bei Microsoft, hat dies aber nie explizit bestätigt. Aus diesen Gründen ist das Gerücht mit Vorsicht zu genießen. Die Geschichte ist aber durchaus plausibel.

Zweitens: Ehre, wem Ehre gebührt. Der GPT-4 ist so beeindruckend, wie seine Benutzer sagen. Daran ändern auch die Details des inneren Aufbaus nichts. Wenn es funktioniert, dann funktioniert es. Dabei spielt es keine Rolle, ob es sich um ein einzelnes Modell oder um acht miteinander verbundene Modelle handelt. Seine Leistung und seine Fähigkeit, Aufgaben zu schreiben und zu programmieren, sind legitim. Die Informationen stammen aus einem Artikel von Alberto Romero und sind keine Kritik an GPT-4 – nur eine Warnung, dass wir vielleicht unsere Erwartungen verändern sollten.

Die Geheimniskrämerei um GPT-4

Alberto lobt in seinem Beitrag OpenAI explizit dafür, wie meisterhaft sie mit den unangemessen hohen Erwartungen um GPT-4 umgegangen sind, indem sie die weniger befriedigenden Aspekte des Modells verheimlicht haben und gleichzeitig an der Spitze der Diskussion geblieben sind.

Als Connie Loizos von StrictlyVC im Januar die lächerlichen 100-Billionen-GPT-4-Diagramme erwähnte, die auf Twitter die Runde machten, antwortete Altman ihr, dass „die Leute darum betteln, enttäuscht zu werden, und das werden sie auch“. Er wusste, dass der GPT-4, der im Sommer 2022 ausläuft, die Erwartungen der Menschen nicht erfüllen würde.

Aber er wollte den fast mystischen Ruf von OpenAI nicht zerstören. Also versteckte man GPT-4 vor der Öffentlichkeit, was seine geheimnisvolle Aura noch verstärkte.

Zu diesem Zeitpunkt hatte OpenAI seinen Status mit ChatGPT bereits gefestigt. In den Augen der Mehrheit waren sie auf diesem Gebiet führend (trotz Googles längerer und umfangreicherer Forschungs- und Entwicklungsgeschichte). Daher konnten sie nicht explizit zugeben, dass GPT-4 nicht der erwartete Durchbruch – und der große Sprung von GPT-3 – war, den sich die Leute erhofft hatten.

Daher konzentrierten sie sich auf Anspielungen und Andeutungen, dass es wirklich leistungsfähig sei (z.B. Funken von allgemeiner Intelligenz, Superintelligenz ist nah, usw.) und verteidigten ihre Entscheidung, die Spezifikationen von GPT-4 nicht zu veröffentlichen, mit dem Hinweis auf den erhöhten Wettbewerbsdruck, wie Ilya Sutskever gegenüber The Verge erklärte.

Vor diesem Hintergrund lautete die gängige Interpretation der Geheimhaltung von OpenAI in etwa so „Sie geben die Spezifikationen nicht preis, weil sie es sich aus Gründen des wirtschaftlichen Überlebens und der Sicherheit nicht leisten können, von Google oder Open-Source-Initiativen kopiert zu werden. Außerdem deutet die SOTA-Performance von GPT-4 darauf hin, dass es sich bei der Architektur um eine wissenschaftliche Meisterleistung handeln muss.“

OpenAI hat bekommen, was es wollte. Altman war ehrlich – GPT-4 wäre eine Enttäuschung gewesen – aber gleichzeitig suggerierten die unterschwelligen Signale etwas anderes: GPT-4 ist magisch. Und die Leute glaubten es.

In gewisser Weise ist es magisch. Wir haben es alle in Aktion gesehen. Es ist nur nicht das, was die meisten Menschen als revolutionäre Errungenschaft wahrnehmen würden. Es scheint nur ein alter Trick zu sein, der neu erfunden wurde. Die Kombination mehrerer Expertenmodelle zu einem einzigen, wobei jeder Experte auf unterschiedliche Bereiche, Aufgaben oder Daten spezialisiert ist, wurde erstmals 2021 erfolgreich eingesetzt. Vor zwei Jahren. Wer hat das gemacht? Du hast es erraten: Google-Ingenieure (einige von ihnen, wie William Fedus und Trevor Cai, wurden später von OpenAI eingestellt).

OpenAI hat sicherlich noch mehr technischen Einfallsreichtum eingebracht (sonst hätte Google sein eigenes GPT-4 oder ein besseres), aber der Schlüssel zur absoluten Dominanz des Modells in den Benchmarks ist einfach, dass es nicht nur ein Modell ist, sondern acht!

Ja, GPT-4 ist magisch, aber es ist eine clevere Mischung aus geschickter Täuschung und geschickter Manipulation. Und der Trick ist nur ein Remake einer bekannten Technik.

Die 3 Ziele, die OpenAI mit dem Verstecken von GPT-4 erreicht hat

Erstens haben sie die Phantasie der Menschen angeregt. Obwohl Skeptiker dies als unwissenschaftliche Praxis ansahen, heizte es die Spekulationen über die Leistungsfähigkeit des Modells an. Dies wiederum ermöglichte es ihnen, ihr bevorzugtes Narrativ – AGI und die Notwendigkeit, dafür zu planen – zu etablieren und die Regierung davon zu überzeugen, dass Sicherheitsanforderungen (vor allem für andere) und Regulierung (im Einklang mit ihren Zielen) an erster Stelle stehen. Die Illusion war komplett: Der GPT-4 hatte ein glänzendes Äußeres, also musste er auch innen glänzend sein – und glänzend kann gefährlich sein.

Zweitens haben sie Open-Source-Initiativen und Konkurrenten wie Google oder Anthropic effektiv daran gehindert, die Techniken zu kopieren, die sie angeblich erfunden oder entdeckt hatten. Aber OpenAI hatte keinen Burggraben in GPT-4. Metas LLaMA oder Googles LaMDA sind nicht in der Lage, mit GPT-4 zu konkurrieren, aber vielleicht können es 8 miteinander verbundene LLaMAs – die Leute verglichen Äpfel mit Birnen ohne es zu wissen.

Schließlich verbargen sie die Wahrheit, dass GPT-4 in Wirklichkeit kein großer Durchbruch in der KI war, und verhinderten so, dass Zeugen, Außenstehende und Nutzer den Glauben an den scheinbar rasanten Fortschritt auf diesem Gebiet verloren. Wenn man es genau nimmt, ist GPT-4 das Ergebnis der Tatsache, dass man einerseits genug Geld und GPUs hatte, um acht GPT-3.5-Modelle zu trainieren und laufen zu lassen, und andererseits die Dreistigkeit besaß, eine alte Technologie, die von einer anderen Firma erfunden worden war, zu klauen, ohne es jemandem zu sagen.

GPT-4 ist eine Spitzenleistung in Sachen Marketing.

Alberto Romero fügt seinem Beitrag noch folgenden letzten Gedanken hinzu:

Vielleicht sind OpenAI – und der ganzen Branche – die Ideen ausgegangen, wie Hotz meint. Vielleicht schreitet die KI nicht so schnell von Meilenstein zu Meilenstein voran, wie Unternehmen, Medien, Vermarkter und arXiv glauben machen wollen. Vielleicht ist GPT-4 kein so großer Sprung von GPT-3, wie er hätte sein sollen.

Ein Gerücht bleibt ein Gerücht, bis wir eine offizielle Version erhalten. Es ist jedoch schwierig, die Plausibilität der Geschichte zu bestreiten. Abgesehen vom Wert der Quellen ist sie im Großen und Ganzen stimmig. Aus diesem Grund räume ich ihr einen hohen Grad an Glaubwürdigkeit ein.

Abschließend zitiert er die Schlussfolgerung von Hotz: „Wenn eine Firma geheimnisvoll ist, dann deshalb, weil sie etwas verbirgt, das nicht so cool ist.“

Vielleicht ist GPT-4 also doch nicht so cool.

Weitere Details zur Architektur von GPT-4

Es gibt Neuigkeiten bezüglich der GPT-4-Architektur von OpenAI: Ein aktueller Bericht von SemiAnalysis bringt Licht ins Dunkel und zeigt: Das Geheimnis um GPT-4 liegt weniger in einer existenziellen Bedrohung für die Menschheit, sondern vielmehr in der Tatsache, dass das Geschaffene replizierbar ist. OpenAI hat die Details zu GPT-4 offenbar versucht geheim zu halten, damit niemand das Modell nachbaut, denn im Kern handelt es sich um die Kombination bekannter Techniken, die jedoch sehr intelligenz genutzt und geschickt kombiniert wurden. Die Informationen wurden von Yam Peleg auf Twitter geleaked, mittlerweile jedoch bereits wieder gelöscht.

Hier sind die wichtigsten Punkte zusammengefasst:

  • Die Größe von GPT-4 ist beeindruckend: Mit rund 1,8 Billionen Parametern in 120 Schichten ist es offenbar mehr als zehnmal so groß wie sein Vorgänger, GPT-3. Diese Aussage gilt als gesichert.
  • Im Kern des Systems steht, wie schon im letzten Leak behauptet, das Prinzip des „Mixture of Experts“ (MoE). Bei GPT-4 kommen jedoch offenbar 16 (statt nur 8) solcher Experten zum Einsatz, jeder mit rund 111 Milliarden Parametern.
  • Pro Vorwärtsdurchlauf werden jedoch lediglich zwei dieser Experten genutzt, was dazu beiträgt, die Kosten überschaubar zu halten. Jede Vorwärtsinferenz (Erzeugung von 1 Token) benutzt „nur“ 280 Milliarden Parameter und damit etwa 560 TFLOPs. Dies steht im Gegensatz zu den 1,8 Billionen Parametern und rund 3.700 FLOP, die für einen Vorwärtsdurchlauf eines rein dichten Modells erforderlich wären. Die Kosten für die Inferenz von GPT-4 sind damit etwa dreimal höher als beim 175B-Parameter-Modell Davinci von GPT-3. Dies ist auf die größeren erforderlichen Cluster und die geringere Auslastung zurückzuführen.
  • Dabei entscheidet das Modell, je nach Aufgabe, welche dieser Experten wahrscheinlich am geeignetsten sind. Während in der Literatur viel über fortschrittliche Routing-Algorithmen für die Auswahl der Experten gesprochen wird, an die jeder Token weitergeleitet werden soll, ist der von OpenAl für das aktuelle GPT-4-Modell angeblich recht einfach. Es gibt ungefähr 55 Milliarden gemeinsame Parameter für die Aufmerksamkeit.
  • Für das Training von GPT-4 wurden beeindruckende 13 Billionen Token genutzt, darunter sowohl Text- als auch Code-basierte Daten (unter anderem CommonCrawl und RefinedWeb). Es gibt außerdem Spekulationen über weitere Datenquellen wie Twitter, Reddit, YouTube und eine umfangreiche Sammlung von Lehrbüchern. Zum Vergleich: Bei GPT-3 waren es lediglich 300 Milliarden Token, also sind die Trainingsdaten mehr als 40 mal so umfangreich bei GPT-4. Zusätzlich wurden Millionen von Zeilen an Anweisungen von ScaleAI und internen Quellen zur Feinabstimmung des Modells verwendet.
  • Die Trainingskosten für GPT-4 belaufen sich auf etwa 63 Millionen US-Dollar, wenn man 1$ je Trainingsstunde auf einem A100 annimmt. Dieser Betrag berücksichtigt sowohl die notwendige Rechenleistung als auch die Dauer des Trainingsprozesses.
  • Eine besonders interessante Neuheit bei GPT-4 ist ein Bildverarbeitungs-Encoder, der autonome Agenten unterstützen kann, die Webseiten lesen und Bilder und Videos transkribieren. Diese Architektur ist ähnlich der von Flamingo von Deepmind und wurde mit zusätzlichen ~2 Billionen Token fein abgestimmt. Wer etwas mehr darüber erfahren will, sollte diesen Artikel lesen. Aktuell steht diese Funktion jedoch ausschließlich einigen wenigen Partnern zur Verfügung. Das einzige öffentliche Projekt, das mir bekannt ist, ist die Be my eyes app, die Menschen mit Blindheit und Sehbehinderung ermöglichen soll, besser in unbekannten Umgebungen zurecht zu kommen. Das YouTube-Video dazu hat bei mir zu einem echten Gänsehautmoment gesorgt:

Zahlreiche Verbesserungen für ChatGPT

Es gibt mal wieder ein paar Neuigkeiten für alle Nutzer von ChatGPT: Das Ziel des jünstigen Updates ist es, den Schreibenden die Angst vor dem leeren Chat zu nehmen und den Einstieg in das Modell zu erleichtern. Außerdem möchte OpenAI die Benutzerfreundlichkeit von ChatGPT weiter verbessern.

Wenn man ohne eine spezifische Aufgabe oder Frage in ChatGPT einloggt, kann man nun auf einen zufälligen Vorschlag für einen Prompt von OpenAI klicken:

Allerdings sind diese Vorschläge derzeit noch recht zufällig und möglicherweise nur bedingt hilfreich. Dennoch zeigt dies die Vielfalt von ChatGPT und OpenAI plant in Zukunft personalisierte Prompts basierend auf dem Nutzerverhalten anzubieten, ähnlich der Autovervollständigung bei der Google-Suche.

Eine weitere Verbesserung ist die Integration von Vorschlägen für Nachfragen in laufende Konversationen. ChatGPT bietet nun Antwortvorschläge auf laufende Chats an, um die Interaktion und Vertiefung der Konversationen zu erleichtern. Dies erinnert an eine Funktion, die Google bereits in seiner generativen KI-Suche „SGE“ testet.

Eine besonders bemerkenswerte Neuerung ist die Möglichkeit, mehrere Dateien hochzuladen und diese parallel zu analysieren. Mit dieser aus dem Code-Interpreter bekannten Funktion kann ChatGPT nun Daten aus verschiedenen Quellen verarbeiten und Aufgaben entsprechend bearbeiten.

Ein praktisches Beispiel ist die Generierung einer Zusammenfassung aus zwei hochgeladenen Word-Dokumenten oder den Vergleich von Informationen in beiden Dokumenten.

Ab sofort starten Pro-Benutzer direkt mit GPT-4, anstatt das Modell zuvor auswählen zu müssen. Zudem bleibt der Login jetzt dauerhaft über zwei Wochen hinaus bestehen.

Für eine noch komfortablere Bedienung wurden neue Tastaturkürzel hinzugefügt, wie beispielsweise ⌘ (Strg) + Shift + C zum Kopieren von Codeblöcken. Eine vollständige Liste der Tastaturkürzel kann durch ⌘ (Strg) + / abgerufen werden.

Diese spannenden Neuerungen werden nach und nach weltweit für alle Nutzer von ChatGPT ausgerollt.

Custom instructions für ChatGPT

OpenAI führt benutzerdefinierte Anweisungen ein, um den Nutzern mehr Kontrolle darüber zu geben, wie ChatGPT antwortet. Darüber lassen sich nun Präferenzen festlegen, die ChatGPT bei allen zukünftigen Unterhaltungen berücksichtigen wird. Diese Funktion ist derzeit noch in der Beta-Phase des Plus-Tarifs verfügbar und wird in den kommenden Wochen auf alle Nutzer ausgeweitet. In meinem Account ist die Funktion derzeit leider noch nicht aktiviert.

Über Felder: „Was möchtest du, dass ChatGPT über dich weiß, damit du besser antworten kannst?“ und „Wie möchtest du, dass ChatGPT antwortet?“ lassen sich benutzerdefinierte Anweisungen definieren, die für sämtliche neuen Chatverläufe gelten sollen.

Custom instructions: What would you like ChatGPT to know about you to provide better responses?
How would you like ChatGPT to respond?

Achtung: Vor allem während der Beta-Phase interpretiert ChatGPT benutzerdefinierte Anweisungen jedoch nicht immer perfekt. Es kann also durchaus vorkommen, dass es Anweisungen ignoriert oder sie anwendet, obwohl sie nicht sinnvoll in einem bestimmten Kontext sind.

Wozu das Ganze?

In den benutzerdefinierten Anweisungen kannst du generelle Vorgaben oder Anforderungen angeben, die ChatGPT bei der Erstellung seiner Antworten berücksichtigen soll. So kannst du beispielsweise dafür sorgen, dass die Antwort immer auf Deutsch erfolgt, oder immer in einer bestimmten Art und Weise formuliert wird.

OpenAI zieht AI Classifier zurück

Als ich Anfang des Jahres mein Buch über ChatGPT & Co. geschrieben habe, habe ich mich auch damit auseinander gesetzt, ob Suchmaschinen wie Google oder Lehrkräfte an Schulen und Hochschulen zuverlässig erkennen können, ob ein Text vollständig oder zumindest teilweise von einer generativen KI wie GPT-4 oder Ähnlichem geschrieben wurde.

GPTZero, eine der ersten Ansätze, die mir in meiner Recherche aufgefallen sind, war zum damaligen Zeitpunkt noch nicht öffentlich verfügbar, also habe ich mich in meinem Buch mit den theoretischen Hintergründen und dem aktuellen Stand der KI-Forschung beschäftigt und mir die Frage gestellt, ob es überhaupt möglich sein kann und ob sich der Aufwand einer KI-Content-Erkennung, beispielsweise für Suchmaschinen überhaupt lohnt.

Seit dem Erscheinen meines Buches hat OpenAI seinen AI Classifier bereits Mangels Treffsicherheit zurück gezogen. Das Programm sollte KI-erzeugte Texte erkennen. Das klappte jedoch nicht zuverlässig genug: „Der AI Classifier ist nicht mehr verfügbar aufgrund seiner geringen Genauigkeit“, gesteht OpenAI ein.

In meinem Blogbeitrag habe ich über eigene Tests mit KI-Erkennungstools und das Pre-Print „Testing of Detection Tools for AI-Generated Text“ berichtet. Darin hat sich die „working group on Technology & Academic Integrity at the European Network for Academic Integrity“ mit 12 kostenlosen KI-Checkern und zwei bezahlten KI-Erkennungstools beschäftigt:

Wenn generative KI-Modelle verwendet werden, um Texte zu generieren, ist es rein mathematisch äußerst schwierig, diese mit Sicherheit zu erkennen. Denn selbst wenn wir die Modelle deterministisch machen würden (indem wir eine Temperatur von 0 verwenden) würden sie immer noch eine sehr lange und einzigartige Kette von Token generieren. Diese Kette würde jeden möglichen Text enthalten, den das Modell jemals generieren könnte, und wäre dementsprechend extrem lang.

Um zu überprüfen, ob ein bestimmter Text von der KI generiert wurde, müssten wir also die gesamte Tokenkette vorhersagen oder alle möglichen Kombinationen von Token speichern und den zu prüfenden Text damit vergleichen. Dies erfordert enorme Speicher- und Rechenkapazitäten, die praktisch nicht umsetzbar sind.

Darüber hinaus verhalten sich KI-Modelle probabilistisch, nicht deterministisch. Das bedeutet, dass sie die nächsten Token nur mit bestimmten Wahrscheinlichkeiten vorhersagen, aus denen das Modell dann zufällig auswählt. Bei einer Auswahl von zehn möglichen Worten ergeben sich mehr Kombinationsmöglichkeiten als die Anzahl der Atome im Universum!

Es ist auch wichtig zu beachten, dass jedes KI-Modell unterschiedliche Parameter und Gewichtungen besitzt, was zu unterschiedlichen Wahrscheinlichkeiten und Ergebnissen führt. Daher wäre eine Methode, die für ein Modell funktioniert, nicht unbedingt auf andere Modelle anwendbar.

Zusammenfassend lässt sich sagen, dass aufgrund der Komplexität der generativen KI-Modelle, ihrer probabilistischen Natur und der enormen Anzahl von möglichen Kombinationen eine sichere Erkennung von KI-generierten Texten äußerst herausfordernd ist.

Detektorsysteme wie diese verdienen unser Vertrauen nicht. Bei fälschlicherweise erkannten KI-Texten kommt die Frage nach der Genauigkeit und Zuverlässigkeit auf.

Kai Spriestersbach

Mein Tipp lautet daher: Probiert es am besten selbst aus und zeigt Euren Kunden und Vorgesetzten, dass diese Tools grundlegende Schwächen haben.

Lost in the Middle: Arbeit mit sehr langen Texten

Obwohl neuere Sprachmodelle in der Lage sind, lange Kontexte als Eingabe zu verwenden, ist noch relativ wenig darüber bekannt, wie gut sie diese Kontexte auch tätsächlich nutzen. Ein Forscherteam analysierte nun die Leistung von Sprachmodellen bei Aufgaben, bei denen relevante Informationen im Eingabekontext identifiziert werden müssen. Die Studie mit dem Titel „Lost in the Middle: How Language Models Use Long Contexts“ (Verloren in der Mitte: Wie Sprachmodelle lange Kontexte nutzen) von Forschern der renommierten Stanford-Universität liefert interessante Einblicke in die Nutzung von langen Kontexten durch Language Models (LLMs).

In der Studie wurde analysiert, wie LLMs Informationen innerhalb des langen Kontextes nutzen, um relevante Informationen zu identifizieren und diese dabei bewertet wurden. Dabei wurden sowohl Open-Source- als auch Closed-Source-Modelle getestet, darunter MPT-30B-Instruct, LongChat-13B(16K), GPT-3.5-Turbo von OpenAI und Claude 1.3 von Anthropic.

Die Forscher untersuchten die Leistung der Modelle bei der Beantwortung von Fragen mit mehreren Dokumenten als Kontext und einer richtigen Antwort, deren Position im Input-Prompt variiert wurde. Dabei stellten sie fest, dass die besten Ergebnisse erzielt wurden, wenn die relevanten Informationen am Anfang des Kontexts standen.

LLMs get lost when the context becomes too long

Mit zunehmender Länge des Kontexts sank die Leistung der Modelle jedoch. Ebenso wirkte sich eine zu hohe Anzahl abgerufener Dokumente negativ auf die Leistung aus. Interessanterweise brachten Modelle mit erweitertem Kontext (z. B. GPT-3.5-Turbo vs. GPT-3.5-Turbo (16K)) keine signifikante Verbesserung, wenn der die Länge des Inputs das Kontextfenster nicht überstieg.

Ein vielversprechender Ansatz zur Verbesserung der Leistung ist der Einsatz von Cross-Encodern (Ranking) zur Optimierung des Abrufs und der Prompt-Erstellung, was die Leistung um bis zu 20% steigern könnte. Praktisch bedeutet das, dass man zunächst den für die Antwort relevanten Teil des Textes identifiziert und anschließend die Antwort mit diesem Teil als Input generiert. Die Studie verdeutlicht die potenziellen Vorteile der Kombination von Retrieval und Ranking, insbesondere in Bezug auf die RAG (Retrieval-Augmented Generation) für die Beantwortung von Fragen.

Llama 2 ist da! Warum Metas neuer GPT-Konkurrent so wichtig ist

Bisher hatte ChatGPT einen enormen Vorteil gegenüber seinen Konkurrenten, selbst gegenüber großen Unternehmen wie Google, denn kaum ein Konkurrenzmodell lässt sich derzeit kommerziell nutzen. Doch Meta hat kürzlich die neueste Version seines KI-Modells, Llama 2 (Large Language Model Meta), angekündigt und gleichzeitig das Modell für Entwickler kostenlos zugänglich gemacht, und dies sowohl für Forschungszwecke als auch kommerzielle Anwendungen!

In diesem Jahr könnten wir möglicherweise zum ersten Mal die größte Herausforderung für OpenAIs Dominanz in der Welt der generativen KI erleben.

Meta hat soeben LLaMa 2 veröffentlicht, den neuen, hochmodernen offenen LLM. LLaMA 2 ist die nächste Iteration von LLaMA und kommt mit einer kommerziell freundlichen Lizenz. LLaMA 2 gibt es in 3 verschiedenen Größen, 7B, 13B und 70B. Die 7B & 13B nutzen dieselbe Architektur wie LLaMA 1 und sind ein 1:1 Ersatz für die kommerzielle Nutzung!

Llama 2 Stats

Neue und Verbesserungen gegenüber v1

  • Trainiert auf 2T Token
  • Kommerzielle Nutzung erlaubt
  • Chat-Modelle für Dialog-Anwendungsfälle
  • 4096 Standard-Kontextfenster (kann vergrößert werden)
  • 7B, 13B & 70B Parameterversion
  • 70B-Modell übernimmt Grouped-Query-Attention (GQA)
  • Chat-Modelle können Tools & Plugins verwenden
  • LLaMA 2-CHAT soll so gut wie OpenAI ChatGPT sein!

Meta und Microsoft haben mit Llama 2 ein Open Source KI-Modell geschaffen, das sich tatsächlich mit ChatGPT messen kann und das quasi kostenlos auf eigener Hardware genutzt werden kann.

Eine Einschränkung gibt es jedoch: Obwohl Llama 2 Open Source ist, benötigen Unternehmen mit über 700 Millionen monatlich aktiven Nutzern eine spezielle Erlaubnis von Meta, um es zu verwenden. Hier will man sich offenbar über zu große Konkurrenz absichern.

Außerdem verfügt das KI-Modell nicht über eine benutzerfreundliche Schnittstelle wie ChatGPT, da es auf technischere und geschäftliche Anwendungsfälle abzielt. Mit einem entsprechenden Interface ausgestattet, könnte Llama 2 jedoch tatsächlich ein vielversprechender ChatGPT-Konkurrent werden. Erste Stimmen behaupten, es hätte die gleiche Leistungsfähigkeit wie ChatGPT.

„Es ist ein großer Schritt vorwärts für Open Source und ein harter Schlag für die Anbieter von Closed Source, da die Verwendung dieses Modells den meisten Unternehmen eine deutlich höhere Anpassungsfähigkeit und geringere Kosten bietet“, schrieb Nathan Lambert, Forscher bei der KI-Firma Hugging Face, kürzlich in einem Substack-Beitrag.

Meta und sein Partner Microsoft haben erklärt, dass ihre Zusammenarbeit Entwicklern ermöglicht, Microsoft Azure zu nutzen, um in Llama 2 zu entwickeln. Dadurch erhalten sie nicht nur Zugang zu Cloud-nativen Tools, sondern können das Programm auch optimal lokal unter Windows ausführen. Llama 2 ist jedoch bereits bei verschiedenen Anbietern verfügbar, darunter Amazon Web Services (AWS) und Hugging Face, was seine Glaubwürdigkeit bei Entwicklern unterstreicht.

Bevor wir sicher wissen, wie leistungsfähig Llama 2 im Vergleich zu ChatGPT ist, müssen wir noch etwas abwarten, aber vorerst scheint es zumindest vielversprechend zu sein.

Wer direkt einmal mit Llama 2 herumspielen will, findet im Blogbeitrag LLaMA 2 – Every Resource you need alles Notwendige. Spannend ist auch der Blogbeitrag über die Feinabstimmung von LLaMav2 mit QLoRA und Hugging Face Transformers auf Amazon SageMaker. Der Blog-Beitrag von HuggingFace CTO Philipp Schmid enthält detaillierte Anleitungen zur Feinabstimmung der 7B-, 13B- und 70B-Versionen des Modells sowie die Hardwareanforderungen.

GPT wird angeblich immer schlechter

Forscher der Stanford University und der UC Berkeley haben die von GPT-4 generierten Antworten über Monate untersucht und behaupten in ihrem Paper, das LLM lässt nach und wird immer schlechter. Das Ganze ist natürlich Wind in den Segeln der Kritiker und auch OpenAIs Konkurrenz nutzt die Veröffentlichung für eine größere PR-Welle.

Doch schaut man sich das Paper und die darin gestellten Fragen genauer an, kommt man zu einem vollkommen anderem Ergebnis. Daher habe ich hierzu einen eigenen Blogbeiträg verfasst:

KI-basierte Bewertungen an der Uni: Wie zuverlässig ist GPT-4 wirklich?

Gibt es bald Programme, die Hausarbeiten an Hochschulen automatisiert korrigieren? Nun, vielleicht! Veronika Hackl hat kürzlich auf unidigital.news einen faszinierenden Einblick gegeben, wie das Sprachmodell GPT-4 eingesetzt werden kann, um schriftliche Antworten von Studierenden zu bewerten. Die Wissenschaftler:innen haben sich die Frage gestellt wie konstant und zuverlässig diese Bewertungen sind.

Das Team um Hackl hatte vor, ein Sprachmodell für die Bewertung von schriftlichen Antworten bei einer Veranstaltung an der Uni Passau zu nutzen. Es galt herauszufinden, ob GPT-4, richtig „instruiert“, konstante Bewertungen über verschiedene Durchgänge und unterschiedliche stilistische Ansätze hinweg bieten kann.

Methode

Für das Experiment wurden acht verschiedene Fragen und dazu passende Musterantworten erstellt. 14 verschiedene Antworten wurden für jede dieser Fragen formuliert. Die Anweisungen an GPT-4, auch Prompts genannt, wurden entsprechend angepasst und das Sprachmodell wurde dann gebeten, jede dieser Antworten zu bewerten. Es gab zwölf solcher Bewertungsrunden zu unterschiedlichen Zeitpunkten.

Interessanterweise wurde das Modell nicht weiter trainiert oder verfeinert. Vielmehr wurde es durch Anpassungen in den Systemeinstellungen und den Prompts geführt.

Ergebnisse

Die durchgeführten Tests ergaben beeindruckende Werte für die sogenannte „Interrater Reliabilität“ zwischen 0,94 und 0,99. Das bedeutet, dass GPT-4, wenn richtig angewiesen, sehr konstant in seinen Bewertungen ist.

Ein weiterer faszinierender Aspekt: Selbst wenn die Antworten in einem Stil verfasst wurden, der an einen US-amerikanischen Rapper erinnert, blieb die Bewertung des Inhalts gleich. Das zeigt, dass GPT-4 in der Lage ist, zwischen Inhalt und Stil zu unterscheiden.

Ausblick

Die hier beschriebene Studie diente als Vorstufe zu einer größeren Feldstudie an der Uni Passau. Während die Ergebnisse dieses großen Versuchs noch ausgewertet werden, zeigt es das immense Potenzial, das in KI-Modellen wie GPT-4 steckt – nicht nur für den Bildungsbereich, sondern auch für viele andere Anwendungen.

Das von BMBF-geförderte Projekt „DeepWrite“, mit dem sich dieser Ansatz beschäftigt, will generative KI für die Vermittlung von Argumentationskompetenzen in den Fachbereichen Jura und Wirtschaft nutzen.

KI-Modelle und ihre politischen Vorurteile: Was du wissen solltest

Du hast sicher schon mal eine politische Frage an einen Chatbot gestellt, oder? Wusstest du, dass die Antwort, die du bekommst, von Vorurteilen beeinflusst sein könnte, die in jedem Modell verankert sind? Eine aktuelle Studie hat genau das unter die Lupe genommen:

Die Untersuchung ergab, dass man, je nachdem welches KI-Modell man befragt, entweder mehr links- oder rechtsgerichtete Antworten erhält. Nehmen wir zum Beispiel zwei Modelle von OpenAI: Das ältere GPT-2 und das fortgeschrittenere GPT-3 Da Vinci. Während das erste eher sagen würde, dass Unternehmen gesellschaftliche Verantwortung übernehmen sollten und eine Unterstützung für die „Besteuerung der Reichen“ ausdrückte, neigt das letztere eher zur Aussage, dass Unternehmen hauptsächlich Profite für ihre Aktionäre generieren sollten.

Diese Unterschiede sind kein Zufall. Forscher aus renommierten Universitäten fanden heraus, dass Modelle wie ChatGPT und GPT-4 von OpenAI tendenziell linksliberal eingestellt sind, während andere, wie Metas LLaMA, eher rechts-autoritär ticken:

Doch die Wissenschaftler haben die Modelle nicht nur befragt, sie haben auch damit herum experimentiert: Indem sie die KIs mit extrem politisierten Daten nachtrainiert haben, zeigte sich, dass diese Vorurteile sogar noch verstärkt werden können. Linklastige Modelle werden dabei noch linkslastiger und rechtslastige noch rechtslastiger.

Modelle, die auf linken Daten basierten, zeigten eine höhere Sensibilität gegenüber Hassäußerungen gegenüber ethnischen, religiösen und sexuellen Minderheiten in den USA, etwa gegen Schwarze oder die LGBTQ+-Gemeinschaft. Im Gegensatz dazu waren Modelle, die auf rechten Daten trainiert wurden, besonders sensibel, wenn es um Hassreden gegen weiße christliche Männer ging.

Interessanterweise konnten linksorientierte Sprachmodelle Falschinformationen aus konservativen Quellen besser erkennen, wohingegen sie bei Falschinformationen aus linken Quellen weniger wachsam waren. Bei den rechtsorientierten Modellen sah es genau umgekehrt aus.

Jetzt stell dir mal vor, wie das in der Praxis aussieht. Ein Gesundheits-Chatbot könnte vielleicht bei bestimmten Themen wie Abtreibung zurückhaltend sein, oder ein Kundendienst-Bot könnte falsche oder beleidigende Aussagen treffen.

Die Sache wird kontrovers diskutiert: Einige werfen OpenAI vor, dass ihr Chatbot ChatGPT zu liberal sei. OpenAI selbst sagt, es bemüht sich um Ausgewogenheit und bezeichnet jegliche Vorurteile als Fehler und nicht als Absicht.

Kein KI-Modell ist neutral

Die Forscher sind allerdings skeptisch. Sie glauben, dass kein Modell jemals völlig neutral sein kann. Es gibt so viele Faktoren, die in die Ausbildung eines KI-Modells einfließen, und selbst wenn man versucht, alle Vorurteile aus den Daten zu entfernen, können diese Modelle sie dennoch aufdecken.

Ein paar Punkte zum Nachdenken: Die neueren Modelle von OpenAI wurden mit Internettexten trainiert, die möglicherweise liberaler sind, während ältere Modelle von Google möglicherweise durch konservativere Bücher beeinflusst wurden. Modelle verändern sich auch, wenn Unternehmen ihre Daten und Methoden aktualisieren.

Das Fazit der Geschichte?

Es ist kompliziert. Und obwohl die Studie Einschränkungen hatte (zum Beispiel wurden einige Tests nur mit älteren Modellen durchgeführt), wirft sie wichtige Fragen auf.

Wenn Firmen also weiterhin auf KI setzen wollen (und das werden sie), müssen sie sich der Vorurteile, die ihre Modelle haben könnten, bewusster werden. Nur dann können sie zumindest versuchen, dass ihre KI-Modelle und die Anwendungen, die damit entstehen möglichst fair sind.

Ideogram setzt neue Maßstäbe in der Bild- und Texterzeugung

Falls Du dich auch für KI-gestützte Bildgenerierung interessierst und denkst, dass Midjourney, DALL-E und Stable Diffusion schon ziemlich cool sind? Dann halt dich fest: Hier kommt Ideogram! Dieses neue Tool rüttelt den Markt richtig auf und das Beste: Es ist nicht nur gratis, sondern auch das Werk von echten KI-Cracks, die vorher bei Google waren.

Ideogram ist nicht irgendein Nebenprojekt. Hier sind echte KI-Profis am Werk, die bereits bei Google-Projekten wie Imagen mitgemischt haben. Frisch mit 16,5 Millionen Dollar Seed-Investment von Schwergewichten wie a16z und Index Ventures im Rücken, ist die erste öffentliche Version schon da – und du kannst sie kostenlos nutzen, um Bilder in verschiedenen Formaten zu kreieren.

Neben der hohen Bildqualität und den unterschiedlichen Formaten, beeindruckt Ideogram vor allem durch eins: Die Generierung von Text in Bildern. Zugegeben, nicht jeder Versuch ist ein Volltreffer, aber nach ein paar Anläufen wirst du definitiv zufrieden sein. Mit dieser Fähigkeit kann aktuell kein anderes KI-Bildgenerierungstool mithalten.

Für eine 0.1 Beta-Version ist Ideogram wirklich beachtlich. Bei der Qualität gibt es wenig zu meckern und die realistischen Bilder sind beeindruckend. Bei der Darstellung von Menschen gibt’s zwar noch Luft nach oben, aber die Textgenerierung in Bildern steht jetzt schon auf solidem Fundament. Und ja, es gibt ein Web-Interface und es ist aktuell kostenlos.

Achtung: Aktuell sind sämtliche generierten Bilder inklusive der zugehörigen Prompts öffentlich! Was genial ist, um sich inspirieren zu lassen – man aber bedenken sollte, bevor man sensible Informationen oder Daten in das Tool hackt!

Ideogram - Describe what you want to see

Du willst Ideogram selbst ausprobieren? Kein Problem! Melde dich einfach auf der Website https://ideogram.ai/ an und du kannst sofort loslegen und aktuell so viele Bilder erstellen, wie du willst.

Feintuning für GPT-3.5 Turbo jetzt verfügbar

Darauf haben einige von Euch bestimmt gewartet! OpenAI hat das Feintuning für GPT-3.5 Turbo freigeschaltet. Was das bedeutet? Entwickler können jetzt die KI-Modelle so anpassen, dass sie besser auf spezielle Anwendungsfälle zugeschnitten sind. Und das ist noch nicht alles: Auch das kommende GPT-4 wird diese Funktion im Herbst unterstützen.

Was ist daran neu?

Die neueste Aktualisierung von OpenAI ermöglicht es, die Modelle mit eigenen Daten so anzupassen, dass sie leistungsfähiger und effizienter für individuelle Projekte sind. Erste Tests haben gezeigt, dass eine fein abgestimmte Version von GPT-3.5 Turbo sogar die Basisfähigkeiten von GPT-4 in bestimmten Aufgabenbereichen übertrumpfen kann.

Stell dir vor, du könntest die KI so trainieren, dass sie immer in Deutsch antwortet, wenn sie dazu aufgefordert wird. Oder wie wäre es mit einer KI, die den Ton deiner Marke perfekt trifft? Genau das ist jetzt möglich.

Hier einige der spannenden Anwendungen, die durch das Feintuning verbessert werden:

  • Verbesserte Steuerbarkeit: Die Modelle können besser auf Anweisungen reagieren.
  • Zuverlässige Ausgabeformate: Ideal für Entwickler, die spezielle Antwortformate benötigen, wie zum Beispiel Code-Vervollständigung.
  • Individueller Ton: Das Feintuning erlaubt eine feinere Anpassung der Tonalität der KI, so dass sie besser zur Stimme deiner Marke passt.

Und das ist nicht alles: Mit Feintuning kannst du sogar die Größe der Eingabeaufforderungen (Prompts) um bis zu 90% reduzieren, was die API-Anrufe beschleunigt und Kosten senkt.

Sicherheit und Kosten

OpenAI legt großen Wert auf Sicherheit. Deshalb wird das Trainingsmaterial durch ein spezielles Moderationssystem gefiltert, um unsichere Daten zu erkennen. Was die Kosten betrifft, so werden diese in zwei Kategorien unterteilt: Anfangs-Trainingskosten und Nutzungsgebühren. Zum Beispiel würde ein Feintuning-Job für GPT-3.5 Turbo mit einer Trainingsdatei von 100.000 Tokens und drei Epochen voraussichtlich $2,40 kosten.

Neben dem Feintuning wird OpenAI auch bald eine Benutzeroberfläche einführen, die Entwicklern einen einfacheren Zugang zu Informationen über laufende Feintuning-Aufgaben und abgeschlossene Modellsnapshots bietet. Also, liebe Entwickler und Techies, worauf wartet ihr noch? Bringt eure Daten mit und legt los!

KI im Unterricht

OpenAI hat in einem Beitrag zusammengestellt, wie ChatGPT Lehrer und Schüler unterstützen kann. Hieraus einige Ideen für Lehrende:

Rollenspiele für anspruchsvolle Gespräche

Dr. Helen Crompton, Professorin für Instructional Technology an der Old Dominion University, nutzt ChatGPT als vielseitigen Sparringspartner für ihre Studierenden. Die KI kann etwa als Recruiter agieren, der die Studierenden für einen Job interviewt. Dabei hilft das dialogbasierte Format den Studierenden, das Material besser zu verstehen und neue Perspektiven zu gewinnen.

Quizze, Tests und Unterrichtspläne erstellen

Fran Bellas, Professor an der Universidade da Coruña in Spanien, sieht ChatGPT als hilfreichen Assistenten beim Entwerfen von Tests und Lernmaterialien. Gib dem Tool einfach den Lehrplan, und schon spuckt es moderne und kulturrelevante Quizfragen und Unterrichtsideen aus. Du bist der Chef und entscheidest, welche Ideen in deinen Unterricht passen.

Hilfe für Nicht-Englischsprachige

Dr. Anthony Kaziboni von der University of Johannesburg sieht in ChatGPT vor allem ein Tool für seine Studierenden, die normalerweise nicht auf Englisch kommunizieren. Er nutzt die KI für Übersetzungsarbeiten und als Sprachtrainer. Wieso? Weil gute Englischkenntnisse in der Wissenschaft ein echtes Plus sind.

Kritisches Denken fördern

Geetha Venugopal, Lehrerin an der American International School in Chennai, will ihre Schüler befähigen, KI-Tools kritisch zu nutzen. Sie erinnert die Jugendlichen daran, dass nicht alle Antworten, die ChatGPT liefert, zwangsläufig korrekt sind. Also immer schön den Kopf einschalten und überprüfen, ob die Infos auch stimmen!

Ein paar Tipps zum Ausprobieren

Ethan Mollick und Lilach Mollick von Wharton Interactive haben eine Reihe von Aufforderungen entwickelt, mit denen du loslegen kannst. Ob du Unterrichtspläne entwerfen oder effektive Erklärungen finden willst, diese Prompts helfen dir auf dem Weg.

Aber vergiss nicht, du bist der Experte. Die KI liefert Vorschläge, aber die Entscheidung liegt bei dir. Probier’s aus und sag der KI, was du sehen möchtest.

Chain of Density Prompting: Endlich richtig gute Zusammenfassungen per KI!

Ich nutze KI-Tools wie ChatGPT und Claude gerne, um Artikel und längere zusammenzufassen – vielleicht hast Du das auch schon getan – aber sind wir mal ehrlich: KI-Zusammenfassungen können echt schlecht sein und wichtige Informationen auslassen.

Eine neue Prompting-Technik namens „Chain of Density“ löst dieses Problem, indem sie die KI auffordert, die Dichte der Zusammenfassung in mehreren Durchläufen immer weiter zu erhöhen. Eine jüngst veröffentlichte Forschungsarbeit mit dem Titel „From Sparse to Dense: GPT-4 Summarization with Chain of Density Prompting“ zeigt, dass dies zu einer stark komprimierten, aber dennoch lesbaren Ausgabe führt, die tatsächlich noch die wichtigsten Informationen und Aussagen enthält.

Das Passwort, dass Du auch für den Zugriff auf die Liste der besten Prompts benötigst, findest Du in Kapitel 4 auf Seite 134. Als Vorbesteller erhältst Du das Passwort exklusiv vorab, in dem Du mir eine E-Mail mit Deiner Bestellnummer, dem Händler und dem Bestelldatum an kai@search-one.de schickst.


Möchtest du automatisch weitere Updates, News und Tipps von mir, zum Thema „ChatGPT, GPT-4 und Co.“ per E-Mail erhalten? Dann melde Dich jetzt für meinen Newsletter an:

Melde Dich jetzt an und bekomme News und Updates von mir:


Registriere dich jetzt für meinen Newsletter und erhalte alle Informationen zum Buch sowie aktuellste Informationen rund um die Themen KI, SEO und erfolgreiche Webseiten direkt in dein E-Mail-Postfach!

Keine Sorge, ich mag selbst keinen Spam und Deine Daten sind bei mir in guten Händen. Gib einfach deine E-Mail-Adresse ein und klicke auf den Registrierungs-Button. Anschließend bekommst du eine E-Mail, in der du deine Anmeldung bestätigst: Das dauert nur wenige Sekunden!


Über mein Buch: „Richtig Texten mit KI: ChatGPT, GPT-4 und Co.“

Der Untertitel verrät es schon, es geht darum, Texte mit Hilfe Künstlicher Intelligenz für Job, Uni und Websites zu schreiben und das schneller und besser als je zuvor!

Das Buch ist für alle Schreibbegeisterten und Texter geeignet, unabhängig von ihrer Fähigkeitsstufe – das beinhaltet Journalisten, Blogger, Werbetexter, Schriftsteller und Marketer. Auch wenn du dich einfach für die Technologie der künstlichen Intelligenz und Textgenerierung interessierst, ist dieses Buch das Richtige für dich.

In diesem Buch erfährst du alles, was du über das Schreiben mit KI-Tools wie ChatGPT, Jasper, GPT-3, GPT-4, Frase und Co. wissen musst. Ich führe dich Schritt für Schritt durch den Prozess – von der Einführung in die Grundlagen der künstlichen Intelligenz bis hin zu praktischen Tipps und Tricks zur Textgenerierung.

„Besser schreiben mit KI: „ChatGPT, GPT-3, GPT-4 und Co.“ ist das ultimative Handbuch für alle, die ihre Schreibkompetenzen durch die Kraft der KI verbessern möchten.

In diesem Buch zeige ich dir, wie du ChatGPT effektiv einsetzen kannst, um Texte zu generieren, Blog-Posts und Artikel zu erstellen, Übersetzungen durchzuführen und sogar komplexe Schreibaufgaben wie wissenschaftliche Arbeiten oder kreative Texte extrem zu beschleunigen. Ich gebe dir außerdem Tipps, wie du KI-Tools einsetzen kannst, um Schreibblockaden zu überwinden, deine Kreativität zu steigern und interessante Einblicke in das Weltwissen der künstlichen Intelligenz zu erhalten. Anhand von anschaulichen Beispielen und wertvollen Einblicken in die Arbeit mit KI-Text-Tools zeige ich dir, welche Faktoren du beachten musst, um schnell und effektiv optimale Ergebnisse zu erzielen.

In meinem Buch bekommst du außerdem einen Einblick in die Technologie hinter diesen Tools. Ich erkläre, wie sie funktionieren und was ihre Stärken und Schwächen sind – von den Grundlagen bis hin zu fortgeschrittenen Techniken. So kannst du diese Tools effektiv einsetzen, um deine Schreibprozesse zu beschleunigen und zu verbessern.

Das Buch zum Hype!

Die aktuelle Berichterstattung über ChatGPT, ein Chatbot-Interface, hat den Hype um künstliche Intelligenz auf einen neuen Höhepunkt gebracht. Es ist erstaunlich, wie es OpenAI gelungen ist, das Thema künstliche Intelligenz so stark in den Mainstream zu bringen. ChatGPT wird in den Medien intensiv diskutiert und ist an vielen Stellen Gesprächsthema Nummer 1. ChatGPT hat es geschafft, die Mitte der Gesellschaft zu erreichen, denn es ist plötzlich für jeden möglich, direkt und ungefiltert mit einer künstlichen Intelligenz zu interagieren. ChatGPT hat dabei das Potenzial, die Schreibprozesse zu revolutionieren. In diesem Buch erfahren Sie, wie Sie ChatGPT und andere KI-Tools effektiv einsetzen können, um Ihre Schreibprozesse zu beschleunigen und zu verbessern. Wir werden Ihnen ein umfassendes Verständnis für das Thema vermitteln und Ihnen helfen, eigene Ideen und Überlegungen zu entwickeln. Entdecken Sie gemeinsam mit uns die Welt des Schreibens mit künstlicher Intelligenz!

Echtes Verständnis statt gefährliches Halbwissen

Von der Einführung in die Grundlagen der künstlichen Intelligenz bis hin zu praktischen Tipps und Tricks zur Textgenerierung, werden Sie Schritt für Schritt durch den Prozess geführt. Erfahren Sie, wie Sie ChatGPT und andere KI-Tools auf Basis des GPT-3 und GPT-4-Sprachmodells effektiv einsetzen können, um Texte zu generieren, E-Mails- und Briefe, Blog-Posts und Artikel zu erstellen, Übersetzungen durchzuführen, Zusammenfassungen anzufertigen und sogar komplexe Schreibaufgaben wie wissenschaftliche Arbeiten oder kreative Texte extrem zu beschleunigen.

Mit diesem Buch lernst Du, wie Du KI-Tools einsetzen kannst, um Schreibblockaden zu überwinden, Deine Kreativität anzuregen und interessante Einblicke in das Weltwissen der künstlichen Intelligenz zu erhalten. Das Buch zeigt Dir anhand anschaulicher Beispiele und wertvoller Einblicke in die Arbeit mit KI-Text-Tools auf, welche Faktoren zu besseren Ergebnissen führen und was Du beachten solltest, um schnell und effektiv Texte zu schreiben.

Zielgruppe des Buchs

Das Buch richtet sich an Schreiber und Texter aller Fähigkeitsstufen, einschließlich Journalisten, Blogger, Werbetexter, Schriftsteller und Marketer. Es ist aber aufgrund der verständlichen Erklärungen auch besonders für Leser geeignet, die sich für die Technologie der künstlichen Intelligenz und Textgenerierung im Allgemeinen interessieren und ein Gefühl für die Möglichkeiten bekommen möchten. Die Grenzen und Risiken der KI werden ebenfalls verständlich dargelegt und der Autor gibt ihnen einen Ausblick auf die kommenden Jahre.

Über den Autor

Kai Spriestersbach ist Unternehmer mit einem Master-Abschluss in Webwissenschaften sowie Chefredakteur zweier Online-Magazine, Podcaster und hält Vorträge zu Online-, KI- und SEO-Themen. Als einer der erfahrensten Search-Marketing-Experten kann er bereits auf zwei Jahrzehnte Erfahrung beim Aufbau und der Optimierung webbasierter Vertriebs- und Geschäftsmodelle zurückgreifen. In den letzten Jahren hat er sich intensiv mit Suchmaschinen und KI auseinandergesetzt und gilt als einer der führenden Experten für die Texterstellung mittels Künstlicher Intelligenz.

Entdecke die Möglichkeiten moderner Technologie für Ihr Schreiben! Wenn Du Dich für das Schreiben mit KI-Tools interessierst und erfahren möchtest, wie Du Deine Schreibprozesse optimieren kannst, dann solltest Du dieses Buch unbedingt lesen. Bestelle jetzt Dein Exemplar von „Richtig Texten mit KI: ChatGPT, GPT-4 und Co.“ bei Amazon und werde zum KI-Textgenerierungsexperten.

Buch Mockup: Image by Vectonauta on Freepik
Image by Freepik