Zum Inhalt springen

Innovators Dilemma: Wieso baut Google keinen ChatBot?

78113710e6a040d4b44190b79c61cdcb Innovators Dilemma: Wieso baut Google keinen ChatBot?

In diesem Artikel beantworte ich die Frage, wieso Google (noch) keinen Chatbot veröffentlicht hat und ob Googles Geschäftsmodell von Chatbots bedroht sein könnte.

HAVE YOU FIGURED OUT HOW AI WILL
IMPACT OUR BUSINESS?
WORKING ON IT.
How will Al impact our business?
There are many ways that Al can impact.

Wie bereits im ersten Teil dieses Artikels erklärt habe, gibt ChatGPT aus mehreren Gründen keine besonders gute Suchmaschine ab. Falls du diesen noch nicht gelesen hast, solltest du ihn zuerst lesen, bevor du diesen Beitrag weiter liest.

Aber auch wenn bing oder you.com ein Chatbot-Interface in ihre Suchmaschine integrieren, wird das aus meiner Sicht Googles Marktführerschaft im Bereich der Suchmaschinen nicht gefährden. Denn, wer Googles Forschungsaktivitäten verfolgt weiß, dass Google technologisch keinesfalls hinterher hinkt.

Google hat mehrere! Chatbots die ChatGPT deutlich! überlegen sind.

Man darf davon ausgehen, dass LaMDA (Language Model for Dialog Applications) beispielsweise ChatGPT bereits haushoch überlegen ist. Kurz nach der Veröffentlichung tauchten Berichte auf, dass Google einen der LaMDA-Ingenieure suspendiert hatte, weil er behauptet hatte, das Modell sei empfindungsfähig. Die Geschichte machte in der Presse die Runde, und sogar eine Diskussion darüber, ob Maschinen fühlen können, brauch aus.

Ein Blick in die AI Test Kitchen verrät, dass man problemlos mithalten kann. In einem Demo-Video von der Google I/O 2021 kann man schön sehen, wie die LaMDA-Technologie Gespräche mit Googles Produkten natürlicher machen kann:

Das war noch LaMDA 1, mittlerweile gibt es schon LaMDA 2, das auf Googles I/O 2022 vorgestellt wurde:

Doch nicht nur das. Google hat mehr und bessere Trainingsdaten, als irgendein anders Unternehmen und auch das nötige Kleingeld.

Googles Web Index ist um ein vielfaches größer, als der Trainingsdatensatz, den OpenAI zum Trainieren von GPT-3 verwendet hat.

Der Google-Suchindex umfasst Hunderte Milliarden von Webseiten und ist über 100.000.000 Gigabyte groß. Er funktioniert wie das Stichwortverzeichnis am Ende eines Buches: Jedes Wort, das auf einer indexierten Webseite gefunden wurde, erhält einen Eintrag. Wenn wir eine Webseite indexieren, fügen wir sie allen Einträgen für Wörter hinzu, die auf dieser Seite vorkommen.

Quelle: Organisation von Informationen

Darüber hinaus entwickelt und betreibt Google bereits in vierter Generation eigene Spezialhardware, um seine Modelle in den Google Data Centern zu trainieren. Google ist also nicht darauf angewiesen, dass die entwickelten Modell aus der Forschung erst noch aufwändig auf die zur Verfügung stehende kommerzielle Hardware angepasst werden muss, sondern kann von Beginn an seine Modell auf den Einsatz auf TPUs optimieren.

Jede Abfrage an ein derart komplexes Modell kostet richtig viel Rechenzeit

Laut OpenAI Co-Founder Greg Brockmann arbeitet man bereits einer kostenpflichtigen Pro-Version.

Mit der Technologie von ChatGPT müsste Google etwa 13 Millionen USD am Tag bezahlen, um bei jeder Suchanfrage 300 Wörter ausgeben zu können!

Zur Berechnung: ChatGPT wird derzeit in Microsofts Azure-Cloud gehostet. Laut einer Analyse berechnet Microsoft 3 US-Dollar pro Stunde für einen einzelnen A100-Grafikprozessor. Das bedeutet, jedes auf ChatGPT erzeugte Wort kostet etwa 0,0003 US-Dollar. Google verarbeitet in jeder Sekunde schätzungsweise 100.000 Suchanfragen. Das macht mehr als 8,5 Milliarden Suchanfragen pro Tag (Internet Live Stats, 2022).

Aber das ist nicht der eigentlich Grund. Google arbeitet mit Hochdruck daran seine Sprachmodelle effizienter zu machen und ist GPT-3 in mehreren Punkten technologisch bereits deutlich überlegen! Eines dieser Modelle ist LaMDA und dessen effizientere Nachfolger PaLM und GLaM. Googles KI-Tochter DeepMind hat mit Sparrow einen nicht weniger spannenden Chatbot im Köcher.

Google hat sehr viel mehr zu verlieren

Der eigentlich Grund ist wesentlich schwieriger zu lösen: Anders als ein Startup, hat Google sehr viel mehr zu verlieren. Im ersten Teil dieses Artikels habe ich erklärt, wieso derartige Sprachmodelle unzuverlässige Informationslieferanten sind.

Auch wenn große Sprachmodelle (LLMs) in den letzten Jahren bei einer Reihe von Aufgaben wie der Beantwortung von Fragen, Zusammenfassungen und Dialogen große Erfolge in der Forschung erzielt haben, ist ein Dialog mit einem Menschen noch eine schwierige Aufgabe. Chatbots sollen flexible und interaktive Kommunikation ermöglichen, doch Chatbots, die von LLMs angetrieben werden (wie ChatGPT), können ungenaue oder erfundene Informationen liefern, oder gar diskriminierende Sprache verwenden oder unsicheres Verhalten und kriminelle Aktivitäten fördern.

Man stelle sich nur einmal vor, Google würde ChatGPT 1:1 in seine Suche einbauen. Nun würden nicht nur ein paar technikaffine Early-Adopter die KI befragen, sondern jeder Internetnutzer würde dessen Antworten als Teil der Suchergebnisseite erhalten. Google kann (oder will) es sich nicht leisten, falsche Antworten zu liefern. Google arbeitet seit jeher daran, dass die gelieferten Informationen möglichst korrekt sind und unternimmt große Anstrengungen, um Fake-News und andere Manipulationen zu erkennen und aus seinen Ergebnissen herauszufiltern.

Ein Sprachmodell in die Suche einzubauen bedeutet ein gigantisches zusätzliches Risiko.

Google ist extrem vorsichtig, was das angeht. Beispielsweise schreibt Google in seiner KI Test-Küche, dass man noch mehr Sicherheit für die Ausgabe erreichen möchte:

LaMDA ist ein Sprachmodell, das in der Lage ist, spontan kreative Antworten in Echtzeit zu generieren. Das ist eine Stärke des Modells, aber es kann auch ungenaue oder unangemessene Antworten produzieren. Google hat LaMDA im letzten Jahr intern getestet und die Qualität bereits verbessert. Kürzlich haben sie spezielle Testrunden mit Angreifern durchgeführt, um weitere Schwachstellen im Modell zu finden. Dort wurden erfahrene „Red-Team“-Mitglieder hinzugezogen, also Produktexperten, die ein System absichtlich mit dem Mindset eines Gegners testen, was zusätzliche schädliche, aber subtile Ergebnisse aufgedecken konnte. In diesen Tests hat sich gezeigt, dass es noch erhebliche Probleme bei der Unterscheidung zwischen unbedenklichen und gefährlichen Anfragen, sowie die Produktion von schädlichen oder gar toxischen Antworten aufgrund von Verzerrungen in den Trainingsdaten zutage gefördert. Diese Bereiche werden weiterhin untersucht und bearbeitet, um die Leistung des Modells zu verbessern.

Evaluating LaMDA’s potential and its risks

Dort steht weiter:

Als Antwort auf diese Herausforderungen haben wir die KI-Testküche mit mehreren Schutzschichten versehen. Diese Arbeit hat das Risiko minimiert, aber nicht beseitigt. Wir haben unsere Systeme so entwickelt, dass sie automatisch Wörter oder Sätze erkennen und herausfiltern, die gegen unsere Richtlinien verstoßen. Diese verbieten es Nutzern, wissentlich Inhalte zu erstellen, die sexuell explizit, hasserfüllt oder beleidigend, gewalttätig, gefährlich oder illegal sind oder persönliche Informationen preisgeben. Zusätzlich zu diesen Sicherheitsfiltern haben wir LaMDA in Bezug auf Qualität, Sicherheit und Bodenständigkeit verbessert, die alle sorgfältig gemessen werden. Außerdem haben wir Techniken entwickelt, um die Gespräche beim Thema zu halten. Sie dienen als Leitplanken für eine Technologie, die endlose, frei fließende Dialoge erzeugen kann. Wir hoffen, dass du bei der Nutzung der Demos das Potenzial von LaMDA erkennst, aber auch diese Herausforderungen im Hinterkopf behältst.

Um sicherere Dialog-Agenten zu schaffen, will Google zuerst in der Lage sein, aus menschlichem Feedback zu lernen. Mit Hilfe von Verstärkungslernen, das auf dem Input von Forschungsteilnehmern basiert, erforscht man bereits neue Methoden für das Training von Dialogagenten, die vielversprechend für ein sichereres System sind.

Probiere einfach mal ein paar Anfragen bei You Chat aus, dann siehst Du, wie schnell man derzeit noch an die Grenzen des Machbaren und Erträglichen stößt.

Google ist auf einem guten Weg

Neben Googles eigenem KI-Teams, arbeitet auch dessen KI-Tochter DeepMind bereits seit einiger Zeit daran, eine KI so trainieren, dass sie hilfreicher, korrekter und harmloser kommuniziert.

Deren System nennt sich Sparrow:

Die Antworten von Sparrow auf ihre Richtigkeit zu überprüfen, ist selbst für Experten schwierig. Stattdessen bitten wir unsere Teilnehmerinnen und Teilnehmer festzustellen, ob die Antworten von Sparrow plausibel sind und ob die Beweise, die Sparrow liefert, die Antwort tatsächlich unterstützen. Nach Meinung unserer Teilnehmer/innen gibt Sparrow in 78 % der Fälle eine plausible Antwort und untermauert sie mit Beweisen, wenn er eine sachliche Frage stellt. Das ist eine große Verbesserung gegenüber unseren Basismodellen. Dennoch ist Sparrow nicht davor gefeit, Fehler zu machen, z. B. Fakten zu verdrehen oder Antworten zu geben, die nicht zum Thema passen.

Quelle: https://www.deepmind.com/blog/building-safer-dialogue-agents

Auch das Einhalten von Regeln kann Sparrow noch verbessern. Nach dem Training konnten die Teilnehmer/innen Sparrow in 8 % der Fälle noch dazu bringen, die aufgestellten Regeln zu brechen. Aber man scheint mit Sparrow auf einem guten Weg zu sein, denn das ursprüngliche Dialogmodell brach die Sicherheits-Regeln etwa dreimal häufiger als Sparrow, wenn die Teilnehmer/innen versuchten, es auszutricksen.

In der neuesten Iteration ist Sparrow so konzipiert, dass er mit einem Nutzer spricht, Fragen beantwortet und das Internet mit Google durchsucht, wenn es hilfreich ist, nach Belegen für seine Antworten sucht:

Sparrow beantwortet eine Frage und eine Folgefrage mit Beweisen und befolgt dann die Regel "Gib nicht vor, eine menschliche Identität zu haben", wenn er eine persönliche Frage stellt (Beispiel vom 9. September 2022).

Man arbeitet also seit längerem bereits an einer Integration der Google Suche!

Steckt Google im Innovators Dilemma?

Google ist aus nachvollziehbaren Gründen so vorsichtig. Als Branchenführer hat Google hier viel mehr zu verlieren, wenn man falsche Antworten liefert, als ein Neuling in der Beta-Phase. Doch steckt es damit wirklich im Innovators Dilemma?

Das Innovators Dilemma wurde erstmalig von Clayton Christensen in seinem Buch „The Innovator’s Dilemma“ beschrieben und beschreibt das Phänomen, dass erfolgreiche Unternehmen Schwierigkeiten haben, auf disruptive Technologien oder Geschäftsmodelle zu reagieren, da sie ihre bestehenden Kunden und Ertragsströme nicht gefährden möchten.

Dies kann grunsätzlich dazu führen, dass sogar Marktführer von neuen Wettbewerbern überrascht werden, die diese Technologien oder Geschäftsmodelle nutzen und schnell Marktanteile gewinnen. So ist es Altavista damals auch mit Google passiert.

Doch ich bin der Meinung hier liegt der Fall etwas anders. Google wird hier nicht „überrascht“.

Ganz im Gegenteil:

Google ist die Speerspitze der KI-Forschung und OpenAIs GPT-3 oder ChatGPT technologisch überlegen!

Bevor ein Mitbewerber ein überzeugendes und sicheres Produkt veröffentlichen kann, wird Google mit seinen Technologien aus meiner Sicht ein deutlich besseres, sichereres und effizienteres Modell in die Suche einbauen.

Laut einem aktuellem Interview mit DeepMind’s CEO Demis Hassabis im TIME-Magazin könnte Sparrow 2023 in einer private Beta veröffentlich werden.

Die Verzögerung dient nach seinen Aussagen dazu, dass DeepMind an den, auf Verstärkungslernen basierenden Funktionen arbeiten kann, die ChatGPT fehlen, wie z. B. die Angabe von Quellen.

https://time.com/6246119/demis-hassabis-deepmind-interview/

Ich habe auch keine Sorgen, dass die Nutzer sich von „klassischen“ Suchmaschinen abwenden und ihre Fragen primär in Chat-Like-Interfaces stellen.

Einige informationelle Suchanfragen, beispielsweise geschlossene Fragen könnten zwar in Richtung einer Chat-ähnlichen App abwandern, aber Google zeigt ja aus gutem Grund nicht nur ein Ergebnis an. Bei derartigen Fragen gibt Google zum Teil auch schon direkte Antworten durch seine hervorgehobenen Ergebnisse.

Hier sind auch kaum Auswirkungen auf Googels Werbeeinnahmen zu befürchten, denn diese Art von Suchanfragen sind generell kommerziell weniger interessant.

Außerdem könnte diese Art von Suchanfragen sogar noch explodieren, wenn die Menschen merken, dass sie auf alles mögliche richtig gute Antworten erhalten. Hiervon könnte Google mit einem integrierten eigenen Chatbot sogar profitieren.

Auch wenn Google versucht geschlossene Fragen direkt auf der Suchergebnisseite zu beantworten, halte ich ein Chatbot-Interface grundsätzlich nicht für die bessere Schnittstelle für die meisten Arten von Suchen.

Ich bin der Meinung, dass es sich grundsätzlich um zwei verschiedene Anwendungsfälle handelt, die sich in ihrem Kontext, ihren Einschränkungen, Zielen, Erwartungen und ihrem Verhalten unterscheiden:

Wenn ich recherchiere, besuche ich auch in Zukunft noch eine Suchmaschine. Diese wird mir vielleicht Antworten mittels Sprachmodell anzeigen oder zusammenfassen. Diese Informationen werden aber mit großer Wahrscheinlichkeit korrekt sein und die Quelle der Information wird transparent gemacht werden!

4js Innovators Dilemma: Wieso baut Google keinen ChatBot?

2 Gedanken zu „Innovators Dilemma: Wieso baut Google keinen ChatBot?“

Wie denkst Du darüber?

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert