Automatisierte Textgenerierung mittels künstlicher Intelligenz – Sinn oder Unsinn?

Automatische Textgenerierung mittels künstlicher Intelligenz

In meinem SEOkomm-Vortrag zum BERT-Update habe ich das Thema „Automatische Textgenerierung mittels künstlicher Intelligenz“ angesprochen. Da mich nun zahlreiche Anfragen diesbezüglich erreichen, habe ich mich entschlossen, in diesem Artikel den aktuellen Stand inklusive der Möglichkeiten und Einschränkungen einmal zusammenzufassen.

Kurz gesagt: Die Möglichkeiten der automatisierten Textgenerierung sind aktuell noch ziemlich eingeschränkt!

Mit dem BERT-Algorithmus werden zwar erstmals auch Zusammenhänge über Satzgrenzen hinweg erfasst, jedoch können Zusammenhänge nicht innerhalb ganzer Absätze oder gar Artikel erfasst werden. Es handelt sich bei diesem Verfahren lediglich um die Erfassung statistischer Zusammenhänge, die mit einem echten Verständnis des Inhalts relativ wenig zu tun hat. Es wird also die Struktur der Texte erfasst und reproduziert, nicht aber deren echte semantische Inhalte!

Das führt dazu, dass generierte Texte zwar auf den ersten Blick ganz gut aussehen und sinnvoll erscheinen, bei näherer Betrachtung fällt jedoch schnell auf, dass dieser Text nicht von einem klar denkenden Menschen verfasst worden sein kann.

Somit eignen sich beispielsweise durch GPT-2 generierte Texte im besten Falle dazu, Personen zu beeinflussen, die nur die Überschriften wahrnehmen und bestenfalls den ersten Absatz überfliegen. Im Rahmen einer solchen Desinformationskampagne kann GPT-2 zur Generierung von Fake-News eingesetzt werden, die massenhaft gestreut den Eindruck eines fundierten Artikels erwecken! Daher wollte das Open-AI-Team diesen Algorithmus zunächst auch nicht veröffentlichen, mittlerweile schätzt man dieses Risiko offenbar geringer ein bzw. ist auch in der Lage, mit demselben Algorithmus Fake-News zu erkennen!

Algorithmen wie BERT und GPT-2 generieren also keine wirklich sinnvollen längeren Artikel! 

Meist handelt es sich lediglich um eine Aneinanderreihung von für sich alleine betrachtet sinnvollen Aussagen, die jedoch in Verbindung miteinander noch lange keinen guten Artikel ergeben. Es entsteht nur eine Aneinanderreihung der wahrscheinlichsten Sätze. Das wäre also so, als würde man zu einem bestimmten Thema aus den rankenden Dokumenten irgendwelche zufälligen Sätze auswählen. Oder im Copy-and-Paste-Verfahren stumpf von Dokument 1 Satz 1, von Dokument 2 Satz 2 und von Dokument 3 Satz 3 und so weiter aneinanderkopieren. Damit erhält man noch lange keinen sinnvollen oder gar großartigen Artikel.

Um das zu verdeutlichen, habe ich die beiden in meinem Vortrag angesprochenen Fake-News, die ich mit Grover, einer GPT-2 Variante des Allen Institutes for Artificial Intelligence generiert habe, hier einmal im Volltext hinterlegt:

Fake-News-Variante 1

automatisch-generierte-fakenews2

Fake-News-Variante 2automatisch-generierte-fakenews1

Wo funktionieren automatisch generierte Texte?

Was mittlerweile relativ gut funktioniert, ist die Erstellung von Zusammenfassungen bzw. Teaser-Texten auf Basis längerer Artikel. Hierbei werden quasi die Kernaussagen extrahiert und maximal komprimiert wiedergegeben.

Ebenfalls hilfreich sind Algorithmen wie GPT-2 bei der Erstellung automatischer E-Mail Antworten. In der Smart Compose genannten Funktion in Gmail wird der jeweils nächste Satz vorhergesagt, was ein durchaus hilfreiches Werkzeug bei der Beantwortung von E-Mails sein kann. Angefangen hat alles mit Smart Reply aus dem alternativen Gmail-Client Inbox. Leider kann man sich nur in englischen Accounts mit englischen E-Mails einen Eindruck von den Möglichkeiten dieser Funktionen machen.

Ein spannender Bereich stellt außerdem die Generierung von speziellen Texttypen auf Basis strukturierter Informationen dar. So lassen sich im sogenannten Roboterjournalismus beispielsweise aus den Informationen eines Spielverlaufs im Fußball relativ ansehnliche Spielberichte generieren. Hierbei werden die tabellarischen Informationen, beispielsweise wer wann ein Tor geschossen hat, in zahlreichen Varianten blumig ausgeschmückt und geben somit in natürlicher Sprache wieder, was im Spiel passiert ist.

Ebenso können mittels speziell trainierter neuronaler Netze auf Basis strukturierter Produktinformationen faktenzentrierte Produkttexte innerhalb ähnlicher Produktgattungen generiert werden. Diese basieren auf zahlreichen Beispielen und Vorlagen ähnlicher Texte. Diese Muster werden quasi dynamisch für das jeweilige Produkt und dessen Eigenschaften angepasst. Ebenso lassen sich Börsenberichte, Wirtschaftsnachrichten und andere Dokumente, die Unternehmen im Rahmen ihrer Veröffentlichungspflichten immer wieder auf Basis der Unternehmenszahlen verfassen müssen, mit speziell trainierten Algorithmen generieren. Die Ausformulierung von Verkehrsmeldungen und Wettervorhersagen funktioniert ebenfalls sehr gut.

Wenn also sehr oft ein sehr ähnlicher Text benötigt wird, dessen Informationskern in Form von strukturierten Informationen vorliegt, macht der Einsatz einer automatischen Textgenerierung eventuell Sinn.

Dies hat jedoch nichts mit einer journalistischen oder gar schriftstellerischen Leistung zu tun! Der Trainings-, Implementierungs- und Verifizierungsaufwand ist erheblich und rechnet sich daher aktuell nur bei einer sehr großen Zahl benötigter Texte.

Automatische Texte als Vorarbeit?

Nun bleibt noch die Frage offen, ob man auf Basis dieser generierten Texte mit zusätzlicher menschlicher Überarbeitung schneller zu einem guten oder vielleicht sogar besseren Text gelangt oder eben nicht. In meinem Vortrag habe ich gesagt, dass es durchaus interessant sein kann, zu sehen, welche Begriffe und Kontexte ein derartiger Algorithmus für ein bestimmtes Thema als wahrscheinlich und damit relevant betrachtet. Strukturell liefern diese Texte jedoch kaum eine sinnvolle Vorarbeit und sparen daher bei der Erstellung hochwertiger Artikel aus meiner Sicht auch keine Zeit.

Fazit & Empfehlung

Meine Empfehlung lautet daher: Probiert einfach mal den Text-Generator für Euren Anwendungsfall aus und macht selbst Erfahrungen mit den so entstandenen Texten. In Einzelfällen kann der Blick in das Gedächtnis der neuronalen Netze durchaus hilfreich und aufschlussreich für die Optimierung eines Artikels sein.

Über Meinungen und Erfahrungen in den Kommentaren freue ich mich außerdem sehr.

Update: Im New Yorker ist ein spannender Artikel zum selben Thema erschienen

Die Autoren beim Magazin The New Yorker haben sich im Artikel ‘Can a Machine Learn to Write for The New Yorker?‘ die Frage gestellt, ob eine KI, die in E-Mails in der Lage ist Sätze zu beenden, nicht vielleicht auch Artikel schreiben kann, die in ihrem Magazin erscheinen könnten und begeben sich dabei tief in die Theorien hinter künstlicher Intelligenz und der Verarbeitung von natürlicher Sprache mit Hilfe künstlicher neuronaler Netze.

Mit Hilfe des CTOs von OpenAI, Greg Brockman wurde GPT-2 mit dem Archiv des Magazins trainiert (allen seit 2007 in der Zeitschrift veröffentlichten Artikeln sowie ein paar digitalisierte Klassikern aus den sechziger Jahren – jedoch ohne Fiktionionales, Gedichte und Cartoons) und sollte dann einen Artikel beenden, der so tatsächlich 1950 geschrieben worden ist.

Der generierte Text, ein Portrait über Ernest Hemingway klingt dann am Ende fast so, als hätte es echt sein können, aber der Algorithmus macht eben Fehler, die ein Mensch niemals machen würde:

Other things often sounded right, though GPT-2 suffered frequent world-modelling failures—gaps in the kind of commonsense knowledge that tells you overcoats aren’t shaped like the body of a ship. It was as though the writer had fallen asleep and was dreaming.

Der ganz normale Menschenverstand ist also noch nicht in der KI-Welt angekommen – Was ein Glück für uns…

  • Kai Spriestersbach gehört mit mehr als 15 Jahren Online-Marketing-Erfahrung zu den erfahrensten Suchmaschinen-Marketern in Deutschland. Der studierte Bachelor of Science in E-Commerce hat sich auf die strategische Beratung sowie Ausbildung und Weiterbildung in Digitalem Business sowie Web- und Suchmaschinen-Technologien spezialisiert. Als Dozent ist er sowohl für die 121WATT – School of Digital Marketing & Innovation als auch für die Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt im Fachbereich E-Commerce tätig. Daneben unterstützt Kai Spriestersbach gerne innovative Startups, ist als Affiliate-Publisher tätig und entwickelt und vermarktet digitale Produkte im Bereich WordPress, SEO und Online-Marketing.

  • Show Comments (0)

Hinterlasse einen Kommentar

avatar

You May Also Like

OR2.15 We are back! – OnlineRadar veröffentlicht neue Folgen

Die letzte Folge unseres Online Marketing Podcasts haben wir im Januar 2014 veröffentlicht, Wahnsinn ...

BERTology

Googles BERT-Update ist da! Was musst Du darüber wissen?

Alle reden über BERT. Google sagt, es handelt sich dabei um das größte Update ...

Bessere Lesbarkeit im Netz mit dem Text-Analyse-Tool

Nach meinem Artikel über Neuro-Rhetorik habe ich mich noch ein wenig intensiver mit den ...

Verpasse keine wichtige SEO-News mehr!
Melde Dich zu meinem SEO-Newsletter an.
Du bekommst wichtige News und kostenlose Tipps automatisch in Dein Postfach geschickt.
Ich akzeptiere die Einwilligungsserklärung.
Keine Sorge, ich hasse Spam genauso wie Du.
Außerdem kannst Du Dich jederzeit wieder abmelden ;o)
close-link

Automatisierte Textgenerierung mittels künstlicher Intelligenz – Sinn oder Unsinn?

von Kai Spriestersbach Lesezeit: 5 min
0

Um unsere Webseite verbessern zu können, benötigen wir ein paar Cookies. Weitere Informationen bekommst Du in der Datenschutzerklärung. Bitte stimme der Verwendung zu, in dem Du auf 'Akzeptieren' klickst. Vielen Dank!