«Auf dem Planeten Cybertron lebte eine Rasse intelligenter Maschinenwesen, eigenständig agierender, mechanischer Wesen, die über die Fähigkeit verfügen, ihre Körper in andere Formen zu verwandeln.» So beschreibt Wikipedia den Film Transformers. Von einer anderen Form von Transformation, ist aktuell sehr oft zu lesen: Von Künstlicher Intelligenz namens GPT-3 (Generative Pretrained Transformer 3). Dabei werden nicht Maschinen transformiert bzw. generiert, sondern Sprache. Ist das gut, ist es schlecht, brauchen wir dazu vom Menschen definierte Rahmenbedingungen, um KI in dieser Form zu verwenden und weiter zu entwickeln? Stichwort Responsible AI.
Sprache und Text bleiben nach wie vor die wichtigste Form der Kommunikation im täglichen Leben und auch im Marketing: Für Maschinen, sprich Suchmaschinen, und für Menschen, für die Inhalte in ganz unterschiedlicher Form aufbereitet werden. Videos spielen zwar eine immer wichtigere Rolle und auch gesprochene Sprache in der Form von Voice User Interfaces wie Amazon Alexa oder Google Assistant gewinnen an Bedeutung.
GPT-2, GPT-3, NLU, NLP, NLG – über Äpfel und Birnen
Der Begriff natürliche Sprache bezeichnet die Sprache, in der Menschen miteinander kommunizieren, geschrieben und gesprochen. Im Kontext sprachbasierter KI sind drei Begriffe relevant: Natural Language Understanding (NLU), Natural Language Processing (NLP) und Natural Language Generation (NLG).
Seit den fünfziger Jahren ist NLP bereits ein wichtiges Forschungsfeld. Der MIT-Professor Joseph Weizenbaum schuf 1964 ELIZA, das mit einfachen Mitteln ein Gespräch zwischen einem Psychotherapeuten und einem Patienten simulieren konnte. ELIZA kann als erster Chatbot aufgefasst werden. Natural Language Generation kann überall dort eingesetzt werden, wo grosse Mengen an strukturierten Daten anfallen – etwa im E-Commerce, an der Börse oder in der Berichterstattung für Sport-, Wetter- oder Wahlereignisse. Seit einiger Zeit setzen Nachrichtenportale auf «Roboterjournalismus», um Sportnachrichten, Wetterberichte oder Börsenupdates zu produzieren. Auf den Plattformen von CH Media wird zum Beispiel lückenlos über regionale Fussballspiele berichtet. Diese Arbeit übernimmt seit kurzem ein Textroboter. Entwickelt wurde das Projekt «Footomat» von Stefan Trachsel, der schon mit der Textroboterin Lena bei Keystone-SDA ausgezeichnet wurde.
Mit NLG erstellen auch Immobilienportale und Online-Händler Angebote und Produktbeschreibungen für E-Commerce-Systeme. Heute gibt es gefühlt kaum mehr eine Website, die ohne Chatbot auskommt. Wobei Chats noch sehr unterschiedlich automatisiert sind. Auch in so mancher Hotline wird man heute zuerst von einem Voice Interface identifiziert und thematisch zugeordnet. Eine Studie von Uniserv zu Kundendatenmanagement zeigte 2019, dass 67 Prozent der Unternehmen in Deutschland KI und Machine Learning für die Planung und Steuerung von Marketing- sowie Vertriebskampagnen einsetzen. Jedes vierte befragte Unternehmen vertraut dabei auf NLP.
Als kleiner Exkurs gibt es diesen Use Case von NLG von Deloitte: «Er betrifft Marktfolgefunktionen in der Finanzbranche. Bei diesem Beispiel kann der Einsatz von automatisch erstellten Texten die Produktion von Reports und Entscheidungsvorlagen in Rahmen des Kreditgeschäfts wesentlich verbessern. Die Vorbereitung der Kreditentscheidung wird zu weiten Teilen automatisiert, wobei die finale Entscheidung noch immer der Mensch trifft. Im Workflow werden viele bislang manuell erbrachte Tätigkeiten neu digital ausgeführt: Zuerst werden Daten gesammelt und für die Weiterverarbeitung strukturiert. Dabei können zum Beispiel Methoden wie Robotic Process Automation (RPA) zum Einsatz kommen. Im nächsten Schritt leitet die NLG-Technologie aus den strukturierten Daten die wesentlichen Informationen ab. Daraus entsteht eine Handlungsempfehlung, die dann wiederum in sinnhafte sprachliche Einheiten verwandelt und in Form eines ausformulierten Textes als Entscheidungsvorlage für den Mitarbeiter ausgegeben wird.»
Was ist nun der Unterschied zwischen NLG und dem aktuell viel zitierten GPT-3? NLG hat mit KI nicht viel zu tun und ist salopp formuliert eine clevere Datenbank mit vorproduzierten Textbausteinen, die nach bestimmten Regeln ausgegeben werden.
Lassen wir das aber von den Spezialisten von Retresco auf den Punkt bringen: «Bei Retresco arbeiten wir im Bereich NLG zurzeit mit einen Template-basierten Ansatz, der auf von Menschen geschriebenen Textbausteinen basiert. Unsere linguistischen KI-Komponenten kümmern sich dabei um Problemstellungen wie die richtige Flexion der Wörter, so dass beim Zusammensetzen der Bausteine grammatikalisch korrekte Sätze entstehen. GPT-3 hingegen ist ein End-to-End System, das Texte komplett selbstständig generiert. Der grosse Vorteil von Template-basierter Textgenerierung im Geschäftskontext ist die Kontrollierbarkeit des Ansatzes. Es kann garantiert werden, dass das System keine abstrusen oder unerwünschten Sätze generiert.»
Arria NLG, das beispielsweise als Basis für den CH Media-Textroboter dient, ist «a form of artificial intelligence that transforms structured data into natural language.», schreibt Arria auf ihrer Website. Arria ist demnach ebenfalls mehr NLG als KI.
GPT-3 ist wie GPT-2 eine Entwicklung von OpenAI. OpenAI beschäftigt sich mit Erforschung von Künstlicher Intelligenz. Zentrale Geldgeber der Organisation sind der Tausendsassa Elon Musk sowie das Unternehmen Microsoft.
Über OpenAI ist auf Wikipedia weiter zu lesen: «Die Wissenschaftler Stephen Hawking und Stuart Jonathan Russell äusserten Befürchtungen, dass wenn künstliche Intelligenz eines Tages die Fähigkeit erlangen könnte, sich selbst zu verbessern, dies zu einer „Explosion der Intelligenz“ führen könnte. Durch die damit einhergehende Überlegenheit der KI wäre eine Verdrängung der Spezies Mensch durch superintelligente künstliche Intelligenz denkbar, die keinen menschlichen Wertvorstellungen unterworfen ist.»
Das führt uns zur folgenden Frage:
Responsible AI: Können wir Maschinen einfach machen lassen?
Ist es nicht niedlich, wenn GPT-3 über einen der grössten Förderer reimt:
«But then, in his haste, he got into a fight.
He had some emails that he sent that weren’t quite polite.
The SEC said, Musk, your tweets are a blight.»
Laufen wir Gefahr, von Maschinen unterjocht zu werden, wie im Film The Matrix oder oben erwähnt von «superintelligenter künstlicher Intelligenz»? Bleiben menschliche Wertvorstellungen dabei auf der Strecke und wie können wir sie in die Förderung von Künstlicher Intelligenz integrieren?
Die deutsche Organisation «Responsible AI» schreibt dazu: «KI und die damit verbundenen digitalen Technologien sind zu einer disruptiven Kraft in unserer Gesellschaft geworden. Gerechte ethische Leitlinien und Regulierung sind entscheidend dafür, wie wir mit KI unsere Zukunft gestalten. Wir vertreten, dass Verantwortung ein Schlüsselkonzept dafür ist, KI-Innovationen mit Menschenrechten und ethischen Grundprinzipien so zu verankern, dass KI uns als Menschen und unseren Gesellschaften nützt.»
Für Europa ist Künstliche Intelligenz eine der wichtigsten Zukunftstechnologien. Aber nicht nur für Europa. Kann die EU durch einheitliche Regularien eine starke Position in der Gestaltung von Rahmenbedingungen für AI einnehmen? Auch gegenüber den KI-Supermächten USA und China?
PWC Deutschland fasst wie folgt zusammen: «Führende Prinzipien für den vertrauensvollen Einsatz von KI sind Sicherheit, Transparenz und Erklärbarkeit, Fairness und Verantwortung. Diese bauen auf den europäischen Werten auf und sind das Fundament für den verantwortungsvollen Einsatz von Künstlicher Intelligenz. Die Verifizierung von KI-Systemen durch Menschen ist essentiell, wenn Menschenrechte im Spiel sind und sobald der Mensch durch den Einsatz von diesem System unmittelbar beeinflusst wird.»
Microsoft, das sich für OpenAI genauso einsetzt, wie für die Regulierung von KI, nimmt in ihrer Definition für «ethische KI» zu den PWC-Prinzipien noch Privatsphäre, Inklusion und Rechenschaftspflicht dazu. Privatsphäre und Datenschutz sind essentiell, wenn es um KI geht. Entscheiden doch Quantität und auch Qualität der Daten, ob ein KI-System trainiert werden kann und somit gute Ergebnisse erzielt. Ein europäischer Datenbinnenmarkt, in dem Daten bereitgestellt und geteilt werden können, könnte ein wichtiger Faktor für europäische KI-Technologie werden. Dafür müssten entscheidende Fragen zum Datenschutz geklärt werden und auch wie diese international anerkannt werden, um gleich lange Spiesse für Wissenschaft und Wirtschaft zu schaffen.
Aktuelle Beispiele und Diskussion um Robo-Texte
«I am not a human. I am a robot. A thinking robot.» schreibt GPT-3 in seinem Essay, vom britischen Guardian beauftragt und gebrieft. Der Auftrag lautete: Überzeuge in einem Beitrag von 500 Wörtern Menschen, dass sie von KI nichts zu befürchten haben. «For starters, I have no desire to wipe out humans.», fährt er dann beruhigend fort. Liebe Menschen, Glück gehabt. In der Diskussion um diesen Artikel ging es vornehmlich darum, ob dieser Text nun ein gutes Beispiel für KI-generierter Text ist, Leser aufklärt, was mit KI möglich ist oder vor allem Angst vor KI schüre.
Einer der Hauptkritikpunkte ist, dass im publizierten Beitrag nicht ersichtlich ist, wie der ursprüngliche Entwurf von GPT-3 ausgesehen hat und wie und wo Journalisten in das Ergebnis eingegriffen haben.
Benjamin Grewe von der ETH Zürich ordnet KI wie folgt ein und nimmt damit ein wenig die Angst davor: «Kinder können – obwohl sie wahrscheinlich quantitativ weniger Daten verarbeiten – trotzdem mehr als jede KI. Ich bin davon überzeugt, dass – wollen wir entscheidende Fortschritte hinsichtlich menschenähnlicher Intelligenz im Machine Learning machen – wir uns viel mehr an der Art orientieren müssen, wie z.B. Kinder lernen und sich entwickeln. Eine zentrale Rolle spielt dabei die physische Interaktion mit der Umwelt. Konkret könnte man sich folgende Herangehensweisen vorstellen: Wir bauen oder simulieren interaktive, am Menschen orientierte Roboter, die eine Vielzahl von sensorischen Erfahrungen ins maschinelle Lernen integrieren und selbstständig in einer realen oder virtuellen Umgebung lernen.» Damit bringt Grewe einen weiteren philosophisch-ethischen Aspekt ein: Muss Intelligenz menschlich sein? Grewe hat ganz praktikable Gründe, Menschenähnlichkeit bei Maschinen anzuwenden. Allgemein ist aber zu beobachten, dass Menschen Intelligenz mehrheitlich menschliche Züge verleihen. Ist das nun ein Versuch, Angst und Respekt abzubauen oder doch die Überzeugung, dass (nur) der Mensch für Intelligenz stehen darf als Krone der Schöpfung? Schreiben wir gerade das nächste Kapitel der menschlichen Kränkungsgeschichte?
Viel beunruhigender, ob wir nun die intelligenteste Spezies sind oder nicht, ist der Fakt, dass maschinell erstellte Texte Kommunikationskanäle fluten und damit viel zur Meinungsbildung beitragen können. In Zeiten von Fake News und Deepfakes ist es ein Leichtes, Inhalte zu erstellen, die nur noch schwer von Menschen erstellten, «echten» Inhalten unterschieden werden können. Folgende Schlagzeile lässt aufhorchen: «Sprach-KI glaubt „QAnon“-Verschwörungstheorie». Und das Schlimme daran: KI und NLG machen es viel einfacher, solche Inhalte zu verbreiten. Forscher am Middlebury Institute of International Studies Monterey haben GPT-3 beigebracht, an die weit verbreitete QAnon-Verschwörungstheorie zu glauben. «Wir haben mehrere Monate mit dem GPT-3-Sprachmodell experimentiert, um seinen möglichen Missbrauch durch Extremisten einschätzen zu können.», sagt Alex Newhouse, Koautor des Forschungsberichts. Sehr wichtig dabei ist «Bias» bzw. Voreingenommenheit von KI. Newhouse nimmt dazu auch in seinem Tweet Bezug.
Wir haben vor einiger Zeit auch in einem anderen Blog-Beitrag über automatisierte Erstellung von Content geschrieben: «Wie lange braucht es uns noch» ist der Titel.
0 Kommentare