Versteht Künstliche Intelligenz Sprache? – DEEP MINDS #5
Posted by Julia Werner •
Sprache ist Magie – Spracherkennung durch KI
ZURÜCK
von John Loutzenhiser
Zuerst erschienen in der Ausgabe .public 01-2021
Grundlagen der Spracherkennung durch KI
Indem Sie diesen Artikel lesen, erlauben Sie, liebe Leser, mir, dem Autor, Eindrücke, Ideen und Bilder in Ihrem Kopf entstehen zu lassen. Sie gewähren mir praktisch unbegrenzten Einfluss auf Ihr Inneres, Ihr geistiges Leben – zumindest so lange, wie Sie für diese Lektüre brauchen. Wann immer wir lesen, sprechen oder zuhören, gestehen wir Anderen diese Macht zu – oder üben sie aus. Und die allermeisten von uns halten zu keinem Zeitpunkt inne, um über dieses alltägliche, seltsame und wunderbare Instrument nachzudenken, das uns so viel Macht gibt – die menschliche Sprache. Sprache ist für uns selbstverständlich. Vielleicht, weil Sprache zutiefst menschlich und nur der menschlichen Spezies zu eigen ist. Und weil sie ein so wesentlicher Bestandteil unseres Daseins ist, ist es schwierig Abstand, zu nehmen und sie als etwas von uns Getrenntes zu untersuchen. Sprache erweist sich bei näherer Betrachtung als schwer durchschaubar und geheimnisvoll. Ihre Eigenschaften sind einzigartig und vielfältig. Als exakter Forschungsgegenstand ist sie daher kaum geeignet.
Doch woher kommt Sprache? Hat der Mensch sie erfunden, wie das Rad oder das Internet? Ist sie ein kulturelles oder ein soziologisches Phänomen? Oder eher ein natürliches, biologisches? Ein Teil von uns, wie das Herz, die Augen oder die Daumen? In welchem Zusammenhang stehen Sprache und Denken? Klären wir unsere Ideen, Absichten und Meinungen für uns selbst bereits in sprachlicher Form, oder denken wir ohne Sprache und nutzen sie erst im zweiten Schritt als Werkzeug, um uns mitzuteilen?
Die Antwort lautet: Sprache ist all dies zusammen: menschliche Erfindung ebenso wie ein natürliches Phänomen. Sie existiert in unserer innersten individuellen Gedankenwelt. Und wir nutzen sie, um mit Anderen, um mit der Außenwelt in Beziehung zu treten.
"Digitale Unendlichkeit"
Sprache ist all dies und auch noch etwas gänzlich anderes. Sprache gehört zum Reich der Information. Sie weist eine komplexe Struktur aus Signalen, Symbolen, Regeln und Hierarchien auf – auf den ersten Blick ist die „reine“ Sprache der Logik und Mathematik nicht unähnlich.
Abbildung 1:Sprache existiert in unserem Kopf, bezieht sich auf die Außenweltund ist Werkzeug für Kommunikation. Sie ist ein System, das Außenwelt,Gesellschaft und Geist verbindet und von allen drei geformt wird.
„Sprache ist im Grunde ein System, das sowohl digital als auch unendlich ist. Soweit ich weiß, gibt es kein anderes biologisches System mit diesen Eigenschaften.“ Noam Chomsky 1
Sprache kann eine unendliche Bandbreite unterschiedlichster Erfahrungen darstellen und „kodieren“: unsere Wahrnehmung der äußeren Welt, unsere inneren mentalen, emotionalen und kreativen Erfahrungen, soziale Interaktion und Kommunikation. Dafür verwendet sie einen erstaunlich effizienten und kompakten Code – die Laute und Striche, aus denen gesprochene und geschriebene Sprache besteht. Uns stehen nur wenige Dutzend Schriftzeichen zur Verfügung, um sie zu Worten unseres großen, aber dennoch begrenzten Wortschatzes zusammenzufügen. Wir verbinden diese Worte und formen aus ihnen potenziell unendlich viele verständliche Ausdrücke. So gesehen macht Sprache „unendlichen Gebrauch endlicher Mittel“.
Sprache und künstliche Intelligenz
Diese unbegrenzte expressive Kraft der Sprache und ihre kompakte Darstellungsweise haben sie zu einem fesselnden Untersuchungsgegenstand in der Erforschung künstlicher Intelligenz gemacht – und zwar seit den Anfängen dieser Disziplin vor gut siebzigJahren. Damals wie heute war und ist Sprache der naheliegende, ebenso intuitive wie verführerische Untersuchungsgegenstand: Gelingt es, den Computer „ganz einfach“ zu lehren, die Zeichen und Regeln der Sprache in einer ähnlichen Weise zu handhaben (zu verstehen, einzusetzen), wie wir es tun? Dann wäre er „intelligent“ – oder würde uns zumindest Intelligenz vorgaukeln. Dies ist bekanntlich die Annahme hinter dem Turing-Test2, einem der frühesten und wichtigsten Impulse in der Geschichte der künstlichen Intelligenz. Einem Computer beizubringen, Sprache zu verwenden, hat sich inzwischen als eine weit größere Herausforderung erwiesen als in den Anfangstagen der KI angenommen. Trotz vieler entscheidender Durchbrüche gibt es auch heute noch keine Software, die Sprache in überzeugender Weise „intelligent“ nutzt, zumindest nicht in dem Sinne, als dass sie den Turing-Test bestehen würde.
Nichtsdestotrotz: Die seit rund zehn Jahren herrschende neue Begeisterung für künstliche Intelligenz geht ganz wesentlich auf jüngere bahnbrechende Fortschritte im Feld der künstlichen Intelligenz beziehungsweise in der „Verarbeitung natürlicher Sprache“, wie es inzwischen heißt (engl.: Natural Language Processing, kurz: NLP), zurück. Diese signifikanten Fortschritte öffnen viele praktische Anwendungsmöglichkeiten für sprachverarbeitende Software.
Eine pragmatische Wende
Die Verarbeitung natürlicher Sprache ist eine Disziplin der Ingenieurswissenschaften und beschäftigt sich mit der Erstellung von „nützlichen“ oder in irgendeiner Weise „wertschöpfenden“ Artefakten. Dennoch: Ingenieurskunst und Naturwissenschaft gehören eng zusammen. Der Bau von Brücken oder die Raumfahrt beispielsweise erfordern nicht nur einen wissenschaftlichen Hintergrund, sondern bestätigen ihrerseits wissenschaftliche Erkenntnisse und bringen sie weiter voran. Das gilt auch für NLP. Das Bestreben, Software zu entwickeln, die mit einer „intelligenten“ Sprachverarbeitung Nutzen und Mehrwerte schafft, hat auch zu Erkenntnissen über das Wesen und die Mechanismen menschlichen Denkens und die menschliche Sprachfähigkeit geführt.
Den Fokus weniger auf theoretische Eleganz zu legen als vielmehr auf den pragmatischen Wert und Nutzen, hat ebenso im Feld der Linguistik und Sprachphilosophie an Bedeutung gewonnen. In weiten Teilen des 20. Jahrhunderts hat sich Linguistik mit formalen, logischen und symbolischen Zugängen zu Syntax (Grammatik) und Semantik (Bedeutung) beschäftigt – in der Hoffnung, eine „reine“ und nachvollziehbar adäquate Theorie der Sprache hervorzubringen.
Die Niederungen alltäglichen Sprachgebrauchs, der Einfluss linguistischen und realen Kontextes auf die Bedeutung von Wörtern und Sätzen, der Einfluss von Sprache auf Andere im Verlauf der Kommunikation waren in Randgebiete der Linguistik verbannt – in die Unterdisziplin einer „pragmatischen Linguistik“. Heute ist die Pragmatik kein Randgebiet mehr, sondern von zentraler Bedeutung für NLP.
In diesem Artikel stehen zwei der maßgeblichen Ideen der linguistischen Pragmatik und Philosophie der Sprache im Fokus: Kontext und Verwendung.
Kontext ist König
Kontext ist König: Dieser Gedanke aus der pragmatischen Schule der Linguistik und Sprachphilosophie hat NLP – bezogen auf die Bedeutung von Wörtern und Sätzen – am stärksten geprägt. Er ist im berühmten Zitat von Ludwig Wittgenstein zusammengefasst: „Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache.“3 Der Linguist J. R. Firth formuliert das so: „Die vollständige Bedeutung eines Wortes ist immer kontextabhängig, und keine kontextunabhänige Untersuchungen über Bedeutungen kann ernst genommen werden.“ Oder noch schärfer: „Man erkennt ein Wort an seinen Begleitern.“4
Aus Sicht dieser „Kontextualisten“ sind Wörter nur im Kontext verständlich. Aber wieso? Bedeuten sie nicht auch an sich etwas, unabhängig vom Zusammenhang? Stimmt es nicht auch, dass Sprache und Wörter auf Dinge in der echten Welt „verweisen“ oder „für etwas stehen“? Das Wort „Bedeutung“ impliziert genau dieses Sprachverständnis: „auf etwas deuten“. Das Wort „Tür“ ist in einer befriedigenden Weise ganz einfach ein Symbol, das auf ein Ding in der Welt hinweist, nämlich auf eine Tür. Aber ist das wirklich so einfach? Welche Tür genau? Das lässt sich nur beantworten, wenn es aus dem Zusammenhang heraus, sei er visuell oder verbal, Hinweise auf eine spezifische Tür gibt. Und was genau bedeutet „Tür“ im Satz: „Den Bürgermeister getroffen zu haben, hat uns Türen geöffnet“? Ist diese Bedeutung von „Tür“ in irgendeiner Weise weniger wirklich als die im Satz „Die Haustür ist offen“?
Offensichtlich gibt es Bezeichnungen mit eindeutigen, feststehenden Bedeutungen. Eigennamen sind ein Beispiel. Es wird sich schwerlich ein Kontext finden, in dem in „München“ eine „Brooklyn Bridge“ steht. Aber wenn wir Bedeutung ernst nehmen, so wie wir es tun müssen, wenn wir moderne Systeme zur Verarbeitung natürlicher Sprache entwickeln wollen, dann erkennen wir, dass die Bedeutung von Wörtern eine komplexe und unscharfe Angelegenheit ist und sich nicht adäquat über diskrete, also eine begrenzte Anzahl eindeutiger, unterscheidbarer Symbole abbilden lässt. Das Ding, auf das ein Wort vielleicht hinweist, ist nur ein kleiner Aspekt seiner Bedeutung.
Wörter haben komplexe, vieldimensionale Schattierungen und Aspekte. Wir Sprachnutzer spielen damit in kreativer Weise, indem wir eine Teilbedeutung auf neue Situationen anwenden und damit neue, abgeleitete, kontextabhängige Bedeutungen generieren. Deshalb kann „Tür“ ebenso „Gelegenheit“ oder „Möglichkeit“ bedeuten wie das hölzerne Ding mit Angeln (auch so ein Wort) in unserem Haus – immer abhängig vom Kontext.
Die "Einbettung" als Darstellungsmöglichkeit von Bedeutung
Wenn also die Symbole alleine nicht zur Beschreibung der Bedeutung von Wörtern taugen, wie können wir Bedeutung dann fassen, um bessere NLP-Systeme zu entwickeln? Einer der wichtigsten Durchbrüche sind die „Worteinbettungen“ (word embeddings), das heißt die kontextabhängige und mehrdimensionale Kodierung von Wörtern. Worteinbettungen ermöglichen einen kontextbezogenen Zugang zu Sprache, so wie oben beschrieben („Sie werden ein Wort an seinen Begleitern erkennen“).
Abbildung 2: Ausschnitt aus einer Worteinbettungsdatei. Jede Zeile ist ein Embedding für ein Wort. Jedes Embedding hat 300 Zahlen (Dimensionen), von denen hier nurdie ersten fünfzehn zu sehen sind.
Eine Worteinbettung „kodiert“ in gewisser Weise ein Wort inklusive seiner Beziehungen mit und Abhängigkeiten von anderen Wörtern als „Vektor“, das heißt als Zahlenfolge aus Dezimalzahlen.
Die Größe des Vektors spiegelt die Anzahl der Dimensionen der Worteinbettung wider. Jede einzelne dieser Dimensionen, so kann man sich das vorstellen, entspricht einem spezifischen Aspekt oder einer Schattierung der Wortbedeutung im Verhältnis zu anderen Wörtern. Im Ergebnis erscheinen Wörter, die in ähnlichen Zusammenhängen auftauchen und die ähnliche Bedeutungen haben, in Gruppen im Vektorraum, zumindest entlang einer oder mehrerer Dimensionen. Eine typische Größe für den Vektor ist in aktuellen KI-Systemen „300“ und wird vom Ingenieur festgelegt, der das KI-System trainiert.
Pizza - Italien + Berlin = Currywurst
Worteinbettungen haben überraschende und nützliche – geradezu magische – Eigenschaften. Nicht nur erscheinen ähnliche Wörter in Gruppen: Wenn man Wortvektoren hinzufügt oder streicht, macht der sich daraus ergebende Vektor oft abstrakte linguistische Ideen oder sogenanntes „Weltwissen“ offenbar. Das folgende Beispiel verdeutlicht das:
Abbildung 3: Word embeddings – ähnliche Wörter formen „Cluster.“
Diese Beispiele sind keine Spielerei, sondern echt. Wenn man eine große Sammlung von Worteinbettungen trainiert, erhält man Vektorrechnungen wie:
vPizza – vItalien + vBerlin = vCurrywurst
Das Ergebnis beruht darauf, dass der Vektor zwischen Pizza und Italien derselbe Vektor ist (mit derselben Richtung und Länge) wie der Vektor zwischen Berlin und Currywurst. Der Vektor scheint also die Vorstellung „typisches Essen“ darzustellen.
Ebenso ist der Vektor zwischen Toyota und Japan derselbe wie der zwischen BMW und München. Dieser Vektor scheint also „wichtigster Autohersteller“ zu beinhalten.
vToyota – vJapan + vMünchen = vBMW
Worteinbettung trainieren – oder "The masked language Model"
Natürlich werden Worteinbettungen nicht von Hand eingegeben oder einfach erfunden und niedergeschrieben. Sie sind das Ergebnis von maschinellem Lernen, in der Regel eines neuronalen Netzes, das eine große Sprachsammlung aus Millionen von Sätzen nutzt, beispielsweise alle Einträge in Wikipedia. Der Trainingsprozess lässt sich als eine „Black Box“ verstehen, die mit Text gefüttert wird und für jedes einzelne Wort darin einen Wortvektor erstellt.
Bevor man Worteinbettungen mit einem neuronalen Netz trainiert, muss man erst wissen, wofür man es trainiert. Das bedeutet, dass man
1. dem Netz eine bestimmte Aufgabe stellen muss,
2. es mit den für die Lösung dieser Aufgabe relevanten Daten füttern und dann
3. die Fortschritte hin zu einer erfolgreichen Lösung der Aufgabe messen sowie es
4. fortlaufend entsprechend anpassen lassen muss.
Abbildung 4: Konzeptvektoren in Worteinbettungen
Ein Rätsel zeigt, wie es geht
Im Fall des neuronalen Netzes für Worteinbettungen ist die gestellte Aufgabe ein einfaches Rätsel: „Finde das Wort heraus, das im Satz fehlt.“
Dieses Rätsel ist so einfach wie mächtig. Um zu verstehen, wieso diese einfache Aufgabe ausreicht, um anspruchsvolle Worteinbettungen („Sprachmodelle“ oder „Language Model“) zu trainieren, können wir dieses Spiel selber spielen.
Lesen Sie bitte den folgenden Satz:
„Auch im dritten Anlauf hat die britische Regierungschefin Theresa May das mit der Europäischen Union _______ Ausstiegsabkommen nicht über die Ziellinie gebracht.”
Ein Wort fehlt. Um welches Wort handelt es sich? Denken Sie kurz darüber nach, bevor Sie eine Auswahl aus den folgenden Begriffen treffen:
a) abgelehnte b) komplizierte c) vereinbartem d) vereinbarte
Wir können davon ausgehen, dass alle, die der deutschen Sprache mächtig sind, das gleiche Wort gewählt haben. Welches haben Sie gewählt? Und wieso? Jetzt halten Sie bitte kurz inne und versuchen, Ihre eigene Sprachkompetenz unter die Lupe zu nehmen. Wieso haben Sie das richtige Wort ausgewählt und nicht eines der anderen?
Und jetzt lesen Sie folgenden Satz (Achtung, es ist nicht genau der gleiche Satz wie oben, also aufmerksam lesen!)
„Auch im dritten Anlauf hat die britische Regierungschefin Theresa May das von der Europäischen Union _______ Ausstiegsabkommen nicht über die Ziellinie gebracht.“
Um welches Wort handelt es sich?
a) vorgeschlagene b) komplizierte c) vereinbartem d) vereinbarte
Abbildung 5: Durch ein neuronales Netz erzeugte Worteinbettungen der gesammelten Wikipedia-Texte
Abbildung 6: Schematische Darstellung des Zusammenspiels von Encoder und Decoder in einem Transformer
Haben Sie das gleiche Wort gewählt? Oder ein anderes? Und wieso? Wir stellen fest, dass wir auf sehr viele Informationen aus dem Gesamtkontext des Satzes gleichzeitig zurückgreifen, um das fehlende Wort richtig zu ergänzen. Weltwissen, Satz-und- Wort-Bedeutung (Semantik), Satzbau und Wortformen (Grammatik, Syntax) – all das fließt in unsere Entscheidung ein, und zwar ohne, dass es uns bewusst ist.
Ebenso, wie wir sehr viel Kontext brauchen, um das fehlende Wort richtig zu ergänzen, ist im Umkehrschluss die Bedeutung von Wörtern extrem kontextabhängig (wie oben bereits erläutert). Worteinbettungen sind dafür die gängige NLP-Methode, und um Worteinbettungen zu erzeugen, trainiert man ein neuronales Netz darauf, genau dieses Rätsel, „Finde das Wort heraus, das im Satz fehlt“, zu lösen.
Um das zu erreichen, benötigt man sehr viele Sätze – in der Regel mehrere Millionen – und „maskiert“ oder „versteckt“ beispielsweise fünfzehn Prozent der Wörter in den Sätzen. Anschließend stellt man einem neuronalen Netz die Aufgabe, diese fehlenden 15 Prozent der Wörter richtig zu ergänzen.
Eine moderne und gängige Netzwerkarchitektur, die dazu verwendet wird, State-of-the-Art-Ergebnisse beim Lösen dieses Rätsels zu erzielen, heißt Transformer. Ein Transformer besteht, einfach ausgedrückt, aus zwei Teilen: einem Encoder und einem Decoder. Der Encoder nimmt den Input – in diesem Fall Trainingssätze mit fünfzehn Prozent versteckten Wörtern – und erzeugt ein Zwischenergebnis, das an den Decoder weitergereicht wird. Der Decoder nimmt das Zwischenergebnis entgegen und versucht, die gestellte Aufgabe zu lösen – in unserem Fall: „Finde das Wort heraus, das im Satz fehlt.“
Das Zwischenergebnis, das der Encoder in diesem Szenario erzeugt, sind genau die oben skizzierten Worteinbettungen (Embeddings). Diese Einbettungen werden im Encoder so lange „trainiert“, bis es dem Decoder gelingt, anhand dieser Einbettungen das richtige Wort zu ergänzen. Sobald der Decoder eine sehr hohe Genauigkeit beim Lösen der Aufgabe aufweist, kann das Training beendet werden. Die Worteinbettungen, die der Encoder erzeugt hat, sind sozusagen ein Nebenprodukt des Trainiervorgangs.
Genauso wie wir Menschen auf unsere sehr stark ausgeprägte Sprachkompetenz zurückgreifen müssen, um das Rätsel des fehlenden Wortes zu lösen, haben auch neuronale Netze, die dieses Rätsel ähnlich gut wie Menschen lösen, eine sehr stark ausgeprägte Sprachkompetenz – oder simulieren sie wenigstens. Man spricht hier von „General Language Understanding“.
Das Elegante an diesem Ansatz ist, dass ein neuronales Netz, das so wie oben beschrieben trainiert wird, mit leichten Anpassungen verwendet werden kann, um eine Vielzahl von NLP-Aufgaben zu lösen – nicht nur die Aufgabe, fehlende Worte zu ergänzen. Solche NLP-Systeme auf Basis von Embeddings können auch für maschinelle Übersetzung, Frage- Antwort-Systeme, automatische Zusammenfassungssysteme und vieles mehr angepasst und verwendet werden. •
1 „Language is, at its core, a system that is both digital and infinite. To my knowledge, there is no other biological system with these properties.“ Noam Chomsky (1991): Linguistics and Cognitive Science: Problems and Mysteries; in Asa Kasher (ed.), The Chomskyan Turn. Oxford: Blackwell, pp. 26-53, p. 50.
2 (abgerufen am 11.03.2021).
3 Ludwig Wittgenstein (1953): Philosophische Untersuchungen, §4
4 John Rupert Firth (1957): „A synopsis of linguistic theory 1930-1955“ und (1935) „The Technique of Semantics“
Die Künstliche Intelligenz scheitert an der Sprache
Von allen Seiten des Internets sieht man gefühlt nur Artikel, die uns davor warnen, wie gefährlich uns künstliche Intelligenz in der Zukunft werden kann. Es geht darum, dass Deep-Learning Techniken letztendlich dazu führen würden, dass Maschinen sich ohne unser Wissen selbst verbessern, bis wir nicht mal mehr verstehen, was genau sie dort lernen. Auch von einem großen Arbeitsplatzverlust, durch das Ersetzen aller möglichen Stellen mit intelligenten Systemen, ist die Rede. Man spricht von „Superintelligenzen“, die in den Augen einiger Autoren die Weltherschafft an sich reißen könnten. Doch sind viele dieser Ansätze realistisch? Sieht so wirklich unsere Zukunft aus? Ein gerade veröffentlichter Artikel der Website MIT Technology Review zeigt ein deutlich „gemildertes“ Bild der künstlichen Intelligenzen von heute. Eines, wo diese noch starke Probleme aufweisen, bei so vergleichsweisen simplen Aufgaben wie dem Interpretieren von Sprache.
Binär-Code ist nicht gleich humanistische Sprache
Die künstlichen Intelligenzen, die heute entwickelt werden, kommunizieren auf einem ganz anderen Level als wir. Wenn sie untereinander kommunizieren, tun sie das durch das Übertragen von Datensätze. Die Daten werden 1:1 von der anderen Maschine gelesen und ausgeführt. Wenn es jedoch darum geht mit dem Benutzer aus Fleisch und Blut zu kommunizieren, stehen die künstlichen Intelligenzen vor ganz anderen Herausforderungen. Das Online-Magazine MIT Technology Review hat nun ein wenig gefiltert, woran es im Moment noch bei den künstlichen Intelligenzen harkt.
Künstliche Intelligenzen wissen nicht, was sie tun
Und das ist wohl das größte Problem. Viele sprach-basierte KIs sind darauf programmiert, aus ihnen zugeführten Texten zu analysieren, welche Wörter wie oft, in welchem Kontext, verwendet werden. Daraus ziehen sie einfach Schlüsse und versuchen dann, die Sprachwiedergabe nachzuahmen. Aber dabei verstehen sie selbst den Sinn hinter ihren eigenen Sätzen nicht und bemerken somit auch offensichtliche Fehler nicht. Was dabei rauskommen kann, sieht man an dem Beispiel, als eine KI versuchte, eigenständig ein Harry Potter-Buch zu schreiben.
Aber es gibt schon Beispiele wo KIs erfolgreich mit Menschen interagieren! Wie zum Beispiel bei Alexa. Das liegt aber hauptsächlich daran, dass sie einzig darauf programmiert ist, aus gesprochenen Sätzen die Eckpfeiler „was, wann, wo und wer“ herauszufiltern. Wenn sie in ihrem System diese Fragen beantworten kann, gibt sie eine Antwort, die Sinn macht. Ihr Vorteil ist also, dass sie Sätze in Bausteine zerlegen und diese separat analysieren kann. Nuancen kann sie jedoch bis heute noch nicht erkennen und kreatives Schreiben ginge erst recht nicht.
Die Nuancen der Semantik
Dann gibt es in der menschlichen Kommunikation aber auch noch die sogenannte Model-theoretische Semantik. Diese ist für das Übermitteln einfacher Informationen von Mensch zu Mensch verantwortlich. Künstliche Intelligenzen, die dieses Wissen wiedergeben sollen, sind basierend auf der Annahme programmiert, dass alles menschliche Wissen einfach in einen Code umgeschrieben und den KIs gefüttert werden kann. Allerdings verhalten sich künstliche Intelligenzen hier wie ein Kleinkind: Man muss ihnen buchstäblich alles eigenhändig beibringen. Der Artikel des MIT Technology Review führt hier einen sehr guten Vergleich an. Wenn man einer KI beibringt: Adler sind Vögel, Vögel können fliegen, also können Adler fliegen, wird das spätestens bei den Pinguinen wieder zu einem Problem. Die sind schließlich auch Vögel, sie können aber nicht fliegen. Unterm Strich: Es gibt zu viele Ausnahmen in der Welt, als dass man einer KI alle Nuancen beibringen könnte.
Und schließlich für die Hobby-Psychologen hier noch ein Extra: Sprache ist auch immer sehr stark abhängig vom jeweiligen Kontext. Selbst wenn wir nur im Englischen bleiben würden, und somit zunächst die Bedeutung verschiedener Wörter/Betonungen in anderen Sprachen außer Acht lassen würden, ist Sprache ein sich ständig veränderndes Feld. Sie wird von jedem Individuum, selbst innerhalb einer Kultur, unterschiedlich verstanden und benutzt. Sprache ist immer auch ein Ergebnis unsere eigenen Erfahrungen, unseres eigenen sozialen Umfelds und letztlich auch unserer individuellen Prägung. Und gerade in der kreativen Literatur wird sie oft aus dem Kontext genommen, abgewandelt und umgeändert, damit etwas Neues und eben Kreatives dabei entsteht.
OpenAI versucht sich am kreativen Schreiben
Bis die Maschinen sich den Menschen soweit annähern, dass sie alle diese Nuancen und Bedeutungen verstehen, sodass von künstlicher Intelligenz geschriebene Manuskripte Sinn ergeben, wird es also wohl noch dauern.
Ursprung für den Artikel von MIT Technology Review war der Durchbruch der Firma OpenAI, die eine KI erschaffen hat, die fast perfekte Texte verfassen kann. Aber eben nur fast. In diesem Test hat ein Mensch die „Rahmenhandlung“ erfunden, Wissenschaftler hätten Einhörner entdeckt. Daraufhin sollte die KI die Geschichte weiterspinnen. Was sie daraus gemacht hat, ist zumindest unterhaltsam.
Image by lassedesignen /
Leonie Werner interessiert sich für alles, was mit Medien zu tun hat. Insbesondere für Themen im digitalen Bereich ist sie offen und in Sachen Gaming immer auf dem neuesten Stand.
Schlagwörter: AI
Versteht Künstliche Intelligenz Sprache? – DEEP MINDS #5
Versteht Künstliche Intelligenz Sprache? – DEEP MINDS #5
Bild: MIXED
Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser und lade die Seite neu.
Künstliche Intelligenz verarbeitet Sprache, aber erfasst sie auch den Sinn von Worten? Sind große KI-Sprachmodelle wie GPT-3 mehr als Satzgeneratoren? Was sind mögliche Anwendungsszenarien für Sprach-KI und Risiken dabei?
Mit Sebastian Riedel von Meta AI sprechen wir über den Stand der Dinge beim Natural Language Processing und Anwendungsszenarien. Sebastian ist Forscher bei Meta AI Research und Professor für Natural Language Processing und Machine Learning am University College London sowie Mitglied des UCL NLP-Labors. Dort arbeitet er daran, Maschinen das Lesen und Denken beizubringen, an der Schnittstelle zwischen der Verarbeitung natürlicher Sprache (NLP) und dem maschinellen Lernen.
Inhalt:
00:00 Intro
01:49 Was ist Sprache?
05:05 Ist Sprache die Königsdisziplin der Intelligenz?
06:26 Danke an unsere Sponsoren – BWI & Borlabs
07:59 Was sind aktuelle Aufgaben für Sprach-KI?
12:33 Das Chinese Room Experiment und Sprachverständnis
23:04 Ist der Unterschied zwischen Sprachverarbeitung und -verständnis wichtig?
25:54 Ist der „gesunde Menschenverstand“ wichtig für Sprach-KI?
31:25 Braucht bessere KI Interaktion mit Menschen?
34:02 Ist Bedeutung wichtig für gute KI-Dialoge?
38:59 Schwachstellen aktueller KI-Sprachsysteme
43:14 Muss Sprach-KI „besser“ sein als der Mensch?
48:13
Tagged:
Leave a Reply
neueste Artikel
- How to Check The Serial Number...
Buying a huawei watch can sometimes be a dream come true, especially if you have had b... - Synology DiskStation Manager
Der DiskStation Manager (DSM) ist das Betriebssystem für die Network Attached Storage-Systeme (NAS... - SAN vs. NAS: Unterschied ...
„Big Data“ lässt grüßen! Laut einer Studie des Festplatten-Giganten Seagate soll sich der weltweit... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Ninite – das wohl nützlic...
System-Tools gibt es wie Sand am Meer. Die meisten versprechen viel und halten wenig. Wirklich gut... - Digitalisierung anpacken:...
Die Corona-Pandemie hat ohne Zweifel einen starken Beitrag zur Digitalisierung kleinerer und mitte...
populäre Artikel
- How to Check The Serial Number...
Buying a huawei watch can sometimes be a dream come true, especially if you have had b... - Synology DiskStation Manager
Der DiskStation Manager (DSM) ist das Betriebssystem für die Network Attached Storage-Systeme (NAS... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Einrichten einer lokalen...
Dieser Artikel richtet sich an alle Hobby-Webentwickler, die ihre erstellten Web-Projekte auf dem... - Digitalisierung anpacken:...
Die Corona-Pandemie hat ohne Zweifel einen starken Beitrag zur Digitalisierung kleinerer und mitte...
Lieblingsartikel
- SAN vs. NAS: Unterschied ...
„Big Data“ lässt grüßen! Laut einer Studie des Festplatten-Giganten Seagate soll sich der weltweit... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Ninite – das wohl nützlic...
System-Tools gibt es wie Sand am Meer. Die meisten versprechen viel und halten wenig. Wirklich gut... - Einrichten einer lokalen...
Dieser Artikel richtet sich an alle Hobby-Webentwickler, die ihre erstellten Web-Projekte auf dem...