Künstliche Intelligenz: So können Sie sie einsetzen

Posted by Julia Werner  • 

verlag koenigshausen neumann

ISBN: 978-3-8260-4054-2

Erscheinungsjahr: 2009

Seitenanzahl: 148

Sprache: deutsch

Kurzinhalt: Können Computer Bewusstsein entwickeln? Können sie Sprache verstehen – und nicht nur Sprachverständnis simulieren? John Searle versucht in seinem Gedankenexperiment des Chinesischen Zimmers diese Fragen zu beantworten: Er versetzt sich selbst in die Lage eines Computers, führt ein Programm zum Verständnis chinesischer Sprache aus – und versteht dadurch doch kein Chinesisch. Alle anspruchsvolleren Ansätze der Künstlichen Intelligenz hält er damit für endgültig widerlegt. In den drei Jahrzehnten seiner Diskussion hat sich das Gedankenexperiment des Chinesischen Zimmers zu einem der prominentesten Argumente in der Künstlichen Intelligenz und Philosophie des Geistes entwickelt. Obwohl Hunderte Aufsätze die grundlegende Struktur oder einzelne Details des Arguments kritisiert haben, wird es nach wie vor als Standardeinwand gegen die Möglichkeit computationaler Intelligenz eingesetzt. Die vorliegende Arbeit gibt einen weiträumigen Überblick über das Gedankenexperiment des Chinesischen Zimmers und die diesem zugrunde liegende Frage, ob Computer prinzipiell zu Bewusstsein und Sprachverständnis fähig sind. Der Autor Martin Dresler hat in Bochum und München Philosophie, (Bio-)Psychologie und Mathematik studiert und in München und Marburg promoviert. Derzeit forscht er am Münchener Max-Planck-Institut für Psychiatrie über den Zusammenhang von Schlaf- und Gedächtnisprozessen.

Die zerstörerische Kraft der Sprache

„Verpiss dich, du Schlampe!“ „Dich Penner werde ich bekommen. Ich stech’ dich ab.“ „Die sollte man alle abknallen.“ Nur ein paar Beispiele für die Form, die Sprache in den Sozialen Medien annehmen kann. Menschen werden beleidigt, bedroht oder zu Straftaten angestachelt. Was Hassrede und andere Formen von schädigender Sprache aus linguistischer Perspektive auszeichnet und wie man sie automatisch erkennen kann, interessiert Prof. Dr. Tatjana Scheffler. Sie forscht an der RUB im Bereich Digitale Forensische Linguistik.

„Die Sprachverarbeitung allgemein hat in den vergangenen Jahren große Sprünge gemacht“, sagt Scheffler. Wer heute Übersetzungsprogramme wie den Google Translator oder Sprachassistenten wie Siri nutzt, erzielt deutlich bessere Ergebnisse als vor ein paar Jahren. Auch das Klassifizieren von Texten klappt mittlerweile ganz gut. Künstliche-Intelligenz-Algorithmen können lernen, Aussagen verschiedenen Kategorien zuzuordnen. So können sie etwa entscheiden, ob eine Textpassage eine direkte Beleidigung enthält oder nicht. Die Algorithmen lernen die Kategorien anhand von großen Trainingsdatensätzen, die Menschen zuvor klassifiziert haben. Später können sie das Wissen über die erlernten Kategorien dann auf neue Daten übertragen.

Tatjana Scheffler ist Expertin für Digitale Forensische Linguistik. © RUB, Marquard

„Direkte Beleidigungen und Schimpfwörter sind so schon gut zu identifizieren“, weiß Tatjana Scheffler. Oft reicht ein Abgleich mit einer Wortliste, die häufig verwendete Beleidigungen enthält. Unter schädigender Sprache versteht die Forscherin aber viel mehr als offensichtliche Hassrede, die sich gegen einzelne Personen richtet. „Es gibt implizitere Formen, die gar nicht an einen bestimmten Adressaten oder eine Adressatin gerichtet sind“, sagt sie. „Man kann auch Schaden anrichten, indem man auf eine gewisse Weise über andere spricht oder eine bestimmte Stimmung herstellt.“

Schlimmstenfalls können solche Stimmungen in echte Handlungen umschlagen. Ein populäres Beispiel ist der Sturm auf das Kapitol durch Anhänger des damaligen US-Präsidenten Donald Trump am 6. Januar 2021. Die sozialen Medien werden mit dafür verantwortlich gemacht, dass die Lage so eskalieren konnte.

Telegram-Chat von Trump-Anhängern analysiert

Genau mit diesem Beispiel, dem Sturm auf das Kapitol, hat Tatjana Scheffler sich zusammen mit zwei Kolleginnen aus Berlin befasst. Die Gruppe arbeitete mit 26.431 Nachrichten von 521 Nutzerinnen und Nutzern des Messenger-Dienstes Telegram. Die Nachrichten wurden zwischen dem 11. Dezember 2016 und dem 18. Januar 2021 in einem öffentlichen Kanal gepostet, in dem sich Menschen mit extrem rechter Gesinnung austauschen. Inhaltlich startete ihre Diskussion mit der theoretischen Idee, die Regierung zu stürzen, und entwickelte sich schrittweise zu den konkreten Plänen, das Kapitol zu stürmen.

Die Forscherinnen analysierten Nachrichten in einem Kanal des Messenger-Dienstes Telegram im Kontext des Sturms auf das Kapitol 2021. © picture alliance / ASSOCIATED PRESS | John Minchillo

Das Team um Tatjana Scheffler überprüfte, wie gut bereits existierende Algorithmen in diesem Datensatz schädigende Sprache identifizieren konnten. Um die Trefferquote der Algorithmen bewerten zu können, analysierten sie etwa ein Fünftel der Nachrichten von Hand und verglichen ihre Ergebnisse mit denen der automatisierten Verfahren. Sie unterschieden dabei fünf verschiedene Formen von schädigender Sprache.

Fünf Kategorien schädigender Sprache

Die erste Kategorie beinhaltete aufwiegelnde Sprache, etwa Passagen wie „violence is 100000% justified now“ (Gewalt ist jetzt zu 100000% gerechtfertigt). Die zweite Kategorie umfasste abwertende Begriffe wie „scum“ (Abschaum) oder „retarded“ (zurückgeblieben). In der dritten Kategorie fasste das Team Ausdrücke zusammen, die an sich nicht abwertend sind, aber in dem Kontext, in dem sie auftraten, abfällig gemeint waren – etwa „they are a sickness“ (sie sind Krankheiten). Eine vierte Kategorie war dem sogenannten Othering gewidmet: Bemerkungen, die genutzt werden, um eine Gruppe Menschen von einer anderen abzugrenzen, wie in dem Beispiel: „Are women banned from this chat? If not, why the fuck not?“ (Sind Frauen aus diesem Chat ausgeschlossen? Falls nicht, warum verdammt noch mal nicht?). Die letzte Kategorie umfasste Insiderformulierungen, die eine Gruppe von Gleichgesinnten verwendet, um sich von anderen abzugrenzen und das Gruppengefühl zu stärken. Trump-Anhänger nutzen den Begriff „Patriot“ etwa auf eine bestimmte Art.

Der ehemalige US-Präsident Donald Trump wird beschuldigt, durch seine aufwiegelnde Sprache den Sturm auf das Kapitol mitverantwortet zu haben. © Roberto Schirdewahn

Automatisierte Verfahren und Menschen im Vergleich

Die auf diese Weise kodierten Kommentare ließen die Forscherinnen auch von automatisierten Verfahren labeln, wie Tech-Firmen sie nutzen, um Hassrede oder beleidigende Sprache ausfindig zu machen. 4.505 Nachrichten gingen in den Vergleich ein. 3.395 davon stuften sowohl die Wissenschaftlerinnen als auch die automatisierten Verfahren als nicht schädigend ein, bei 275 waren sie sich einig, dass sie schädigende Sprache enthielten. 835 Nachrichten hingegen bewerteten Mensch und Maschine unterschiedlich: Etwa die Hälfte stuften die Algorithmen fälschlicherweise als Hassrede oder Beleidigung ein; den Rest erkannten sie – anders als die Wissenschaftlerinnen – nicht als schädigende Sprache.

Bestimmte grammatische Strukturen können ein Hinweis darauf sein, dass ein Begriff abwertend gemeint ist. – Tatjana Scheffler

Gerade bei aufwiegelnden Kommentaren, Insiderbegriffen und Othering lagen die automatisierten Verfahren oft daneben. „Wenn wir sehen, in welchen Fällen etablierte Methoden Fehler machen, hilft uns das, künftige Algorithmen besser zu machen“, resümiert Tatjana Scheffler. Mit ihrem Team entwickelt sie auch selbst automatisierte Verfahren, die schädigende Sprache noch besser erkennen sollen. Dazu braucht es zum einen bessere Trainingsdaten für die Künstliche Intelligenz. Zum anderen müssen aber auch die Algorithmen selbst optimiert werden. Hier kommt wieder die Linguistik ins Spiel: „Bestimmte grammatische Strukturen können zum Beispiel ein Hinweis darauf sein, dass ein Begriff abwertend gemeint ist“, erklärt Scheffler. „Wenn ich sage ‚Du Lauch‘ ist das etwas anderes als wenn ich nur ‚Lauch‘ sage.“

Algorithmen verbessern

Nach solchen sprachlichen Merkmalen sucht Tatjana Scheffler, um die Algorithmen der nächsten Generation mit weiterem Hintergrundwissen zu füttern. Auch Kontextinformationen könnten den Maschinen helfen, schädigende Sprache zu finden. Welche Person hat den Kommentar abgegeben? Hat sie sich früher schon abfällig über andere geäußert? Wer wird adressiert – eine Politikerin oder ein Journalist? Diese Gruppen sind besonders häufig verbalen Angriffen ausgesetzt. Auch solche Informationen könnten die Trefferquote einer Künstlichen Intelligenz erhöhen.

Ohne die Expertise des Menschen wird es nicht gehen. – Tatjana Scheffler

Ohne maschinelle Unterstützung wird sich das Problem der schädigenden Sprache nicht in den Griff bekommen lassen, davon ist Tatjana Scheffler überzeugt. Zu groß ist das Volumen an Kommentaren, als dass Menschen sie ohne Unterstützung alle sichten und bewerten könnten. „Ohne die Expertise des Menschen wird es aber auch nicht gehen“, stellt die Forscherin klar. Denn es wird immer Fälle geben, in denen die Maschinen irren oder sich nicht sicher sind.

Originalveröffentlichung Tatjana Scheffler, Veronika Solopova, Mihaela Popa-Wyatt: The Telegram chronicles of online harm, in: Journal of Open Humanities Data, 2021, DOI: 10.5334/johd.31

Künstliche Intelligenz: So können Sie sie einsetzen

Künstliche Intelligenz bestimmt zunehmend unseren Alltag. Immer mehr Prozesse und Entscheidungen werden durch intelligente Systeme getroffen und beeinflussen somit unser tägliches Leben. Auch im B2B-Bereich nimmt die Bedeutung von intelligenten Prozessen und Systemen immer weiter zu und wird in Zukunft für den Erfolg von Unternehmen essenziell sein. Doch, was genau ist künstliche Intelligenz überhaupt und wie können Unternehmen diese einsetzen, um Prozesse zu optimieren und neue Geschäftsfelder zu erkunden? Erhalten Sie einen umfassenden Überblick.

Künstliche Intelligenz und maschinelles Lernen

Unter dem Begriff der künstlichen Intelligenz (KI), bzw. im englischen aritifical intelligence (AI), wird in der Informatik die Entwicklung von intelligenten Systemen und Verfahren verstanden. Dabei wird versucht, die Intelligenz des Menschen nachzubauen und Programme zu entwickeln, die selbständig Probleme lösen sollen, ohne explizit dafür programmiert worden zu sein.

Die künstliche Intelligenz ist in der Informatik ein großes Gebiet, welches in verschiedene Teilbereiche eingeteilt wird. Dazu zählen die Bereiche Natural Language Processing (NLP), Machine Learning (ML) und Deep Learning (DL). Für jeden dieser Bereiche gibt es unterschiedliche Verfahren und Techniken, um Probleme zu lösen.

Natural Language Processing

Im Bereich Natural Language Processing (NLP) wird versucht, die natürliche Sprache der Menschen zu verstehen und zu verarbeiten. Da der Computer generell nicht in der Lage ist, die natürliche Sprache zu verstehen, werden verschiedene Techniken eingesetzt, um diese in ein maschinenlesbares Format umzuwandeln und durch weitere Verfahren nutzbar zu machen.

Nach der Umwandlung der Daten in ein maschinenlesbares Format können diese eingesetzt werden, um verschiedene Probleme zu lösen. Neben der direkten Nutzung dieser vorhandenen Informationen dient NLP oftmals als Grundlage für weiterführende Themengebiete.

NLP wird heutzutage in etlichen Programmen und Systemen verwendet, um das Arbeiten mit natürlicher Sprache zu verbessern.

Typische Einsatzgebiete von NLP sind:

E-Mail-Spamfilter

Automatisierte Ticketzuweisung

Sentiment Analyse

Machine Learning (Maschinelles Lernen)

Lernende Systeme sind ein wesentlicher Bestandteil der künstlichen Intelligenz und werden unter dem Begriff „Machine Learning“ zusammengefasst. Die eingesetzten Verfahren versuchen Muster und Regeln in Daten zu erkennen und damit Lösungen für die vorliegenden Anforderungen zu finden.

Ziel dieser Systeme ist die Anpassung und Optimierung der eingesetzten Modelle. Dabei werden vorhandene Trainingsdaten genutzt, um die Muster und Regeln innerhalb dieser Daten zu lernen. Dieses erlernte Wissen kann später auf realen Daten zur Problemlösung eingesetzt werden.

Generell wird dabei zwischen verschiedenen Arten von maschinellen Lernverfahren unterschieden.

Überwachtes Lernen

Überwachte (engl. supervised) Lernverfahren trainieren anhand von vorhandenem Wissen. Für die Eingabedaten liegen bereits Kennzeichnungen vor, welche die Ausgabe durch das Modell definieren. Ziel dieser Verfahren ist die Vorhersage der Ausgabe anhand der Eingabe zu erlenen. Typische Einsatzgebiete für solche Lernverfahren sind Klassifikationsprobleme, wie etwa die Bilderkennung. Dabei bekommt das Modell als Eingabe ein Bild und als Ausgabe die Bezeichnung des Bildes vorgelegt. Somit kann das Modell lernen, ob auf dem Bild beispielsweise eine Katze oder ein Hund zu sehen ist.

Unüberwachtes Lernen

Unüberwachte (engl.: unsupervised) Lernverfahren trainieren ohne vorhandenes Wissen. Im Gegensatz zu überwachten Lernverfahren liegen keine Beispieldaten mit Kennzeichnung vor, sondern das Modell muss selbstständig Muster erkennen. Diese Art von Verfahren werden häufig für Clusteringaufgaben eingesetzt, bei denen die vorhandenen Daten in Gruppen eingeordnet werden sollen. Dies ist zum Beispiel im Marketing der Fall, wenn bestehende Kunden in sinnvolle Gruppen zusammengefasst und die Werbung dann speziell auf diese Gruppen angepasst werden soll.

Semiüberwachtes Lernen

Neben überwachten und unüberwachten Lernverfahren stellen die semiüberwachten Lernverfahren eine dritte Art, die eine Mischform der zuvor genannten bildet, dar. Dabei werden sowohl beschriftete, als auch unbeschriftete Datensätze für das Training genutzt. Diese bietet sich besonders in Bereichen an, in denen nur wenig über die vorhandenen Daten bekannt ist und somit nur eine kleine Anzahl von ihnen über Beschriftungen verfügt.

Bestärkendes Lernen

Das bestärkende (engl.: reinforcement) Lernen bildet eine weitere Gruppe von Lernverfahren. Bei diesen wird das Modell mithilfe von Belohnungen trainiert. Das Modell kann selbständig verschiedene Aktionen ausführen und erhält als Feedback, ob die gewählte Aktion gut oder schlecht war. Somit kann das Modell selbständig Wege finden, um Probleme zu lösen. Diese Art von Verfahren sind besonders durch Computerspiele bekannt. Die Modelle lernen, selbständig Computerspiele zu meistern und immer besser darin zu werden. Neben dieser spielerischen Art des Lernens werden diese Verfahren jedoch auch in anderen Bereichen, wie etwa der Robotik oder dem Finanzwesen, eingesetzt.

Neuronale Netze

Häufig werden maschinelle Lernverfahren durch den Einsatz künstlicher neuronaler Netze umgesetzt. Dabei wird versucht, die Neuronen des menschlichen Gehirns nachzubauen und somit intelligente Modelle zu erschaffen. Die generelle Idee für diese Vorgehensweise existiert bereits seit langem. Die immer schneller werdenden Computer haben jedoch erst zur wachsenden Verbreitung dieses Ansatzes geführt, da durch die bessere Performance schneller und kostengünstiger gelernt werden kann.

Ein künstliches neuronales Netzt besteht aus mehreren Schichten von Neuronen. Die einzelnen Neuronen der verschiedenen Schichten werden untereinander mit Verbindungen verknüpft. Diese werden genutzt, um Informationen von einem Neuron an das andere weiterzugeben. Zwischen der Eingangs- und Ausgangsschicht können weitere versteckte Schichten eingesetzt werden.

Die Eingabeschicht erhält die Eingabe des Modells und gibt diese an die Verbindungen weiter. Die Neuronen der nächsten Schicht erhalten diese Werte über diese Verbindungen. Dabei besitzt jede der vorhandenen Verbindungen eine Gewichtung, die angibt, wie wichtig der Wert dieser Verbindung ist. Die Werte der Verbindungen werden durch das Neuron mit der Gewichtung multipliziert und danach alle zusammenaggregiert. Das Neuron entscheidet anhand einer Aktivierungsfunktion, wie viele Informationen an die nächste Schicht weitergeben werden. Die Ausgabeschicht liefert dann die eigentliche Ausgabe des Models. Diese wird schließlich mit der definierten Eingabe verglichen und daraufhin die Gewichtungen so angepasst, dass der Fehler des Modells minimiert wird. Dies wird für alle vorliegenden Trainingsdaten durchgeführt. Somit werden die Gewichtungen der Verbindungen immer wieder angepasst und das Modell lernt, anhand der Eingabe die korrekte Ausgabe zu bestimmen.

Deep Learning

Deep Learning ist ein Untergebiet des ML und befasst sich mit der Entwicklung von tiefen neuronalen Netzen zur Problemlösung. Tiefe neuronale Netzte bestehen aus sehr vielen versteckten Schichten und sind somit deutlich größer als einfache neuronale Netze.

Um diese komplexeren Modelle zu trainieren, werden große Datenmengen benötigt. Durch die vielen verschiedenen Schichten und deren Neuronen mit Parametern können viele verschiedene Merkmale erlernt und genutzt werden. Dies wird besonders in komplexeren Aufgabengebieten, wie etwa der Bilderkennung oder zum Identifizieren von Anomalien auf Zeitreihen benötigt.

Die Verbesserung der Computer und die gigantischen Datenmengen der heutigen Zeit haben zu immer tieferen neuronalen Netzen geführt. Neben der Erweiterung der Netze durch weitere Schichten werden in heutigen Systemen auch verschiedene Architekturen verwendet, um Probleme auf unterschiedliche Weise zu lösen. Zum Beispiel werden im Bereich der Bilderkennung Verfahren eingesetzt, welche nicht nur das komplette Bild auf einmal betrachten, sondern versuchen, kleinere Abschnitte des Bildes zu erkennen und es somit nach bestimmten Merkmalen absuchen.

DL-basierte Systeme werden beispielsweise für folgende Tätigkeiten eingesetzt:

Bilderkennung

Automatische Übersetzung

Anomalie-Erkennung

Künstliche Intelligenz im B2B-Bereich

Sowohl im privaten, als auch im beruflichen Bereich nutzen wir bereits täglich künstliche Intelligenz. Diese reicht von der Gesichtserkennung via Smartphone über Übersetzer wie Google-Translate, bis hin zur automatischen Erkennung von Kreditkartenbetrug.

Neben dem privaten Bereich nimmt auch im Unternehmenskontext die Bedeutung von künstlicher Intelligenz immer weiter zu. Derartige Systeme helfen den Unternehmen nicht nur Kosten zu sparen, sondern auch neue Ideen und Produkte zu erschaffen und somit neue Geschäftsfelder zu erschließen.

In den letzten Jahren hat die Verbreitung von künstlicher Intelligenz im Unternehmenskontext deutlich Fahrt aufgenommen und wird beispielsweise in folgenden Bereichen eingesetzt.

Marketing

Im Marketing wird künstliche Intelligenz bereits seit Jahren eingesetzt, um die eigenen Produkte dem passenden potentiellen Kundenkreis anzupreisen. Daten aus Webseiten und Kundendatenbanken werden genutzt, um die Kunden zu analysieren und den bestmöglichen Kunden für bestimmte Produkte zu finden. Dadurch lässt sich der Erfolg von Marketingkampagnen deutlich steigern.

Systemüberwachung

Die wachsende Anzahl an Maschinen, Systemen und Prozessen führt in den Unternehmen zu immer höherem Überwachungsaufwand. Um Fehler zu finden oder zu verhindern, werden etliche Personen benötigt. Durch den Einsatz von maschinellen Lernverfahren kann diese Überwachung in vielen Fällen automatisiert durchgeführt werden. Zum Beispiel wird durch den Einsatz von Anomalie-Erkennungssoftware auffälliges Verhalten erkannt und an die richtigen Personen weitergeleitet. Somit können Fehler frühzeitig erkannt und beseitig werden, bevor in den Unternehmen ein großer Schaden auftritt.

Finanzen

Um Kreditkartenbetrug zu erkennen, wird schon seit einigen Jahren künstliche Intelligenz eingesetzt. Die Systeme lernen das normale Kaufverhalten der Kunden und können somit betrügerisches Verhalten erkennen. Wird bei einer gestohlenen Kreditkarte ein untypisches Kaufverhalten erkannt, wird diese gesperrt und weitere Einkäufe verhindert.

Neben den genannten Beispielen für den Einsatz von künstlicher Intelligenz im B2B-Bereich gibt es etliche weitere Einsatzmöglichkeiten. In Zukunft wird es immer wichtiger für Unternehmen werden, KI in ihre Prozesse und Produkte einzubauen, um Kosten zu senken und neue Produkte zu generieren.

KI bei SEEBURGER

Mit dem SEEBURGER BIS werden optimale Voraussetzung für die Entwicklung von intelligenten Systemen geschaffen. Als zentrale Datendrehscheibe bietet der BIS die Überwachung und Nutzung sämtlicher Daten eines Unternehmens an. So können diese für das Training von komplexen Modellen genutzt oder direkt von intelligenten Systemen überprüft und überwacht werden.

API Management

Der Einsatz eines API-Gateways, ermöglicht die Überwachung sämtlicher API-Aufrufe eines Unternehmens. Die gesammelten Analysedaten der einzelnen Aufrufe können wiederum in KI-Modelle überführt und dort verarbeitet werden. Die SEEBURGER BIS API Management Solution bietet somit die optimalen Voraussetzungen für eine automatisierte Anomalie-Erkennung auf allen eingehenden und ausgehenden API-Aufrufen.

Neben der Erkennung von Anomalien können Modelle außerdem genutzt werden, um die Anzahl der Aufrufe in Zukunft vorhersagen zu können. Somit hilft die API-Strategie, ein Unternehmen frühzeitigt in die richtige Richtung zu lenken, um auch in Zukunft allen Anforderungen gewachsen zu sein.

Smart Service Integration

Die Integration von Smart Services ist für viele Unternehmen eine wichtige Aufgabe für die Zukunft. Diese Services können zur Auswertung der Analysedaten genutzt werden. Durch den Einsatz von KI-Modellen können Probleme frühzeitig erkannt werden, um Wartungsdienste für die eingesetzten Maschinen durchzuführen und somit schwerwiegenderen Problemen zuvorzukommen. Mit der SEEBURGER Business Integration Suite als klassische Integrationsplattform erhalten Sie eine optimale Grundlage für die Bereitstellung und Integration von Smart Services.

Tagged:

  • Sprache der künstlichen Intelligenz
  • Leave a Reply