Künstliche Intelligenz. Historische Entwicklung und technische Fortschritte
Posted by Julia Werner •
Die Geschichte der Künstlichen Intelligenz: Wie „neu“ ist KI wirklich?
Die Entwicklung der Künstlichen Intelligenz begann bereits vor über 50 Jahren. Als Geburtsstunde wird in Geschichtsbüchern das „Summer Research Project on Artificial Intelligence“ angesehen, welches im Jahr 1956, unter Leitung von John McCarthy, am Dartmouth College in New Hampshire in den USA stattfand. Gemeinsam teilten die Konferenzteilnehmer, worunter sich Erfinder, Forscher oder Informationstheoretiker befanden, die Überzeugung, dass Denken auch außerhalb des menschlichen Gehirns stattfinden kann. Als inhaltliches Ergebnis der Konferenz ergab sich schließlich das erste funktionierende KI-Programm namens LOGIC THEORIST, welches nicht nur Zahlen sondern auch Symbole verarbeiten konnte.
Die Anfänge der KI gehen aber auch auf die Arbeiten des britischen Mathematikers und Visionärs Alan Turing im Jahr 1936 und seine bekannte Turing-Maschine zurück. Diese ist kurz gesagt eine universelle Rechenmaschine, welche dazu fähig ist, jedes Problem zu lösen, sofern es durch einen Algorithmus darstellbar – also in kleinste Einzelschritte zerlegbar – und lösbar ist. Mithilfe seiner Maschine entwickelte Turing den sogenannten Turing-Test. Der Test beruht auf der Frage, ob Maschinen denken können. Hierbei werden laut Turing Maschinen dann als intelligent bezeichnet, wenn Menschen bei einem Frage-und-Antwort-Spiel nicht unterscheiden können, ob sich am anderen Ende der Leitung ein Computer oder ein Mensch befindet.
KI-Historie: Die Geschichte der künstlichen Intelligenz
Das Konzept der künstlichen Intelligenz (KI)künstlichen Intelligenz (KI) beschäftigt Menschen schon seit Hunderten, wenn nicht sogar Tausenden von Jahren. Die gedankliche Arbeit rund um das Thema KI wurzelt in der Faszination für die eigene, menschliche Spezies und ihren einzigartigen Fähigkeiten. Dabei prägten Literatur, Kunst und das Kino im Laufe der Jahre die Vorstellungen von der Leistungsfähigkeit der künstlichen Intelligenz maßgeblich - sowohl im positiven als auch im negativen Sinn.
Konkrete Beispiele für den KI-Einsatz finden sich mittlerweile im Verbraucher- wie auch im Unternehmensumfeld, wobei die aktuellen Anwendungsfälle in der Industrie zu den spannendsten gehören. Mit Blick auf die Reihe neuer KI-Innovationen im Jahr 2021 ist es also höchste Zeit, die wichtigen historischen Meilensteine der Technologie zu erkunden.
Von der Antike ins 20. Jahrhundert
Einige verorten die erste Erwähnung von KI (im modernen Sinn) in Jonathan Swifts Roman "Gullivers Reisen" aus dem Jahr 1726. In der Geschichte kommt eine computerähnliche Maschine namens "Engine" vor, die zur Erweiterung des Wissens und der Verbesserung mechanischer Abläufe eingesetzt wird. Das Konzept von Automaten beziehungsweise Robotern hat seine Wurzeln wiederum bereits in der Antike. Im europäischen Raum sind in diesem Zusammenhang die griechischen Dichter Homer und Hesiod zu nennen. Hesiod etwa erzählt von Talos, dem bronzenen Riesen, der vom Schmiedegott Hephaistos geschaffen wurde. Auch in der antiken chinesischen Mythologie und Folklore finden sich KI-Anklänge: Hier ist die Rede von realistisch anmutenden Wachhunden, die eigentlich hölzerne Maschinen sind.
Im 20. Jahrhundert nimmt die KI-Faszination dann Fahrt auf. Einerseits durch fiktionale Figuren wie den Zinnmann im "Zauberer von Oz", andererseits durch die realen Fortschritte auf theoretischer Ebene - beispielsweise die Veröffentlichung von Bertrand Russells und Alfred N. Witheheads "Principia Mathematica" im Jahr 1913 oder den von Leonardo Torres Qeuvedo im Jahr 1915 konstruierten Schachautomaten.
Getrieben von den zunehmend populärer werdenden Ideen von Robotern und Automatisierung und ausgerüstet mit den mathematischen Grundlagen macht sich schließlich Alan Turing daran, das Potenzial der künstlichen Intelligenz zu erkunden.
"Können Maschinen denken?"
Turings Untersuchungen gipfeln in seinem berühmten Aufsatz "Computing Machinery and Intelligence" (PDF) von 1950. Dort beschreibt er nicht nur, wie intelligente Maschinen gebaut werden könnten, sondern auch, wie sich ihre Intelligenz testen lässt (Turing-Test). Ausgehend von der Frage "Können Maschinen denken?" werden klare Grenzen für die Begriffe "Maschinen" und "Denken" festgelegt. Darüber hinaus diskutiert Turing das Konzept digitaler Computer, ihre Universalität sowie die theologischen und mathematischen Einwände gegen die Denkfähigkeit von Maschinen. Damit legt er den Grundstein für die Entwicklung der künstlichen Intelligenz, wie wir sie heute kennen.
Der bahnbrechende Aufsatz ist seiner Zeit weit voraus, da Computer damals Befehle nur ausführen aber nicht speichern können. Ein weiteres Problem sind die damals enormen Hardware-Kosten: Einen einzigen Rechner zu mieten, kostet rund eine Viertelmillion Dollar - pro Monat. Turing hat zweifelsohne die Weichen gestellt, aber es müssen noch einige weitere Meilensteine erreicht werden, bevor es zu substanziellen Fortschritten bei der künstlichen Intelligenz kommen kann.
Im Jahr 1956 nutzen der Informatiker Allen Newell, der Programmierer Cliff Shaw und der Wirtschaftswissenschaftler Herbert Simon das KI Proof-of-Concept. Gemeinsam entwerfen sie das Programm "The Logic Theorist", das von der Research and Development Corporation (RAND) finanziert wird. Das Programm soll den menschlichen Denkprozess replizieren und der Startschuss für die rasante KI-Entwicklung der kommenden Jahre sein.
DENDRAL, Kubrick, Mikroprozessoren
Die nächste große Entwicklungshürde nimmt KI mit der Einführung des auf Molekularchemie spezialisierten Expertensystem DENDRAL im Jahr 1965. Das System wird am MIT entwickelt und basiert auf einer "Inferenzmaschine", die auf die logische Nachahmung menschlicher Denkmuster abzielt. Das System kann Dateneingaben verarbeiten und ausgefeilte Antworten geben. Das auf DENDRAL-Basis entstandene MYCIN-System, das ab 1972 an der Stanford University eingesetzt wird, ist ein ebenso bedeutsames Beispiel.
Etwa zur selben Zeit werden im Kino die potenziellen Schattenseiten der KI in den Fokus gerückt - zum Beispiel mit Stanley Kubricks "2001: Odyssee im Weltraum" im Jahr 1968. Der Film stellt besonders ethische Fragen im Hinblick auf KI ins Rampenlicht. Die Diskussion über die Regulation von KI-Systemen dauert bis heute an. Der wichtigste Meilenstein dieser Ära wird 1970 mit dem Aufkommen der ersten Mikroprozessoren erreicht. Dies gibt der Entwicklung der Technologie neuen Schwung und beschleunigt sie auf breiter Ebene.
Die Kommerzialisierung beginnt
In den 1980ern kommt es zur ersten kommerziellen Anwendung von künstlicher Intelligenz. Die Digital Equipment Corporation nutzt das Expertensystem "RI", um neue Computersysteme zu konfigurieren. Bereits im Jahr 1986 realisiert das System jährliche Einsparungen in Höhe von 40 Millionen Dollar. Hier deutet sich bereits an, welches Potenzial KI für Unternehmen birgt.
An der Robotik-Front wird 1984 mit der Entwicklung von RB5X, einem zylindrischen Roboter mit Organen, Nerven und einem transparenten "Kopf"ein Meilenstein erreicht. Die selbstlernende Software ermöglicht RB5X die Vorhersage künftiger Ereignisse auf Grundlage historischer Daten.
Im Jahr 1997 beobachtet die Weltöffentlichkeit, wie das IBM-System "Deep Blue" den Schachweltmeister Gary Kasparov besiegt. Das sorgte zwar für Erstaunen, bringt aber nicht die bahnbrechenden Konsequenzen mit sich, die manch einer erwartet hat.
Kombinierter Technologien-Einsatz
Den KI-Fortschritt, den die Welt in den 2010er Jahren erlebt, fußt auf einem tragfähigen Fundament, nämlich der Kombination aus massiven Datenmengen und einer noch nie dagewesenen Rechenpower. Das ermöglicht es, Algorithmen zur Klassifizierung und Erkennung von Mustern zu trainieren. Ein Prozess, der durch hocheffiziente Prozessoren und Grafikkarten wesentlich beschleunigt wird. Die Verfügbarkeit dieser Komponenten trägt außerdem entscheidend dazu bei, die Kosten für die Entwicklung künstlicher Intelligenz und damit die Zugangsbarrieren zu senken.
Diese Rahmenbedingungen begünstigen viele weitere Innovationen im Bereich KI: Im Jahr 2011 eifert IBMs "Watson" "Deep Blue" nach und besiegt gleich zwei menschliche Champions in der Spielshow Jeopardy. Im darauffolgenden Jahr kann Googles "X-System" einen weiteren KI-Meilenstein erreichen, indem es Katzen in einem Video erkennt. Im Jahr 2016 muss sich schließlich der Go-Europameister Googles "AlphaGO" geschlagen geben.
Die 2010er Jahre sind für die künstliche Intelligenz nicht nur deswegen bedeutsam, weil sie erstmals menschliche Fähigkeiten übertreffen kann, sondern auch weil andere technologische Fortschritte diese Errungenschaften erst ermöglichen. In unserem Alltag manifestiert sich die Entwicklung durch Innovationen wie Siri und Alexa. Im Unternehmensumfeld hingegen in Form von Automatisierung, Deep Learning und dem Internet of Things.
Quo vadis, Unternehmens-KI?
Einer aktuellen Studie von PWC zufolge profitieren 86 Prozent der befragten Unternehmen vom Einsatz künstlicher Intelligenz - in Form einer optimierten Customer Experience. 25 Prozent der Unternehmen, die auf einen breiten KI-Einsatz setzen, erwarten sich davon für das Jahr 2021 eine Umsatzsteigerung. Die positive Wahrnehmung von KI in der Wirtschaft ist sicherlich auch auf die Erfahrungen in der Pandemie zurückzuführen, die neue Use Cases - zum Beispiel in der Personaleinsatzplanung und der Simulationsmodellierung - hervorgebracht haben.
2020 haben sich einige KI-Trends herauskristallisiert, die sich auch über die kommenden Jahre halten dürften - etwa Machine Learning Operations (MLOps). MLOps kann als Sammelbegriff definiert werden, der verschiedene Innovationen bei der Integration von Machine Learning in Produktivumgebungen umfasst - beispielsweise, wenn es um Workflows, Taffic-Muster und Bestandsmanagement geht. Unternehmen werden sich 2021 vermehrt auf diese Art der KI-Anwendung fokussieren, angespornt von den zu erzielenden Vorteilen durch KI und Automatisierung, die sich während der Pandemie manifestiert haben.
Ein weiterer Top-Trend in Sachen künstlicher Intelligenz sind Low-Code- und No-Code-Plattformen, die die Nutzung produktionsreifer KI-Anwendungen ohne tiefgreifende Programmierkenntnisse ermöglichen. Fortschritte in diesem Bereich wären der Schlüssel zur Überwindung des Fachkräftemangels, der Unternehmen immer noch in vielen Fällen vom erfolgreichen Einsatz von KI und Automatisierung trennt.
Die nächste Innovations-Ära wird durch Technologien wie IoT, 5G und Edge Computing getrieben, die entscheidend von den Fortschritten auf dem Gebiet der künstlichen Intelligenz profitieren. Das Zusammenspiel dieser Technologien wird Unternehmen in die Lage versetzen, ihre eigenen KI-Systeme schneller als bisher zu trainieren und zu nutzen, was wiederum gewaltige Benefits verspricht. Auch Quantum Computing wird einen großen Einfluss auf die Zukunft der künstlichen Intelligenz nehmen. Schließlich stellt die Technologie Verarbeitungsgeschwindigkeiten in Aussicht, die es ermöglichen könnten, eine KI-Plattform im Handumdrehen zu trainieren.
Dieser Beitrag basiert auf einem Artikel von IDG Connect.
Künstliche Intelligenz. Historische Entwicklung und technische Fortschritte
Inhaltsverzeichnis
1. Bedeutung des technologischen Fortschritts bei der Entstehung von künstlicher Intelligenz
2. Entwicklung von künstlicher Intelligenz durch technologischen Fortschritt
2.1. Grundlagen zum technologischen Fortschritt und zur künstlichen Intelligenz
2.2. Historische Entwicklung der künstlichen Intelligenz
3. Auswertung von Big Data im Marketing
3.1. Auswertung von Big Data durch künstliche Intelligenz als Einsatzgebiet
3.2. Algorithmische Defizite bei der Auswertung von Big Data als Problembereich
3.3. Kontrolle der künstlichen Intelligenz durch menschliches Eingreifen als korrespondierender Lösungsansatz
4. Nutzung von Chatbots im Marketing
4.1. Nutzung von Chatbots als Kundenberater durch künstliche Intelligenz als Einsatzgebiet
4.2. Fehlendes Vertrauen der Nutzer gegenüber Chatbots als Problembereich
4.3. Simulieren einer Persönlichkeit des Chatbots als korrespondierender Lösungsansatz
5. Zusammenfassung
Literaturverzeichnis
1. Bedeutung des technologischen Fortschritts bei der Entstehung von künstlicher Intelligenz
Unternehmen haben durch den technologischen Fortschritt zunehmend Möglichkeiten, ihre Strategien und Vorgehensweisen strukturell zu verändern.1 Diese Veränderungen werden oftmals zum Erhalt von Wettbewerbsvorteilen gegenüber anderen Unternehmen auf dem Markt durchgeführt.2 Die künstliche Intelligenz gilt nach Wirth in 2018 als neueste große Veränderung.3 Es gibt immer mehr neue künstliche Intelligenzen und es wird weiterhin mehr Geld in die Forschung dieser investiert.4
Besonders im Marketing gilt die Nutzung von künstlicher Intelligenz als Chance.5 Künstliche Intelligenzen werden bei der Auswertung von Big Data eingesetzt.6 Die Auswertung der großen Datensätze soll dazu beitragen, neue Erkenntnisse zu gewinnen und statistische Zusammenhänge zu erkennen.7 Durch die Nutzung des mobilen Internets und der sozialen Medien steigen die Datenmengen weiterhin stark an.8 Die Nutzung des mobilen Internets dient als Grundlage zur Implementierung von Chatbots in der Kundeninteraktion.9 Kunden möchten schnell und zu jeder Zeit auf für sie zugeschnittene Informationen zugreifen können.10 Die Voraussetzungen für den Einsatz von Chatbots sind technische Grundlagen, wie beispielsweise die Integration der Auswertungen von Big Data.11 Die Zukunft wird durch den Einsatz von künstlicher Intelligenz hinsichtlich Marketingstrategien, Kundenverhalten und Prozessen durch Veränderungen geprägt sein.12
Das Ziel der Arbeit liegt darin herauszufinden, welche technologischen Veränderungen zur Entstehung von künstlicher Intelligenz geführt haben. Eine weitere Frage, die beantwortet werden soll, ist, welche Einsatzgebiete die künstliche Intelligenz aktuell im Marketing hat und welche Problembereiche damit einhergehen. Zusätzlich sollen im Rahmen der Ausarbeitung korrespondierende Lösungsansätze erarbeitet werden.
Zur Zielerreichung werden zuerst grundlegende Aspekte dargestellt. Zur Darstellung der aktuellen Relevanz des Themas wird die historische Entwicklung der künstlichen Intelligenz thematisiert. Anschließend erfolgt die Analyse von ausgewählten Einsatzgebieten der künstlichen Intelligenz im Marketing. Das erste Einsatzgebiet ist die Auswertung von Big Data. Als Problembereich sind mögliche algorithmische Defizite bei der Auswertung zu beachten. Als korrespondierende Lösung wird die Kontrolle der künstlichen Intelligenz durch menschliches Eingreifen betrachtet. Das zweite Einsatzgebiet liegt in der Nutzung von Chatbots. Dabei wird ein Blick auf das fehlende Vertrauen der Nutzer als Problembereich geworfen. Als korrespondierende Lösung wird die Schaffung einer Persönlichkeit des Chatbots erarbeitet. Abschließend werden die wesentlichen Erkenntnisse zusammengefasst.
2. Entwicklung von künstlicher Intelligenz durch technologischen Fortschritt
2.1. Grundlagen zum technologischen Fortschritt und zur künstlichen Intelligenz
Zu Beginn ist es relevant zu klären, was eine künstliche Intelligenz überhaupt ist. Dazu wird zuerst ein Blick auf den Begriff der Intelligenz geworfen. Der Begriff der Intelligenz kommt aus der Psychologie und beschreibt die kognitive Leistungsfähigkeit.13 Dazu gehören die Fähigkeit des Wahrnehmens und das logische Denken.14 Demnach handelt es sich bei einer künstlichen Intelligenz um eine simulierte oder auch künstlich geschaffene Intelligenz.15
Eine künstliche Intelligenz ist eine komplexe Technologie, deren Aufgabe in der Konvergenz menschlicher Intelligenz liegt.16 Durch den fortlaufenden technologischen Fortschritt hat sich die künstliche Intelligenz, obwohl es sie bereits seit den 1950er Jahren gibt, stetig weiterentwickelt.17
„Once upon a time there were scientists who had never seen a computer, never thought of solving a problem algorithmically and never asked Google for some information.“18 Es ist nach Bibel noch nicht lange her, da stellte dies die Normalität dar. Der technologische Fortschritt schreitet immer schneller voran.19 „Heute kennt jedes Kind das Internet […].“20
Die Grundlage für den technologischen Fortschritt bildete in den 1940er Jahren der deutsche Entwickler Konrad Zuse mit der Entwicklung des Computers.21 Seit den 1990er Jahren hat zudem das Internet eine große Rolle in der Welt des Marketings eingenommen.22 Besonders in Kombination mit Smartphones und den sozialen Netzwerken haben sich die Marketing- und Kommunikationsmöglichkeiten von Unternehmen verändert.23
Durch den Erfolg des Internets wurden in den 1990er Jahren Themen wie das maschinelle Lernen in den Mittelpunkt gestellt.24 Das maschinelle Lernen ist für die Erstellung von Systemen der künstlichen Intelligenz von großer Wichtigkeit.25 Beim maschinellen Lernen werden auf Grundlage von Erfahrungen das Erlernen von Aufgaben durch ein Computerprogramm trainiert.26 Das maschinelle Lernen hat Auswirkungen auf Computeranwendungen, auf das natürliche Sprachverständnis und auf das Internet.27 Nach Joshi werden beim maschinellen Lernen drei Faktoren im Lernprozess berücksichtigt. Der erste Faktor liegt in den Daten, die das Programm benutzt, erweitert um den zweiten Faktor, welcher ein System zur Messung von Abweichungen oder Fehlern im Verhalten darstellt. Der dritte Faktor ist ein Feedback-Mechanismus, welcher den Fehler durch Einsetzen eines anderen Verhaltens aufhebt.28 Auf Basis der ermittelten Daten werden Vorhersagen getroffen.29
Eine Technik des maschinellen Lernen ist das tiefe Lernen.30 Beim tiefen Lernen handelt es sich um einen tiefergehenden Algorithmus des maschinellen Lernens.31 Innerhalb des tiefen Lernens werden sogenannte künstliche neuronale Netze verwendet.32 Künstliche neuronale Netze können mit einem menschlichen Gehirn verglichen werden.33 Es werden Knotenpunkte (künstliche Neuronen) gebildet, welche schließlich als Netzwerk dienen.34 Durch eine Kombination von künstlichen neuronalen Netzen und der Technik des tiefen Lernens erfolgt eine automatisierte Auswertung von umfangreichen Datensätzen.35 Dabei werden auch die Zusammenhänge erkannt und erlernt, die über die einfachen Algorithmen des maschinellen Lernens hinaus gehen und dort nicht erkannt werden.36 Ein weiteres Teilgebiet des tiefen Lernens ist die natürliche Sprachverarbeitung.37 Dabei werden durch Methoden des tiefen Lernens gesprochene und geschriebene Texte so verstanden, dass die künstliche Intelligenz darauf reagieren kann.38
2.2. Historische Entwicklung der künstlichen Intelligenz
Nach Haenlein und Kaplan ist die erstmalige Erscheinung einer künstlichen Intelligenz in 1942 zu verzeichnen. Von dem amerikanischen Schriftsteller Isaac Asimov erschien in diesem Jahr eine Kurzgeschichte namens Runaround, welche von einem Roboter handelte. Die Folge war, dass sich viele Wissenschaftler fortan mit dem Thema der künstlichen Intelligenz, Informationstechnik und Robotik beschäftigten.39
Die Geburtsstunde der künstlichen Intelligenz liegt im Jahre 1956.40 Dort fand das Summer Research Project on Artificial Intelligence am Dartmouth College in den USA statt.41 Dabei handelte es sich um eine Konferenz, welche von John McCarthy (*1927) initiiert wurde.42 An der Veranstaltung nahm eine Vielzahl weiterer bedeutender Forscher teil.43 Die Konferenz dauerte sechs Wochen.44 Das Thema war die Möglichkeit, Intelligenz auch unabhängig vom menschlichen Gehirn zu erschaffen.45 Maschinen sollten unabhängig von einem Menschen ihre eigene Intelligenz nutzen, um eine Aufgabe zu lösen.46 Die Teilnehmer waren der Meinung, dass dies möglich ist, jedoch herrschten über den Weg zur Realisierung von künstlicher Intelligenz unterschiedliche Meinungen.47 Zu diesem Zeitpunkt wurde erstmals der Begriff der künstlichen Intelligenz benutzt.48
Haenlein und Kaplan zufolge entstanden anschließend viele Projekte rund um die Forschung der künstlichen Intelligenz. Es entstanden künstliche Intelligenzen, die in der Lage waren, Sprachanweisungen zu verarbeiten und einfache Probleme automatisiert zu lösen.49
Nach Hecker u. a. kann die Entwicklung der künstlichen Intelligenz in drei Generationen aufgeteilt werden. Als grundlegende Eigenschaften der künstlichen Intelligenz gelten die unterschiedlichen Ausprägungen von Logik, Wahrnehmung, Lernen und Abstrahieren. Die erste Generation geht bis in die 1980er Jahre zurück. Dort entstanden Experten- und Planungssysteme, welche einen eng formulierten Einsatzbereich besaßen. Es wurden mit Hilfe von viel Logik, ein wenig Wahrnehmung und der Fähigkeit schrittweise zu lernen intelligente Systeme erschaffen.50 Innerhalb dieser Generation standen im Jahr 1973 die hohen Ausgaben der Forschung hingegen in Kritik, wodurch es zum sogenannten Winter der künstliche Intelligenz kam, in dem die Forschung zu dem Themengebiet stockte.51 Nach Hecker u. a. hatte die zweite Generation ihren Ursprung zu Beginn der 2000er Jahre mit neuen technologischen Möglichkeiten, speziell in der Nutzung des mobilen Internets und mit der Entstehung von sozialen Netzwerken. Durch Verbesserungen in der Wahrnehmung und im Lernumfeld konnten neue Technologien entwickelt werden. Zusätzlich kam die Möglichkeit des Abstrahierens zu diesem Zeitpunkt hinzu. Anschließend folgt die dritte Generation der künstlichen Intelligenz, welche in die Zukunft führt. Das Ziel liegt darin, Expertenwissen abrufen zu können, zu abstrahieren und die Erkenntnisse selbsterklärend anzuwenden.52
Aktuell besteht in den Anwendungsbereichen der künstlichen Intelligenz ein großer Spielraum in der Entwicklung.53 Durch die steigende Bereitstellung und Nutzung von Daten besteht die Möglichkeit, dass die Anwendungsgebiete der künstlichen Intelligenz zukünftig stark zunehmen werden.54
Nach Tobin u. a. ist das Ergebnis der Entwicklung der künstlichen Intelligenz der vergangenen Jahre, dass sie sich mittlerweile in den Lebensalltag integriert hat. Die Bedeutung der Wettbewerbsfähigkeit von Unternehmen in dem Bereich der künstlichen Intelligenz ist auf nationaler Ebene anerkannt. Ebenfalls ist die Notwendigkeit Investitionen in diesem Bereich zu tätigen anerkannt, um die Veränderungen, die die künstliche Intelligenz mit sich bringt, zu fördern.55
Nach Gartners Hype Cycle for Emerging Technologies 2017 und 2018 wird prognostiziert, dass die künstliche Intelligenz in Zukunft einen sehr großen Einfluss auf die wirtschaftliche Entwicklung vieler Länder haben wird.56
3. Auswertung von Big Data im Marketing
3.1. Auswertung von Big Data durch künstliche Intelligenz als Einsatzgebiet
Durch den technologischen Fortschritt werden zunehmend eine große Anzahl an Daten in den sozialen Netzwerken und im Internet automatisiert erzeugt.57 Die zunehmende Relevanz der Auswertungen von Big Data ist somit auf den technologischen Fortschritt zurückzuführen.58 Nach Omri kommen besonders im Marketing Auswertungen von Big Data zum Einsatz, um Produkt- und Serviceangebote effizienter zu gestalten. Dadurch kann eine individuelle Kundenansprache erfolgen und durch Zuschnitt der Produkte auf die Kundenbedürfnisse ein Verlust von Kundensegmenten verringert werden. So werden die Erkenntnisse aus Big Data Auswertungen beispielsweise dazu genutzt, um auf die Kundenbedürfnisse abgestimmte Angebote zu erstellen.59 Zusammenfassend sind diese Daten für Unternehmen aus dem Grund wertvoll, da mit Hilfe dessen Wettbewerbsvorteile innerhalb der Entwicklung von Produkten erzielt werden und diese in ein Kundenbindungsmanagements integriert werden können.60
Die Merkmale von Big Data liegen in dem großen Volumen der Daten, der Bereitstellung dieser Daten innerhalb kurzer Zeit, der Vielfältigkeit, dem großen Umfang, der Flexibilität neue Themengebiete hinzuzufügen und der Detailliertheit der Daten.61 Zu den Datenformaten gehören neben numerischen Daten auch Text-, Audio- und Videodaten.62 Oft treten diese Daten in Kombination miteinander auf.63 Damit die Unternehmen mit den Daten arbeiten können, müssen diese ausgewertet werden.64 Dabei handelt es sich um eine Auswertung einer sehr großen Menge von Datensätzen.65
Durch die Auswertungen und das Nutzen von Big Data können beim maschinellen Lernen genauere Muster in den Datensätzen aufgedeckt werden, wodurch genauere Vorhersagen möglich sind.66 Durch die Verbindung von künstlicher Intelligenz mit Big Data wissen die Unternehmen somit viel mehr über ihre Kunden.67 Auf Grundlage dieser Auswertungen werden Vorhersagen getroffen, auf denen schließlich die Entscheidungen von Unternehmen aufbauen.68 Diese Vorhersagen basieren auf durch Trainings erlernte und bereits bekannte Eigenschaften.69 Um aus der Auswertung von Big Data einen großen Nutzen ziehen zu können, müssen bestehende Algorithmen des maschinellen Lernens stetig angepasst werden.70
3.2. Algorithmische Defizite bei der Auswertung von Big Data als Problembereich
Auswertungen von Big Data können auf Grund von begrenzten, nicht repräsentativen oder nicht passenden Datensätzen voreingenommen, unvollständig oder verzerrt sein.71 Dadurch können Schwankungen in der Qualität der Auswertungsergebnisse entstehen.72
[...]
1 Vgl. Kumar u. a. 2019, S. 136.
2 Vgl. Kumar u. a. 2019, S. 136.
3 Vgl. Wirth 2018, S. 435.
4 Vgl. Wirth 2018, S. 435.
5 Vgl. Bünte 2018, S. 7.
6 Vgl. Krumm/Dwertmann 2019, S. 163.
7 Vgl. Krumm/Dwertmann 2019, S. 163.
8 Vgl. Gentsch 2019, S. 8.
9 Vgl. Braun 2003, S. 1.
10 Vgl. Braun 2003, S. 1.
11 Vgl. Hahn/Klug 2019, S. 14.
12 Vgl. Davenport u. a. 2020, S. 24.
13 Vgl. Simon 2019, S. 30.
14 Vgl. Simon 2019, S. 30.
15 Vgl. hierzu Hollerbach/Kreimeier 2020, S. 85.; Wolff u. a. 2019, S. 507 f.
16 Vgl. hierzu Glikson/Woolley 2020, S. 627.; Byrnes 2016, S. 62.; Wagner 2018, S. 2.
17 Vgl. Ong/Uddin 2020, S. 1.
18 Bibel 2014, S. 87 f.
19 Vgl. Bibel 2014, S. 87 f.
20 Bscheid 2002, S. 23.
21 Vgl. Kreutzer/Sirrenberg 2019, S. 16.
22 Vgl. Bscheid 2002, S. 23.
23 Vgl. Schneider 2015, S. 30.
24 Vgl. Görz/Schneeberger/Schmid 2014, S. 5.
25 Vgl. Joshi 2020, S. 5 f.
26 Vgl. Buxmann/Schmidt 2019, S. 8.
27 Vgl. Zhou u. a. 2017, S. 350.
28 Vgl. Joshi 2020, S. 5.
29 Vgl. Buxmann/Schmidt 2019, S. 8.
30 Vgl. Mishra/Gupta 2017, S. 66.
31 Vgl. Mishra/Gupta 2017, S. 66.
32 Vgl. hierzu Buxmann/Schmidt 2019, S. 12.; Wolff u. a. 2019, S. 511 f.
33 Vgl. hierzu Mishra/Gupta 2017, S. 70.; Wolff u. a. 2019, S. 511 f.
34 Vgl. Mishra/Gupta 2017, S. 70.
35 Vgl. Kietzmann/Paschen/Treen 2018, S. 263.
36 Vgl. Buxmann/Schmidt 2019, S. 12.
37 Vgl. Mishra/Gupta 2017, S. 66.
38 Vgl. Gentsch 2019, S. 31.
39 Vgl. Haenlein/Kaplan 2019, S. 6 f.
40 Vgl. hierzu Bhora/Shravan 2019, S. 1 ff.; Bühl 2000, S. 138.
41 Vgl. hierzu Moor 2006, S. 87.; Nilsson 2014, S. 51.; Hildebrand 2019, S. 11.
42 Vgl. Buxmann/Schmidt 2019, S. 3 f.
43 Vgl. Buxmann/Schmidt 2019, S. 3 f.
44 Vgl. Nilsson 2014, S. 51.
45 Vgl. Buxmann/Schmidt 2019, S. 3 f.
46 Vgl. Bhora/Shravan 2019, S. 2 f.
47 Vgl. Buxmann/Schmidt 2019, S. 3 f.
48 Vgl. Haenlein/Kaplan 2019, S. 7.
49 Vgl. Haenlein/Kaplan 2019, S. 7.
50 Vgl. Hecker u. a. 2017, S. 5 f.
51 Vgl. Haenlein/Kaplan 2019, S. 7.
52 Vgl. Hecker u. a. 2017, S. 5 f.
53 Vgl. Ong/Uddin 2020, S. 7.
54 Vgl. Ong/Uddin 2020, S. 7.
55 Vgl. Tobin u. a. 2019, S. 295.
56 Vgl. Kaczorowska-Spychalska 2019, S. 252 f.
57 Vgl. Vossen 2015, S. 35.
58 Vgl. Dekimpe 2020, S. 12.
59 Vgl. Omri 2015, S. 105 f.
60 Vgl. Vossen 2015, S. 35.
61 Vgl. Strong 2015, S. 7 f.
62 Vgl. Chintagunta/Hanssens/Hauser 2016, S. 341.
63 Vgl. Chintagunta/Hanssens/Hauser 2016, S. 341.
64 Vgl. Sivarajah u. a. 2017, S. 265 f.
65 Vgl. Holland/Rossa 2014, S. 260.
66 Vgl. Zhou u. a. 2017, S. 350.
67 Vgl. hierzu Davenport u. a. 2019, S. 38.; Kaplan/Haenlein 2019 S. 15 f.
68 Vgl. de Bruyn u. a. 2020, S. 99.
69 Vgl. Al-Jarrah u. a. 2015, S. 87.
70 Vgl. Zhou u. a. 2017, S. 352.
71 Vgl. Paschen/Pitt/Kietzmann 2019, S. 7.
72 Vgl. Wagener 2019, S. 172.
Tagged:
Leave a Reply
neueste Artikel
- How to Check The Serial Number...
Buying a huawei watch can sometimes be a dream come true, especially if you have had b... - Synology DiskStation Manager
Der DiskStation Manager (DSM) ist das Betriebssystem für die Network Attached Storage-Systeme (NAS... - SAN vs. NAS: Unterschied ...
„Big Data“ lässt grüßen! Laut einer Studie des Festplatten-Giganten Seagate soll sich der weltweit... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Ninite – das wohl nützlic...
System-Tools gibt es wie Sand am Meer. Die meisten versprechen viel und halten wenig. Wirklich gut... - Digitalisierung anpacken:...
Die Corona-Pandemie hat ohne Zweifel einen starken Beitrag zur Digitalisierung kleinerer und mitte...
populäre Artikel
- How to Check The Serial Number...
Buying a huawei watch can sometimes be a dream come true, especially if you have had b... - Synology DiskStation Manager
Der DiskStation Manager (DSM) ist das Betriebssystem für die Network Attached Storage-Systeme (NAS... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Einrichten einer lokalen...
Dieser Artikel richtet sich an alle Hobby-Webentwickler, die ihre erstellten Web-Projekte auf dem... - Digitalisierung anpacken:...
Die Corona-Pandemie hat ohne Zweifel einen starken Beitrag zur Digitalisierung kleinerer und mitte...
Lieblingsartikel
- SAN vs. NAS: Unterschied ...
„Big Data“ lässt grüßen! Laut einer Studie des Festplatten-Giganten Seagate soll sich der weltweit... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Ninite – das wohl nützlic...
System-Tools gibt es wie Sand am Meer. Die meisten versprechen viel und halten wenig. Wirklich gut... - Einrichten einer lokalen...
Dieser Artikel richtet sich an alle Hobby-Webentwickler, die ihre erstellten Web-Projekte auf dem...