Deloitte Deutschland
Posted by Julia Werner •
Kurze Geschichte der künstlichen Intelligenz Teil I
Kurze Geschichte der künstlichen Intelligenz Teil I: Oder was Aristoteles mit Chatbots zu tun hat
Am Anfang stand eine vermeintlich einfache Frage: Kann eine Maschine denken? Der herausragende britische Mathematiker und Kryptoanalytiker Alan Turing stellte sie 1950 in seinem Aufsatz Computing Machinery and Intelligence und inspirierte damit zahlreiche Forscher. Turing war klar, dass es unterschiedliche Auffassungen gab, was die Begriffe Maschine und denken bedeuten. Um diesen Streit zu umgehen, grenzte er den Begriff Maschine auf Digitalrechner ein und konzipierte einen einfachen praktischen Test, der zeigen sollte, ob ein Computer intelligentes Verhalten simulieren kann. Der Computer hat den Turingtest bestanden, wenn sein menschliches Gegenüber, das schriftliche Fragen stellt, nicht erkennen kann, ob die schriftlichen Antworten von einem Menschen oder einem Computer stammen. 1990 initiierte der Soziologe Hugh Gene Loebner den nach ihm benannten Loebner-Preis. Den Preis sollte das Programm erhalten, das erstmals den Turingtest besteht. Bisher wurde das Preisgeld von 25000 Dollar noch nie ausgezahlt, da die Jury die Dialogsysteme immer enttarnte. Jedes Jahr werden deshalb die Desktopagenten ausgezeichnet, die dem Menschen am ähnlichsten sind. Sie verfügen über besondere Fähigkeiten im Sprachverstehen, genauer im Begreifen geschriebener Worte, und allgemeines Weltwissen. Interessante bis amüsante Lektüre: Auf der Website des Loebner-Preises finden sich die Gewinner und die Dialoge zwischen Desktopagenten und Mensch.
Vordenker künstlicher Intelligenz
Künstliche Intelligenz (kurz KI) ist ein junger Zweig der Informatik, der auf eine lange Denktradition und konkrete Forschung seit den 50er Jahren des 20. Jahrhunderts zurückgeht. Die Idee menschliches Denken zu formalisieren und zu imitieren, findet sich bereits bei Aristoteles (384 - 322 v. Chr.), der ein System entwickelte, mit dem logisches Schliessen und mechanische Schlüsse möglich waren. Er war der Erste, der eine genaue Menge von Gesetzen skizzierte, die die rationale Komponente des Verstandes beschrieb. Schon Leonardo da Vinci (1452 - 1519) entwarf eine mechanische Rechenmaschine, die er allerdings nie in die Praxis umsetzte. Aktuelle Untersuchungen gehen davon aus, dass seine Konstruktion funktioniert hätte. Auch der Philosoph Thomas Hobbes zieht in seinem Werk Leviathan aus dem Jahr 1651 Parallelen zwischen Mensch und Maschine:
«Denn was ist das Herz anderes als eine Feder, was sind die Nerven anderes als lauter Stränge und die Gelenke anderes als lauter Räder?»
(Hobbes 2005)
Auf dem Weg zu künstlicher Intelligenz
Am Anfang der Geschichte der KI-Forschung stehen der Neurophysiologe Warren McCulloch und der Logiker Walter Pitts. Inspiriert von neuen Ergebnissen der Hirnforschung veröffentlichten sie 1943 die erste Arbeit zum Thema KI. Gemeinsam hatten sie ein Modell künstlicher Neuronen entworfen und mit mathematischen Mitteln bewiesen, dass Nervenzellen alle logischen Operationen wie UND, ODER oder NICHT ausführen können, wenn sie zu Netzwerken verknüpft werden. Jedes hypothetische Neuron kann in den Zustand an oder aus versetzt werden, indem es von benachbarten Nervenzellen entsprechende Signale erhält. Diese Schwellenlogik bildet in abgewandelter Form noch heute die Basis für künstliche neuronale Netze. Ebenfalls richtungsweisend waren Alan Turings Ideen zum Maschinenlernen, genetischen Algorithmen und verstärkendem Lernen. Laut Turing war eine Maschine in der Lage, jede Aufgabe zu bewältigen, sofern sie mit einem Algorithmus dargestellt werden kann. Auch anspruchsvolle kognitive Prozesse könnten in genau definierte Einzelschritte unterteilt und von einer Maschine bewältigt werden. Zwar hatte Konrad Zuse 1941 den ersten digitalen Computer in Berlin erfunden, aber Turings, McCullochs und Pitts’ theoretischen Überlegungen fehlte die materielle Grundlage, auf der solche Netzwerke hätten simuliert werden können. 1951 gelang es einem Team an der Universität Manchester, den Computer Ferranti Mark I nach den Vorgaben Turings zu entwickeln und künstliche Intelligenz erstmals praktisch anzuwenden. Mithilfe eines Programms spielte der Ferranti Mark I Dame, allerdings nicht besonders gut. Den Begriff künstliche Intelligenz gab es zu dieser Zeit noch nicht.
Die Geburtsstunde künstlicher Intelligenz
Der Begriff künstliche Intelligenz (im Englischen Artificial Intelligence, AI) wurde erstmals 1956 von John McCarthy verwendet. McCarthy gab der zweimonatigen, legendären Tagung mit dem Titel Summer Research Project on Artificial Intelligence ihren Namen. Sie gilt als offizieller Startschuss akademischer Forschung auf diesem Gebiet. Zehn Wissenschaftler aus ganz Amerika kamen zusammen, um sich über Computer auszutauschen, die mehr können sollten als das Rechnen mit Zahlen. Sie wollten herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu verwenden, Spiele zu spielen, zu lernen und Abstraktionen und Konzepte zu bilden. Einen ersten Erfolg demonstrierte Arthur Samuel. Der Elektroingenieur spielte gern Dame und hatte ein Programm geschrieben, mit dem er dieses Spiel spielen konnte. Anfangs kannte das Programm nur die Regeln des Brettspiels und verlor jedes Mal. Samuel integrierte ein weiteres Programm, das während des Spiels für jeden Zug die Erfolgs- und Misserfolgswahrscheinlichkeit berechnete. Der brillante Einfall aber war, den Computer gegen sich selbst spielen und überprüfen zu lassen, ob die berechneten Wahrscheinlichkeiten stimmten oder angepasst werden mussten. Mit jedem Spiel wurde das Programm besser, bis Samuel schliesslich keine Chance mehr gegen den Computer hatte. Zum ersten Mal war es gelungen, einer Maschine eine Fähigkeit beizubringen, die sie selbstständig verbessern konnte und letztlich besser beherrschte als der Mensch.
Hohe Erwartungen
Ab diesem Zeitpunkt hatte man das Zutrauen, dass Maschinen menschliches intelligentes Verhalten imitieren können. Noch in den 1950er Jahren konnte der spätere Ökonomie-Nobelpreisträger und Konferenzteilnehmer Herbert Simon zeigen, dass Programme logische Theoreme mathematisch beweisen und damit die Intelligenzleistung von Mathematikern ersetzen konnten. Neben dem Rechnen mit Zahlen wurde die Logik zum Mittelpunkt maschineller Aufgabenbewältigung. Beflügelt durch die vielversprechenden Leistungen der ersten KI-Systeme stellten viele KI-Forscher ambitionierte Prognosen auf. So auch Herbert Simon 1957:
«Ich […] kann zusammenfassend berichten, dass es heute Maschinen gibt, die denken, die lernen und kreativ sind. Darüber hinaus wächst ihre Fähigkeit, diese Dinge zu tun, zügig weiter, bis – in absehbarer Zukunft – der Bereich der Aufgabenstellungen, mit denen sie zurechtkommen, genau so gross ist wie der Bereich, den der menschliche Verstand bewältigen kann.»
(Russel 2012)
Herbert Simon sagte im gleichen Jahr voraus, dass innerhalb des kommenden Jahrzehnts ein Computer Schachweltmeister werden würde. Doch erst 1997 gelang es IBM, den amtierenden Schachweltmeister Garri Kasparov mit Deep Blue unter Turnierbedingungen zu schlagen. Deep Blue war kein lernendes System. Vielmehr hatte der enorme Zuwachs an Rechenleistung dafür gesorgt, dass das Programm 200 Millionen Schachstellungen in einer einzigen Sekunde analysieren konnte. 1969 veröffentlichten Marvin Minsky und Seymour Papert ihr Buch Perceptron, in dem sie schlüssig zu beweisen schienen, dass Perzeptronen-Netzwerke (eine einfache Form eines neuronalen Netzes) auch simple Probleme der KI nicht würden meistern können. Obwohl ihre Ergebnisse nicht für komplexere, mehrschichtige Netze galten, hatte das Werk einen dermassen grossen Einfluss auf die KI-Forscher, dass das Interesse an neuronalen Netzen vor allem in den USA verebbte.
Symbol verarbeitende KI
Auch wenn der Grundstein für lernende neuronale Netze schon in der Anfangsphase der KI-Forschung gelegt wurde, entwickelte sich ein weiterer Ansatz, der diesem überlegen schien. Verfechter der sogenannten klassischen künstlichen Intelligenz, auch Symbol verarbeitende KI genannt, wollten menschliche Intelligenz auf die Verarbeitung abstrakter Symbole herunterbrechen. Subjekte und Objekte werden auf dem Computer durch Symbole repräsentiert. Auch ihre Eigenschaften, Beziehungen oder Ereignisse untereinander werden durch Symbole dargestellt. Das Wissen zu einem Spezialgebiet und Lösungsstrategien gibt der Mensch in das KI-System ein. Durch die Anwendung komplexer Regeln auf eher einfachen Input kann das Programm zu neuen Aussagen gelangen. McCarthy hatte 1958 eine eigene Programmiersprache für die Verarbeitung symbolischer Strukturen entwickelt. Lisp wurde in den folgenden 30 Jahren vor allem in den USA die Standardsprache für KI-Anwendungen. An den Ansätzen der neuronalen und der symbolischen KI wurde gleichzeitig weiter geforscht, doch bis in die achtziger Jahre galt der Symbol verarbeitenden KI weit grösseres Interesse, das auch zu einigen Forschungserfolgen führte. Der von KI-Pionier Joseph Weizenbaum entwickelte erste Chatbot ELIZA etwa griff Ende der 1960er Jahre auf grosse Datenbanken zurück und konnte nach festen Regeln antworten. Das Programm übernahm die Rolle eines Psychotherapeuten, mit dem man sich per Tastatur unterhalten konnte. Die Simulation blieb oberflächlich und der Nutzer konnte leicht herausfinden, dass es sich um einen Computer handelte.
Auf dem Boden der Tatsachen
Der Start von Sputnik im Jahr 1957 veranlasste die amerikanische Regierung die Forschung an maschineller Übersetzung voranzutreiben, um russische wissenschaftliche Arbeiten schneller übersetzen zu können. Man glaubte, ein umfangreiches elektronisches Wörterbuch und die Übertragung einfacher syntaktischer Strukturen wären ausreichend. Die Forscher unterschätzen die Mehrdeutigkeit von Sprache und das nötige Weltwissen zum Erschliessen des Kontextes. 1966 wurde wegen ausbleibenden Erfolges die Förderung akademischer Übersetzungsprojekte durch die Regierung der USA vorerst eingestellt. Auch an anderer Stelle wurden Mittel für die KI-Forschung gekürzt. Die Forscherinnen und Forscher reagierten auf die zahlreichen Fehlschläge, indem sie die Komplexität der natürlichen Welt in sogenannten Mikrowelten künstlich einschränkten. Sie hofften, die Komplexität nach und nach steigern zu können. Doch die Systeme scheiterten bei dem Versuch, Probleme zu erweitern oder komplexere Aufgaben zu meistern. Die berühmteste Mikrowelt war die Blockwelt, die sich aus mehreren festen Blöcken auf einem Tisch zusammensetzte. SHRDLU von Terry Winograd aus dem Jahr 1972 war ein typisches Programm dieser Phase. Das Programm konnte Blöcke nach bestimmten Kriterien anordnen, wozu eine Roboterhand genutzt wurde, die die einzelnen Blöcke greifen konnte. SHRDLU gilt als das erste Programm, das das Verstehen von Sprache mit der Simulation geplanter Handlungen verbindet. Im Beweisen mathematischer Theoreme und Durchführen komplexer Rechenoperationen dem Menschen überlegen scheiterten die Systeme dieser Zeit an für den Menschen vergleichsweise einfachen Aufgaben wie dem Verstehen von Sprache oder dem Bilden von Kategorien für eine Menge von Bildern. Auf Regeln basierende Systeme waren für viele Anwendungsaufgaben nicht geeignet. Die Erfolge blieben weit hinter den Erwartungen zurück. Denn die Fähigkeit des selbstständigen Lernens konnte die klassische KI nicht leisten. In der Folge wurden erneut Forschungsgelder gestrichen und Medien berichteten kritisch. Diese Tiefphase der KI-Forschung hielt bis in die 70er Jahre an.
Zusammenfassung
Auch wenn der Turingtest bis heute nicht gemeistert wurde, hat es seit Turings Aufsatz von 1950 enorme Fortschritte auf dem Gebiet der künstlichen Intelligenz gegeben. In Anbetracht der primitiven Computer und Programmierwerkzeuge, die damals zur Verfügung standen, waren die ersten Jahre der Forschung äusserst erfolgreich. Schon auf der Konferenz in Dartmouth hatten die Begründer der KI-Forschung künstliche Intelligenzen entworfen, die aus umfangreichen und komplexen Datenmengen Konzepte ableiten und verknüpfen konnten. So wundert es nicht, dass der Beginn der KI-Forschung von überzogenen Erwartungen und optimistischen Prognosen geprägt war, auf die zahlreiche Rückschläge und Durststrecken folgten. Heute ist die KI ein viele Lebensbereiche durchdringendes Phänomen. Mehr zu ihrer Entwicklung ab den 1970er Jahren im zweiten Teil unserer kurzen Geschichte der künstlichen Intelligenz.
Literatur & Quellen
KI und Machine Learning: Eine kleine Geschichte der Künstlichen Intelligenz
In den letzten Jahren wurden in der Computerwissenschaft und KI unglaubliche Fortschritte erzielt. Watson, Siri oder Deep Learning zeigen, dass KI-Systeme inzwischen Leistungen vollbringen, die als intelligent und kreativ eingestuft werden müssen. Und es gibt heute immer weniger Unternehmen, die auf Künstliche Intelligenz verzichten können, wenn sie ihr Business optimieren oder Kosten sparen möchten.
KI-Systeme sind zweifellos sehr nützlich. In dem Maße wie die Welt komplexer wird, müssen wir unsere menschlichen Ressourcen klug nutzen, und qualitativ hochwertige Computersysteme helfen dabei. Dies gilt auch für Anwendungen, die Intelligenz erfordern. Die andere Seite der KI-Medaille ist: Die Möglichkeit, dass eine Maschine Intelligenz besitzen könnte, erschreckt viele. Die meisten Menschen sind der Ansicht, dass Intelligenz etwas einzigartiges ist, was den Homo sapiens auszeichnet. Wenn Intelligenz aber mechanisiert werden kann, was ist dann noch einzigartig am Menschen und was unterscheidet ihn von der Maschine?
Das Streben nach einer künstlichen Kopie des Menschen und der damit verbundene Fragenkomplex sind nicht neu. Die Reproduktion und Imitation des Denkens beschäftigte schon unsere Vorfahren. Vom 16. Jahrhundert an wimmelte es in Legenden und in der Realität von künstlichen Geschöpfen. Homunculi, mechanische Automaten, der Golem, der Mälzel'sche Schachautomat oder Frankenstein waren in den vergangenen Jahrhunderten alles phantasievolle oder reale Versuche, künstlich Intelligenzen herzustellen - und das zu nachzuahmen, was uns Wesentlich ist.
Künstliche Intelligenz - die Vorarbeiten
Allein, es fehlten die formalen und materiellen Möglichkeiten, in denen sich Intelligenz realisieren konnte. Dazu sind zumindest zwei Dinge notwendig. Auf der einen Seite braucht es eine formale Sprache, in die sich kognitive Prozesse abbilden lassen und in der sich rein formal - zum Beispiel durch Regelanwendungen - neues Wissen generieren lässt. Ein solcher formaler Apparat zeichnete sich Ende des 19. Jahrhunderts mit der Logik ab.
Die Philosophen und Mathematiker Gottfried Wilhelm Leibniz, George Boole und Gottlob Frege haben die alte aristotelische Logik entscheidend weiterentwickelt, und in den 30er Jahren des letzten Jahrhunderts zeigte der Österreicher Kurt Gödel mit dem Vollständigkeitssatz die Möglichkeiten - und mit den Unvollständigkeitssätzen die Grenzen - der Logik auf.
Auf der anderen Seite war - analog dem menschlichen Gehirn - ein "Behältnis" oder Medium notwendig, in dem dieser Formalismus "ablaufen" konnte und in dem sich die künstliche Intelligenz realisieren lässt. Mechanische Apparate waren hierfür nicht geeignet, erst mit der Erfindung der Rechenmaschine eröffnete sich eine aussichtsreiche Möglichkeit. In den dreißiger Jahren des 20. Jahrhunderts wurde die Idee einer Rechenmaschine, die früher schon Blaise Pascal und Charles Babbage hatten, wiederbelebt. Während Pascal und Babbage lediglich am Rechner als Zahlenmaschine interessiert waren, die praktischen Zwecken dienen sollte, entstanden zu Beginn des 20. Jahrhunderts konkrete Visionen einer universellen Rechenmaschine.
Einer der wichtigsten Visionäre und Theoretiker war Alan Turing (1912-1954): 1936 bewies der britische Mathematiker, dass eine universelle Rechenmaschine - heute als Turing-Maschine bekannt - möglich ist. Turings zentrale Erkenntnis ist: Eine solche Maschine ist fähig, jedes Problem zu lösen, sofern es durch einen Algorithmus darstellbar und lösbar ist. Übertragen auf menschliche Intelligenz bedeutet das: Sind kognitive Prozesse algorithmisierbar - also in endliche wohldefinierte Einzelschritte zerlegbar - können diese auf einer Maschine ausgeführt werden. Ein paar Jahrzehnte später wurden dann tatsächlich die ersten praktisch verwendbaren Digitalcomputer gebaut. Damit war die "physische Trägersubstanz" für künstliche Intelligenz verfügbar.
Deloitte Deutschland
Künstliche Intelligenz bereits heute unverzichtbar
Deutsche Unternehmen betrachten Künstliche Intelligenz bereits als wesentlichen Faktor für nachhaltigen Geschäftserfolg. 79% sehen diese Technologie bereits heute als sehr bedeutend oder erfolgskritisch an. Diese Einschätzung ändert sich insgesamt nicht, wenn sie die Frage nicht für heute, sondern für „in zwei Jahren“ beantworten. Allerdings steigt hier der Anteil derer, die KI als erfolgskritisch einstufen, von heute 20% auf 35%.
Deutsche Unternehmen schätzen damit Künstliche Intelligenz als eine Technologie von höchster Relevanz ein. Das zeigt auch das in der Studie ermittelte Aktivitätsniveau von durchgehend über 90% in Technologiebereichen wie Machine Learning, Deep Learning, Natural Language Processing und Computer Vision (AR, VR und 3D-Analyse).
Allerdings gibt es deutliche Unterschiede in verschiedenen Anwendungsfelder zwischen deutschen Unternehmen und dem Rest der Welt. So finden sich AI-Projekte mit Finanzschwerpunkt hierzulande deutlich häufiger (15% statt international 8%), sind aber in IT- und Cybersecurity-Projekten seltener anzutreffen als global gesehen.
Tagged:
Leave a Reply
neueste Artikel
- How to Check The Serial Number...
Buying a huawei watch can sometimes be a dream come true, especially if you have had b... - Synology DiskStation Manager
Der DiskStation Manager (DSM) ist das Betriebssystem für die Network Attached Storage-Systeme (NAS... - SAN vs. NAS: Unterschied ...
„Big Data“ lässt grüßen! Laut einer Studie des Festplatten-Giganten Seagate soll sich der weltweit... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Ninite – das wohl nützlic...
System-Tools gibt es wie Sand am Meer. Die meisten versprechen viel und halten wenig. Wirklich gut... - Digitalisierung anpacken:...
Die Corona-Pandemie hat ohne Zweifel einen starken Beitrag zur Digitalisierung kleinerer und mitte...
populäre Artikel
- How to Check The Serial Number...
Buying a huawei watch can sometimes be a dream come true, especially if you have had b... - Synology DiskStation Manager
Der DiskStation Manager (DSM) ist das Betriebssystem für die Network Attached Storage-Systeme (NAS... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Einrichten einer lokalen...
Dieser Artikel richtet sich an alle Hobby-Webentwickler, die ihre erstellten Web-Projekte auf dem... - Digitalisierung anpacken:...
Die Corona-Pandemie hat ohne Zweifel einen starken Beitrag zur Digitalisierung kleinerer und mitte...
Lieblingsartikel
- SAN vs. NAS: Unterschied ...
„Big Data“ lässt grüßen! Laut einer Studie des Festplatten-Giganten Seagate soll sich der weltweit... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Ninite – das wohl nützlic...
System-Tools gibt es wie Sand am Meer. Die meisten versprechen viel und halten wenig. Wirklich gut... - Einrichten einer lokalen...
Dieser Artikel richtet sich an alle Hobby-Webentwickler, die ihre erstellten Web-Projekte auf dem...