Künstliche Intelligenz und Algorithmen verstehen
Posted by Julia Werner •
Machine Learning Algorithmen – wie funktioniert eine KI?
In meinem ersten Artikel Künstliche Intelligenz – was ist das eigentlich? bin ich auf die einzelnen Teilgebiete der KI eingegangen und habe erläutert, wo die Unterschiede zwischen einem normalen Programm und einer KI sind. In diesem Artikel geht es nun um die Algorithmen, mit denen man von einer schwachen KI zu einer starken KI gelangen kann. Dazu werde ich anhand von zwei einfachen Beispielen und einem kleinen Abstecher in die Welt der neuronalen Netze einen ersten Eindruck vermitteln, wie solche Algorithmen arbeiten.
Abgrenzung KI, Machine Learning und Deep Learning
Um von einer schwachen KI zu einer starken KI zu kommen, muss die Maschine lernen zu denken wie ein Mensch. Die Techniken und Prozesse, die dazu verwendet werden, fasst man unter Machine Learning zusammen, welches wiederum ein Teilgebiet der Künstlichen Intelligenz ist. Es gibt verschiedene Möglichkeiten, wie dieser Lernvorgang erfolgen kann:
Supervised Learning: Sowohl die Eingabe als auch die korrekte Ausgabe sind für den Lernenden verfügbar
Reinforcement Learning: Während die richtige Antwort nicht verfügbar ist, gibt es ein Feedback in Form von Belohnungen und Bestrafungen
Unsupervised Learning: Es gibt keinen Hinweis darauf, was der richtige Ausgang ist. Es kann mit Hilfe von Methoden des supervised learnings eine Struktur in der Eingabe erlernt werden, indem zukünftige Eingaben auf der Grundlage vergangener Eingaben vorhergesagt werden
Ein ebenfalls sehr häufig verwendeter Begriff in diesem Zusammenhang ist das „Deep Learning“, ein Teilgebiet des maschinellen Lernens. Deep Learning ist eine Möglichkeit zur Umsetzung des maschinellen Lernens, bei dem neuronale Netze zur Implementierung verwendet werden.
Machine Learning Algorithmen
Machine Learning ist das Erstellen von Vorhersagemodellen durch Finden von Zusammenhängen in verschiedenen Datensätzen. Damit ein Machine Learning Algorithmus gut funktioniert, muss dieser mit Hilfe von Trainingsdaten zunächst trainiert werden. Diese Trainingsdaten, werden von dem jeweiligen Algorithmus nach Mustern und Zusammenhängen durchsucht. Beispiele des maschinellen Lernens sind Entscheidungsbäume oder auch Clustering Verfahren (wie K-Means), welche im Folgenden näher beschrieben werden.
Aufstellen von Hypothesen
Angenommen, wir haben fünf Datenpunkte in einem Diagramm gegeben. Nun sollen wir herausfinden, wie die Funktion aussieht, die diese Punkte verbindet. Beim supervised learning haben wir die Datenpunkte x und die dazugehörigen Funktionswerte f(x) als Input gegeben. Da unser Algorithmus aber lernen soll, gilt es eine Funktion (Hypothese) aufzustellen, die versucht die wahre Funktion so gut es geht nachzubilden. Zur Verdeutlichung sind hier vier verschiedene Hypothesen abgebildet:
Nun stellt sich die Frage, welche ist denn die richtige Funktion? Da es viele verschiedene Möglichkeiten gibt, brauchen wir Annahmen, die den Suchraum einschränken, das sogenannte „bias“. Meistens ist es so, dass wir eine Annäherung suchen, die so einfach wie möglich ist. Dieses wird auch in der folgenden Methode der Entscheidungsbäume deutlich.
Entscheidungsbaum
Ein Entscheidungsbaum ist eine Methode des supervised learnings. Er beschreibt eine Situation anhand eines Satzes von Eigenschaften. Der Einfachheit halber betrachten wir als Ergebnis eine ja/nein Entscheidung.
Dieses Baumdiagramm beschreibt die Fragestellung, ob das Restaurant betreten und ggf. auf einen freien Platz gewartet wird. Die erste Entscheidung ist dabei abhängig davon, wie viele Personen im Restaurant sind. Wenn niemand da ist, geht die Person auch nicht hinein, bei einigen Personen im Restaurant ist die Antwort ja und wenn es voll ist, kommt es auf die Wartezeit an. So ziehen sich die Fragen weiter durch. Es kommt noch auf Alternativen im Umkreis an, beispielsweise wie hungrig die Person ist und ob es regnet.
Durch positive und negative Beispiele kann der Machine Learning Algorithmus einen Entscheidungsbaum erstellen und verfeinern. Wenn eine Reihe von Beispielen gegeben ist, einige mit einer Ja-Entscheidung und einige mit einer Nein-Entscheidung, dann muss ein Entscheidungsbaum gefunden werden, der die richtige Antwort für die gegebenen Beispiele findet. Man trainiert also einen Algorithmus für den Entscheidungsbaum mit diesen Beispielen, so dass der Baum möglichst immer die richtige Antwort gibt, also die richtige Hypothese entwickelt hat. Das Problem, das beim Entwickeln des Algorithmus für den Entscheidungsbaum besteht, ist, dass bei n verschiedenen Entscheidungsattributen 2^(2^n )mögliche Hypothesen entstehen können.
Zur Überprüfung des Entscheidungsbaums werden dem Algorithmus neue unbekannte Situationen als Input gegeben. Diese Daten werden Testdaten genannt. Der Algorithmus ist validiert, wenn er die richtige Entscheidung trifft.
K-Means
K-Means ist ein Clustering Verfahren aus der Kategorie des unsupervised learnings. Der Algorithmus arbeitet nach einer festen Vorgehensweise:
Wähle K Punkte als Anfangszentren Berechne die Abstände aller Punkte zu den jeweiligen Zentren Ordne die Datenpunkte den Zentren mit dem geringsten Abstand zu Zentriere die Zentren in dem entstandenen Cluster Wiederhole den Vorgang ab Punkt 2, bis sich die Zentren nicht mehr ändern
Die folgende Abbildung zeigt einen Durchlauf des Algorithmus mit 8 Iterationsschritten:
Dieser Algorithmus kann beispielsweise zur Clusterung von Blumen eingesetzt werden. Die Stiellänge und die Blütenfarbe werden als Kriterien gewählt und die Blumen als Datenpunkte in ein Koordinatensystem eingetragen. Durch mehrfaches Anwenden des Algorithmus, werden je nach dem, wie viele Zentren am Anfang gewählt wurden, Cluster ausgegeben. Jedes Cluster entspricht in dem Fall einer Blumenart.
Deep Learning – Neuronale Netze
Neuronale Netze werden benötigt, um komplexere Aufgaben zu realisieren. Dabei wird versucht, das Gehirn eines Menschen künstlich nachzubauen.
Neuronale Netze – Aufbau eines Neurons
Ein Neuron überträgt ein elektrisches Signal von den Dendriten entlang der Axone zu den Terminalen. Diese Signale werden dann an ein weiteres Neuron weitergegeben. Auf diese Weise können wir unsere Umgebung wahrnehmen.
Neuronen unterdrücken ihre Signale bis zu einem gewissen Punkt, bevor sie reagieren. Das bedeutet, sie müssen zunächst einen Schwellenwert überschreiten. Mathematisch betrachtet bedeutet das, es ist nicht möglich, ein menschliches Gehirn mit linearen Funktionen zu simulieren, wie es bei den Klassifizierungsproblemen möglich ist. Es wird eine Funktion benötigt, die ein Eingabesignal übernimmt und mit Berücksichtigung eines Schwellenwerts ein Ausgabesignal produziert. Diese Art der Funktion wird Aktivierungsfunktion genannt. Sehr gut geeignet dafür ist die Sigmoidfunktion y=1/(1+e^(-x) ).
Deep Learning – Aktivierungsfunktion
In der Abbildung oben ist zu erkennen, wie ein Neuron mathematisch umgesetzt werden kann. Es bekommt mehrere Eingabewerte, welche aufsummiert werden. Die resultierende Summe geht als Input in die Sigmoidfunktion, die die Ausgabe steuert. Da auch das menschliche Gehirn nicht aus einem einzigen Neuron besteht, werden viele dieser künstlichen Neuronen verbunden und es ergibt sich das künstliche neuronale Netz:
Nun haben wir ein Konstrukt, welches schwierige Probleme lösen kann. Doch wie lernt ein solches Netz nun? Es ist naheliegend, die Stärke der Verbindungen der einzelnen Neuronen zu variieren. Dies wird mit Hilfe von Gewichten an den einzelnen Verbindungen getan.
In diesem Beispiel ist jeder Knoten mit jedem in der nächsten Schicht verbunden. Dies ist nicht immer notwendig. Durch den Lernprozess werden diejenigen Verbindungen, die nicht benötigt werden, auf 0 gesetzt und sind somit nicht länger relevant für das neuronale Netz.
Es gibt verschiedene Arten von neuronalen Netzen, wie beispielsweise das convolutional neural network, welches unter anderem im Bereich der Bilderkennung eingesetzt wird. Jede einzelne Schicht ist hier dafür zuständig einzelne Bestandteile eines Bildes zu identifizieren. So kann die erste Schicht zum Beispiel gerade Striche in einem Bild herausfiltern, die zweite Kurven und so weiter. All diese Teile werden zusammengesetzt und am Ende wird ein Bild erkannt. Einsatzgebiete sind beispielsweise die automatische Nummernschilderkennung oder die Dekodierung von handschriftlichen Postleitzahlen auf Briefen.
Summary – wie funktioniert Künstliche Intelligenz?
Machine Learning ist die Basis für die künstliche Intelligenz. Sie besteht aus statistischen Vorhersagemodellen, mit denen die Maschine im Stande ist, selbstständig Zusammenhänge zu lernen, ohne diese direkt definiert zu bekommen. Dabei geht es von einfachen Algorithmen wie Clustering Verfahren, bis zu komplexen mathematischen Konstrukten wie den neuronalen Netzen.
KI und Algorithmen — Telemedicus
KI und Algorithmen
Dieser Artikel ist Teil der Artikelreihe „Künstliche Intelligenz”.
Algorithmen sind nicht mit Software gleich zu setzen. Sie sind formalisierte Vorschriften, die endlich, eindeutig, verständlich, ausführbar und allgemeingültig für einen bestimmten Problembereich ausgestaltet sind. Wie diese Vorschriften notiert sind, ist nicht entscheidend. Algorithmen können mit Spielregeln verglichen werden: Ob sie als Kartenspiel, Brettspiel oder Software umgesetzt werden, ist nicht konstitutiv für die Definition eines Algorithmus.
Algorithmen sind die Basis eines Automatisierungsprozesses. Automatisierung ist so allgegenwärtig, dass sie kaum mehr auffällt. Autos, Ampeln, Geldautomaten, Türen in vielen Supermärkten, Treppen in der U-Bahn, der Fokus der Kamera und sogar Thermostate sind Beispiele für Automatisierung. Worin liegt nun die Brisanz des Themas „Algorithmus”? Was ist heute neu?
Was ist heute neu?
Neu sind vor allem zwei Sachen:
1) Neu ist die Größe der Datenbanken, die Algorithmen bedienen können. Algorithmische Prozesse können nicht nur sehr viele Daten prozessieren, sondern unstrukturierte Daten (Daten abgelegt ohne strukturierte Form in Mails, Office-Daten, PDFs in allen möglichen Formaten) und
2) neu ist die Implementierung von bestimmten Formen von komplexeren Algorithmen im kommerziellen Kontext. Gemeint sind damit Algorithmen, die das konstituieren, was mancher heutzutage schwache KI nennt.
Doch auch künstliche Intelligenz und Automatisierung sind nicht ganz das gleiche. Automatisierung bedeutete bisher, dass sehr konkrete Regeln programmiert werden müssen, damit eine Maschine oder Software eine sehr konkrete Aufgabe ausführen können, beispielsweise „suche den kürzesten Weg auf der Landkarte von Berlin nach Speyer”.
Künstliche Intelligenz automatisiert auf abstrakterer Ebene: Sie definiert Effizienzkriterien und verschiedene Aktionsrahmen und je nach Lage wird jene Aktion ausgeführt, die effizienter wirkt: „Fahre den schnellsten Weg von Berlin nach Speyer und bedenke dabei temporäre Verkehrszeichen, Baustellen und unvorhersehbare Faktoren wie Unfälle oder Wetter”.
Dieser Grad der Komplexität und Abstraktion ist ein riesiger Meilenstein und ermöglicht die Einbettung von Automatisierung überall da, wo es Prozesse gibt. Alle Sachverhalte, die sich in einem Prozess abbilden lassen, können (teil)automatisiert werden.
Wie das Beispiel verdeutlicht, wird der ebenfalls prozessuale Charakter beim Design eines komplexeren Automatisierungsverfahrens in der so genannten künstlichen Intelligenz sichtbar: es geht hier nicht nur um das Design eines Algorithmus, sondern um einen Prozess. Zunächst muss der Teil des menschlichen oder analogen Prozesses, der automatisiert werden soll, formalisiert werden. Anschließend müssen die mathematischen Regeln (die Algorithmen), die als Lösung oder Aktion in dem Kontext pertinent erscheinen formuliert und die Art der Daten, die diesen Prozess informiert steuern sollen, definiert und in Software umgesetzt werden. Anschließend erfolgt eine Trainingsphase. Die Software produziert dann statistische Auswertungen, keine Ergebnisse, die von einem Mensch interpretiert werden müssen und in einem Gesamtentscheidungsprozess integriert werden. Zuletzt ist das Design eines Feedbackverfahrens zu berücksichtigen, das Auswertungen evaluiert und danach die Software nachjustiert.
Für all diese Schritte sind verschiedene Berufsprofile verantwortlich und jeder dieser Schritte bedarf menschlicher Interpretation oder Vorstellungen des Sozialen (Was versteht man unter Effizienz oder Optimum oder Gleichheit? Ist vergangenes Verhalten ein guter Proxy für Vorhersagen über zukünftiges Verhalten? Orientieren sich Empfehlungsmodelle an Ähnlichkeiten zwischen ähnlichen Profilen oder an den Unterschieden?).
Drei Missverständnisse über komplexe Algorithmen können vor diesem Hintergrund hervorgehoben werden.
Missverständnis Nr. 1: Anthropomorphisierung
Technische Automatisierungsverfahren gründen auf mathematischen Modellen, die auf der Basis eines Datenbestandes und eines Kommandoregelwerks Wahrscheinlichkeiten berechnen und nach Wahrscheinlichkeiten Tätigkeiten ausführen. Diese Technologien führen folglich a priori von Menschen getroffene Entscheidungen aus und setzen eine „Datafizierbarkeit” des Sachverhalts voraus. Für die Ausführung verfügen diese Systeme über eine beschränkte Anzahl von Optionen, um ihre Ergebnisse zu optimieren. Sie treffen selbst keine Entscheidung. Die Entscheidungen werden zunächst im System- und Datendesign sowie in der Datenauswahl von Menschen abstrakt-generell vorab getroffen.
Diese Trennung im Handlungsstrang zwischen Entscheidung und Ausführung erscheint zuweilen befremdlich – sind doch Ausführungen immer Ausdruck einer Entscheidung des Ausführenden. Infolgedessen wird im Kontext von Automatisierungsverfahren eine anthropomorphisierende Semantik verwendet (maschinelles Lernen, künstliche Intelligenz, autonome Systeme), die jedoch in nicht zutreffenden Annahmen über die Fähigkeiten von Automatisierungssystemen mündet.
Künstliche Intelligenz, maschinelles Lernen, künstliche neuronale Netze, deep learning, … Keines dieser Modelle ahmt menschliches Denken oder Lernen nach. Sie automatisieren zwar, sind aber nicht autonom, denn sie besitzen keinen freien Willen und haben keine Absichten. Autonomie oder Selbstbestimmung sind aber Ausdruck eines freien Willens, der rational eigene Interessen und Absichten verfolgt.
Formen der sogenannten künstlichen Intelligenz wie künstliche neuronale Netze mögen ein biologisches Vorbild haben, sie sind jedoch eher eine Verallgemeinerung eines statistischen Regressionsmodells. Lernende Algorithmen sind daher ein Euphemismus für das Prinzip „je mehr Daten vorhanden, desto akkurater die Wahrscheinlichkeitsparameter“ des Algorithmus. Die sogenannten lernenden Algorithmen sind lediglich als Prozess der Anpassung komplexer statistischer Modelle an riesige Datenmengen zu verstehen. Beispielsweise können Algorithmen fein granulare Objekte besser als Menschen identifizieren1 – etwa Hunderassen. Das geschieht durch das Trainieren dieser komplexen Algorithmen mit einer massiven Anzahl digitaler Bilder, die von Menschen kategorisiert wurden. Der Algorithmus muss dafür Begriffe wie Pudel oder Dackel nicht darstellen und verstehen. So wie Regressionsmodelle das Einkommen eines Individuums anhand von Faktoren wie Ausbildung, soziale Kontakte und Wohngegend einschätzen können, ohne diese Konzepte verstehen zu müssen.
Demgegenüber steht die menschliche Fähigkeit des Spracherwerbs. Im Kindesalter erlernt der Mensch seine Muttersprache mit erstaunlich wenigen Daten (Wörtern). Bereits im kindlichen Alter beweist der Mensch seine Fähigkeit, Hypothesen und begriffliche Vorstellungen anhand weniger Beispielen zu entwickeln.
Können Lernen und Verstehen automatisiert werden?
Die sogenannte künstliche Intelligenz basiert auf statistischer Schlussfolgerung. Eine statistische Schlussfolgerung ist eine Verallgemeinerung von vielen Einzelfällen auf das Allgemeine. Sie kann deswegen nicht zur hundertprozentigen Sicherheit führen. Diese Herangehensweise wird fachlich als „Induktion” bezeichnet. Die Verwendung des Begriffs der „Logik” wurde in diesem Zusammenhang schon früh kritisiert. Unter anderem monierte der Philosoph Rudolf Carnap die Verwendung des Begriffs Logik bei induktiven Verfahren als Abkehr vom Grundverständnis der Logik. Denn der Grundbegriff von Logik ist Wahrheit. Da Gewissheit bei induktiven Schlussfolgerungen nicht gegeben ist, kann der Grundbegriff von induktiver Logik nicht Wahrheit, sondern Wahrscheinlichkeit sein. Induktive Schlussfolgerungen sind also keine logischen Schlussfolgerungen im strengen Sinne, sondern Wahrscheinlichkeitsschlüsse.
Es gibt viele Handlungen in der menschlichen Welt, die nur durch Kontextualisierung und deduktives Vorgehen funktionieren. Sprechen, bewerten, sich in einen anderen Menschen logisch hineinversetzen, ihn interpretieren oder verstehen – diese Art von Tätigkeiten setzt die Fähigkeit der Kontextualisierung voraus. Mit anderen Worten: Nein, mit dieser Technologie kann Lernen und Verstehen nicht automatisiert werden.
Missverständnis Nr. 2: Die Blackbox-Analogie
Erklärungen für politische und rechtliche Zwecke haben eine andere Funktion als wissenschaftliche Erklärungen über das technische Verfahren. Auch wenn die einzelnen Berechnungen des Algorithmus nicht immer rekonstruiert werden können sondern nur Plausibilisierungen. Durch Input/Output Analyse kann durchaus das Verfahren an sich nachvollzogen werden. Es handelt sich hierbei um eine alte, bekannte und sehr wohl akzeptierte Methode, um in Wirtschaftswissenschaften den Markt zu analysieren. Die Spezifikationen für das, was eine Erklärung konstituiert sind allzu sehr auf die technischen Abläufe der Datenverarbeitung und zu wenig auf soziale Interaktion und Auswirkungen fokussiert. Letztere sind aber durchaus messbar und ergründbar. Sie sind umso notwendiger, um Verzerrungen in den Berechnungen verstehen zu können. So ist regelmäßig eine gravierende Diskrepanz zwischen der vom Entwicklungsteam konzipierten Funktionalität einer Software und der Nutzung derselben Software beim Endanwender festzustellen.
Ein Beispiel ist Youtube als Plattform, die als Broadcastplattform entwickelt wurde und vom algorithmischen Design so konzipiert wurde, dass Nutzer möglichst lange auf der Plattform bleiben. Das steht in Kontrast zu der Google-Suche, die als Suchmaschine algorithmisch so entwickelt wurde, dass die Plattform möglichst rasch verlassen wird. Denn eine gute Suchmaschine lässt Nutzer schnell das finden, was sie suchen, sodass sie nicht lange auf der Suchmaschinen-Webseite bleiben müssen. Das Feedback, das für Youtube und Google-Suche statistisch entworfen wurde, ging von diesen zwei verschiedenen Funktionalitäten aus. Google hat Jahre gebraucht um zu verstehen, dass Nutzer Youtube auch als Suchmaschine verwenden. Das stellt Youtube algorithmisch vor eine Herausforderung, denn die zwei Funktionalitäten konnten kaum gegensätzlicher sein. Vor allem zeigt dies, dass es nicht auf die formelle mathematische Relevanz bestimmter in der Statistik inhärenten Bias und Dilemmata ankommt, sondern auf auf die soziale Relevanz, die bei der Nutzung dieser Software entsteht und generell andere statistische Verzerrungen aufzeigt.
Bei Automatisierungsprozessen ist es viel leichter als bei menschlichen Entscheidungen zu dokumentieren, wer was wann im System geändert hat. Sie sind zudem in ihrer Konsistenz besser als Menschen. Denn sie lassen sich in der Ausführung nicht von externen Faktoren wie dem Wetter, Hunger, oder weiteren emotionalen Aspekten beeinflussen.
Die Frage der Konsistenz ist besonders relevant. Nicht nur aus ökonomischer Sicht, sondern auch ethisch kann fehlende Konsistenz eine Auswirkung haben. Es ist wirtschaftlich ineffizient und/oder unfair, wenn Mitarbeiter der Bundesagentur für Arbeit, je nach Wetterlage unterschiedlich über zwei ähnliche Anträge auf Arbeitslosengeld entscheiden – oder Manager zwei gleiche Sachverhalte vor und nach dem Essen anders bewerten. Bei der Herstellung von Konsistenz können algorithmische Verfahren in geeigneten Kontexten, etwa der Vorbereitung von Standardentscheidung nach festgelegten Parametern oder auch im Bereich des Controlling, einen Mehrwert leisten und wiederum Assistenz leisten, um menschliches Verhalten besser verstehen und erklären zu können. Denn zunächst sind Algorithmen die Formulierung menschlicher Ansichten und Vorstellungen der Welt in einer formalisierten Sprache. Die algorithmische Sprache ist daher genauso wenig neutral wie die konventionelle Sprache, in der sich Menschen verständigen. Daraus folgt, dass algorithmische Verfahren von jenen Menschen beeinflusst werden, die in ihre Gestaltungsprozesse involviert sind. Diese menschlichen Beeinflussungen können durchaus von Vorurteilen und Bias behaftet sein. Andererseits stellten die Studien von Paul Meehl bereits in den 1950er Jahren fest, dass die Prognosen einfacher algorithmischer Verfahren regelmäßig die Vorhersagen menschlicher Experten in vielen Bereichen schlagen. Paradoxerweise scheinen Algorithmen folglich nicht nur Quelle von Bias, sondern zugleich Hilfsinstrument, um menschliche Urteile von Vorurteilen zu befreien.
Missverständnis Nr. 3: Der relationale, infrastrukturelle Charakter von Algorithmen
Algorithmen kennen das einzelne Individuum nicht. Rein konzeptionell repräsentieren sie eine Vorstellung des Sozialen. Sie analysieren Muster nie mit absoluten, sondern in Relation zu anderen. Algorithmen stellen Menschen in aussagekräftigen Gruppen zusammen, sodass die Identität der Individuen keine Relevanz mehr hat.
Zwar wird Personalisierung beim Anwender als eine sehr individuelle Erfahrung wahrgenommen, doch technisch bedeutet Personalisierung die Einordnung dieses Individuums zu einem sehr spezifischen Kollektiv von Personen mit ähnlichen Profilen und Interessen. Dabei wird dem Betroffenen nicht notwendigerweise klar, dass er qua algorithmischer Zuordnung Teil eines fein-ziselierten Kollektivs ist. Infolge dieser Zuordnung und Management der verschiedenen Gruppierungen können algorithmische Verfahren mit Bias bestimmte Kollektive schlechter stellen und zwar ohne, dass ein einzelner Schaden feststellbar wäre.
Demokratien kennen wiederum rechtsdogmatisch nur das Individuum. Sie gewährleisten individuelle Grundrechte und nur in einzelnen Rechtsbereichen (beispielsweise im Arbeitsrecht) erfassen sie die kollektivistische Dimension von Diskriminierung. In der Zukunft werden bei der Anwendung von komplexeren Algorithmen diese Phänomen stärker zu beobachten sein – und zwar in allen Sektoren: sei es in der Verteilung von Energie oder Strom, im Konsum- oder Gesundheitssektor oder in der sozialen Sicherung. Dabei wird der Nachweis eines individuellen Schadens deutlich erschwert. Nur mit einem architektonischen Blick werden Unterschiede unter verschiedenen Kollektiven feststellbar. Dass Diskriminierung nicht nur im Arbeitssektor vorhanden, und dass die Einsetzung dieser Technologien in allen Sektoren erfolgen wird, zeigt auf eine der offenen rechtlichen Lücken hin, die durch neue Technologien greifbarer wird.
Algorithmen automatisieren Prozesse indem sie technisch Abläufe und Vorschriften mathematisch standardisieren. Dabei kreieren sie eine neue Form von Infrastruktur in Sektoren, die wir davor nicht als Infrastruktur betrachtet hätten. So könnten wir Google als Informationsinfrastruktur betrachten, oder Facebook unter anderem als soziale Infrastruktur. Sie vernetzen soziale Punkte oder Informationen miteinander. Das wirft normativ folglich ganz andere Fragen auf, beispielsweise die Frage der Versorgungssicherheit im Katastrophen- oder Krisenfall. Und es eröffnet interessante neue Herangehensweisen, um mit KI-gesteuerten Plattformen umzugehen.
Lorena Jaume-Palasí ist Gründerin von The Ethical Tech Society eine gemeinnützige Organisation, die das Ziel verfolgt, Prozesse der Automatisierung und Digitalisierung zu betrachten und in Bezug auf ihre gesellschaftliche Relevanz einzuordnen. Lorena forscht zur Ethik der Digitalisierung und Automatisierung. Sie befasst sich in diesem Zusammenhang auch mit rechtsphilosophischen Fragen. 2017 wurde sie von der Regierung Spaniens in dem Weisenrat zu Künstlicher Intelligenz berufen. Sie ist eine der 100 Experten der Cotec Foundation für ihre Arbeit zur Automatisierung und Ethik. Lorena wird regelmäßig von internationalen Organisationen, Verbände und Regierungen konsultiert. Sie ist hat diverse Publikationen zu Internet Governance mitverfasst und herausgegeben und schreibt regelmäßig zu Datenschutz, Privatheit und Öffentlichkeit, öffentliche Güter und Diskriminierung.
2018 erhielt sie mit der Initiative AlgorithmWatch die Theodor Heuss Medaille „für ihren Beitrag zu einer differenzierten Betrachtung von Algorithmen und deren Wirkmechanismen“.
Künstliche Intelligenz und Algorithmen verstehen
Der zweiteilige Wegweiser "Digitale Debatten" des Bundesfamilienministeriums klärt auf über Künstliche Intelligenz, Algorithmen und algorithmenvermittelte Diskriminierung. Die neuen Broschüren bilden den Grundstein für einen informierten und kritischen Diskurs.
Spracherkennungssoftware gehört in vielen Familien mittlerweile zum Alltag dazu
Was ist Künstliche Intelligenz (KI), was sind Algorithmen und algorithmische Systeme? Für Aufklärung sorgt der zweiteilige Wegweiser "Digitale Debatten" aus dem Innovationsbüro des Bundesfamilienministeriums. Der Wegweiser führt in die Themen ein, ermöglicht bereits Informierten einen tieferen Einblick und erläutert zudem mögliche Risiken und Nebenwirkungen.
Mit der Lektüre vermittelt das Bundesfamilienministerium Wissen in verständlicher Sprache und gibt einen Überblick zum aktuellen Diskurs zu KI. Die Inhalte ermöglichen ein reflektiertes Mitreden in einer Gesellschaft, deren soziale Beziehungen heute zunehmend digital vermittelt werden. KI und Algorithmen berühren unzählige Lebensbereiche, auch über das Internet hinaus: von der Spracherkennungssoftware über die Gesundheits-App bis hin zur Gesichtserkennung.
Teil 1: Algorithmische Systeme
Was genau ist ein Algorithmus? Verständlich und differenziert klärt der erste Teil des Wegweisers "Digitale Debatten" darüber auf. Dabei veranschaulicht er, in welchen Bereichen Algorithmen zum Einsatz kommen. Er zeigt aber auch, welche Menschen hinter der Erstellung und Umsetzung von algorithmischen Systemen stecken. Außerdem geht es um die Frage, was Künstliche Intelligenz kann - und was nicht.
Teil 2: Algorithmen und Diskriminierung
Der zweite Teil des Wegweisers beschäftigt sich mit algorithmenvermittelter Diskriminierung: Zu welchen Fehlern kommt es beim Einsatz von Algorithmen? Was bedeutet eigentlich Diskriminierung? Wie sieht sie aus, wenn sie durch Algorithmen hervorgerufen wird? Außerdem stellt der Wegweiser Beispiele aus der Praxis vor.
Wer Fragen zu den Themen KI oder Algorithmen hat oder darüber sprechen möchte, kann eine E-Mail an das Innovationsbüro schicken.
Tagged:
Leave a Reply
neueste Artikel
- How to Check The Serial Number...
Buying a huawei watch can sometimes be a dream come true, especially if you have had b... - Synology DiskStation Manager
Der DiskStation Manager (DSM) ist das Betriebssystem für die Network Attached Storage-Systeme (NAS... - SAN vs. NAS: Unterschied ...
„Big Data“ lässt grüßen! Laut einer Studie des Festplatten-Giganten Seagate soll sich der weltweit... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Ninite – das wohl nützlic...
System-Tools gibt es wie Sand am Meer. Die meisten versprechen viel und halten wenig. Wirklich gut... - Digitalisierung anpacken:...
Die Corona-Pandemie hat ohne Zweifel einen starken Beitrag zur Digitalisierung kleinerer und mitte...
populäre Artikel
- How to Check The Serial Number...
Buying a huawei watch can sometimes be a dream come true, especially if you have had b... - Synology DiskStation Manager
Der DiskStation Manager (DSM) ist das Betriebssystem für die Network Attached Storage-Systeme (NAS... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Einrichten einer lokalen...
Dieser Artikel richtet sich an alle Hobby-Webentwickler, die ihre erstellten Web-Projekte auf dem... - Digitalisierung anpacken:...
Die Corona-Pandemie hat ohne Zweifel einen starken Beitrag zur Digitalisierung kleinerer und mitte...
Lieblingsartikel
- SAN vs. NAS: Unterschied ...
„Big Data“ lässt grüßen! Laut einer Studie des Festplatten-Giganten Seagate soll sich der weltweit... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Ninite – das wohl nützlic...
System-Tools gibt es wie Sand am Meer. Die meisten versprechen viel und halten wenig. Wirklich gut... - Einrichten einer lokalen...
Dieser Artikel richtet sich an alle Hobby-Webentwickler, die ihre erstellten Web-Projekte auf dem...