Mensch oder Algorithmus? Freiheit und Demokratie im Zeitalter der Künstlichen Intelligenz

Posted by Julia Werner  • 

Künstliche Intelligenz – Das richtige Vorgehen bei Machine Learning

Wie Sie den Vorteil von Machine Learning nutzen und damit effektivere Unternehmensprozesse erstellen, erfahren Sie in diesem Blog Artikel.

Als Teilbereich der Künstlichen Intelligenz spielt Machine Learning (ML) eine bedeutende Rolle bei der Verarbeitung von Daten. Viele Unternehmen können von ML-Technologien profitieren, da sie ihnen helfen, wichtige Erkenntnisse aus großen Datenmengen zu extrahieren. ML-Systeme haben den Vorteil, dass sie Datensätze entscheidend schneller und präziser analysieren und verarbeiten können als Menschen.

Was ist Machine Learning?

Machine Learning (ML) oder auf Deutsch Maschinelles Lernen ist ein Teilbereich der Künstlichen Intelligenz. Die ML-Algorithmen erkennen Muster in Datensätzen und sind in der Lage, auf Basis der gewonnenen Erkenntnisse eigenständig Lösungen zu entwickeln. Durch das Sammeln von Erfahrungen eignen sie sich künstliches Wissen an.

Machine Learning oder Maschinelles Lernen ist die Wissenschaft und Anwendung von Algorithmen, die Daten verstehen und daraus konkrete Aufgaben erfüllen können.

Damit das System die richtigen Ergebnisse liefert, müssen Menschen vorher relevante Daten und Algorithmen bereitstellen sowie Regeln für die Analyse festlegen. Die richtige Vorbereitung der Daten ist entscheidend für die Ergebnisqualität der ML-Systeme.

Explorative Datenanalyse als Grundlage für Machine Learning

Jedes ML-Projekt basiert auf Daten, mit denen das System arbeiten und bestimmte Anforderungen umsetzen soll. Zu Beginn eines Projektes müssen wir klären, welche Informationen sich in den Daten befinden, welchen Mehrwert diese bieten und ob eine Umsetzung des Vorhabens auf Grundlage dieser Daten möglich ist. Hier kommt die explorative Datenanalyse zum Einsatz.

Die explorative Datenanalyse bezieht sich auf den Prozess der Durchführung der ersten Untersuchungen der Daten. Dadurch entdeckt sie Muster, findet Anomalien, testet Hypothesen und überprüft Annahmen mit Hilfe von zusammenfassenden Statistiken und grafischen Darstellungen.

Bevor das Projekt starten kann, ist es von Vorteil, die Daten zuerst zu verstehen und zu versuchen, möglichst viele Erkenntnisse daraus zu gewinnen. Um diesen Prozess genauer zu spezifizieren, dient eine Checkliste mit Fragestellungen als Orientierung während der explorativen Datenanalyse:

Welche Fragen wollen wir beantworten (oder als falsch herausstellen)? Welche Art von Daten liegen vor und wie werden die verschiedenen Datentypen behandelt? Welche Daten fehlen und wie gehen wir mit dem Fehlen der Daten um? Existieren Ausreißer? Wenn ja, wie behandeln wie diese? Wie können wir Merkmale hinzufügen, verändern oder entfernen, sodass die Daten zu besseren Ergebnissen führen?

Konnten wir alle Fragen beantworten und die jeweiligen Erkenntnisse daraus ziehen, ist die explorative Datenanalyse beendet.

Zur Veranschaulichung schauen wir uns die Beantwortung der Fragen am Beispiel der Predictive Maintenance an. Dabei handelt es sich um eine vorausschauende Wartung, bei der mit Hilfe der zur Verfügung stehenden Sensoren versucht wird, Störungen an Maschinen vorherzusehen, bevor diese überhaupt auftreten.

Die Fragen, die es zu beantworten gilt, sind zum Beispiel: Inwiefern lassen sich die Ausfallzeiten der vorliegenden Maschine minimieren?

Lassen sich anhand der Daten zuverlässig kommende Störungen entdecken?

Reichen die sensorischen Daten für die Aufgabe der Predictive Maintenance aus? Bei den vorliegenden Daten handelt es sich beispielsweise um 1000 Zahlenwerte pro Sekunde von verschiedenen Sensoren, die die Qualität des Produkts beschreiben. Teilweise können die Sensoren an bestimmten Stellen ausfallen und somit keine Datenwerte liefern. Die fehlenden Daten müssen entsprechend interpoliert werden. Zum Beispiel können sensorische Anomalien in Form von hohen numerischen Abweichungen vorkommen und sollten dementsprechend entfernt werden. Hierfür könnten beispielsweise geeignete Verfahren für Anomalieerkennung, Glättung von Störungen, Normalisierung und Dimensionalitätsreduktion der Daten Anwendung finden.

Im realen Anwendungsfall werden die jeweiligen Schritte genauer ausgeführt sowie explizite Methoden genannt. Zum allgemeinen Verständnis reicht diese Darstellung jedoch aus.

Vorverarbeitung der Daten

Ein großer Teil der explorativen Datenanalyse befasst sich bereits mit der Vorverarbeitung der Daten. Insbesondere die Fragestellungen drei bis fünf, beziehen sich darauf.

Die Qualität der Daten und die Menge der nützlichen Informationen sind die Schlüsselfaktoren für den Erfolg eines Machine Learning Algorithmus. Deshalb ist es zwingend notwendig, die Daten zuerst anzupassen, bevor jegliche Anwendung von Verfahren mit Maschinellem Lernen sinnvoll ist.

In diesem Schritt sollen die Erkenntnisse der Analyse dazu dienen, die Daten für einen Machine Learning Algorithmus vorzubereiten. Im Optimalfall verbessert sich damit die Qualität des Resultats, das die Maschinen liefern. So können sie die gewünschten Anforderungen besser erfüllen.

Teilweise sind bestimmte Daten auch erst durch eine gezielte Vorverarbeitung für das Machine Learning nutzbar. Nehmen wir als Beispiel eine Zuordnungsaufgabe, in der wir verschiedene Zeitungsartikel einer Kategorie zuweisen. Kategorien könnten Sport, Politik, Wirtschaft oder Ähnliches sein. Machine-Learning-Algorithmen arbeiten ausschließlich mit Zahlenwerten. Die Artikel stellen jedoch Texte dar, sodass zuerst eine sinnvolle Konvertierung der Texte in eine Zahlenfolge (Vektor) erfolgen muss. Ansonsten kann keine Zuordnung stattfinden. Diese Zuordnung kann anschließend für Empfehlungssysteme verwendet werden, in denen Benutzer anhand ihrer Interessen die richtigen Artikel angezeigt bekommen.

Bei einer Objekterkennung in Bildern sieht die Vorverarbeitung dagegen ganz anders aus. Die Objekterkennung hat das Ziel, bestimmte Dinge auf einem Bild zu lokalisieren und diese dabei zu erkennen. Damit werden Bilder durchsuchbar. Da Bilder eine hohe Auflösung vorweisen können, ist es sinnvoll, diese Auflösung zu reduzieren (Interpolation). Damit wird die Dimensionalität reduziert, sodass schneller Modelle trainiert und Vorhersagen getroffen werden können. Auch das Konvertieren von Farb- in Graustufenbilder kann eine wirksame Methode sein, um die Dimensionalität zu reduzieren.

Die Vorverarbeitung ist damit individuell für die jeweils vorliegenden Daten und den Anwendungsfall auszuwählen.

Möchten Sie selbst ein Machine Learning Projekt umsetzen? Mit unserem Expertenwissen und unserer Erfahrung unterstützen wir Sie gerne dabei! Erfahren Sie mehr über unseren KI-Service oder kontaktieren Sie uns.

Wie funktioniert Maschinelles Lernen und welche Typen gibt es?

Allein aus den vorverarbeiteten Daten lassen sich noch keine Erkenntnisse gewinnen. Die Machine Learning Systeme sollen die bestehenden Anforderungen mit den zur Verfügung stehenden Daten umsetzen.

Einige Beispiele für Aufgaben, die ML erfüllen kann:

die Vorhersage von zukünftigen Werten, basierend auf der Historie

von zukünftigen Werten, basierend auf der Historie das Gruppieren der Daten aufgrund ihrer intrinsischen Parameter

der Daten aufgrund ihrer intrinsischen Parameter ein Roboter, der aus seinen Erfahrungen lernt und sich dadurch immer weiter verbessert

Maschinelles Lernen lässt sich in verschiedene Typen kategorisieren, die im Folgenden kurz erläutert werden:

Überwachtes Lernen (Supervised Learning) Unüberwachtes Lernen (Unsupervised Learning) Verstärktes Lernen (Reinforcement Learning)

Übersicht über die unterschiedlichen ML-Typen

Überwachtes Lernen

Das Hauptziel beim überwachten Lernen ist es, ein Modell aus bereits gelabelten Daten zu erzeugen. Dieses erlaubt es, Vorhersagen über weitere unbekannte Daten zu machen. Gelabelt bedeutet in diesem Zusammenhang, dass die Trainingsdaten bereits einer Klasse zugeordnet sind. Der ausgewählte Machine Learning Algorithmus versucht nun, die zur Verfügung stehenden Merkmale aus den Daten zu abstrahieren. Dadurch kann er unbekannte Datensätze anhand ihrer Merkmale wiederum einer Klasse zuordnen.

Zwei Aufgabentypen, die in die Abteilung des überwachten Lernens fallen, sind die Klassifikation und die Regression.

Klassifikation: Ein klassisches Beispiel hierfür ist ein Spam-Filter für E-Mails. Mithilfe eines Korpus von richtig gelabelten E-Mails, also Spam oder Nicht-Spam, können wir einen Machine Learning Algorithmus trainieren. Dieser ordnet nun neu ankommende E-Mails direkt einer der beiden Kategorien zu.

Ein klassisches Beispiel hierfür ist ein Spam-Filter für E-Mails. Mithilfe eines Korpus von richtig gelabelten E-Mails, also Spam oder Nicht-Spam, können wir einen Machine Learning Algorithmus trainieren. Dieser ordnet nun neu ankommende E-Mails direkt einer der beiden Kategorien zu. Regression: Der Unterschied zur Klassifikation liegt in der Ausgabe des Algorithmus. Eine Klassifikation gibt einen diskreten Wert aus, also beispielsweise Spam oder Nicht-Spam. Eine Regression erzeugt dagegen eine kontinuierliche Zahl. Beispielsweise, wenn wir den Preisverfall eines Handys basierend auf den historischen Daten älterer Modelle der gleichen Serie ermitteln wollen. Der Output ist eine reelle Zahl (in Euro) und kein diskreter, vordefinierter Wert aus einer Reihe möglicher Werte.

Das Beispiel der Predictive Maintenance können wir in den Bereich der Klassifikation einordnen. Hierbei versuchen wir anhand der Datenströme eine Vorhersage über zukünftige Störungen zu treffen. Liegen also bestimmte sensorische Daten vor, so soll der ML-Algorithmus als Ergebnis Störung oder keine Störung ausgeben.

Ebenso können wir das Verfahren auch als Regression umsetzen. Dabei gibt der ML-Algorithmus als Ergebnis beispielsweise eine kontinuierliche Zahl zwischen 0 und 1 aus, wobei 0 keine Störung und 1 Störung bedeutet. Damit sagt er den prozentualen Anteil einer möglichen Störung vorher und trifft keine diskrete Aussage.

Die Zuordnung von Zeitungsartikeln und die Objekterkennung gliedern sich ebenfalls in die Klassifikation beziehungsweise Regression ein.Die Voraussetzung für die alle Varianten ist, dass Trainingsdaten zur Verfügung stehen.

Unüberwachtes Lernen

Im Gegensatz zum überwachten Lernen sind hier beim Trainieren eines Modells keine Labels vorhanden. Es ist also unbekannt, welche Daten welcher Klasse zugehörig sind. Das unüberwachte Lernen versucht nun selbstständig Strukturen in den Daten zu finden, um so relevante Informationen aus den Daten zu extrahieren. Mit diesen Merkmalen können nun weitere Aufgaben angegangen werden.

Teilaufgaben des unüberwachten Lernens sind beispielsweise das Clustering und die Dimensionalitätsreduktion.

Clustering: Clustering ist der Versuch, mit Hilfe von extrahierten Merkmalen die Eingabedaten zu gruppieren, also in Cluster einzuteilen. Die Einteilung erfolgt anhand verschiedener Ähnlichkeits- bzw. Distanzmaße. Es erfolgt also eine Art unüberwachte Klassifikation. Ein Beispiel wäre das Einordnen verschiedener Blumen in Ihre Klasse anhand ihrer Merkmale, ohne dabei die wahren Klassen zu wissen.

Clustering ist der Versuch, mit Hilfe von extrahierten Merkmalen die Eingabedaten zu gruppieren, also in Cluster einzuteilen. Die Einteilung erfolgt anhand verschiedener Ähnlichkeits- bzw. Distanzmaße. Es erfolgt also eine Art unüberwachte Klassifikation. Ein Beispiel wäre das Einordnen verschiedener Blumen in Ihre Klasse anhand ihrer Merkmale, ohne dabei die wahren Klassen zu wissen. Dimensionalitätsreduktion: In Machine Learning haben die Daten oft eine hohe Dimensionalität, also viele unterschiedliche Merkmale. Sowohl die Unterscheidbarkeit als auch die Rechenleistung leiden unter diesen Bedingungen, sodass eine Dimensionalitätsreduktion der Daten sinnvoll ist. Hierbei erkennen und extrahieren die ML-Systeme relevante Merkmale, sodass im Endresultat viel weniger, aber relevante Merkmale der Daten zurückbleiben.

Als reale Clustering-Aufgabe können Sie sich die Gruppierung von Kunden eines Unternehmens vorstellen. Damit können Unternehmen automatisiert Personas erstellen, anhand derer sie individuelle Marketing-Strategien anwenden können. Der Vorteil dieser Variante ist, dass keine Beispieldaten vorhanden sein müssen, die wir zuvor manuell einer Kundengruppe zuordnen müssen. Dies geschieht hier automatisiert.

Verstärktes Lernen

Die letzte Kategorie von Machine Learning ist das verstärkte Lernen. Das Ziel dieses Bereiches ist es, ein System (Agent) zu entwickeln, dass sich selbstständig verbessert. Basierend auf den Interaktionen mit der Umgebung lernt es und passt sein Verhalten an. Der Agent führt also gewisse Aktionen aus, bekommt dafür ein positive oder eine negative Rückmeldung und verändert sein Verhalten dementsprechend. Er versucht dabei die positiven Rückmeldungen zu maximieren.

Ein Beispiel hierfür wäre ein Schachcomputer. Immer wenn der Agent ein Zug ausführt, wird er dafür belohnt, wenn er Figuren des Gegners aus dem Spiel bringt oder das Spiel gewinnt. Verliert er selbst eine Figur oder das Spiel, wird er bestraft. Durch die Erfahrungen entwickelt der Agent sich selbstständig weiter und verbessert sich. Er versucht damit die Reihenfolge an Aktionen zu lernen, die die Summe der Belohnungen maximiert.

Modell-Evaluation

Je nach Anforderungen können wir verschiedenen ML-Algorithmen anwenden. Allerdings haben wir noch nicht geklärt, inwiefern die resultierenden Ergebnisse des trainierten Modells gut oder schlecht sind. Um solch eine Aussage zu bekommen und basierend auf dieser das Machine Learning Modell anzupassen, ist eine Model-Evaluation nötig.

Bei der Model-Evaluation wird versucht, die Leistung der Machine Learning Modelle anhand verschiedener Metriken zu bewerten. Daraus sollen die Probleme und mögliche Verbesserungen an dem Algorithmus identifiziert werden, damit diese anschließend angegangen werden können.

So müssen wir beispielsweise bei der Predictive Maintenance überprüfen, ob eine Fehlerkategorisierung zuverlässig funktioniert. Bei der Gruppierung von Kunden schauen wir, ob die Zuordnung sinnig ist. Nur mit Hilfe solch einer Evaluation können wir die Qualität unserer Machine Learning Lösung überprüfen, aufzeichnen und verbessern.

Fazit

Maschinelles Lernen sowie auch andere Bereiche der Künstlichen Intelligenz können Prozesse in Unternehmen vereinfachen. Sie ermöglichen es, gesammelte Daten richtig zu nutzen, indem sie wichtige Erkenntnisse daraus gewinnen und diese anwenden können. Je besser die Daten vorbereitet und an den Machine Learning Algorithmus angepasst sind, desto besser ist das Ergebnis, das er liefert.

Sie sind interessiert an Projekten mit Künstlicher Intelligenz oder speziell Machine Learning? Wir entwickeln Ihre individuelle KI-Lösung! Kontaktieren Sie uns telefonisch +49 711 21723730 oder per Mail hello@bitfactory.io.

Die dunkle Seite der künstlichen Intelligenz

Die Bezeichnung QE-Programm (Quantitative Easing) ist nicht die offizielle Bezeichnung des Programms der EZB, sondern bezeichnet lediglich eine geldpolitische Methode, bei der die Zentralbank Schuldtitel kauft, um das Niveau der Marktzinsen nach unten zu drücken. Das QE-Programm heißt im offiziellen EZB-Sprachgebrauch Programm zum Ankauf von Vermögenswerten (Asset Purchase Programme, APP) und wurde Anfang 2015 beschlossen. Das APP bestand zunächst aus drei Einzelprogrammen zum Ankauf

gedeckter Schuldverschreibungen ( CBPP 3 , Start Oktober 2014),

, Start Oktober 2014), forderungsbesicherter Wertpapiere ( ABSPP , Start November 2014) und

, Start November 2014) und von Wertpapieren des öffentlichen Sektors ( PSPP , Start März 2015).

, Start März 2015). Im Juni 2016 kam das Programm zum Ankauf von Wertpapieren des Unternehmenssektors (CSPP) hinzu.

Eine genauere Beschreibung der einzelnen Programme finden Sie am Ende dieses Beitrags.

Die EZB hat für die einzelnen Programme keine konkreten Kaufvolumina, sondern lediglich monatliche Zielmarken für das gesamte APP festgelegt.

März 2015 bis März 2016: 60 Milliarden Euro

April 2016 bis März 2017: 80 Milliarden Euro

April 2017 bis Dezember 2017: 60 Milliarden Euro

Januar 2018 bis September 2018: 30 Milliarden Euro

Was kauft die EZB genau?

Der Blick auf die pro Monat aufgekauften Wertpapiere zeigt, dass die EZB durchaus die Zusammensetzung ihrer Käufe variiert hat und im Rahmen der einzelnen Programme unterschiedlich aktiv war. Auch lag das monatliche Kaufvolumen nicht immer präzise bei den angekündigten 60 bzw. 80 Milliarden Euro – allerdings hat die EZB während der jeweiligen Phasen im Durchschnitt doch ziemlich exakt das angekündigte Volumen gekauft.

Die unterschiedliche Gewichtung der Unterprogramme wird im folgenden Chart noch etwas deutlicher. Dieser zeigt, wie hoch der Anteil der jeweiligen Programme während der einzelnen Monate seit Start des APP im März 2015 war. Daraus wird ersichtlich, dass die EZB den Anteil der gekauften Staatsanleihen zuletzt wieder etwas reduziert hat (von in der Spitze über 90% auf zuletzt etwa 80%).

Worauf es zu achten gilt: Konkrete Umsetzung und Reinvestitionen fälliger Anleihen

In den kommenden Monaten gilt es also vor allem zu beobachten, wie die EZB die angekündigte Reduzierung ihres Aufkaufvolumens konkret umsetzt, weil sich dies auf die betroffenen Marktsegmente unterschiedlich auswirken wird. So hat die EZB wie oben gezeigt seit Start ihrer Aufkaufprogramme demonstriert, dass sie in der Lage und gewillt ist, die angekündigten Kaufvolumina auch tatsächlich umzusetzen. Das heißt, dass die gesamten APP-Bestände in ihrer Bilanz ungefähr dem im folgenden Chart skizzierten Verlauf (rote gestrichelte Linie) folgen und Ende September 2018 ein Gesamtvolumen von ca. 2,6 Billionen Euro erreichen dürften – die Frage ist eben lediglich, durch welche Wertpapiere die große weiße Lücke im Chart konkret gefüllt wird.

Es muss auch berücksichtigt werden, dass das APP noch lange über sein eigentliches Ende hinaus Wirkung entfalten wird. So hat die EZB bereits im Dezember 2015 angekündigt, die Einkünfte aus bis zur Fälligkeit gehaltenen Anleihen wieder zu reinvestieren und dieses Versprechen auf der Oktober-Ratssitzung noch einmal erneuert und präzisiert. Sollte also beispielsweise eine deutsche Staatsanleihe 2019 fällig und die EZB vom deutschen Staat ausbezahlt werden, wird sie – Stand heute – dieses Geld für den erneuten Erwerb einer (deutschen) Staatsanleihe nutzen. Ihre Bestände an Staatsanleihen werden sich somit nicht zwangsläufig verringern und ihre Präsenz auf den Märkten auch nicht sehr viel kleiner werden – sie schafft nur kein neues Geld, um Staatsanleihen zu erwerben.

QE-Käufe nach Ländern

Die EZB hat beim Start des PSPP (also des Staatsanleihen-Programms) angekündigt, dass sich das Kaufvolumen am Kapitalschlüssel der beteiligten Länder orientieren soll. Jedoch ist die EZB von diesem Ziel deutlich abgewichen: Sie hat mehr Staatsanleihen der großen Eurostaaten gekauft, als dies eigentlich nach dem Kapitalschlüssel angemessen gewesen wäre. So machen beispielsweise deutsche Staatsanleihen mittlerweile knapp 27% des aufgekauften Staatsanleihen-Portfolios aus, obwohl der deutsche Kapitalschlüssel nur bei knapp 18% liegt.

Diese „Bevorzugung“ der großen Staaten könnte unter anderem darauf zurückzuführen sein, dass es bei den kleineren Ländern schlicht nicht genug Anleihen gibt, damit die EZB ihr angepeiltes Kaufvolumen erreichen kann. Es wird sich zeigen, ob die EZB somit ihr Kaufverhalten ändern wird, wenn sie nur noch eine kleinere Summe an Staatsanleihen aufkaufen muss.

Bilanzsumme

Die im Rahmen des QE-Programms getätigten Käufe machen inzwischen fast die Hälfte der insgesamt knapp 4,4 Billionen Euro großen EZB-Bilanz aus. Wenn die EZB die Summe der monatlichen Anleihekäufe ab Januar senkt, ist in der kurzen Frist zu erwarten ist, dass sich die EZB-Bilanz zunächst etwas langsamer ausweiten wird. Um die tatsächliche expansive Wirkung der Geldpolitik zu beurteilen ist es aber auch notwendig zu beobachten, wie sich die übrigen Posten der Bilanz verändern, was aus heutiger Sicht aber nicht abschätzbar ist.

Glossar: Die Programme im Detail

Das erste Programm zum Ankauf gedeckter Schuldverschreibungen (Covered Bond Purchase Programme, CBPP) wurde bereits 2009 von der EZB beschlossen, um nach der Finanzkrise den Markt für diese Papiere (z. B. Pfandbriefe) zu stabilisieren und Refinanzierungsproblemen der Banken entgegenzuwirken. Innerhalb eines Jahres wurden Wertpapiere im Gesamtvolumen von 60 Milliarden Euro angekauft. Ein zweites CBPP mit folgte dann von November 2011 bis Oktober 2012. Das aktuell laufende dritte CBPP wurde im Oktober 2014 verabschiedet.

Das Programm zum Ankauf forderungsbesicherter Wertpapiere (Asset Backed Securities Purchase Programme, ABSPP) wurde im September 2014 in Verbindung mit dem Programm zum Ankauf gedeckter Schuldverschreibungen (CBPP 3) beschlossen. Dabei werden ABS-Papiere am Primär- und Sekundärmarkt aufgekauft.

Im Rahmen des Programms zum Ankauf von Wertpapieren des öffentlichen Sektors (Public Sector Purchase Programme, PSPP) werden seit März 2015 Wertpapiere des öffentlichen Sektors wie Staatsanleihen sowie Schuldtitel europäischer Institutionen und Agenturen gekauft. Für die Ankäufe im Rahmen des PSPP gibt es detaillierte Regeln. So dürfen Staatsanleihen beispielsweise wegen des Verbots der monetären Staatsfinanzierung nur am Sekundärmarkt erworben werden. Es dürfen nur Papiere mit einer Laufzeit von mehr als einem Jahr aufgekauft werden. Zudem will die EZB nicht mehr als 33% aller auf den Sekundärmärkten befindlichen Papiere aufkaufen.

Mit dem Programm zum Ankauf von Wertpapieren des Unternehmenssektors (Corporate Sector Purchase Programme, CSPP) werden seit Juni 2016 auch Anleihen von Unternehmen in der Eurozone erworben. Ausgeschlossen sind Kreditinstitute und Unternehmen, deren Anleihen von den Ratingagenturen nicht mindestens als „Investment Grade“ bewertet werden. Die Anleihen müssen Laufzeiten zwischen sechs Monaten und 30 Jahren haben und können sowohl am Primärmarkt als auch am Sekundärmarkt gekauft werden.

Mensch oder Algorithmus? Freiheit und Demokratie im Zeitalter der Künstlichen Intelligenz

Donnerstag, 10.02.22 18:30 - Online

Mensch oder Algorithmus? Freiheit und Demokratie im Zeitalter der Künstlichen Intelligenz

Künstliche Intelligenz (KI) hat das Potenzial, eine ähnliche historische Umwälzung auszulösen wie die Erfindung des Buchdrucks oder die Einführung der Massenproduktion. Doch wer entscheidet im heraufziehenden Zeitalter Künstlicher Intelligenz über die Ausgestaltung der zukünftigen Einsatzmöglichkeiten? Der Mensch oder ein anonymer Algorithmus? Überwältigend groß ist schon jetzt die Machtkonzentration in der Hand der digitalen Konzerne aus dem Silicon Valley und damit die mögliche Bedrohung für Demokratie und Freiheit. Um so wichtiger erscheint, dass regulatorische Maßnahmen auf europäischer Ebene getroffen werden, um die Sicherheit und die Grundrechte der Menschen und Unternehmen zu gewährleisten, aber gleichzeitig Innovationen und Investitionen in KI in Europa zu fördern.

Tagged:

  • Algorithmus der künstlichen Intelligenz
  • Leave a Reply