Begriffserklärung im KI Glossar von clickworker

Posted by Julia Werner  • 

Vom Algorithmus zur Künstlichen Inzelligenz: YouTube

Mehr als 70 Prozent der Zeit, die Nutzer auf YouTube verbringen, sehen diese vom YouTube-Algorithmus empfohlene Videos. Das sagt zumindest Neal Mohan, der als Chief Product Officer (CPO) bei Google für die Videoplattform zuständig ist. Dahingegen beträgt die Zeit, die die Nutzer Inhalte schauen, nach denen sie selbst aktiv gesucht haben, lediglich 30%. Wie schafft es YouTube, uns also so treffsicher die richtigen Videos vorzuschlagen? Und ist das noch ein Algorithmus oder schon Künstliche Intelligenz?

Vor 2012: Anzahl der Videoaufrufe als Status Quo

Hier gibt es nicht sonderlich viel zu sagen. Zu dieser Zeit steckte YouTube noch verhältnismäßig in den Kinderschuhen. Seit der Gründung im Jahr 2005 und der Übernahme durch Google ein knappes Jahr später zählte nur eine Kennzahl: die Videoaufrufe. Die nach Klickzahlen beliebtesten Videos wurden am prominentesten platziert – ein sehr simples System mit einem eher wenig komplexen Algorithmus.

Das große Problem: dieses System belohnte Clickbaiting, also das Erhaschen von Aufrufzahlen mit möglichst reißerischen, oft unwahren Videotiteln. Selbst wenn Nutzer nach wenigen Sekunden das Video wieder wechselten, war der Videoaufruf da und das Video somit mehr Leuten vorgeschlagen.

Zwischen 2012 und 2016: Ansichtsdauer und Sitzungsdauer

Im Laufe von 2012 wurde der Algorithmus neu ausgerichtet. Ab dann wurden die Vorschläge ausschließlich nach der Ansichtsdauer von Videos und der auf der Plattform insgesamt verbrachten Zeit ausgerichtet.

Jetzt fand also erstmals die Optimierung hinsichtlich der auf YouTube verbrachten Zeit statt. Diese Kennzahl gilt auch heute noch als der heilige Gral. Denn je länger Nutzer Videos schauen, desto mehr Werbeanzeigen sehen sie auch. Auch wenn hierdurch Schattenseiten für die Videoqualität und die Kanalbetreiber entstehen, aus rein ökonomischer Sicht ist dies wahrscheinlich die beste Kennzahl.

Dennoch fließen heute mehr Informationen als lediglich die Zeit in den Algorithmus ein. Dies liegt vor allem daran, dass diese Kennzahl alleine auf Dauer ebenso wenig haltbar war, wie die Videoaufrufe. Videos wurden bewusst unnötig in die Länge gezogen und die vom Titel versprochenen Inhalte erst nach langer Zeit oder gar nicht gezeigt. Alles in der Hoffnung, die Zuschauer länger zu fesseln und somit vom Algorithmus besser bewertet zu werden.

Ab 2016: Machine Learning erhält Einzug in den YouTube-Algorithmus

Ende 2016 wurde der Algorithmus erneut angepasst und um Elemente des maschinellen Lernens erweitert. Ab jetzt kann man also von einer künstlichen Intelligenz sprechen, die für die Vorschläge zumindest mitverantwortlich ist. Im entsprechenden Whitepaper erklärte Google ungewöhnlich ausführlich die Hintergründe der Änderungen. Allerdings blieb die zugrundeliegende Logik des Algorithmus und wie genau das maschinelle Lernen Einfluss auf diesen hat, weiter ein gut gehütetes Geheimnis.

Kurz zusammengefasst sollten die Änderungen dazu beitragen, die Optimierung der Vorschläge zu verbessern. Außerdem sollten Tricksereien, um den Algorithmus zu manipulieren, weiter eingedämmt werden. Nach wie vor galt die Ansichtsdauer von Videos als wichtigster Faktor.

2016 bis 2018: Probleme durch Filterblasen und Fake News

Der mittlerweile zur waschechten künstlichen Intelligenz ausgestaltete Algorithmus muss sich der gleichen Kritik stellen, wie beispielsweise die Systeme von Facebook, Twitter und Co.: Durch die zu starke Personalisierung der Vorschläge entstehen Filterblasen. Radikale und oftmals schlichtweg falsche Informationen werden nicht ausreichend gekennzeichnet oder entfernt.

Das enge Zuschneiden der Vorschläge auf die Interessen einer einzelnen Person ist beispielsweise bei Hobby- und Freizeitthemen tendenziell kein Problem. Sobald es allerdings an Themen der politischen Bildung und Nachrichten geht, stellt das ein großes Problem dar. Die künstliche Intelligenz kann nämlich (noch) nicht zwischen wahren und unwahren Nachrichten unterscheiden und auch ethische Gesichtspunkte muss sie erst lernen.

Für YouTube bedeutet das nicht nur moralische Probleme, sondern auch eine starke ökonomische Bedrohung. Viele Marken ziehen sich zumindest vorübergehend von der Plattform zurück. Selbst bei Werbeschaltung auf ausschließlich „markensicheren“ Kanälen kommt es immer wieder vor, dass diese im Zusammenhang mit zumindest problematischen Videos ausgeliefert wird.

2018 bis 2019: Optimierung der künstlichen Intelligenz

Deshalb wird die künstliche Intelligenz weiter angepasst. Einerseits durch das Schaffen von Stellen für sogenannte „Kuratoren“, die Inhalte bewerten und löschen. Bei 400 Stunden Videomaterial, die jede Minute hochgeladen werden, ist es aber ein aussichtsloses Unterfangen, jedes Video manuell zu prüfen.

Vielmehr soll so die künstliche Intelligenz trainiert werden, bessere Vorschläge zu liefern. Und vor allem solche Videos von den Vorschlägen auszuschließen, die gegen ethische oder moralische Standards verstoßen.

Als zweite Maßnahme wird Kanälen, die eben solche Inhalte verbreiten, die Option zur Monetarisierung entzogen. Das bedeutet, dass solche Kanäle keine Vergütung für eingeblendete Werbung mehr erhalten. Hierdurch soll den Betreibern die Motivation zur Verbreitung von falschen Inhalten genommen werden. Kanäle, die klar gegen geltendes Recht verstoßen, werden außerdem nun deutlich schneller gesperrt und ihre Videos gelöscht.

Doch auch gegen diese Maßnahmen regt sich Kritik: Teilweise berichten Betreiber legitimer Kanäle, grundlos von der Monetarisierung ausgeschlossen worden zu sein. Letztendlich wird YouTube auch hier auf manuelle Maßnahmen zurückgreifen müssen, um die künstliche Intelligenz weiter zu verbessern und differenzierter entscheiden zu lassen.

Auf welcher Basis entscheidet die künstliche Intelligenz von YouTube heute?

Künstliche Intelligenzen arbeiten am effizientesten, wenn die Optimierung hinsichtlich einer einzelnen Variablen erfolgt. Bei YouTube ist diese seit 2012 und trotz allen damit einhergehenden Schwierigkeiten nach wie vor die Ansichtsdauer der Nutzer. Dabei stützt sich die künstliche Intelligenz auf folgende Leistungsdaten der Videos:

Wie oft andere Nutzer das Video angesehen haben, nachdem es vorgeschlagen wurde

Wie lange Nutzer das entsprechende Video angesehen haben

Wie schnell das Video an Beliebtheit gewinnt, also die Wachstumsrate der Ansichten

Wie neu ein Video ist (Sehr neue Videos erhalten teilweise eine bessere Bewertung, damit diese überhaupt eine Chance haben, vorgeschlagen zu werden)

Wie regelmäßig und oft der Kanal, von dem das Video stammt, Inhalte veröffentlicht

Wie viel Zeit die Nutzer insgesamt auf YouTube verbracht haben, wenn sie in dieser Sitzung das entsprechende Video gesehen haben

Interaktionen der Nutzer: Anzahl und Verhältnis von Likes und Dislikes sowie die Anzahl und Länge der abgegebenen Kommentare

Wie viele Nutzer das Video als „nicht interessiert“ aus ihren Vorschlägen entfernt haben

Natürlich sollen Nutzer aber auch möglichst einfach die Inhalte finden, die sie sehen wollen. Hierzu wird zusätzlich abgeglichen, inwieweit die Metadaten der Videos zur Suchanfrage der Nutzer passen. Dieses System ähnelt der Logik der Google-Suche und stützt sich auf Daten wie die Videobeschreibung, Hashtags und Verlinkungen.

Superintelligente Maschinen wären nicht kontrollierbar

Superintelligente Maschinen wären nicht kontrollierbar

Nach theoretischen Berechnungen von Computerfachleuten können Algorithmen eine Künstliche Intelligenz nicht vollständig überwachen

Maschinen, die Autos steuern, Symphonien komponieren oder Menschen im Schach besiegen, faszinieren uns. Während in der Künstlichen Intelligenz (KI) ständig neue Fortschritte gemacht werden, gibt es von Seiten der Wissenschaft und der Philosophie auch Warnungen vor den Gefahren einer unkontrollierbaren, superintelligente KI. Ein internationales Forscherteam unter Beteiligung des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung zeigt anhand theoretischer Berechnungen, dass es nicht möglich ist, eine superintelligente KI zu kontrollieren.

Eine KI mit ehrbaren Zielen zu programmieren, wird unbeabsichtigte Folgen möglichweise nicht verhindern können. © Iyad Rahwan Eine KI mit ehrbaren Zielen zu programmieren, wird unbeabsichtigte Folgen möglichweise nicht verhindern können. © Iyad Rahwan

Angenommen jemand würde eine Künstliche Intelligenz (KI) programmieren, deren Intelligenz dem Menschen überlegen wäre und die selbstständig alles lernen könnte. Angeschlossen an das Internet hätte die KI Zugriff auf alle Daten der Menschheit, sie könnte alle bestehenden Programme ersetzen und alle ans Internet angeschlossenen Maschinen kontrollieren. Ist das eine Utopie oder ein Horrorszenario? Würde die KI Krebs heilen, den Weltfrieden herbeiführen und die Klimakatastrophe verhindern? Oder würde sie die Menschheit vernichten und die Erde übernehmen?

In den Computerwissenschaften und der Philosophie stellt sich die Frage, ob wir eine superintelligente KI überhaupt kontrollieren könnten, sodass sie der Menschheit nicht schadet. Ein internationales Team von Computerwissenschaftlerinnen und -wissenschaftlern zeigt anhand theoretischer Berechnungen, dass es grundsätzlich unmöglich ist, eine superintelligente KI zu kontrollieren.

„Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science-Fiction. Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbständig erledigen, ohne dass diejneigen, die sie programmiert haben, komplett verstehen, wie sie das gelernt haben. Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte“, sagt Manuel Cebrian, Leiter der Forschungsgruppe „Digitale Mobilisierung“ am Forschungsbereich Mensch und Maschine am Max-Planck-Institut für Bildungsforschung und Co-Autor der Studie.

Forschende weltweit haben zwei Ideen entwickelt, wie eine superintelligente KI kontrolliert werden könnte. Zum einen könnte man die Ressourcen der superintelligenten KI gezielt einschränken, indem man sie beispielsweise vom Internet und allen anderen technischen Geräten abschottet, so dass sie keinen Kontakt zur Außenwelt hat – doch wären dadurch auch die Fähigkeiten der superintelligente KI deutlich geringer. Die großen Menschheitsprobleme würde sie so nicht lösen. Die andere Option wäre, die KI von vornherein zu motivieren, nur Ziele zu verfolgen, die im Interesse der Menschheit liegen, zum Beispiel indem man ihr ethische Regeln einprogrammiert. Doch zeigen die Forschenden, dass diese und andere historische oder aktuelle Ideen zur Kontrolle superintelligenter KI ihre Grenzen haben.

Das Forschungsteam konzipierte in seiner Studie einen theoretischen Algorithmus, der sicherstellt, dass eine superintelligenten KI unter keinen Umständen der Menschheit schadet. Dieser Algorithmus simuliert zunächst das Verhalten der KI und stoppt sie, wenn er es als schädlich erachtet. Jedoch zeigt eine genaue Analyse, dass nach aktuellem Stand der Computerwissenschaften ein solcher Algorithmus nicht programmiert werden kann.

„Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, versehentlich seine eigenen Prozesse zum Stillstand bringen könnte. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar“, sagt Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine.

Auf Basis dieser Berechnungen ist es somit nicht möglich, einen Algorithmus zu programmieren, der erkennt, ob eine KI der Welt Schaden zufügen würde oder nicht. Dazu kommt, dass wir möglicherweise nicht einmal erkennen könnten, ob eine Maschine superintelligent ist. Denn, ob eine Maschine eine dem Menschen überlegene Intelligenz besitzt, lässt sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen.

Die Studie „Superintelligence cannot be contained: Lessons from Computability Theory“ wurde im Journal of Artificial Intelligence Research veröffentlicht. Zu den weiteren Autoren der Studie gehören Andres Abeliuk von der University of Southern California, Manuel Alfonseca von der Autonomen Universität Madrid, Antonio Fernández Anta vom IMDEA Networks Institute und Lorenzo Coviello.

Begriffserklärung im KI Glossar von clickworker

Algorithmen in der Künstlichen Intelligenz

Es wird oft behauptet, dass Algorithmen und Künstliche Intelligenz ein Widerspruch seien. Diese Annahme beruht vor allem darauf, dass viele Software-Anbieter den Begriff Künstliche Intelligenz zu Werbezwecken nutzen, obwohl hinter den Produkten herkömmliche Programmiermethoden stehen – mit klar definierten Eingaben und exakt vorhersehbaren Ergebnissen.

Aber auch KI beruht letztlich auf Algorithmen – also auf Formeln, die in Programmiersprache verfasst sind:

Die sogenannte Schwache KI verwendet Algorithmen zur Lösung abgegrenzter Problemstellungen in eng definierten Bereichen.

Auch die Starke KI nutzt Algorithmen. Im Unterschied zur Schwachen KI kann Starke KI ihre Problemlösungen auch auf andere Gebiete übertragen.

Schwache und Starke KI beruhen letztlich auf einer Vielzahl von Handlungsanweisungen, die im Gegensatz zur herkömmlichen Programmierung nicht den Weg der Problemlösung vorgeben, sondern den Weg des Lernens.

Smarter Algorithmus und Maschinelles Lernen

Je komplexer und mächtiger ein Algorithmus ist, desto eher erweckt er den Anschein, „intelligent“ (im Sinne der Ähnlichkeit mit menschlichem Denken) zu sein. Solche smarten Algorithmen sind aber nicht unbedingt das Ergebnis Maschinellen Lernens oder Künstlicher Intelligenz. Automatisch erstellte Produktbeschreibungen, Textfelder mit Autosuggest oder Chatbots beruhen zum Teil auf Programmen, die keinen Lernaspekt aufweisen, aber auf sehr große Datenmengen zugreifen und als intelligent wahrgenommen werden.

Für das Maschinelle Lernen im engeren Sinne dagegen werden Algorithmen verwendet, die

Muster in Datenmengen erkennen,

Zusammenhänge analysieren

und diese Muster und Zusammenhänge zum Lösen von Aufgaben selbstständig einsetzen.

Diese Algorithmen werden folglich als selbstlernend klassifiziert. Systeme, die darauf basieren, ziehen Schlüsse aus ihren Erfahrungen und entwickeln sich dadurch ständig weiter.

Tagged:

  • Algorithmus für künstliche Intelligenz
  • Leave a Reply