Übersicht

Posted by Julia Werner  • 

Lernfähige Algorithmen - Gefahren künstlicher Intelligenz

Katharina Zweig zeigt in ihrem Buch, wo die Grenzen der künstlichen Intelligenz liegen (Heyne)

Katharina Zweig ist Professorin für Informatik an der TU Kaiserslautern und Sachverständige in der Enquete-Kommission des Bundestags für Künstliche Intelligenz. 2016, als KI noch nicht ganz so en vogue war, beschrieb sie hier in Forschung Aktuell einen von ihr für die Zellbiologie entwickelten Statistik-Algorithmus so:

"Mit sehr wenig Modifikation kann ich Ihnen auch sagen, welches das nächste Buch sein sollte, was Sie lesen werden. Oder ich kann damit herausfinden, welche zwei Nichtmitglieder einer sozialen Netzwerkplattform sich wahrscheinlich kennen."

Alle Problemfelder abgedeckt

Jetzt hat Katharina Zweig ihr erstes populärwissenschaftliches Buch geschrieben. Sein Titel: "Ein Algorithmus hat kein Taktgefühl – Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können".

Das Buch hält, was der Titel verspricht, und deckt alle gängigen Problemfelder ab, die der Vormarsch lernfähiger Algorithmen mit sich bringt. Etwa die selbst für Netflix undurchsichtigen Empfehlungsalgorithmen für Netflix-Filme. Oder das Entscheidungsdilemma beim autonomen Auto, wo die Software über Leben und Tod entscheidet.

Software bringt Unschuldige ins Gefängnis

Das Leitmotiv, welches sich durch das ganze Buch zieht, ist die Kritik an COMPAS, der Rückfälligkeitsvorhersagesoftware für Straftäter, die im US-Justizsystem eingesetzt wird. Katharina Zweig hat in ihrem Team COMPAS untersucht und die diskriminierende Funktion dieses KI-Algorithmus statistisch exakt ermittelt. Sie zeigt zur Veranschaulichung in der Mitte des Buchs eine Zeichnung mit einem fiktiven Datenset von Kriminellen und Unschuldigen. Je nachdem, wie man in diesem Quadrat aus Datenpunkten eine Trennlinie zieht, kommen mehr oder weniger Unschuldige ins Gefängnis. Der ehemalige US-Vizepräsident Dick Cheney hielt es für deutlich wichtiger, "Kriminelle zu fassen, als Unschuldige zu schonen." Daher sieht auch seine Trennlinie anders aus: Er fasst alle Kriminellen, bringt aber acht Unschuldige ins Gefängnis.

Subtile Vorurteile und Fehleinschätzungen

An diesem Beispiel wird deutlich, dass die Kriterien, nach denen KI Entscheidungen fällt, von Menschen beeinflusst sind und auch moralische Abwägung enthalten können. Mit anderen Worten: Die Gewichtung eines gesellschaftlich wirksamen KI-Systems ist eine Frage der Ethik. Ein Programm kann zudem mehr oder weniger subtile Vorurteile und Fehleinschätzungen entwickeln, die ohne sorgfältiges Nachtrainieren immer größer werden – mit der Folge, dass beispielsweise für einen Job geeignete Bewerberinnen gar nicht erst zum Vorstellungsgespräch eingeladen werden.

"Wenn ein Lebenslauf angab, dass die Person Mitglied im Frauen-Schach-Club war, wurde das negativ bewertet. Ebenso wurden Zeugnisse von Colleges, die nur Frauen zulassen, negativer bewertet. Das kann passierten, wenn ein Algorithmus feststellt, dass diese Personen in der Vergangenheit weniger oft erfolgreich eingestellt wurden."

Programmierer verantwortlich für die Konsequenzen?

Soweit ein inzwischen korrigiertes Verfahren von Amazon. Das Buch verspricht anfangs, dem Leser Werkzeuge an die Hand zu geben, selber am Algorithmus anzusetzen, also ihn zu verstehen und einzuschätzen. Dieses Versprechen wird nicht eingelöst. Man findet keine Zeile Code, man sieht keinen niedergeschriebenen KI-Algorithmus.

Dafür redet die Informatikerin ihren Kollegen deutlich ins Gewissen. Wenn klar ist, wozu eine Software dienen soll, schreibt sie, ist der Programmierer persönlich für die Konsequenzen ihres Einsatzes verantwortlich. Bei den mit klassischen Programmierverfahren erstellten Abgasmanipulationen deutscher Automobilhersteller trifft das eindeutig so zu. Bei KI-Programmen ist diese Unterscheidung schwieriger, weil die Software oft in völlig anderem Kontext eingesetzt wird, der Programmierer des Neuronalen Netzes also nicht weiß, wo sein Code irgendwann landet und was sein Algorithmus Böses lernt und anrichtet.

IT-Sachbuch als leichte Lektüre

Katharina Zweig hat ein sonniges Gemüt. Deswegen ist ihr Buch trotz der Generalkritik am hemmungslosen Einsatz von KI rundum positiv gestimmt und ihre Begeisterung ungebrochen:

"Wenn man mir eine Riesenfreude machen will, dann kippt man mir einfach einen schicken Datenhaufen vor die Tür."

Zielgruppe: Programmierer, die keine Ahnung von Ethik haben. Und: alle Nicht-Programmierer.

Erkenntnisgewinn: Künstliche Intelligenz muss kein Teufelszeug sein. Beim genauen Hingucken aber lassen sich Gefahren erkennen.

Spaßfaktor: Für ein IT-Sachbuch bemerkenswert leichte Lektüre.

KI-Experte zu Facebooks Algorithmen - "Künstliche Intelligenz ist ein sehr mächtiges Werkzeug"

Joaquin Quiñonero Candela, Leiter der KI-Entwicklung bei Facebook (Foto: Facebook)

Ralf Krauter: Der kalifornische Konzern Facebook hatte vergangene Woche in Berlin zu einer Diskussionsrunde geladen, wo es um den Einsatz künstlicher Intelligenz ging. Mit dabei war auch der Chef der KI-Entwicklung von Facebook. Der gebürtige Spanier, Dr. Joaquin Quiñonero Candela ist mit einer Deutschen verheiratet und hat nach Postdocs in Tübingen und Berlin und einem Zwischenstopp bei Microsoft vor sieben Jahren bei Facebook angefangen. Algorithmen fürs Maschinenlernen sind sein Spezialgebiet. Und ich habe ihn bei unserem Gespräch im Vorfeld der Veranstaltung als Erstes gefragt: Welche Rolle spielt künstliche Intelligenz heute für Facebook?

Joaquin Quiñonero Candela: Facebook, wie wir es heute kennen, gäbe es ohne künstliche Intelligenz gar nicht. KI sorgt einerseits dafür, dass die Nutzer von Facebook oder Instagram in ihrem Nachrichtenstrom keine Informationen verpassen, die ihnen wichtig sind. Andererseits verwenden wir KI bei all unseren Bemühungen, unsere Plattformen und ihre Nutzer vor möglichen Gefahren zu schützen. Unsere ganze Familie von Apps, die heute jeden Tag von 2,5 Milliarden Menschen genutzt werden, könnte ohne künstliche Intelligenz nicht existieren.

"Je mehr die KI lernt, umso bessere Entscheidungen trifft sie"

Krauter: Sie sprachen über die Filteralgorithmen, die auf Facebook und Instagram den Nachrichtenstrom an die persönlichen Vorlieben anpassen. Lernen die ständig dazu, was der Nutzer erwartet und gern sehen würde?

Candela:Ja. Und das ist interessant, wenn man weiß, dass über unsere Apps jeden Tag über eine Milliarde Nachrichten, Bilder und so weiter ausgetauscht werden. Leider verletzen manche dieser Inhalte unsere Community Standards und andere Richtlinien. Diese schädlichen Inhalte allein mithilfe menschlicher Gutachter aus dem Verkehr zu ziehen, wäre unmöglich. Das geht nur indem künstliche Intelligenz und Menschen zusammen arbeiten. Die Menschen spielen dabei eine Schlüsselrolle. Sie entscheiden letztlich und definieren die Standards von denen die Algorithmen lernen.

KI-Algorithmen bei Facebook - „Es ist ein Rüstungswettlauf“

Der Videomitschnitt des Amokläufers von Christchurch ungehindert im Livestream, Hassbotschaften und Fake-News in den Timelines der Nutzer: Facebook hat ganz offensichtlich Schwierigkeiten, problematische Inhalte rechtzeitig und zuverlässig zu identifizieren. Können bessere Algorithmen helfen? Der Videomitschnitt des Amokläufers von Christchurch ungehindert im Livestream, Hassbotschaften und Fake-News in den Timelines der Nutzer: Facebook hat ganz offensichtlich Schwierigkeiten, problematische Inhalte rechtzeitig und zuverlässig zu identifizieren. Können bessere Algorithmen helfen?

Je mehr die künstliche Intelligenz lernt, umso bessere Entscheidungen trifft sie. Der Anteil der Verstöße, die zuerst von einer KI entdeckt wurden, ist dramatisch gewachsen. Und es gibt heute schon Kategorien – etwa gefälschte Accounts oder Nacktfotos – wo 99 Prozents des Contents, den wir entfernen, vom Computer aufgespürt wurde. Das ist gut, denn es macht die Arbeit der 31.000 menschlichen Gutachter, die kritische Inhalte prüfen, viel effizienter. Es ist ähnlich wie am Flughafen: Wenn man ein System hat, das einem verrät, welche Koffer man sich genauer anschauen sollte, verschwendet man keine Zeit mit unnötigen Kontrollen.

Die Fähigkeiten unserer KI-Systeme, Sprache und multimodale Inhalte zu verstehen, die sowohl Texte, Bilder oder auch Audios enthalten, hat sich in den vergangenen sechs Monaten dramatisch verbessert. Dank Investitionen in Maschinenlerntechnologien, die wir multimodales Lernen und selbstüberwachtes Lernen nennen.

Krauter: Wie helfen diese Werkzeuge, unerwünschten Content aufzuspüren?

Candela: Einer der limitierenden Faktoren für künstliche Intelligenz ist der Mangel an kategorisierten Trainingsdaten. Wenn kleine Kinder ihre Umgebung beobachten, sind sie in der Lage, eine sehr strukturierte Repräsentation der Welt zu entwickeln. Wenn man ihnen eine Katze zeigt, sind sie in der Lage, die meisten anderen Katzen zu erkennen. Wir machen dasselbe mit Sprache – und zwar nicht nur mit einer Sprache, sondern mit vielen. Wir analysieren die semantischen Strukturen und können so Sätzen unterschiedlicher Länge und in verschiedenen Sprachen bestimmte Koordinaten in einem Vektorraum zuordnen.

Das Faszinierende dabei: Wenn man einmal so ein Koordinatensystem entwickelt hat, braucht man nicht sehr viele Trainingsdaten, um den Sinn von Inhalten zu verstehen. Und das ist extrem nützlich. Beim Verhindern von Hassbotschaften zum Beispiel haben wir es mit über 40 wichtigen Sprachen zu tun. Für einige davon haben wir nur wenige Trainingsdaten. Durch die Fähigkeit, die Struktur verschiedener Sprachen zu verstehen, können wir Klassifizierungen, die wir für eine der Hauptsprachen entwickelt haben, verwenden, um fehlende Daten bei weniger verbreiteten Sprachen zu kompensieren.

Krauter: Wie sieht’s mit Fake News aus? Die sind für KI-Systeme ja noch schwerer zu entdecken?

Candela: Definitiv. Künstliche Intelligenz ist ein sehr mächtiges Werkzeug. Aber sie macht im Grunde immer nur das, was man ihr beigebracht hat. Was Allgemeinbildung und Urteilsfähigkeit angeht, sind die Systeme noch sehr begrenzt. Beim Aufspüren von falschen Informationen oder Fake News bleibt der ‚Human Factor‘ deshalb extrem wichtig. Auch hier kann KI helfen, eine Vorauswahl von Inhalten zu treffen, die wahrscheinlich problematisch sind – damit Menschen sie dann begutachten. Aber man muss auch klar sagen: Die Verbreitung von Fake News ist eines jener Probleme, die mit künstlicher Intelligenz allein nur schwer zu lösen sind. Als jemand, der sich schon lange mit KI beschäftigt, finde ich das sehr interessant: KI zwingt uns, die menschliche Seite der Probleme in den Fokus zu nehmen.

Es ist spannend zu beobachten, wie gerade eine Menge interdisziplinärer Kooperationen zwischen Sozialwissenschaftlern und KI-Experten entstehen. Die Bestrebungen vieler Länder, Regeln für den Umgang mit künstlicher Intelligenz zu implementieren, fördern diesen Austausch. Bei Facebook etablieren wir gerade ein externes Kontrollgremium, das den Umgang mit kritischen Inhalten überwachen soll. Denn es geht da um wichtige Fragen, die Menschen beantworten müssen, nicht KI-Systeme.

"Lernende Algorithmen sind ein vielversprechendes Werkzeug"

Krauter: Kritiker sagen: Facebooks Plattformen tragen dazu bei, dass Fake News die Gesellschaft polarisieren. Könnte man zugespitzt sagen: Sie haben ein Problem verursacht, dass Sie jetzt mit künstlicher Intelligenz lösen wollen?

Candela: Das ist eine gute Frage. Ich glaube es ist wichtig, sich ins Gedächtnis zu rufen, dass künstliche Intelligenz wie jede Technologie ein Spiegel der Gesellschaft ist. Machen wir ein Gedankenspiel: Mal angenommen soziale Medien würde nicht existieren: Würden manche Diskussionen dann nicht stattfinden und bestimmte extreme Positionen nicht mehr vertreten? Ich denke, man kann diese Frage so oder so beantworten. Ich glaube aber auch, dass lernende Algorithmen ein vielversprechendes Werkzeug sind, das uns helfen kann, die richtige Balance zu finden. Auf der einen Seite wollen wir jedem eine Stimme geben – und oft funktioniert das ja auch sehr gut. Denken Sie an die #MeToo-Bewegung. Die hätte ohne soziale Medien kaum die Dynamik entfaltet, um die Gesellschaft so nachhaltig und positiv zu verändern. Auch viele Bürgerrechtsbewegungen weltweit konnten sich über soziale Medien Gehör verschaffen.

Wenn wir uns auf die Negativbeispiele fokussieren, sollten wir aufpassen, dass Kind nicht mit dem Bad auszuschütten. Es ist extrem wichtig, dass wir sowohl die Richtlinien und Regulierungen als auch die KI-Systeme so verfeinern, dass wir problematische Inhalte noch präziser dingfest machen können. Aber das muss uns gelingen, ohne wichtige Stimmen zu unterdrücken, die dank sozialer Medien zum Leben erwacht sind.

"Werden beim Identifizieren problematischer Videos immer besser"

Krauter: Aber wie kommt es, dass beispielsweise die Videos von dem Amokläufer in Christchurch tagelang auf Facebook verbreitet werden konnten? Warum kann Facebook Fotos, die eine Frau mit nackten Brüsten zeigen, so effizient aus dem Verkehr ziehen, aber nicht das Video von einem Massenmord?

Candela: Die Technologie entwickelt sich ständig weiter. Auch beim Identifizieren problematischer Videos werden wir immer besser. Bei dem konkreten Beispiel, das Sie ansprechen, war eine der großen Herausforderungen, dass sehr viele Nutzer dieses Video in modifizierter Form weiterverbreitet haben. Zum Beispiel indem sie ihren Computermonitor mit dem Smartphone aus einem schrägen Winkel filmten, eine neue Tonspur hinzufügten, oder andere Dinge veränderten. Wir hätten offensichtlich besser sein können. Allerdings will ich auch daran erinnern, dass wir im selben Jahr zwischen März und September 4,5 Millionen gewaltverherrlichende Inhalte entfernt haben, 97 Prozent davon wurden von KI entdeckt. Außerdem haben wir seitdem dramatische Fortschritte gemacht beim Aufspüren eingebetteter Inhalte. Unsere Fähigkeit, nicht nur die einzelnen Pixel eines Bildes zu vergleichen, sondern seinen Inhalt zu verstehen, wird von Monat zu Monat besser. Wir brauchen bessere Algorithmen und präzisere Richtlinien, was akzeptabel ist und was nicht. Wir arbeiten intensiv an beidem, weil das extrem wichtig ist.

"Deep Fakes sind extrem besorgniserregend"

Krauter: Facebook investiert 7,5 Millionen US-Dollar in ein Forschungsinstitut, das kürzlich an der Technischen Universität München eröffnet wurde und sich ethischen Fragen rund ums Thema künstliche Intelligenz widmet. Bei einem der ersten Projekte geht’s um ‚Deep Fakes‘, also gefälschte, aber täuschend echt wirkende Videos, wo man Leuten Dinge in den Mund legt, die sie so nie gesagt haben. Wie kann KI helfen, uns davor zu schützen?

Candela: Deep Fakes, also die Verwendung neuronaler Netzwerke, um multimediale Inhalte zu manipulieren, sind extrem besorgniserregend. Und die Wissenschaft fängt gerade erst an, sich damit zu befassen, weil es bisher keinen hochwertigen Datensatz gab, um das Problem anzugehen. Denken Sie an ‚Computer Vision‘, also die computergestützte Bildverarbeitung: Dieses Feld explodierte um 2012 förmlich und machte unglaublich schnelle Fortschritte. Der Auslöser war ein öffentlicher Datensatz, der Forscher weltweit beflügelt hat. Um bei der Detektion von Deep Fakes eine ähnliche Dynamik zu erzeugen, haben wir gemeinsam mit vielen Partnern einen Wettbewerb ins Leben gerufen. Eins der Ziele dabei: Wir wollen sehr hochwertige Datensätze generieren, die Forscher rund um den Globus verwenden können. Dazu haben über zehn Millionen US-Dollar investiert, unter anderem für Aufnahmen mit bezahlten Schauspielern.

Es gibt Grund zur Hoffnung, dass man Deep Fakes erkennen kann. Wir haben inzwischen Algorithmen, die Bildszenen verstehen können und erkennen, wo die Kamera stand und so weiter. Wenn man so eine Szene nachträglich verändert und die manipulierten Pixel nicht genau zur Dynamik der Szene passen, merken diese Algorithmen das. Aber man muss klar sagen: Das Ganze ist ein Rüstungswettlauf. Aber ich bin sehr optimistisch, dass wir mit dem mächtigen Datensatz und diesem Wettbewerb schnell Fortschritte sehen werden.

Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.

Übersicht

In dieser zweisemestrigen Veranstaltung dreht sich alles um das Thema Künstliche Intelligenz bzw. Maschinelles Lernen.

Seit vielen Jahren arbeiten wir hier mit unserem Kooperationspartner Porsche zusammen. Wir vermitteln den Studierenden erforderliche Grundkenntnisse im Maschinellen Lernen sowie in der Anwendung von Software-Werkzeugen, die die Entwicklung von Machine Learning-Anwendungen deutlich vereinfachen. Anwendungsgebiet ist das Thema »After Sales«. In kleinen Hackathons, sogenannten »Capstone Projects«, entwickeln die Studierenden innovative Lösungen für konkrete Problemstellungen der Porsche SE.

In der ersten Hälfte des Moduls – Künstliche Intelligenz I – erhalten die Studierenden zunächst Einblick in die theoretischen und historischen Grundlagen der Künstlichen Intelligenz und den zentralen Algorithmen.

Dabei befassen wir uns mit der Entstehung des KI-Forschungsfeldes, Agenten und Suchverfahren, Modellierung und Lösung von Problemen mit Agenten, Wissensverarbeitung und Repräsentation, Daten- und Wissensmodellierung, Expertensysteme und Inferenz sowie mit den zentralen Algorithmen und Problemen des Maschinellen Lernens.

Darüber hinaus erhalten die Studierenden eine Einführung in die Programmiersprache Python, um verschiedene Konzepte aus der Vorlesung zu implementieren und zu diskutieren

In der zweiten Hälfte des Moduls – Künstliche Intelligenz II – werden die gewonnenen Grundkenntnisse weiter vertieft.

Um dies zu erreichen, thematisieren wir aktuelle und praxisnahe Herausforderungen der KI-Nutzung (Big Data, Parallelisierung, transparente und faire KI, etc.) sowie Funktionsweisen fortgeschrittener Algorithmen und Verfahren, wie bspw. Deep Neural Networks oder generative Verfahren.

Zudem setzen wir uns tiefgehend mit dem Entwicklungsprozess von KI-Lösungen auseinander, um Studierende zu befähigen, Potentiale auszuschöpfen sowie mögliche Hürden und Herausforderungen bei der Verwirklichung von KI überwinden zu können.

Wie im ersten Teil wird auch die Umsetzung der theoretischen Konzepte in Python besprochen und exemplarisch durchgeführt.

Tagged:

  • Algorithmus für künstliche Intelligenz
  • Leave a Reply