Mehr Wissen, aber wenig Orientierung: Wie sich das Verhältnis Deutschlands zu Algorithmen und KI entwickelt hat - Algorithmenethik

Posted by Julia Werner  • 

Algorithmen in der Medizin: AWMF-Arbeitskreis Ärzte und Juristen diskutiert Einsatz Künstlicher Intelligenz

Teilen:

Algorithmen in der Medizin: AWMF-Arbeitskreis Ärzte und Juristen diskutiert Einsatz Künstlicher Intelligenz

Medizin - Kommunikation Medizinkommunikation

Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V.

09.06.2022 15:26

Berlin – Ob bei Diagnostik, Therapie oder in der Forschung – der Einsatz von künstlicher Intelligenz kann helfen, die medizinische Behandlung im Alltag zu verbessern. Der Arbeitskreis Ärzte und Juristen der Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V. (AWMF) hat in seiner jüngsten Sitzung diskutiert, welche Voraussetzungen es braucht, damit Ärztinnen und Ärzte mit Hilfe von Algorithmen bessere Entscheidungen treffen können. Für die Zukunft ist aus Sicht der Expertenrunde unter anderem wichtig, offene Haftungsfragen zu klären.

Die Einsatzmöglichkeiten von Künstlicher Intelligenz (KI) in der Medizin sind vielfältig. Sie kann Ärztinnen und Ärzte darin unterstützen, die richtige Diagnose zu stellen, beispielsweise indem Algorithmen auf das Erkennen bestimmter Erkrankungen bei Computertomografie-Aufnahmen trainiert werden. Für Patientinnen und Patienten stehen bereits digitale Anwendungen in Form von Apps zur Verfügung, die auf Basis der eingegebenen Symptome und Befunde Ursachen und mögliche Lösungswege aufzeigen.

Auch für die medizinische Forschung bietet der Einsatz Künstlicher Intelligenz Chancen: „Durch die Anwendung von Algorithmen können verschiedene Forschungsdatensätze miteinander vernetzt und mit hoher Geschwindigkeit analysiert werden. Dies könnte helfen, zukünftig wesentlich rascher zu neuen wissenschaftlichen Erkenntnissen zu kommen. Heute vergeht eine viel zu lange Zeit, bis auf Basis einer Forschungshypothese Ergebnisse resultieren, die in geänderte Leitlinienempfehlungen münden“, sagt Professor Dr. rer. nat. Martin Sedlmayr, Inhaber der Professur für Medizinische Informatik der Medizinischen Fakultät Carl Gustav Carus der Technischen Universität Dresden.

„Die Anwendungsgebiete von KI in der Medizin sind vielfältig. Klar ist, dass KI die Ärztin oder den Arzt nicht ersetzen kann. Vielmehr soll sie die Behandelnden bei der Entscheidungsfindung unterstützen und dort eingesetzt werden, wo es den Kranken nützt“, so Sedlmayr. Vor diesem Hintergrund sei es aus Sicht des Experten notwendig, dass das Feld der KI auch stärker in die Ausbildung der Studierenden – sowohl der Informatik als auch der Medizin – integriert würde.

Voraussetzung für den erfolgreichen Einsatz von Algorithmen in der Medizin sind im System enthaltene Daten – ausreichend und in entsprechender Qualität. „Die Verfügbarkeit und Qualität der Daten, aus denen sich Algorithmen speisen, entscheiden über die Qualität der Ergebnisse von KI-Anwendungen“, betont Professor Dr. med. Alexander Cavallaro vom Imaging Science Institute (ISI) in der Radiologie am Universitätsklinikum Erlangen. Heute liegen Daten meist in unterschiedlicher Form vor, beispielsweise als Text-Dokumente in einer Patientenakte oder auch als Bilder wie Röntgenaufnahmen. „Bevor ein Algorithmus angewendet werden kann, müssen die Daten zuerst extrahiert und geordnet werden. Ziel ist es, beispielsweise unterschiedliche Inhalte wie Texte in Befunden, Bilder oder Laborwerte so aufzubereiten, dass sie – miteinander vernetzt – treffende Lösungen generieren können“, erläutert der Experte. Die AWMF hat dazu wiederholt Qualitätskriterien eingefordert: Transparenz und Vertrauenswürdigkeit der Datengrundlage. Dazu muss Wissen aus hochwertigen, evidenzbasierten Leitlinien als primäre Datenbasis in regelbasierte Algorithmen und KI-Anwendungen integriert und für Nutzende kenntlich gemacht werden.

Insgesamt sind sich Ärzte und Juristen einig, dass der Einsatz von Künstlicher Intelligenz zukünftig eine wichtige Rolle in der Medizin spielen wird. „Entscheidend ist, dass der Mensch die Kontrolle über die KI behält. Es ist wichtig, dass Ärztinnen und Ärzte immer in der Lage sind, mögliche Fehler und deren Quellen zu erkennen. Das setzt wiederum voraus, dass sie nachvollziehen können und verstehen, wie Künstliche Intelligenz entsteht und wie der angewendete Algorithmus zu Ergebnissen kommt“, betont Cavallaro.

Dem AWMF-Arbeitskreis Ärzte und Juristen ging es bei ihrer Tagung daher auch um die Klärung offener Haftungsfragen. Der Rechtswissenschaftler Professor Dr. iur. Oliver Brand, führte dazu aus: „Ärztinnen und Ärzte müssen immer in der Pflicht verbleiben, Ergebnisse der Künstlichen Intelligenz zu kontrollieren. Damit tragen sie weiterhin die Verantwortung für Diagnosen oder Therapiewege, auch wenn sie mithilfe von KI ermittelt wurden.“ Allerdings bereiten bei selbstlernenden Systemen die Zurechnung von Auswirkungen der KI auf die Ärztinnen und Ärzte Probleme. „Weil die zivilrechtlichen Institute bei der Frage der Haftungszuschreibung an ihre

Grenzen geraten, braucht es eine gesetzliche Neuregelung. Die geltenden Regeln stellen bis dahin aber eine brauchbare Notlösung dar“, so Brand, Inhaber des Lehrstuhls für Bürgerliches Recht, Privatversicherungsrecht, Wirtschaftsrecht und Rechtsvergleichung der Universität Mannheim

***Bei Veröffentlichung Belg erbeten.***

Ihr Kontakt für Rückfragen:

Sabrina Hartmann

Prssestelle AWMF

E-Mail:

Tel.: 0711/8931649

Merkmale dieser Pressemitteilung:

Journalisten

Ernährung / Gesundheit / Pflege, Informationstechnik, Medizin

überregional

Buntes aus der Wissenschaft

Deutsch

Algorithmen: Die Grenzen der künstlichen Intelligenz

Dank der vielen Übungsdaten lassen sich heute sehr viel größere und tiefere Netze trainieren als noch vor einigen Jahren. Während früher ein berühmter Computer-Vision-Datensatz aus 256 Bildern und sein Nachfolger aus 1000 Bildern bestand, gibt es heute Datensätze mit einer Million gelabelter Bilder – also solche, auf denen Menschen markiert haben, was darauf zu sehen ist. Aber die Netze haben auch entscheidende Haken: "Man kann bei neuronalen Netzen schwer nachvollziehen, wie sie zu einer Entscheidung kamen", sagt Hamprecht. Zudem beruhe der Entwurf neuronaler Netze auf einer großen Willkür: Bei der Entscheidung, wie viele Lagen mit wie vielen Neuronen genutzt werden sollten, beruhe vieles auf Bauchgefühl oder auf Ausprobieren. Die Entwickler testen verschiedene Varianten und schauen, wann das beste Ergebnis entsteht. Erklären können sie ihre Entscheidung nicht. "Dieses Rumprobieren gefällt mir nicht", sagt Hamprecht, "ich gehe den Dingen lieber auf den Grund."

Informatiker sind nicht in Statistik ausgebildet

Dass häufig das Bauchgefühl oder auch relativ unbestimmtes Herumprobieren zu der Entscheidung führt, welcher Algorithmus für welches Problem angewendet wird, stört auch Katharina Zweig, Leiterin der Arbeitsgruppe Graphentheorie und Analyse komplexer Netzwerke an der TU Kaiserslautern: "Das größte Problem: Wir als Informatiker sind nicht dafür ausgebildet zu modellieren." Modellieren bedeutet beispielsweise die Entscheidung, welche Daten als Trainingsdaten relevant sind und welcher Algorithmus auf diese angewendet wird. Ein umstrittenes Projekt, das die Schufa vor einiger Zeit gemeinsam mit dem Hasso-Plattner-Institut angekündigt hatte, aus Daten von sozialen Netzwerken die Kreditwürdigkeit Einzelner vorhersagen zu können, beruhe auf einem Modell – der Idee, dass diese Daten dafür geeignet sein könnten. Welcher Algorithmus des maschinellen Lernens darauf angewendet wird, wird im Zweifel danach entschieden, welcher des beste Ergebnis bringt, also die nicht Kreditwürdigen findet und nicht zu viele Kreditwürdige fälschlich aussortiert. Schließlich wissen die Forscher aus der Zusammenarbeit mit der Schufa, wer als kreditwürdig eingeschätzt wird. Ein Algorithmus sucht dann Gemeinsamkeiten der Betroffenen anhand der Daten, die sie auf Facebook geteilt haben. Aber woher weiß man, dass das nicht zufällige Korrelationen sind? Und ist das dann seriös, Menschen auf dieser Grundlage einen Kredit zu verwehren?

Aber das Ganze hat auch noch ein größeres, statistisches Problem, das häufig übersehen wird – auch von Informatikern. Angenommen, am Ende entsteht ein Algorithmus, der anhand von Facebook-Daten zu 90 Prozent richtig vorhersagen würde, wen die Schufa als nicht kreditwürdig ansehen würde, und lediglich 5 Prozent Kreditwürdige fälschlicherweise als nicht kreditwürdig einstuft. Auf den ersten Blick wirkt das wie ein recht gutes Ergebnis. Man könnte auf die Idee kommen, dass Facebook eine gute Datenquelle ist, um die Kreditwürdigkeit von Menschen zu berechnen. Aber es gibt eine Falle, warnt Zweig: "Man muss betrachten, in welchem Verhältnis diese in der Bevölkerung vorliegen." Nur wenige bezahlen schließlich ihren Kredit nicht zurück. Angenommen, von 5000 Menschen zahlen 150 einen Kredit nicht zurück: der Algorithmus würde davon 90 Prozent – also 135 – identifizieren. Hochgerechnet würden aber auf Grund des scheinbar recht treffsicheren Algorithmus gut 240 weitere Personen keinen Kredit bekommen (5 Prozent der 4850 eigentlich Kreditwürdigen). "Damit liegt die Trefferquote, bei allen, die der Algorithmus als nicht kreditwürdig ansieht, nur bei etwa 36 Prozent. Solche prozentuale Maße sind also ein Problem in der künstlichen Intelligenz, wenn die vorherzusagenden Kategorien sehr unbalanciert auftreten", warnt Zweig. "Und oft wenden wir KI dann an, wenn wir wenig wissen, bei seltenen Krankheiten beispielsweise." Aber genau dann fallen Vorhersagefehler stark ins Gewicht: "Man sortiert zu viele aus oder detektiert die Leute nicht, die eigentlich dazugehören." Nach Protesten wurde dieses Projekt jedoch rasch wieder eingestellt wurde.

Unschuldige geraten zwangsläufig in Verdacht

Diese Gefahren sind beim unüberwachten Lernen möglicherweise noch größer. Dabei bekommt der Algorithmus keine Trainingsdaten und keinen Hinweis auf das gewünschte Ergebnis, sondern er soll Strukturen oder Zusammenhänge in den Daten erkennen. Er kann zum Beispiel ungewöhnliche Ereignisse finden, so genannte "Outlier" – das wird angewendet, um Hackerangriffe auf Computernetzwerke anhand auffällig anderer Anfragen aus dem Netz zu erkennen. Die Aufgabe für den Algorithmus lautet dann: Finde heraus, was typische Ereignisse sind, und sage mir, was nicht typisch ist. Ein anderer wichtiger Anwendungsfall ist die Clusteranalyse, die Suche nach "natürlichen" Gruppen, Daten mit ähnlichen Eigenschaften. Diese Verfahren sind beispielsweise geeignet, um Cliquen in sozialen Netzwerken zu identifizieren oder Kunden, die ähnliche Kaufinteressen haben.

Mehr Wissen, aber wenig Orientierung: Wie sich das Verhältnis Deutschlands zu Algorithmen und KI entwickelt hat - Algorithmenethik

Mehr Wissen, aber wenig Orientierung: Wie sich das Verhältnis Deutschlands zu Algorithmen und KI entwickelt hat

Algorithmen und Künstliche Intelligenz (KI) prägen immer stärker unseren Alltag. Was die Bevölkerung Deutschlands über diese digitalen Technologien weiß und denkt, zeigen wir in einer neuen Bevölkerungsumfrage. Im Vergleich zu Erhebungen von 2018 und 2020 zeigt sich: Während die Bekanntheit und Akzeptanz von automatisierten Entscheidungen über die vergangenen Jahre zugenommen hat, können weite Teile der Bevölkerung die Implikationen der Einsätze kaum einschätzen.

Kita-Plätze werden mithilfe von Algorithmen vergeben, Gesichtserkennung wird bei der Videoüberwachung im öffentlichen Raum eingesetzt und Naturkatastrophen durch Frühwarnsysteme vorhergesagt: Algorithmen und Künstliche Intelligenz sind gekommen, um zu bleiben. Doch was wissen Menschen in Deutschland darüber und wie nehmen sie den Einfluss dieser digitalen Technologien auf ihr Leben und die Gesellschaft wahr?

Diesen Fragen sind wir in Repräsentativumfragen bereits in den Jahren 2018 und 2020 nachgegangen, die vom Institut für Demoskopie Allensbach (IfD) im Auftrag der Bertelsmann Stiftung durchgeführt wurden. Im nun erschienenen Update der Bevölkerungsumfrage des IfD lag der Fokus auf der Trendfortschreibung: Wir wollten herausfinden, wie sich das selbst zugesprochene Wissen der Befragten über Algorithmen und ihre Einstellungen zu deren Auswirkungen in den letzten vier Jahren entwickelt haben. Darüber hinaus wurde zum ersten Mal geprüft, inwieweit der Begriff „Künstliche Intelligenz“ andere Ergebnisse liefert als der Begriff „Algorithmus“.

Die Bevölkerung gibt an, mehr Wissen über die Funktionsweise und die Implikationen von Algorithmen zu haben

Die Bekanntheit des Begriffs „Algorithmus“ ist über die letzten vier Jahre von 72 auf 81 Prozent gestiegen: Immer mehr Menschen haben ihn schon einmal gehört. Darüber hinaus sprechen sich die Befragten auch mehr Wissen über Algorithmen zu. So geben mittlerweile 60 Prozent an, eine ungefähre oder sogar recht genaue Vorstellung von Algorithmen zu haben.

Kenntnis über die Begriffe „Algorithmus“ und „Künstliche Intelligenz“ ist ungleich verteilt

Während 81 Prozent der Befragten angaben, sie hätten das Wort „Algorithmus“ schon einmal gehört, waren es bei „Künstliche Intelligenz“ mit 88 Prozent noch einmal etwas mehr. Was im Detail bei den hier vorliegenden Zahlen auffällt: Vor allem in der älteren Generation ist der Begriff „Künstliche Intelligenz“ deutlich bekannter als der Begriff „Algorithmus“. Während 69 Prozent der über 60-jährigen Befragten sagten, ihnen sei das Stichwort „Algorithmus“ bekannt, waren es in derselben Altersgruppe beim Begriff „Künstliche Intelligenz“ 82 Prozent.

Größere Unterschiede zeigen sich auch bei der Analyse nach Bildungsabschluss. Die Kenntnis der beiden Begriffe steigt mit dem formalen Bildungsgrad: Beim Stichwort „Algorithmus“ ist die Differenz zwischen dem Kenntnisstand der Befragten mit niedrigem und höherem Bildungsabschluss deutlich größer als beim Begriff „Künstliche Intelligenz“. Während 75 Prozent der Befragten mit Volks- oder Hauptschulbildung angaben, den Begriff „Künstliche Intelligenz“ zu kennen, sagten nur 54 Prozent das Gleiche über den Begriff „Algorithmus“.

Diese „Bildungsschere“ ist seit 2018 größer geworden: Der Anteil der Befragten mit hohem Bildungsabschluss (Abitur/Studium), die kaum etwas oder gar nichts von dem Begriff „Algorithmus“ wissen, hat sich binnen vier Jahren fast halbiert (von 31 auf 17 Prozent). Bei denjenigen mit niedrigem Bildungsabschluss (Volks-/Hauptschule) lässt sich lediglich ein Rückgang um sieben Prozentpunkte auf 68 Prozent verzeichnen.

Teil(automatisierte) Entscheidungen werden zunehmend akzeptiert

Es wurde außerdem anhand ausgewählter Anwendungsfälle abgefragt, ob die Menschen wissen, wo Algorithmen und Künstliche Intelligenz eingesetzt werden. Bei den Anwendungsfällen, die in beiden Jahren abgefragt wurden, hat sich das Wissen im Vergleich zu 2018 im Durchschnitt um gut zehn Prozentpunkte erhöht. Besonders bekannt sind dabei die personalisierte Auswahl und Anzeige von Werbung (69 Prozent), die Gesichtserkennung bei der Videoüberwachung im öffentlichen Raum (67 Prozent) und die Rechtschreib- und Satzbaukontrolle bei Textverarbeitungsprogrammen (66 Prozent).

Eng verknüpft mit der Bekanntheit konkreter Anwendungsfälle von Algorithmen und Künstlicher Intelligenz ist deren Akzeptanz: Eine automatisierte Entscheidung gilt tendenziell eher als akzeptabel, wenn den Befragten das Einsatzgebiet bekannter ist.

Weiterhin ist erkennbar, dass es in Bereichen, die vergleichsweise geringe soziale Auswirkungen haben, auch weniger Vorbehalte gegenüber (teil)automatisierten Entscheidungen gibt. Dennoch ist auch bei einzelnen Anwendungen mit großem sozialen Schadenspotenzial eine erstaunlich hohe Akzeptanz (teil)automatisierter Entscheidungen festzustellen. Dies trifft etwa auf die Bewertung von Kreditwürdigkeit, die Vorauswahl von Bewerber:innen bei der Personalbesetzung und – besonders augenfällig – die Gesichtserkennung bei der Videoüberwachung im öffentlichen Raum zu, bei der sich die Akzeptanz der Automatisierung von 36 Prozent (2018) auf 51 Prozent (2022) erhöht hat.

Einfluss von Algorithmen und Künstlicher Intelligenz auf das eigene Leben werden kaum wahrgenommen

Bemerkenswert ist, dass es der Bevölkerung noch immer schwerfällt, die Relevanz von Algorithmen für das eigene Leben und den Alltag zu erkennen. Gegenüber 2018 hat hier kaum eine Veränderung stattgefunden: Der Anteil der Befragten, die einen starken oder sehr starken Einfluss von Algorithmen auf ihr Leben und ihren Alltag wahrnehmen, ist lediglich von 27 auf 29 Prozent gestiegen, bei Künstlicher Intelligenz sind es aktuell sogar nur 14 Prozent.

Eine weitere Konstante gegenüber 2018 ist die verbreitete Unentschlossenheit hinsichtlich gesellschaftlicher und individueller Auswirkungen der digitalen Technologien – und ob diese positiv oder negativ zu bewerten sind. So haben immer noch mehr als 40 Prozent keine klare Meinung dazu, ob der zunehmende Einsatz von Algorithmen und Künstlicher Intelligenz für die Gesellschaft insgesamt mehr Chancen oder mehr Risiken mit sich bringt . Insgesamt scheinen die Menschen in Deutschland orientierungslos gegenüber Algorithmen und Künstlicher Intelligenz zu sein.

Ein breiter Kompetenzaufbau, eine differenzierte Berichterstattung und mehr gemeinwohlorientierte Algorithmeneinsätze sind nötig

Die Befragungsergebnisse zeigen deutlich, dass noch viel getan werden muss, damit die Orientierungslosigkeit und die Wissenskluft mit Blick auf Algorithmen und Künstliche Intelligenz abnehmen.

Wissens- und Kompetenzaufbau zu Algorithmen und Künstlicher Intelligenz befördern, der die Gesellschaft in ihrer Breite erreicht.

Zwar hat das Unwissen über Algorithmen, über ihre Funktionsweisen und ihre Einsatzbereiche in den letzten vier Jahren etwas abgenommen, aber nicht für alle gleichermaßen: Es zeigt sich, dass sich insbesondere Befragte mit höherem Bildungsabschluss mehr Wissen über Algorithmen und Künstliche Intelligenz zusprechen. Da Algorithmen und Künstliche Intelligenz jedoch das Leben und die Teilhabechancen aller Menschen beeinflussen, muss auch das Wissen darüber, unabhängig von Faktoren wie Alter, Einkommen oder eben Bildungsabschluss, gestärkt werden.

Eine differenzierte Berichterstattung mit Fokus auf die oft unbekannten Einsatzgebiete und „unsichtbaren“ Auswirkungen von Algorithmen und Künstlicher Intelligenz stärken.

Der Mehrheit in Deutschland fällt es immer noch ausgesprochen schwer, die Auswirkungen der Technologien auf ihr Leben einzuschätzen. Zudem sind viele Anwendungsfelder von Algorithmen und Künstlicher Intelligenz weiten Teilen der Bevölkerung immer noch unbekannt. Für eine informierte Einschätzung von Chancen und Risiken braucht es auch einen vielfältigeren medialen Diskurs, der neben den wirtschaftlichen auch die sozialen und gesellschaftlichen Aspekte der Automatisierung ausleuchtet.

Algorithmen und Künstliche Intelligenz zunehmend für Lösungsbeiträge zu gesellschaftlichen Herausforderungen und sozialen Problemen einsetzen.

Aktuell herrscht eine große Skepsis in der Bevölkerung, ob der Einsatz von Algorithmen und Künstlicher Intelligenz sowohl für Einzelne wie auch für die Gesellschaft insgesamt mehr Vor- als Nachteile bringt. Um dem zu begegnen, braucht es mehr und vor allem alltagsrelevante Anwendungsbeispiele, wie Algorithmen und Künstliche Intelligenz stärker für das Gemeinwohl eingesetzt werden können.

Die Rohdaten, die aufbereiteten Indikatoren für statistische Analysen sowie das Logfile mit den Outputs der Berechnungen sind unter folgendem Link abrufbar: www.bertelsmann-stiftung.de/umfrage-algorithmen2022/

Dieser Text ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Tagged:

  • Algorithmus der künstlichen Intelligenz
  • Leave a Reply