Datenschutzkonformer Aufbau von Künstlicher Intelligenz

Posted by Julia Werner  • 

Künstliche Intelligenz & Machine Learning in der Industrie

Durch den Einsatz von Künst­li­cher Intel­li­genz und Machine Learnings bieten sich Möglich­keiten und Vorteile mit ungeahnten Poten­tial zur Lösung von Problemen, zur Optimie­rung von Prozessen, zur Steige­rung der Qualität und für Vorher­sagen des Verhal­tens von Maschinen in der Zukunft. Die bishe­rigen, erfolg­rei­chen Techno­lo­gien und Methoden aus der Hochspra­chen­ent­wick­lung sind weiterhin richtig und wichtig und werden immer ein Bestand­teil der nachhal­tigen Software­ent­wick­lung bleiben. Das agile Vorgehen in der Software­ent­wick­lung wird durch KI und ML nicht obsolet. Doch das zusätz­lich Neue und Inter­es­sante für alle Bereiche des Maschinen- und Anlagenbau ist, aus struk­tu­rierten und beson­ders aus unstruk­tu­rierten Daten Muster zu erkennen, Algorithmen zu entwi­ckeln und daraus Erkennt­nisse für die konkrete Situa­tion und die Zukunft ableiten zu können. Jedes moderne, zukunfts­ori­en­tierte Unter­nehmen sollte sich spätes­tens jetzt mit der Künst­li­chen Intel­li­genz und Machine Learning beschäf­tigen: Prüfen Sie, wo Sie schon immer scheinbar „unlös­bare“ Probleme haben oder lassen Sie sich von Beispielen anderer Unter­nehmen inspi­rieren. Schauen Sie, ob bzw. wo Sie nützliche Daten­be­stände haben oder ab sofort aufbauen können. Dann starten Sie möglichst bald mit einem kleineren Projekt, um erste Erfah­rungen zu sammeln und schnell erste Erfolge zu erzielen. Lassen Sie sich auf dem Weg zum eigenen Know-how in Ihrem Haus von externen Experten begleiten. Erfah­rungs­gemäß wird der Einstieg nur so zum Erfolg, schützt Sie vor Enttäu­schungen bzw. falschen Erwar­tungen oder gar Schäden durch falsche Ergeb­nisse. Da viele andere Unter­nehmen Ihrer Branche bereits in Lösungen mittels Künst­li­cher Intel­li­genz inves­tieren, sollten auch Sie die Themen angehen, um am Ball zu bleiben. Und wenn Sie dies tun, machen Sie es am besten gleich richtig mit einem erfah­renen Partner an der Seite. Wir unter­stützen Sie mit unseren Dienst­leis­tungen und begleiten Sie dabei!

Mehr lesen

Weniger lesen

▷ Was ist Künstliche Intelligenz

Was ist Künstliche Intelligenz /Artificial Intelligence (KI / AI)?

Als Artificial Intelligence (AI/engl.) bzw. Künstliche Intelligenz (KI/dt.) werden bestimmte statistische Verfahren bezeichnet, auf deren Grundlage in Bruchteilen einer Sekunde und trotz unzureichender Informationslage automatisch Entscheidungen gefällt werden können.

Dabei werden große Datenmengen, vielfach auch kontradiktorische Informationen von inhärenter Diskrepanz, verarbeitet. Maschinen müssen anhand von Regeln und Methoden der künstlichen Intelligenz komplexe Entscheidungen treffen, die aus der Gesamtlage der vorliegenden Informationen abgeleitet werden. Sie sollen also nicht „stumpf“ und „unvernetzt“ reagieren, sondern tatsächlich Entscheidungen treffen wie es auch einem Menschen mithilfe von Intuition und Intelligenz möglich wäre. Methoden der künstlichen Intelligenz werden in der Industrie eingesetzt oder optimieren Software und Anwendungsprogramme zum Beispiel auch bei der Entwicklung von Onlineshops.

Big Data

Unter dem Schlagwort Big Data werden alle Techniken der Datenanalyse und der Verarbeitung von Datenquellen subsumiert, bei denen die auszuwertenden Datenmengen zu groß sind, zu schnell wachsen oder nicht hinreichend mit Metadaten versehen sind (unterannotierte Daten), um ihre Quelle oder Relevanz für ihre weitere Verarbeitung auszulesen. Gerade Daten der KMU sind oft nur unzureichend annotiert. Es fehlen strukturierende Elemente wie relevante Metadaten, nach denen die Quelltexte gezielt nach relevanten Metadaten ausgelesen werden können. Weil in diesem Fall klassische Datenbankanalysen und Analyseverfahren versagen oder zu zeitaufwendig wären, werden zur Analyse derartiger Datenquellen künstliche Intelligenz -Methoden und Data Mining verwendet.

Data Science

Die interdisziplinäre Forschung zur Analyse, Nutzung und Verarbeitung von Daten wird als Data Science bezeichnet. Data Science umfasst also die Auseinandersetzung mit den gängigen Programmierparadigmen, den für die Anwendung von künstliche Intelligenz -Verfahren am besten geeigneten statistischen Modellen und Algorithmen (Algorithmic Economy, Approximate Computing).

Algorithmus

Ein Algorithmus ist eine mathematisch-logische Vorschrift, anhand der Berechnungen und Befehle ausgeführt werden. Sie generieren analog des jeweiligen Inputs in direkter Konsequenz einen vorhersehbaren Output. Mit einem prädiktiven Algorithmus lassen sich so beispielsweise anhand eines lediglich durch bestimmte Werte und Eckdaten definierten Users, die zukünftigen Produktkäufe dieses bestimmten „Prototyps“ prognostizieren.

Machine Learning & Künstliche Intelligenz

Werden innere Zusammenhänge innerhalb einer Struktur ohne Einwirkung des Menschen und nur durch Einsatz einer Software erkannt, spricht man von Maschinellem Lernen (Machine Learning). Weil menschliche, ggf. von Vorurteilen verstellte Vorannahmen ausgeschlossen bleiben, gelingt es Maschinen oft, innerhalb vorliegender Informationen und Daten Beziehungen aufzuspüren, die Menschen bislang entgangen waren.

Machine Learning wird mit der Absicht initiiert, einen Classifier (Algorithmus) zu trainieren, der aus bislang unstrukturierten Daten ein Muster ausliest und damit zukünftige Verhaltensmuster vorhersagen lässt. (Unstrukturierte Daten)

Data Mining

Deskriptive analytische Methoden werden mit dem Oberbegriff des Data Mining bezeichnet. Data Mining zielt nicht auf das Generieren von Klassifizierern (Algorithmen) oder Regressionsformeln mit prädikativem Charakter zur Vorhersehbarkeit von Verhalten. Data Mining „schürft“ nach verborgenen Erkenntnissen innerhalb der vorgefundenen Datenbasis, ohne voreilig, durch menschliche Erfahrungen geprägte Vorannahmen, eine Analyse vorzunehmen. So werden Zusammenhänge sichtbar, die zuvor so nicht angenommen und daher auch noch nicht „beschrieben“ wurden: beispielsweise bei der Echtzeitanalyse zur Charakterisierung eines potenziellen Käufers als fluide Persona.

Deep Learning

Die Methoden des Deep Learning stellen einen Teilbereich des Machine Learning dar. Deep Learning greift auf lerntheoretische und biologische Modelle aus den Neurowissenschaften rund um die Entstehung und Entwicklung neuronaler Netzwerke zurück und überträgt diese auf die Arbeit mit künstlichen neuronalen Netzwerken. Deep Learning verfährt hierarchisch. Probleme werden gelöst, indem sie in zeitlicher Abfolge über mehrere Schichten hinweg analysiert werden, um ein optimales Ergebnis zu erzielen. Weil mit dem Durchlaufen jeder Schicht das Problem tiefer erfasst wird, spricht man von „deep learning“. Der Begriff wurde durch Google popularisiert, Methoden des Deep Learning haben aber bereits eine längere Tradition.

(Künstliche) Neuronale Netze & Künstliche Intelligenz

Künstliche Neuronale Netze (KNN) werden zur Modellierung von Vorgängen innerhalb des maschinellen Lernens eingesetzt. Die Bezeichnung der KNN leitet sich von ihrer Ähnlichkeit mit den neuronalen Netzen des menschlichen Gehirns ab, denen sie strukturell nachempfunden sind. KNN lassen sich erfolgreich für viele Anwendungsfälle, bei Regressionen, Clustering und auch als Klassifizierer einsetzen.

Advanced Analytics & Künstliche Intelligenz

Mit dem Begriff der Advanced Analytics werden Methoden der modernen Statistik innerhalb von künstliche Intelligenz -Anwendungen oder des Data Mining von denen der klassischen und linearen Statistik unterschieden. Advanced Analytics lassen dabei auch Analysen in hochdimensionalen Räumen zu, bei denen nicht-lineare Modelle oder multivariate Methoden eingesetzt werden und sich die Daten in starker Abhängigkeit voneinander befinden.

Descriptive Analytics

Deskriptive, also „beschreibende“ Analysetechniken (Descriptive Analytics) werden eingesetzt, um den Ist-Zustand eines zusammenhängenden Datensatzes zu beschreiben. So werden mittels Clustering, durch Hypothesentests oder Nearest Neigbor-Algorithmen Informationen aus unternehmenseigenen Datenbanken analysiert – beispielsweise Daten zu Geräten oder Mitarbeitern, die bei der Produktion zum Einsatz kommen- , um sie besser verstehbar und für zukünftige Anwendungen verwertbar zu machen.

Predictive Analytics

Mit prädikativen Analysetechniken (Predictive Analytics) sollen Vorhersehbarkeiten generiert werden. Ausgehend von bekannten Daten und Ergebnissen werden mit prädikativen Algorithmen Schlüsse auf noch unbekannte Ergebnisse gezogen. Das ist wichtig, um auf eventuelle, zukünftige Ereignisse rechtzeitig reagieren oder präventive Maßnahmen ergreifen zu können. Beispielsweise ist es möglich, mit prädikativen Analysemethoden noch vor einem Kauf die Kundenwünsche oder die Zahlungsbereitschaft möglicher Käufer abzuschätzen.

Prescriptive Analytics

Preskriptive Analysetechniken (Prescriptive Analytics) werden eingesetzt, um mit Vorhersagen der Predictive Analytics auf die Erreichung eines speziellen, gewünschten Ziels einzuwirken. Weil mittels der Vorhersehbarkeit ein konkreter Soll-Zustand erreicht werden soll, spricht man hier auch von normativen Analysemethoden. Ist beispielsweise bereits eine Prognose für die Zahlungsbereitschaft eines Kunden erstellt worden, kann gezielt ein Aktionscode als Verstärker zum Verkaufsabschluss ausgespielt werden, damit der Umsatz steigt.

Strukturierte Daten

Strukturierte Daten sind Daten, für die ein klares Format vorgeben ist und deren Relationen untereinander bekannt sind. Sie sind systematisch und einer bestimmten Ordnung folgend in einer Datenbank gespeichert. Das macht es möglich, innerhalb der Datensätze nach verschiedenen Kriterien zu filtern oder zu sortieren. Eine systematisch geführte CRM-Datenbank wird beispielsweise zulassen, dass Stammdaten der Kunden nach Eigenschaften wie Alter und Geschlecht sortiert werden können. Relationale Datenbanken, die Tabellen, Attribute und Beziehungen verwalten, können strukturierte Daten ohne großen Aufwand zuverlässig verarbeiten.

Unstrukturierte Daten

Daten, für die ihre Relation oder Relevanz hinsichtlich anderer Daten nicht oder nur teilweise bekannt ist, werden als unstrukturierte Daten, beziehungsweise: unterannotierte Daten, bezeichnet. Nach Daten, die unterannotiert sind, kann nicht auf direktem Weg gefiltert oder sortiert werden. Ein Beispiel für unstrukturierte Daten ist medialer Content wie Bilddateien, deren Inhalt oder Referenz im jeweiligen Moment nicht unmittelbar zugänglich ist, nur unzureichend über Metadaten strukturiert ist, und deren Relevanz für den analysierten Kontext im entsprechenden Anwendungsfall anhand höherrangiger Analysemethoden bewertet werden muss.

(Daten-)Clustering

Durch Clustering werden beim Data Mining „ähnliche“ Daten zu größeren Datensätzen zusammengefasst, die ihrer groben Struktur nach Gemeinsamkeiten oder Zusammenhänge aufweisen. Ein Cluster kann Top-Down durch die Unterteilung des Gesamtdatensatzes erzeugt werden oder mittels einer Bottom-Up-Methode erfolgen, wenn einzelne Merkmale zusammengefasst werden. Cluster werden zum Beispiel erstellt, um die Daten übersichtlicher sichten und evaluieren zu können, und im weiteren Verlauf aus der Grobstruktur geeignete Methoden zu ihrer Verwendung und Auslese zu entwickeln.

Classifier

Als Classifier (Klassifizierer) werden mathematische Algorithmen bezeichnet, die gegebene Informationen auf die Zugehörigkeit zu einer bestimmten Klasse abbilden können.

Sind beispielsweise die Webseitenaufrufe eines Nutzers aus der Vergangenheit bekannt, kann anhand eines Classifiers dadurch das Geschlecht des Nutzers errechnet werden. Meist sind die Input-Daten, mit denen Classifier arbeiten, unvollständig, sodass die Ergebnisse der Operationen mit Classifiern in der Regel auf statistischen Analysen basierende „Schätzungen“ sind.

Regression

Auch die Auswertung von Dateninformationen anhand eines Regressionsalgorithmus beruht auf Wahrscheinlichkeitsberechnungen. Eine Regression liefert aus den Input-Daten Output in Form einer oder mehrerer reeller Zahlen. So lässt sich beispielsweise durch eine Regression die Zahlungsbereitschaft eines Users anhand der von ihm zuvor besuchten Webseiten prognostizieren.

Hinweis: Diese Liste stellt keine abschließende Aufzählung aller für die KI relevanten Begriffe dar und verfolgt lediglich die Absicht, eine erste Übersicht über die unterschiedlichen Methoden und Anwendungsgebiete zu geben. Die Technologien, die im individuellen Fall genutzt werden, soll AI zum Einsatz kommen, ist immer von der Datenqualität, dem individuellen Anwendungsfall und der gewünschten Applikation abhängig.

Datenschutzkonformer Aufbau von Künstlicher Intelligenz

Künstliche Intelligenz

Datenschutzkonformer Aufbau von künstlicher Intelligenz – kein Widerspruch?!

Keine andere Technologie dürfte in der Gesellschaft zugleich so viele Hoffnungen aber auch Ängste schüren: Die Rede ist von künstlicher Intelligenz (KI). Aus unternehmerischer Sicht bietet Künstliche Intelligenz enorme Vorteile. So können etwa Prozesse im IT-Bereich, im Vertrieb, im Rahmen des Kundenservices und bei der Fertigung von Produkten optimiert bzw. wirtschaftlicher ausgestaltet werden. Eine solche Prozessoptimierung durch KI bietet vor allem das Potential Kosten einzusparen, Kapazitäten zu schaffen, um so mehr Umsatz zu generieren.

Neben den zahlreichen Vorteilen birgt der Einsatz von KI aber immer auch Risiken für die Rechte der von der automatisierten Verarbeitung betroffenen Personen. Hier kommt die durchaus strenge Handhabung automatisierter Verarbeitungsprozesse durch die Datenschutz-Grundverordnung (DSGVO) ins Spiel.

Wir unterstützen Unternehmen bei der Einführung und dem Einsatz von KI mit unserem umfangreichen Know-how in diesem sich rasant entwickelnden Markt.

Wir beraten:

E-Commerce-Unternehmen

FinTech-Unternehmen

Anbieter von Kundenbindungssystemen

Gaming-Anbieter

Mobilität

Adtech

Pharma & Health

Finance

Welche rechtlichen und technischen Herausforderungen ergeben sich für unsere Mandanten und wie können wir sie erfolgreich lösen?

In diesem Case zeigen wir die aus unserer Sicht erforderlichen Schritte, die unsere Mandanten bei der Implementierung und Nutzung von KI gehen sollten und wie wir diese bei rechtlichen Fragestellungen unterstützen können, um insbesondere den Compliance-Aufwand gering zu halten.

Die Kernfrage: Was soll mit dem Einsatz von KI erreicht werden und wie kann dieser Einsatz ggf. mit den Rechten betroffener Personen in Einklang gebracht werden?

Was soll mit der KI erreicht werden, wo und wie wird sie eingesetzt? Sind diese Fragen geklärt, besprechen wir die Schritte hin zum rechtskonformen Einsatz von KI. Bevor wir mit unserem Mandanten die konkrete Umsetzung besprechen, sollte festgestellt werden, was mit dem Einsatz von KI erreicht werden soll.

Beispielsweise werden KIs eingesetzt für:

Profiling, Scoring

Gesichtserkennung

Chatbots, digitale Assistenten

Autonomes Fahren

Je nach Einsatzgebiet ergeben sich dementsprechend auch unterschiedliche rechtliche Herausforderungen.

Algorithmen, Big Data, Machine Learning – die technische Umsetzung

Dreh- und Angelpunkt einer jeden KI sind die Algorithmen, auf denen sie basieren. So gibt es relativ starre Algorithmen, die nichts anderes darstellen als fixe Handlungsvorschriften zur Lösung eines Problems. Daneben gibt es aber auch Algorithmen, die es der KI erlauben dazuzulernen und den ursprünglichen Algorithmus selbstständig weiterzuentwickeln. Hier betreten wir das Terrain des Machine Learnings. Aus datenschutzrechtlicher Sicht als besonders relevant sind hier die mit Big Data gefütterten Deep-Learning-Systeme zu nennen. Diese Systeme lernen autonom und werden bei fortschreitendem Selbstlernprozess für die Verantwortlichen immer intransparenter bzw. nicht mehr (vollständig) nachvollziehbar – man spricht von einer sog. „Black Box“. Hier muss der KI-Entwickler immer auch den Art. 22 DSGVO bedenken, welcher Personen, deren Daten verarbeitet werden, grundsätzlich das Recht zuspricht, nicht einer automatisierten Entscheidung unterworfen zu werden.

Demgegenüber steht insbesondere das datenschutzrechtliche Auskunftsrecht des Art. 15 DSGVO. Denn grundsätzlich verlangt dieses vom Verantwortlichen, dass dieser der betroffenen Person umfänglich und in klarer und verständlicher Sprache Auskunft über Verarbeitungszwecke und verarbeitete Daten, aber auch und vor allem über die involvierte Logik sowie die Tragweite und die angestrebten Auswirkungen einer derartigen Verarbeitung für die betroffene Person erteilt. Die Erteilung einer solchen Auskunft ist jedoch grundsätzlich nur möglich, wenn auch die Datenverarbeitung für den Verantwortlichen nachvollziehbar ist. Verschärft wird dieser Konflikt durch das Interesse von Unternehmen Geschäftsgeheimnisse nicht offenbaren zu wollen. Schließlich können eigens entwickelte Algorithmen durchaus einen Wettbewerbsvorteil bedeuten. Hierzu äußert sich die DSGVO in ihrem Erwägungsgrund 63 Satz 5 dahingehend, dass das Auskunftsrecht die Rechte und Freiheiten anderer Personen – dazu zählen auch Geschäftsgeheimnisse – nicht beeinträchtigen sollte.

Rechtzeitige Pseudonymisierung – Compliance-Aufwand minimieren!

Der sich durch die Anforderungen der DSGVO ergebende Aufwand aus Compliance-Sicht steht in direktem Zusammenhang mit dem von einer Verarbeitung ausgehenden Risiko. Maßnahmen, die sich risikomindernd auswirken, werden von der DSGVO regelmäßig honoriert. Eine Pseudonymisierung personenbezogener Daten resultiert etwa in einer aus Sicht eines Verantwortlichen günstigeren Interessenabwägung i.S.d. Art. 6 Abs. 1 lit. f DSGVO, in einer mit dem ursprünglichen Zweck einer Verarbeitung eher zu vereinbarenden Weiterverarbeitung sowie einem leichteren Bestehen einer Datenschutz-Folgenabschätzung (DSFA). Nicht zuletzt kann der Verantwortliche ggf. den Befreiungstatbestand des Art. 11 Abs. 2 DSGVO für sich nutzen. Vor dem Hintergrund der umfassenden Betroffenenrechte ist dies durchaus ein erstrebenswerter Weg.

Bestenfalls sollte jedoch eine Anonymisierung aller relevanten personenbezogenen Daten durchgeführt werden, um so den Anwendungsbereich der DSGVO zu verlassen.

Eine Pseudo- bzw. Anonymisierung personenbezogener Daten sollte außerdem bereits in der Speicherumgebung der Rohdaten und somit vor Übertragung in die Machine-Learning-Umgebung erfolgen.

Wir helfen bei der datenschutzrechtlich korrekten Umsetzung von Anonymisierungs- und Pseudonymisierungsmaßnahmen und der Durchführung einer Datenschutz-Folgenabschätzung.

Datenschutz-Folgenabschätzung für sich nutzen

Kann der Anwendungsbereich der DSGVO nicht verlassen werden, so ist im Bereich von Künstlicher Intelligenz erfahrungsgemäß eine Datenschutz-Folgenabschätzung erforderlich. Datenschutz-Folgenabschätzungen bieten den großen Vorteil, dass datenschutzrechtliche Aspekte bereits während der Planungsphase eines Machine-Learning-Projektes berücksichtigt werden können. Auf diese Weise kann der Verantwortliche den Vorgaben des Art. 25 DSGVO, nämlich den Datenschutz durch Technikgestaltung („Privacy by Design“) und durch datenschutzfreundliche Voreinstellungen („Privacy by Default“) zielführender umsetzen.

Hier profitieren unsere Mandanten von unseren Erfahrungen, welche in die Konzeptionierung einer KI-Anwendung miteinfließen können.

Dokumentation durch technisches und operatives Monitoring

Zu den Grundsätzen der DSGVO gehören umfassende Dokumentations- und Rechenschaftspflichten. Die Erfüllung dieser Pflichten setzt ein gewisses Verständnis des eingesetzten Algorithmus voraus. Gewichtungen der Kriterien, nach denen die KI dazulernt und entscheidet, müssen genauso dokumentiert werden wie die Auswirkungen verschiedener Korrelation auf die Ergebnisse.

Daher ist es erforderlich, dass Veränderungen der Gewichtungen, die sich durch den Selbstlernprozess der KI ergeben, erkannt werden können (technisches Monitoring). Auch diese Pflicht kann und sollte das jeweilige Unternehmen nach unserer Auffassung als Chance betrachten und für sich nutzen, um die Kontrolle über Entscheidungen von operativer Bedeutung zu behalten.

Eine weitere Möglichkeit Entscheidungsprozesse besser nachvollziehen und dokumentieren zu können bietet das sog. „Blackbox-Tinkering“ (operatives Monitoring). Hierbei lässt man den Algorithmus Rohdatensätze verarbeiten, die in bloß einem Kriterium verändert wurden und vergleicht das ausgegebene Ergebnis mit den Ergebnissen, die auf originalen Datensätzen basieren. Durch diese Art des Monitorings sind Rückschlüsse hinsichtlich der Auswirkungen bestimmter Kriterien oder Kombinationen mehrerer Kriterien möglich, was den Verantwortlichen in die Lage versetzt die Logik der KI besser nachvollziehen und dokumentieren zu können.

Weitere datenschutzrechtliche Problemfelder:

Recht auf Löschung

Recht auf Datenübertragbarkeit

Unsere Softskills: Vertragsverhandlungen mit Dienstleistern

Unternehmen, die erstmalig mit Künstlicher Intelligenz arbeiten möchten, greifen gern auf Dienstleister zurück, die die erforderlichen Technologien bereitstellen. Hier besteht die Gefahr, dass sich besagte Unternehmen stark von den Dienstleistern abhängig machen und dadurch für die Zukunft Nachteile erhalten. Wir beraten unsere Mandanten auch bei der Auswahl der Dienstleister und führen die teils schwierigen, aber notwendigen Vertragsverhandlungen durch.

Sonderproblem: Offenlegung des Algorithmus

Eine besondere Herausforderung stellt der Konflikt zwischen der Pflicht über die „involvierte Logik“ zu informieren und der Vermeidung von Beeinträchtigungen für Geschäftsgeheimnisse dar. Denn gemeinhin handelt es sich bei Algorithmen um schützenswertes geistiges Eigentum. Die Formulierung des Erwägungsgrundes 63 Satz 5 DSGVO („nicht beeinträchtigen sollte“) macht deutlich, dass nicht von vornherein jede Auskunft mit einem pauschalen Verweis auf das Geschäftsgeheimnis verwehrt werden darf. Vielmehr muss eine Abwägung der Interessen des Verantwortlichen an der Geheimhaltung gegenüber den Auskunftsinteressen des Betroffenen vorgenommen werden. Ob eine solche Abwägung in zulässiger Art und Weise durchgeführt wurde, kann abschließend erst durch Gerichtsentscheidungen geklärt werden.

Fällt die Abwägung zu Gunsten der betroffenen Person aus, so besteht weiterhin das Problem der mangelnden Nachvollziehbarkeit von KI-Anwendungen, die selbstständig neue Algorithmen schreiben. Ein Problem, das die Verfasser der DSGVO augenscheinlich nicht bedacht haben.

Letztlich sollte es ausreichend und zweckdienlich sein, wenn dem Betroffenen in einfacher und klarer Sprache erläutert wird, wie die Technologie rund um den Algorithmus und dessen Entscheidungsfindung funktioniert – man denke hier an das oben dargestellte technische und operative Monitoring.

Handlungsempfehlungen

Tagged:

  • Algorithmus der künstlichen Intelligenz
  • Leave a Reply