Künstliche Intelligenz – Ethik und der Pippi-Langstrumpf-Effekt in der Politik

Juni, Berlin 2019: Ich hatte das Glück die letzte Woche in der sonnigen Hauptstadt verbringen zu dürfen. In drei Veranstaltungen ging es um das Thema Politik und Künstliche Intelligenz (KI): am Tag der Deutschen Industrie mit viel Politik-Prominenz, bei einer vom DLR-organisierten Podiumsdiskussion sowie im Rahmen einer der ersten LinkedIn-Livestreams überhaupt – mit der Berliner Moderatorin Carmen Hentschel.

 

KI-Strategien der EU und der Bundesregierung

Am oben erwähnten Tag der Deutschen Industrie sprachen Prof. Kempf, der Vorsitzende des Bundes der Deutschen Industrie, Bundeskanzlerin Angela Merkel sowie die Parteivorsitzenden Annalena Baerbock und Christian Lindner auch das Thema KI an. Es ging um die KI-Strategien der EU sowie der Bundesregierung. Bis 2025 will die Bundesregierung ja drei Milliarden Euro in KI investieren. Mit den Geldern sollen insbesondere Forschungsprojekte finanziert und neue Professuren geschaffen werden. Ich halte das für einen sehr guten Ansatz und bin auch beeindruckt, wie relativ schnell die EU und auch das BMBF auf die Entwicklungen in der KI reagiert haben. Natürlich kann man sich immer darüber beklagen, dass das zu wenig Geld sei, aber ich finde den grundsätzlichen Ansatz der Politik gut, wenn auch von den angekündigten drei Milliarden bislang erst eine in den Haushalt eingestellt ist, wie Kanzlerin Merkel einräumte.

Das Ziel der Investitionen besteht darin, den Rückstand der Europäischen Union und Deutschlands auf die führenden KI-Nationen USA und China aufzuholen. Die folgende Grafik verdeutlicht diesen Rückstand.

Quelle: CB Insights (2018)

Die linke Seite der Grafik zeigt, dass es sich bei KI um einen stetig wachsenden Investitionstrend handelt. Die rechte Seite macht allerdings deutlich, wie ungleich diese Investitionen auf nur zwei Länder verteilt sind. 48 Prozent der Investitionen in KI-Startups entfielen zuletzt auf China; weitere 38 Prozent auf den langjährigen Spitzenreiter USA. Im Rest der Welt flossen gerade einmal 14 Prozent oder umgerechnet gut zwei Milliarden Dollar in junge KI-Unternehmen. Für Deutschland, eigentlich die Heimat vieler herausragender KI-Forscher, reicht es selbst in Europa nicht zum Spitzenplatz. Den hat Großbritannien inne, wo Startups wie Darktrace (Cybersecurity) und Graphcore (KI-Chips) inzwischen Unicorn-Status erreicht haben, also mit mehr als einer Milliarde Dollar bewertet sind.

 

KI-Strategien: Ethische Prinzipien

In der KI-Strategie der Bundesregierung spielen Ethik und der gesellschaftliche Konsens eine große Rolle. Das klingt grundsätzlich gut, aber was heißt das konkret? KI soll bei allen Entscheidungen möglichst immer auch moralische Prinzipien befolgen. In jüngster Zeit wurde insbesondere die Diskriminierung durch Algorithmen kritisiert (tatsächlich sind es nicht die Algorithmen, die diskriminieren, sondern die verwendeten Trainingsdaten, aber das ist noch eine andere Geschichte). Auch eine Mitbestimmung bei der KI-Einführung in Unternehmen wird gefordert. An diesen Gedanken ist natürlich nichts auszusetzen – im Gegenteil ich unterstütze es grundsätzlich (siehe etwa meinen Artikel in der Süddeutschen Zeitung aus dem letzten Jahr dazu). Aber es muss ein gesundes Maß gefunden werden, denn einen gesellschaftlichen Konsens in so komplexen ethischen Fragen zu finden, ist natürlich alles andere als eine Kleinigkeit – und vor allen Dingen kostet die Debatte viel Zeit – Zeit, die wir bei dem Thema nicht haben, wenn wir wettbewerbsfähig bleiben bzw. eher werden wollen. Ich habe in den letzten Monaten auch viel mit Geistes- und Sozialwissenschaftler/innen über KI diskutiert, die immer wieder neue Fragen aufwerfen. Dazu gehören neben der klassischen Frage, wen ein autonom fahrendes Auto im Zweifelsfall überfahren soll, auch Debatten über die Transparenz von KI (siehe auch den Artikel „Macht der Algorithmen“ auf dieser Seite links unten).

Nun ist die Herstellung von Transparenz beim Maschinellen Lernen seit einiger Zeit ein zentrales Forschungsgebiet in der Informatik. Das Thema ist dennoch noch lange nicht gelöst, weil die Problemstellung sehr komplex ist. Kurzfristig ist also keine perfekt funktionierende Lösung zu erwarten, die die Black-Box öffnet. Aber ist Intransparenz eigentlich ein KI-spezifisches Problem? Nein: denken wir beispielsweise an den Einsatz von Softwarelösungen, wie etwa ERP-Software in Unternehmen. Diese liefert zum Teil auch Ergebnisse, die sie dem Anwender nicht erklärt. Warum wird diese Praxis seit Jahrzehnten akzeptiert und noch nicht einmal hinterfragt? Wollen wir die Nutzung solcher Standardsoftwarelösungen auch verbieten? Ebenso wenig funktioniert existierende Software nach ethischen Prinzipien. Entscheidet eine klassische Software etwa nach ethischen Prinzipien, wenn sie einem Bedürftigen eine dritte Mahnung mit saftigen Mahngebühren für versäumte Zahlungen schickt? Ich will nicht sagen, dass die Verletzung ethischer Prinzipien durch KI unproblematisch ist. Wir müssen aber aufpassen, dass wir an KI-Lösungen keine höheren Ansprüche stellen als an klassische Softwarelösungen oder an uns Menschen.

 

Der Pippi-Langstrumpf-Effekt

Eine weitere Debatte beim Tag der Deutschen Industrie sowie der DLR-Podiumsdiskussion rund um das Thema KI betraf die Abhängigkeit von US-amerikanischen und chinesischen Anbietern, die nicht nur den KI-, sondern den gesamten Internetmarkt dominieren. Politikerinnen und Politiker aller Parteien forderten vor diesem Hintergrund beispielsweise zur Entwicklung von  europäischen Lösungen und riefen zur Nutzung europäischer Cloud-Angebote auf. Diese Forderung ist politisch ebenso risikolos wie der Ruf nach transparenten und ethischen Lösungen. Grundsätzlich ist hieran auch nichts auszusetzen. Sehr treffend formulierte es Prof. Dieter Kempf, Präsident des Bundesverbandes der Deutschen Industrie e.V., der diese Forderung in seinem Grußwort grundsätzlich unterstützte, aber zugleich vor einem überzogenen Hang zur Autokratie in Europa warnte.

Neben dem Hang zu risikoarmen und gesellschaftlich breit akzeptierten Aussagen scheint aber auch eine gewisse Pippi-Langstrumpf-Mentalität in der Politik zu herrschen: man müsse im geschlossenen Raum Europa ja nur die Daten miteinander teilen und schon könnte man den Internet-Giganten aus den USA, die durch die Verbreitung ihrer Dienste über eine sehr umfangreiche Datenbasis verfügen, Paroli bieten. Dies war einer der Aussagen beim BDI-Kongress. Die GDPRS/DSGVO würde das notwenige Vertrauen garantieren und schon kann es losgehen. „Ich mal mir die Welt, wie sie mir gefällt.“

Wer mal wirklich versucht hat, KI-Anwendungen zu entwickeln, sieht sehr schnell, dass das mit den Daten nicht so einfach ist und kommt mit dem strengen Datenschutz in Konflikt. Ein Beispiel ist die Entwicklung und Nutzung eines Chatbots zur Kundenkommunikation. Grundlage der Entwicklung einer solchen Lösung, die auch gut funktioniert, sind in der Regel tausende aufgezeichnete Kundengespräche, um den Algorithmus zu trainieren. Schon steckt man in der Datenschutzfalle. Strenge Datenschutzregeln, wie sie etwa in der GDPR bzw. DSGVO formuliert werden, haben sicherlich ihre Vorteile und ihre Berechtigung, aber Politikerinnen und Politiker dürfen vor lauter Euphorie über den strengen europäischen Datenschutz nicht die Augen davor verschließen, dass die neue Datenschutzverordnung den Zugang zu Daten und damit auch die Entwicklung von KI-Anwendungen erschwert. Das oben erwähnte „Pippi-Langstrumpf-Prinzip“ oder auch eine gewisse Unkenntnis bezüglich der Entwicklung von KI-Anwendungen kann hier zu einem europäischen und deutschen Wettbewerbsnachteil beim Kampf um die Vorherrschaft im KI-Markt führen.

 

 

KI in der Medizin und die Datenspende

Im Rahmen einer Studie für das Land Hessen im Bereich Künstlicher Intelligenz hatte ich neulich gemeinsam mit einer Doktorandin ein Gespräch mit einem Chefarzt eines hessischen Universitätsklinikums. Unser ursprüngliches Thema war – ihr denkt es euch schon – die Anwendung von KI-Algorithmen in der Medizin. Er zeigte uns Anwendungsmöglichkeiten, wie etwa die Diagnose und Therapie von Krankheiten und wie intelligente Algorithmen das Potenzial haben, die Diagnose von Krankheiten zu beschleunigen und präziser zu machen (https://orange.handelsblatt.com/artikel/53316).

Dann wollte ich das Thema Privatsphäre eigentlich nur streifen, aber es wurde letztlich der Schwerpunkt des Gesprächs – und ich habe eine Menge gelernt: Eigentlich scheint es ganz einfach: Gesundheitsdaten sind besonders zu schützen, die Gründe dafür sind auf den ersten Blick offensichtlich. Allerdings gibt es auch eine andere Perspektive und wir haben „both sides oft the story“ zu betrachten: Die häufig heftig kritisierte Verknüpfung von Daten kann für die Behandlung von Patientinnen und Patienten viele Vorteile haben. Wüssten wir beispielsweise wie sich verschiedene Operationsverfahren und/oder die Gabe von Medikamenten langfristig auf den Gesundheitszustand der Patienten auswirken (wie geht es ihnen, müssen sie ggf. nochmals operiert werden), könnte die Behandlung bei verschiedensten Krankheitsbildern verbessert werden. Ein weiteres Beispiel ist der Prototyp der Berliner Charité. Patienten, die einen Schlaganfall erlitten haben, sollen mithilfe von Machine-Learning-Modellen eine individualisierte Behandlung erfahren. Auf Basis der vorhandenen Symptome findet ein Abgleich mit Datensätzen anderer Patienten statt. So kann im Einzelfall fundiert entschieden werden, welche Therapie erfolgsversprechend und somit sinnvoll ist. (Quelle: https://www.heise.de/newsticker/meldung/Dr-Data-was-Kuenstliche-Intelligenz-in-der-Medizin-kann-4236103.html). Dass die Daten dann natürlich vor unbefugten Zugriff geschützt werden müssen, ist fast ein „No-Brainer“ – dachte ich. Allerdings berichtete mir der Arzt von vielen Schwerkranken, die auf Privatsphäre keinen Wert mehr legen. Vielmehr stellen sie ihre Arztberichte, Laborwerte oder Befunde öffentlich ins Netz in der Hoffnung auf Hilfe. Das aus der Forschung bekannte Privacy-Paradox oder der Privacy Calculus wird damit auf den Kopf gestellt. Diese Schwerkranken können sich Privatsphäre nicht mehr leisten.

Vor dem Hintergrund, dass sowohl die medizinische Forschung als auch Schwerkranke von einer Aufhebung der zum Teil sehr strengen Datenschutzregeln sehr profitieren könnten, haben wir auch über die Idee einer Datenspende – ähnlich wie eine Blut- oder Organspende – gesprochen. Das bedeutet, dass medizinische Daten anonymisiert und pseudonymisiert für Forschungszwecke gespendet werden können. Solche Datenspenden können – ähnlich wie Blut- oder Organspenden – Leben retten. Der Onkologe Christof von Kalle vom Deutschen Krebsforschungszentrum Heidelberg spricht davon, dass durch die Analyse und Verknüpfung von Daten eine Vielzahl von Menschenleben gerettet werden könnten. Die Idee einer Datenspende stellt klassische wissenschaftliche Theorien aus den Bereichen Wirtschaftswissenschaften oder Psychologie zum Thema Privatsphäre ebenfalls auf dem Kopf.

Es war ein sehr spannendes und erkenntnisreiches Gespräch, in dem ich sehr viel Neues gelernt habe, und wir haben verabredet, zukünftig zusammenzuarbeiten. Ich freue mich sehr darauf. Es gibt viel zu tun – in der Forschung als auch im Bereich der Aufklärung der Menschen. Nicht immer ist nämlich die Analyse und Verknüpfung von Daten schlecht bzw. für die Menschen von Nachteil. Vielmehr kann auf diese Weise auch ein großartiger Beitrag für eine bessere Welt geleistet werden, indem Patientinnen und Patienten besser geholfen werden kann und Menschenleben gerettet werden können. Auf dem Rückweg fragte mich meine Doktorandin mit leuchtenden Augen, ob sie ihr nächstes Forschungsprojekt im Bereich Künstlicher Intelligenz, Privacy und Medizin machen könnte. Natürlich habe ich ja gesagt.