KI in der Medizin und die Datenspende

Im Rahmen einer Studie für das Land Hessen im Bereich Künstlicher Intelligenz hatte ich neulich gemeinsam mit einer Doktorandin ein Gespräch mit einem Chefarzt eines hessischen Universitätsklinikums. Unser ursprüngliches Thema war – ihr denkt es euch schon – die Anwendung von KI-Algorithmen in der Medizin. Er zeigte uns Anwendungsmöglichkeiten, wie etwa die Diagnose und Therapie von Krankheiten und wie intelligente Algorithmen das Potenzial haben, die Diagnose von Krankheiten zu beschleunigen und präziser zu machen (https://orange.handelsblatt.com/artikel/53316).

Dann wollte ich das Thema Privatsphäre eigentlich nur streifen, aber es wurde letztlich der Schwerpunkt des Gesprächs – und ich habe eine Menge gelernt: Eigentlich scheint es ganz einfach: Gesundheitsdaten sind besonders zu schützen, die Gründe dafür sind auf den ersten Blick offensichtlich. Allerdings gibt es auch eine andere Perspektive und wir haben „both sides oft the story“ zu betrachten: Die häufig heftig kritisierte Verknüpfung von Daten kann für die Behandlung von Patientinnen und Patienten viele Vorteile haben. Wüssten wir beispielsweise wie sich verschiedene Operationsverfahren und/oder die Gabe von Medikamenten langfristig auf den Gesundheitszustand der Patienten auswirken (wie geht es ihnen, müssen sie ggf. nochmals operiert werden), könnte die Behandlung bei verschiedensten Krankheitsbildern verbessert werden. Ein weiteres Beispiel ist der Prototyp der Berliner Charité. Patienten, die einen Schlaganfall erlitten haben, sollen mithilfe von Machine-Learning-Modellen eine individualisierte Behandlung erfahren. Auf Basis der vorhandenen Symptome findet ein Abgleich mit Datensätzen anderer Patienten statt. So kann im Einzelfall fundiert entschieden werden, welche Therapie erfolgsversprechend und somit sinnvoll ist. (Quelle: https://www.heise.de/newsticker/meldung/Dr-Data-was-Kuenstliche-Intelligenz-in-der-Medizin-kann-4236103.html). Dass die Daten dann natürlich vor unbefugten Zugriff geschützt werden müssen, ist fast ein „No-Brainer“ – dachte ich. Allerdings berichtete mir der Arzt von vielen Schwerkranken, die auf Privatsphäre keinen Wert mehr legen. Vielmehr stellen sie ihre Arztberichte, Laborwerte oder Befunde öffentlich ins Netz in der Hoffnung auf Hilfe. Das aus der Forschung bekannte Privacy-Paradox oder der Privacy Calculus wird damit auf den Kopf gestellt. Diese Schwerkranken können sich Privatsphäre nicht mehr leisten.

Vor dem Hintergrund, dass sowohl die medizinische Forschung als auch Schwerkranke von einer Aufhebung der zum Teil sehr strengen Datenschutzregeln sehr profitieren könnten, haben wir auch über die Idee einer Datenspende – ähnlich wie eine Blut- oder Organspende – gesprochen. Das bedeutet, dass medizinische Daten anonymisiert und pseudonymisiert für Forschungszwecke gespendet werden können. Solche Datenspenden können – ähnlich wie Blut- oder Organspenden – Leben retten. Der Onkologe Christof von Kalle vom Deutschen Krebsforschungszentrum Heidelberg spricht davon, dass durch die Analyse und Verknüpfung von Daten eine Vielzahl von Menschenleben gerettet werden könnten. Die Idee einer Datenspende stellt klassische wissenschaftliche Theorien aus den Bereichen Wirtschaftswissenschaften oder Psychologie zum Thema Privatsphäre ebenfalls auf dem Kopf.

Es war ein sehr spannendes und erkenntnisreiches Gespräch, in dem ich sehr viel Neues gelernt habe, und wir haben verabredet, zukünftig zusammenzuarbeiten. Ich freue mich sehr darauf. Es gibt viel zu tun – in der Forschung als auch im Bereich der Aufklärung der Menschen. Nicht immer ist nämlich die Analyse und Verknüpfung von Daten schlecht bzw. für die Menschen von Nachteil. Vielmehr kann auf diese Weise auch ein großartiger Beitrag für eine bessere Welt geleistet werden, indem Patientinnen und Patienten besser geholfen werden kann und Menschenleben gerettet werden können. Auf dem Rückweg fragte mich meine Doktorandin mit leuchtenden Augen, ob sie ihr nächstes Forschungsprojekt im Bereich Künstlicher Intelligenz, Privacy und Medizin machen könnte. Natürlich habe ich ja gesagt.

Künstliche Intelligenz und Maschinelles Lernen – Anwendungen, Grenzen, Science-Fiction

Potenziale der Künstlichen Intelligenz und des maschinellen Lernens

Häufig werde ich von Führungskräften, Politikern, Wissenschaftlern oder Studenten  gefragt, ob mir die Entwicklungen im Bereich der Künstlichen Intelligenz (KI) keine Sorgen bereiten würden. Hintergrund der Fragen ist natürlich in den meisten Fällen die Befürchtung, dass Maschinen zu mächtig werden könnten, wie es ja auch schon seit langer Zeit von Science-Fiction-Autoren vorgedacht wurde. Klassiker sind der Supercomputer HAL9000 aus „2001: Odysee im Weltraum“ sowie Filme wie Terminator oder Blade Runner. Die Debatte über die Macht von Algorithmen wird – nach den vielen Erfolgen der KI – auch unter dem Schlagwort „Singularity“ geführt. In die Öffentlichkeit getragen wurde die Diskussion dieses Jahr auch durch Statements des Physik-Genies Stephen Hawking oder die öffentlichkeitswirksame Kontroverse zwischen Marc Zuckerberg und Elon Musk, den Chefs von Facebook und Tesla. Dabei führte Marc Zuckerberg Beispiele an, in denen er zeigte, wie KI den Menschen bei bestimmten Problemstellungen unterstützen kann, etwa im Bereich der Gesundheit. Elon Musk, der sogar einen eigenen Think Tank zu dem Thema KI gegründet hat, argumentierte demgegenüber eher brachial. So wurde er zitiert mit Statements wie „Artificial Intelligence will kill us all“ oder er verglich die Gefahren der KI mit denen des Atomwaffenarsenals Nordkoreas. Ich stehe in diesem Punkt eher auf der Seite von Marc Zuckerberg. Warum?

Betrachten wir zunächst die Fortschritte der KI-Forschung, insbesondere im Bereich des Maschinellen Lernens. Die Entwicklungen sind in der Tat zum Teil atemberaubend. Noch im Jahr 2015 hatten KI-Experten im Rahmen einer Befragung der Oxford University prognostiziert, dass erst im Jahr 2027 Algorithmen die besten Go-Spieler der Welt besiegen könnten (das asiatische Brettspiel Go ist viel komplexer als etwa Schach). Aber bereits 2016 war es soweit. Ebenfalls große Fortschritte konnten in Anwendungsbereichen wie Spracherkennung, Medizin oder autonomes Fahren gemacht werden.

Trotz dieser zum Teil unerwarteten Erfolge brauchen wir uns m.E. keine Sorgen zu machen, dass Maschinen zukünftig uns Menschen dominieren, gegen unseren Willen Entscheidungen treffen oder gar die Weltherrschaft übernehmen werden. Denn trotz dieser enormen Fortschritte ist die Anwendbarkeit von Algorithmen heute auf abgegrenzte und strukturierte Problemstellungen begrenzt. Es handelt sich also salopp formuliert um Fachidioten. Sie können die Ausfallwahrscheinlichkeit von Maschinen vorhersagen, Schach spielen, Sprache erkennen etc. Aber kein Programm, das beispielsweise Go oder Schach spielen kann, kann auf die Idee kommen, sein  Anwendungsgebiet zu erweitern und nach Macht oder ähnlichem zu streben.

Grenzen der Algorithmen zum maschinellen Lernen

Natürlich hat die Anwendung von KI-Algorithmen aber auch Grenzen und es handelt sich nicht um „Wundertüten“. Insbesondere müssen wir uns über zwei Limitationen im Klaren sein: Zum einen kommen sie in vielen Szenarien zwar rein statistisch gesehen zu sehr guten Ergebnissen bzw. Entscheidungen. Das bedeutet aber nicht, dass sie keine Fehlentscheidungen treffen. Schauen wir uns dazu das folgende Bild an.

Diese Katze wurde von einer Google-KI-Lösung nicht als solche erkannt, sondern als Guacamole. Ein anderes Beispiel ist eine auf dem Rücken liegende Schildkröte, die der Algorithmus für ein Gewehr gehalten hat. Im Falle des Katzen-Guacamole-Beispiels wurde der Algorithmus einfach ausgetrickst. Kennt man die Parameter des Algorithmus, kann das neuronale Netz durch ein paar wenige hinzugefügte Striche oder Punkte einfach überlistet werden. Das ist im obigen Beispiel witzig, in anderen Anwendungsszenarien könnten Kriminelle oder Hacker diese potenzielle Schwäche mit dramatischen Folgen ausnutzen, wenn wir etwa an ein Beispiel wie autonomes Fahren denken.

Zum anderen – und damit kommen wir zu dem zweiten Punkt der Limitationen – arbeiten ML-Ansätze häufig wie eine Black Box, d.h., sie geben keine Auskunft darüber, warum sie zu einem bestimmten Ergebnis gekommen sind. Wenn man aber nicht weiß, warum ein Algorithmus ein bestimmtes Ergebnis produziert, würde ich solche Ansätze in bestimmten Anwendungsbereichen nicht verwenden. Nehmen wir als Beispiel aus dem HR-Bereich die Bewertung von Bewerbungen. Stellen wir uns vor, der Algorithmus kommt bei seinem Auswahlprozess auf der Grundlage von Profilen der Bewerberinnen und Bewerbern zu dem Ergebnis, dass bestimmte Mitarbeiter für eine Stelle geeignet sind oder eben nicht – und wir wissen nicht warum. Die ist zum einen problematisch, weil wir den Bewerbern unsere Auswahlentscheidungen natürlich erklären müssen und wollen. Zum anderen können mit dieser fehlenden Entscheidungstransparenz auch ethische Probleme einhergehen, wie in diesem Fall: So wissen wir nicht, ob der Algorithmus beispielsweise Parameter, wie Geschlecht, Hautfarbe oder Religion, in seine Entscheidung einbezogen hat. Wir wissen das deswegen nicht, weil sich künstliche neuronale Netze ein Stückweit wie eine Black Box verhalten. Die Entscheidung erfolgt letztlich auf Basis der errechneten Gewichte der Kanten zwischen den Neuronen (Knoten) des Netzwerks, die wir nur sehr schwer interpretieren können.

Zeitalter des  maschinellen Lernens

Grundsätzlich gilt aber, dass Ansätze des Maschinellen Lernens für viele (strukturierte) Problemstellungen in Unternehmen gut geeignet sind. So bieten diese Algorithmen eine Vielzahl von Chancen, Effizienzgewinne zu realisieren oder sie können auch die Grundlage für die Gestaltung digitaler Geschäftsmodelle bilden. Entscheider müssen sich nur ein fundiertes Bild davon machen, für welche Aufgaben KI-Algorithmen geeignet sind und für welche nicht. Die  Rahmenbedingungen sind auf jeden Fall prädestiniert für das Zeitalter des Maschinellen Lernens. So sind Daten als Grundlage des Maschinellen Lernens in einem noch nie bekannten Maße verfügbar. Ebenso kann Rechenpower aus der Cloud so kostengünstig wie noch nie bezogen werden. Hinzu kommen viele Open-Source-Werkzeuge, die es KI-Experten und Softwareentwicklern immer einfacher machen, Anwendungen zu erstellen. Die Zeit ist also reif, sich intensiv mit dem Thema KI zu beschäftigen. Erik Brynjolfsson und Andrew McAfee vom MIT sprechen von „the most important general-purpose technology of our era.“ Die zweite Welle der Digitalisierung ist angekommen.