Künstliche Intelligenz – Ethik und der Pippi-Langstrumpf-Effekt in der Politik

Juni, Berlin 2019: Ich hatte das Glück die letzte Woche in der sonnigen Hauptstadt verbringen zu dürfen. In drei Veranstaltungen ging es um das Thema Politik und Künstliche Intelligenz (KI): am Tag der Deutschen Industrie mit viel Politik-Prominenz, bei einer vom DLR-organisierten Podiumsdiskussion sowie im Rahmen einer der ersten LinkedIn-Livestreams überhaupt – mit der Berliner Moderatorin Carmen Hentschel.

 

KI-Strategien der EU und der Bundesregierung

Am oben erwähnten Tag der Deutschen Industrie sprachen Prof. Kempf, der Vorsitzende des Bundes der Deutschen Industrie, Bundeskanzlerin Angela Merkel sowie die Parteivorsitzenden Annalena Baerbock und Christian Lindner auch das Thema KI an. Es ging um die KI-Strategien der EU sowie der Bundesregierung. Bis 2025 will die Bundesregierung ja drei Milliarden Euro in KI investieren. Mit den Geldern sollen insbesondere Forschungsprojekte finanziert und neue Professuren geschaffen werden. Ich halte das für einen sehr guten Ansatz und bin auch beeindruckt, wie relativ schnell die EU und auch das BMBF auf die Entwicklungen in der KI reagiert haben. Natürlich kann man sich immer darüber beklagen, dass das zu wenig Geld sei, aber ich finde den grundsätzlichen Ansatz der Politik gut, wenn auch von den angekündigten drei Milliarden bislang erst eine in den Haushalt eingestellt ist, wie Kanzlerin Merkel einräumte.

Das Ziel der Investitionen besteht darin, den Rückstand der Europäischen Union und Deutschlands auf die führenden KI-Nationen USA und China aufzuholen. Die folgende Grafik verdeutlicht diesen Rückstand.

Quelle: CB Insights (2018)

Die linke Seite der Grafik zeigt, dass es sich bei KI um einen stetig wachsenden Investitionstrend handelt. Die rechte Seite macht allerdings deutlich, wie ungleich diese Investitionen auf nur zwei Länder verteilt sind. 48 Prozent der Investitionen in KI-Startups entfielen zuletzt auf China; weitere 38 Prozent auf den langjährigen Spitzenreiter USA. Im Rest der Welt flossen gerade einmal 14 Prozent oder umgerechnet gut zwei Milliarden Dollar in junge KI-Unternehmen. Für Deutschland, eigentlich die Heimat vieler herausragender KI-Forscher, reicht es selbst in Europa nicht zum Spitzenplatz. Den hat Großbritannien inne, wo Startups wie Darktrace (Cybersecurity) und Graphcore (KI-Chips) inzwischen Unicorn-Status erreicht haben, also mit mehr als einer Milliarde Dollar bewertet sind.

 

KI-Strategien: Ethische Prinzipien

In der KI-Strategie der Bundesregierung spielen Ethik und der gesellschaftliche Konsens eine große Rolle. Das klingt grundsätzlich gut, aber was heißt das konkret? KI soll bei allen Entscheidungen möglichst immer auch moralische Prinzipien befolgen. In jüngster Zeit wurde insbesondere die Diskriminierung durch Algorithmen kritisiert (tatsächlich sind es nicht die Algorithmen, die diskriminieren, sondern die verwendeten Trainingsdaten, aber das ist noch eine andere Geschichte). Auch eine Mitbestimmung bei der KI-Einführung in Unternehmen wird gefordert. An diesen Gedanken ist natürlich nichts auszusetzen – im Gegenteil ich unterstütze es grundsätzlich (siehe etwa meinen Artikel in der Süddeutschen Zeitung aus dem letzten Jahr dazu). Aber es muss ein gesundes Maß gefunden werden, denn einen gesellschaftlichen Konsens in so komplexen ethischen Fragen zu finden, ist natürlich alles andere als eine Kleinigkeit – und vor allen Dingen kostet die Debatte viel Zeit – Zeit, die wir bei dem Thema nicht haben, wenn wir wettbewerbsfähig bleiben bzw. eher werden wollen. Ich habe in den letzten Monaten auch viel mit Geistes- und Sozialwissenschaftler/innen über KI diskutiert, die immer wieder neue Fragen aufwerfen. Dazu gehören neben der klassischen Frage, wen ein autonom fahrendes Auto im Zweifelsfall überfahren soll, auch Debatten über die Transparenz von KI (siehe auch den Artikel „Macht der Algorithmen“ auf dieser Seite links unten).

Nun ist die Herstellung von Transparenz beim Maschinellen Lernen seit einiger Zeit ein zentrales Forschungsgebiet in der Informatik. Das Thema ist dennoch noch lange nicht gelöst, weil die Problemstellung sehr komplex ist. Kurzfristig ist also keine perfekt funktionierende Lösung zu erwarten, die die Black-Box öffnet. Aber ist Intransparenz eigentlich ein KI-spezifisches Problem? Nein: denken wir beispielsweise an den Einsatz von Softwarelösungen, wie etwa ERP-Software in Unternehmen. Diese liefert zum Teil auch Ergebnisse, die sie dem Anwender nicht erklärt. Warum wird diese Praxis seit Jahrzehnten akzeptiert und noch nicht einmal hinterfragt? Wollen wir die Nutzung solcher Standardsoftwarelösungen auch verbieten? Ebenso wenig funktioniert existierende Software nach ethischen Prinzipien. Entscheidet eine klassische Software etwa nach ethischen Prinzipien, wenn sie einem Bedürftigen eine dritte Mahnung mit saftigen Mahngebühren für versäumte Zahlungen schickt? Ich will nicht sagen, dass die Verletzung ethischer Prinzipien durch KI unproblematisch ist. Wir müssen aber aufpassen, dass wir an KI-Lösungen keine höheren Ansprüche stellen als an klassische Softwarelösungen oder an uns Menschen.

 

Der Pippi-Langstrumpf-Effekt

Eine weitere Debatte beim Tag der Deutschen Industrie sowie der DLR-Podiumsdiskussion rund um das Thema KI betraf die Abhängigkeit von US-amerikanischen und chinesischen Anbietern, die nicht nur den KI-, sondern den gesamten Internetmarkt dominieren. Politikerinnen und Politiker aller Parteien forderten vor diesem Hintergrund beispielsweise zur Entwicklung von  europäischen Lösungen und riefen zur Nutzung europäischer Cloud-Angebote auf. Diese Forderung ist politisch ebenso risikolos wie der Ruf nach transparenten und ethischen Lösungen. Grundsätzlich ist hieran auch nichts auszusetzen. Sehr treffend formulierte es Prof. Dieter Kempf, Präsident des Bundesverbandes der Deutschen Industrie e.V., der diese Forderung in seinem Grußwort grundsätzlich unterstützte, aber zugleich vor einem überzogenen Hang zur Autokratie in Europa warnte.

Neben dem Hang zu risikoarmen und gesellschaftlich breit akzeptierten Aussagen scheint aber auch eine gewisse Pippi-Langstrumpf-Mentalität in der Politik zu herrschen: man müsse im geschlossenen Raum Europa ja nur die Daten miteinander teilen und schon könnte man den Internet-Giganten aus den USA, die durch die Verbreitung ihrer Dienste über eine sehr umfangreiche Datenbasis verfügen, Paroli bieten. Dies war einer der Aussagen beim BDI-Kongress. Die GDPRS/DSGVO würde das notwenige Vertrauen garantieren und schon kann es losgehen. „Ich mal mir die Welt, wie sie mir gefällt.“

Wer mal wirklich versucht hat, KI-Anwendungen zu entwickeln, sieht sehr schnell, dass das mit den Daten nicht so einfach ist und kommt mit dem strengen Datenschutz in Konflikt. Ein Beispiel ist die Entwicklung und Nutzung eines Chatbots zur Kundenkommunikation. Grundlage der Entwicklung einer solchen Lösung, die auch gut funktioniert, sind in der Regel tausende aufgezeichnete Kundengespräche, um den Algorithmus zu trainieren. Schon steckt man in der Datenschutzfalle. Strenge Datenschutzregeln, wie sie etwa in der GDPR bzw. DSGVO formuliert werden, haben sicherlich ihre Vorteile und ihre Berechtigung, aber Politikerinnen und Politiker dürfen vor lauter Euphorie über den strengen europäischen Datenschutz nicht die Augen davor verschließen, dass die neue Datenschutzverordnung den Zugang zu Daten und damit auch die Entwicklung von KI-Anwendungen erschwert. Das oben erwähnte „Pippi-Langstrumpf-Prinzip“ oder auch eine gewisse Unkenntnis bezüglich der Entwicklung von KI-Anwendungen kann hier zu einem europäischen und deutschen Wettbewerbsnachteil beim Kampf um die Vorherrschaft im KI-Markt führen.

 

 

Innovation @ Google – Was wir lernen können

Im letzten Herbst hatte ich die Gelegenheit, ein paar Wochen im Silicon Valley zu verbringen. Neben den üblichen touristischen Zielen entlang des Highway Nr. 1, Treffen mit Start-ups und den Besuchen an den Universitäten in Berkeley und Stanford hat mich insbesondere ein Tag bei Google in Mountain View sehr beeindruckt.

Dabei hätte ich auch gerne etwas zu meinen Themen Macht der Daten und Privatsphäre erfahren, aber all meine Versuche, darüber mit Google-Mitarbeitern zu diskutieren, blieben erfolglos. Bei diesem Thema machen sie dicht: „Alles im Sinne der Nutzer“, „Privatsphäre ist uns sehr wichtig“ und weitere Worthülsen.

Was mich aber ebenso sehr beschäftigte, war die Frage, wie Google es trotz seiner Größe schafft, so innovativ zu bleiben. Ich hatte das Glück, dass ein Freund, der dort arbeitet, sich einen Tag Zeit nahm, um mir den Campus und auch die neuesten Entwicklungen – etwa im Bereich Künstliche Intelligenz – zu zeigen. Der Eindruck vom Campus: viele junge freundliche und sympathische Menschen, verschiedene Cafeterias mit sehr gutem Essen und Getränken, Volleyballplätze und überall ein sehr entspanntes Klima – Kalifornien eben.

Anders als bei vielen deutschen Firmen strengt Google sich wirklich an, um innovativ zu bleiben. Es geht um weit mehr als „Nettigkeiten“, wie Fahrräder für Teammeetings oder ein Dinosaurier auf dem Campus, der alle Mitarbeiter daran erinnern soll, wie schnell selbst Riesen aussterben. Ich bin bis heute beeindruckt, wie es einer Firma mit ca. 80.000 Mitarbeitern gelingt, innovativ zu bleiben. Dies gilt für viele Bereiche, wie z.B. Künstliche Intelligenz, autonomes Fahren, Augmented Reality und viele andere.

Neben einem guten Gehalt unternimmt Google vieles, um für die begehrten Softwareentwickler und andere digitale Experten attraktiv zu sein. So können die Mitarbeiter anderthalb Tage pro Woche für ein eigenes Projekt aufwenden. Hierfür muss kein Business-Plan entwickelt werden. Vielmehr haben die Initiatoren die Aufgabe, Mitstreiter im Sinne von Followern zu finden, die mit ihnen gemeinsam an einem Projekt arbeiten. Ein weiterer Punkt, den ich spannend fand: das variable Gehalt wird dort nicht vom Chef oder der Chefin bestimmt, sondern von den „Peers“ im Team. Das Ziel dahinter: Die Leistung im Team und nicht hierarchisches Denken fördern.

Google hat es mit diesen und weiteren Maßnahmen schlicht geschafft, ein Vorreiter bei den Themen Leadership und Mitarbeiter zu sein. Alle wissen, dass das die Schlüssel zur Innovationskraft sind, aber nur den wenigsten gelingt es, tatsächlich ein begehrter Arbeitgeber zu werden. Google ist mittlerweile für viele Universitätsabsolventen der Traumarbeitgeber schlechthin – und das gilt nicht nur für die Studenten aus Stanford oder Berkeley. Google hat also freie Auswahl im globalen Pool der Top-Talents. Dabei muss jeder Kandidat mehrere Gespräche mit verschiedenen Google Mitarbeitern führen und alle(!) Gesprächspartner müssen der Einstellung zustimmen. Auch von meinen Studierenden und Doktoranden/innen höre ich immer wieder: „Wenn es klappt, würde ich am liebsten zu Google gehen.“ Und dabei denken sie nicht zuerst an die Sonne Kaliforniens.

Traditionelle Unternehmen in Europa und Deutschland können in Bezug auf Innovationen und Unternehmenskultur noch immer viel von Google lernen. Ein Vorurteil, das man zum Thema Digitalisierung oft hört, wurde auf meiner Reise übrigens nicht bestätigt: Das vielzitierte „Fail fast“ konnte ich nicht beobachten. Im Gegenteil: Amir erzählte mir, dass sein Projekt, das er über mehrere Monate geleitet und vorangetrieben hat, am nächsten Tag hoffentlich den siebten Qualitätstest bestehen würde. Erst dann gehe seine Softwarelösung live. „Fail fast“ scheint jedenfalls bei Google doch nicht (mehr) so weit verbreitet zu sein, wie hierzulande manchmal behauptet wird. Vielleicht war das in frühen Tagen anders, als Google noch ein Disruptor war – heute steht es auf der Seite der etablierten Incumbents und hat ein Markenversprechen einzulösen. Qualität und Innovation gehört eben doch zusammen – auch im Silicon Valley.

Das IT-Sicherheits-Paradox: Warum Unternehmen zu wenig in IT-Sicherheit investieren

Mit der zunehmenden Digitalisierung von Wirtschaft und Gesellschaft gehen auch immer größere IT-Sicherheitsrisiken einher. So werden mehr und mehr Unternehmen, nicht zuletzt kleine und mittelständische, Opfer von Sicherheitsvorfällen. Bitkom schätzt beispielsweise, dass durch IT-Sicherheitsvorfälle allein deutschen Firmen im letzten Jahr ein Schaden von 55 Milliarden Euro entstanden ist. Und es handelt sich dabei natürlich nur um die Spitze des Eisbergs. Viele Sicherheitsvorfälle werden gar nicht erst bekannt gemacht, entweder weil es den Unternehmen schlicht peinlich ist oder auch, weil sie einen Imageschaden befürchten. Darüber hinaus wissen die Unternehmen in vielen Fällen noch nicht einmal selbst, ob sie Opfer eines Sicherheitsvorfall wurden – frei nach dem Motto: Entweder der Feind ist schon drin oder du hast es noch nicht bemerkt.
Das Ziel dieses Kurzbeitrags besteht darin zu analysieren, ob Entscheidungsträgern in Unternehmen bestehende IT-Sicherheitsrisiken bewusst sind. Auf den ersten Blick erstaunt die Frage vielleicht etwas, weil es eine Vielzahl von Studien gibt, die besagen, dass IT-Sicherheit von vielen Entscheidern als das wichtigste Thema im Rahmen der digitalen Agenda angesehen wird (siehe z.B. Bitcom). Diese angebliche Priorisierung steht jedoch im Widerspruch zu einigen Expertengesprächen, die wir mit Führungskräften durchgeführt haben und die von vielen unterlassenen Investitionen in IT-Sicherheitslösungen berichteten. Daher haben wir uns entschieden, die Frage nach der Bedeutung des Themas IT-Sicherheit mit Hilfe einer etwas größer angelegten Studie zu untersuchen. Grundlage unserer Studie, die in Zusammenarbeit mit der Lünendonk GmbH durchgeführt wurde, ist eine Befragung von 103 Entscheidungsträgern, überwiegend CIOs und IT-Leitern. Dabei ist es natürlich naheliegend, diese Entscheider nicht direkt zu fragen, ob IT-Sicherheit ein wichtiges Thema ist. Die Antwort wäre klar und die Ergebnisse langweilig. Daher haben wir die Entscheider gebeten, einerseits zu bewerten, wie gut ihr eigenes Unternehmen auf Herausforderungen im Bereich IT-Sicherheit vorbereitet ist und einzuschätzen, ob das Gleiche für andere Unternehmen gilt. Die Antworten auf diese beiden Fragen sind in der folgenden Abbildung dargestellt.

Abbildung 1: Einschätzung der eigenen Vorbereitung auf IT-sicherheitsrelevante Herausforderungen im Vergleich zu konkurrierenden Unternehmen (von +2 sehr gut vorbereitet bis -2 gar nicht vorbereitet)

Die Ergebnisse zeigen, dass die Befragten der Meinung sind, dass ihr eigenes Unternehmen deutlich besser auf Herausforderungen im Bereich IT-Sicherheit vorbereitet ist als andere konkurrierende Unternehmen. Um es deutlich zu machen: Natürlich kann es in bestimmten Fällen sein, dass ein Unternehmen besser vorbereitet ist als andere Unternehmen, aber dass dies für alle Unternehmen gilt, ist nicht möglich. Die Ergebnisse sind auf Basis eines T-Tests statistisch signifikant. In der Psychologie spricht man in diesem Fall auch von einem sogenannten unrealistischen Optimismus. Dieser besagt, dass Menschen dazu tendieren, ihr eigenes Risiko im Vergleich zu anderen verzerrt wahrzunehmen und zu unterschätzen.
Überträgt man diese Ergebnisse aus der psychologischen Forschung auf unser Beispiel, bedeutet dies, dass die Unternehmen ihr eigenes IT-Sicherheitsrisiko systematisch unterschätzen. Eine Vermutung ist, dass sich Unternehmen hinsichtlich ihrer Investitionen in IT-Sicherheit ähnlich verhalten wie es Endnutzer bei der Preisgabe von persönlichen Informationen tun. Man spricht hier auch vom sogenannten Privacy-Paradox, das vereinfacht ausgedrückt bedeutet, dass viele Leute zwar behaupten, dass ihnen ihre Privatsphäre sehr wichtig sei, tatsächlich aber andere Werte höher bewerten und sich unvorsichtig verhalten. So geben die Nutzer Informationen preis und bereuen dies später nicht selten. Dabei gehen sie häufig (unrealistisch optimistisch) davon aus, dass ihnen schon nichts passieren wird. In der Wissenschaft spricht man hier von einem Intention-Behavior-Gap. Ein ähnliches Verhalten scheint es in Unternehmen zu geben: Kaum jemand würde behaupten, dass IT-Sicherheit für Unternehmen kein relevantes Thema wäre. Dennoch werden wichtige Investitionen in IT-Sicherheit aufgrund eines unrealistischen Optimismus nicht getätigt oder verschoben. Auch hier scheint die Maxime zu gelten, die sich auch bei Endnutzern beobachten lässt: „Uns wird schon nichts passieren.“ Dieses IT-Sicherheits-Paradox ist aus zwei Gründen hochproblematisch. Zum einen wird im Extremfall auf diese Weise die Existenz des gesamten Unternehmens aufs Spiel gesetzt. Zum anderen können unterlassene Investitionen in die eigene IT-Sicherheit die gesamte Wirtschaft und Gesellschaft gefährden. Was für die Digitalisierung der Wirtschaft als solche gilt, gilt auch für den Bereich IT-Sicherheit – der manchmal auch als die „ugly sister of digitalization“ bezeichnet wird – sie muss Chefsache werden.

Literaturverzeichnis
Bazerman, Max H., Ann E. Tenbrunsel, and Kimberly Wade-Benzoni. „Negotiating with yourself and losing: Making decisions with competing internal preferences.“ Academy of Management Review 23.2 (1998): 225-241.
Sheeran, Paschal. „Intention—behavior relations: A conceptual and empirical review.“ European review of social psychology 12.1 (2002): 1-36.
Sonnenschein, Rabea, André Loske, and Peter Buxmann. „Which IT Security Investments Will Pay Off for Suppliers? Using the Kano Model to Determine Customers‘ Willingness to Pay.“ 49th Hawaii International Conference on (2016).
Weinstein, Neil D., and William M. Klein. „Unrealistic optimism: Present and future.“ Journal of Social and Clinical Psychology 15.1 (1996): 1-8.

Purpose Led Organizations – mehr als ein neuer Marketing-Hype?

Ich weiß nicht wie es Ihnen geht, wenn Sie im Bereich Innovation oder Digitalisierung einen neuen Begriff hören. Also ich werde mittlerweile in der Regel erst einmal skeptisch. Neulich „belehrte“ mich ein Berater beispielsweise, dass ich das Wort CDO falsch verwenden würde; es ginge nämlich in Wirklichkeit gar nicht um den Chief Digital Officer, sondern viel mehr um den Chief Disruptive Officer. Naja, der Mann wird es sicherlich wissen.

Jetzt zum Thema dieses Posts, der Purpose led Organization. Was steckt dahinter? Der Begriff ist nicht wirklich scharf definiert, aber im Grunde genommen handelt es sich um Organisationen (die sich selbst so bezeichnen), deren Zielsetzung nicht nur darin besteht, Geld zu verdienen, sondern sich auch für soziale, ökologische bzw. nachhaltige Ziele einzusetzen. Es geht auch darum, eine Unternehmenskultur zu etablieren, in der dieser „Purpose“ im Mittelpunkt der Strategien und des Handelns steht. Zudem ist die Purpose led Organization durch die Arbeit der Mitarbeiter in agilen Teams gekennzeichnet, in denen sie Eigenverantwortung tragen – auch für das Budget. Man spricht in diesem Kontext auch von einer Ende-zu-Ende-Verantwortung.

Ein interessantes Beispiel dafür ist „buurtzorg“, ein Modell aus Holland, welches aktuell die ambulante Pflege verändert. Aber auch Unternehmen aus der Softwareindustrie wollen diesen Weg gehen. So sollen beispielsweise die Mitarbeiter des Cloud-Anbieters Salesforce mindestens eine Woche im Jahr für gemeinnützige Organisationen arbeiten. Zudem stellen mehrere Softwareanbieter gemeinnützigen Organisationen zum Teil auch die eigenen Lösungen kostenlos zur Verfügung. Ein anderes Beispiel für eine Maßnahme auf dem Weg zur Purpose led Organization ist die Gestaltung des gesamten Ökosystems eines Unternehmens. Das würde zum Beispiel bedeuten, dass auch Lieferanten und anderer Partner gewisse ethische Mindeststandards erfüllen müssen. Jetzt stellt sich aber natürlich auch die Frage, ob der Wandel zur Purpose led Organization mehr als reines Marketing ist. Seit mehreren Jahren werben Unternehmen ja mit unterschiedlichsten Slogans, die eher an eine Mission zur Verbesserung der Welt erinnern als an Unternehmen, die primär durch die Erwirtschaftung von Gewinnen getrieben sind.

Natürlich gibt es solche Unternehmen, die es mit der Zielsetzung der Purpose led Organization ernst meinen, während andere nur auf einen Trend aufspringen und auf ein besseres Image hoffen. Fatal ist es, wenn sich Organisationen lediglich einen „Purpose led“ -Anstrich geben und ansonsten wenige bis keine konkreten Maßnahmen entwickeln, um diesem Anspruch gerecht zu werden. Fatal deswegen, weil Mitarbeiter, Partner und die Öffentlichkeit dies früher oder später bemerken werden.

Meiner Meinung nach werden Maßnahmen auf dem Weg zur Purpose led Organization häufig mit Marketing verbunden. Das ist so auch erstmal in Ordnung. Wenn sich nämlich die Zielsetzung, etwas „Gutes für die Welt zu tun“, mit Marketing und sogar Employer Branding gut in Einklang bringen lässt, dann ist das doch grundsätzlich eine gute Sache und wir dürfen gespannt sein, ob und inwieweit dieser Ansatz die Arbeitswelt verändern wird. Eine interessante Umfrage von EY zu diesem Thema finden Sie unter diesem Link. Eine – etwas selbstzentrierte – Übersicht über Purpose led Organizations bietet das Londoner Beratungshaus Radley Yeldar unter diesem Link.

Was denken Sie? Ist die Purpose led Organization mehr als geschicktes Marketing und Employer Branding? Lohnt es sich für die Unternehmen und wird das Konzept die Arbeitswelt verändern? Ich bin gespannt auf Ihre Einschätzung!