Künstliche Intelligenz – Ethik und der Pippi-Langstrumpf-Effekt in der Politik

Juni, Berlin 2019: Ich hatte das Glück die letzte Woche in der sonnigen Hauptstadt verbringen zu dürfen. In drei Veranstaltungen ging es um das Thema Politik und Künstliche Intelligenz (KI): am Tag der Deutschen Industrie mit viel Politik-Prominenz, bei einer vom DLR-organisierten Podiumsdiskussion sowie im Rahmen einer der ersten LinkedIn-Livestreams überhaupt – mit der Berliner Moderatorin Carmen Hentschel.

 

KI-Strategien der EU und der Bundesregierung

Am oben erwähnten Tag der Deutschen Industrie sprachen Prof. Kempf, der Vorsitzende des Bundes der Deutschen Industrie, Bundeskanzlerin Angela Merkel sowie die Parteivorsitzenden Annalena Baerbock und Christian Lindner auch das Thema KI an. Es ging um die KI-Strategien der EU sowie der Bundesregierung. Bis 2025 will die Bundesregierung ja drei Milliarden Euro in KI investieren. Mit den Geldern sollen insbesondere Forschungsprojekte finanziert und neue Professuren geschaffen werden. Ich halte das für einen sehr guten Ansatz und bin auch beeindruckt, wie relativ schnell die EU und auch das BMBF auf die Entwicklungen in der KI reagiert haben. Natürlich kann man sich immer darüber beklagen, dass das zu wenig Geld sei, aber ich finde den grundsätzlichen Ansatz der Politik gut, wenn auch von den angekündigten drei Milliarden bislang erst eine in den Haushalt eingestellt ist, wie Kanzlerin Merkel einräumte.

Das Ziel der Investitionen besteht darin, den Rückstand der Europäischen Union und Deutschlands auf die führenden KI-Nationen USA und China aufzuholen. Die folgende Grafik verdeutlicht diesen Rückstand.

Quelle: CB Insights (2018)

Die linke Seite der Grafik zeigt, dass es sich bei KI um einen stetig wachsenden Investitionstrend handelt. Die rechte Seite macht allerdings deutlich, wie ungleich diese Investitionen auf nur zwei Länder verteilt sind. 48 Prozent der Investitionen in KI-Startups entfielen zuletzt auf China; weitere 38 Prozent auf den langjährigen Spitzenreiter USA. Im Rest der Welt flossen gerade einmal 14 Prozent oder umgerechnet gut zwei Milliarden Dollar in junge KI-Unternehmen. Für Deutschland, eigentlich die Heimat vieler herausragender KI-Forscher, reicht es selbst in Europa nicht zum Spitzenplatz. Den hat Großbritannien inne, wo Startups wie Darktrace (Cybersecurity) und Graphcore (KI-Chips) inzwischen Unicorn-Status erreicht haben, also mit mehr als einer Milliarde Dollar bewertet sind.

 

KI-Strategien: Ethische Prinzipien

In der KI-Strategie der Bundesregierung spielen Ethik und der gesellschaftliche Konsens eine große Rolle. Das klingt grundsätzlich gut, aber was heißt das konkret? KI soll bei allen Entscheidungen möglichst immer auch moralische Prinzipien befolgen. In jüngster Zeit wurde insbesondere die Diskriminierung durch Algorithmen kritisiert (tatsächlich sind es nicht die Algorithmen, die diskriminieren, sondern die verwendeten Trainingsdaten, aber das ist noch eine andere Geschichte). Auch eine Mitbestimmung bei der KI-Einführung in Unternehmen wird gefordert. An diesen Gedanken ist natürlich nichts auszusetzen – im Gegenteil ich unterstütze es grundsätzlich (siehe etwa meinen Artikel in der Süddeutschen Zeitung aus dem letzten Jahr dazu). Aber es muss ein gesundes Maß gefunden werden, denn einen gesellschaftlichen Konsens in so komplexen ethischen Fragen zu finden, ist natürlich alles andere als eine Kleinigkeit – und vor allen Dingen kostet die Debatte viel Zeit – Zeit, die wir bei dem Thema nicht haben, wenn wir wettbewerbsfähig bleiben bzw. eher werden wollen. Ich habe in den letzten Monaten auch viel mit Geistes- und Sozialwissenschaftler/innen über KI diskutiert, die immer wieder neue Fragen aufwerfen. Dazu gehören neben der klassischen Frage, wen ein autonom fahrendes Auto im Zweifelsfall überfahren soll, auch Debatten über die Transparenz von KI (siehe auch den Artikel „Macht der Algorithmen“ auf dieser Seite links unten).

Nun ist die Herstellung von Transparenz beim Maschinellen Lernen seit einiger Zeit ein zentrales Forschungsgebiet in der Informatik. Das Thema ist dennoch noch lange nicht gelöst, weil die Problemstellung sehr komplex ist. Kurzfristig ist also keine perfekt funktionierende Lösung zu erwarten, die die Black-Box öffnet. Aber ist Intransparenz eigentlich ein KI-spezifisches Problem? Nein: denken wir beispielsweise an den Einsatz von Softwarelösungen, wie etwa ERP-Software in Unternehmen. Diese liefert zum Teil auch Ergebnisse, die sie dem Anwender nicht erklärt. Warum wird diese Praxis seit Jahrzehnten akzeptiert und noch nicht einmal hinterfragt? Wollen wir die Nutzung solcher Standardsoftwarelösungen auch verbieten? Ebenso wenig funktioniert existierende Software nach ethischen Prinzipien. Entscheidet eine klassische Software etwa nach ethischen Prinzipien, wenn sie einem Bedürftigen eine dritte Mahnung mit saftigen Mahngebühren für versäumte Zahlungen schickt? Ich will nicht sagen, dass die Verletzung ethischer Prinzipien durch KI unproblematisch ist. Wir müssen aber aufpassen, dass wir an KI-Lösungen keine höheren Ansprüche stellen als an klassische Softwarelösungen oder an uns Menschen.

 

Der Pippi-Langstrumpf-Effekt

Eine weitere Debatte beim Tag der Deutschen Industrie sowie der DLR-Podiumsdiskussion rund um das Thema KI betraf die Abhängigkeit von US-amerikanischen und chinesischen Anbietern, die nicht nur den KI-, sondern den gesamten Internetmarkt dominieren. Politikerinnen und Politiker aller Parteien forderten vor diesem Hintergrund beispielsweise zur Entwicklung von  europäischen Lösungen und riefen zur Nutzung europäischer Cloud-Angebote auf. Diese Forderung ist politisch ebenso risikolos wie der Ruf nach transparenten und ethischen Lösungen. Grundsätzlich ist hieran auch nichts auszusetzen. Sehr treffend formulierte es Prof. Dieter Kempf, Präsident des Bundesverbandes der Deutschen Industrie e.V., der diese Forderung in seinem Grußwort grundsätzlich unterstützte, aber zugleich vor einem überzogenen Hang zur Autokratie in Europa warnte.

Neben dem Hang zu risikoarmen und gesellschaftlich breit akzeptierten Aussagen scheint aber auch eine gewisse Pippi-Langstrumpf-Mentalität in der Politik zu herrschen: man müsse im geschlossenen Raum Europa ja nur die Daten miteinander teilen und schon könnte man den Internet-Giganten aus den USA, die durch die Verbreitung ihrer Dienste über eine sehr umfangreiche Datenbasis verfügen, Paroli bieten. Dies war einer der Aussagen beim BDI-Kongress. Die GDPRS/DSGVO würde das notwenige Vertrauen garantieren und schon kann es losgehen. „Ich mal mir die Welt, wie sie mir gefällt.“

Wer mal wirklich versucht hat, KI-Anwendungen zu entwickeln, sieht sehr schnell, dass das mit den Daten nicht so einfach ist und kommt mit dem strengen Datenschutz in Konflikt. Ein Beispiel ist die Entwicklung und Nutzung eines Chatbots zur Kundenkommunikation. Grundlage der Entwicklung einer solchen Lösung, die auch gut funktioniert, sind in der Regel tausende aufgezeichnete Kundengespräche, um den Algorithmus zu trainieren. Schon steckt man in der Datenschutzfalle. Strenge Datenschutzregeln, wie sie etwa in der GDPR bzw. DSGVO formuliert werden, haben sicherlich ihre Vorteile und ihre Berechtigung, aber Politikerinnen und Politiker dürfen vor lauter Euphorie über den strengen europäischen Datenschutz nicht die Augen davor verschließen, dass die neue Datenschutzverordnung den Zugang zu Daten und damit auch die Entwicklung von KI-Anwendungen erschwert. Das oben erwähnte „Pippi-Langstrumpf-Prinzip“ oder auch eine gewisse Unkenntnis bezüglich der Entwicklung von KI-Anwendungen kann hier zu einem europäischen und deutschen Wettbewerbsnachteil beim Kampf um die Vorherrschaft im KI-Markt führen.

 

 

Das IT-Sicherheits-Paradox: Warum Unternehmen zu wenig in IT-Sicherheit investieren

Mit der zunehmenden Digitalisierung von Wirtschaft und Gesellschaft gehen auch immer größere IT-Sicherheitsrisiken einher. So werden mehr und mehr Unternehmen, nicht zuletzt kleine und mittelständische, Opfer von Sicherheitsvorfällen. Bitkom schätzt beispielsweise, dass durch IT-Sicherheitsvorfälle allein deutschen Firmen im letzten Jahr ein Schaden von 55 Milliarden Euro entstanden ist. Und es handelt sich dabei natürlich nur um die Spitze des Eisbergs. Viele Sicherheitsvorfälle werden gar nicht erst bekannt gemacht, entweder weil es den Unternehmen schlicht peinlich ist oder auch, weil sie einen Imageschaden befürchten. Darüber hinaus wissen die Unternehmen in vielen Fällen noch nicht einmal selbst, ob sie Opfer eines Sicherheitsvorfall wurden – frei nach dem Motto: Entweder der Feind ist schon drin oder du hast es noch nicht bemerkt.
Das Ziel dieses Kurzbeitrags besteht darin zu analysieren, ob Entscheidungsträgern in Unternehmen bestehende IT-Sicherheitsrisiken bewusst sind. Auf den ersten Blick erstaunt die Frage vielleicht etwas, weil es eine Vielzahl von Studien gibt, die besagen, dass IT-Sicherheit von vielen Entscheidern als das wichtigste Thema im Rahmen der digitalen Agenda angesehen wird (siehe z.B. Bitcom). Diese angebliche Priorisierung steht jedoch im Widerspruch zu einigen Expertengesprächen, die wir mit Führungskräften durchgeführt haben und die von vielen unterlassenen Investitionen in IT-Sicherheitslösungen berichteten. Daher haben wir uns entschieden, die Frage nach der Bedeutung des Themas IT-Sicherheit mit Hilfe einer etwas größer angelegten Studie zu untersuchen. Grundlage unserer Studie, die in Zusammenarbeit mit der Lünendonk GmbH durchgeführt wurde, ist eine Befragung von 103 Entscheidungsträgern, überwiegend CIOs und IT-Leitern. Dabei ist es natürlich naheliegend, diese Entscheider nicht direkt zu fragen, ob IT-Sicherheit ein wichtiges Thema ist. Die Antwort wäre klar und die Ergebnisse langweilig. Daher haben wir die Entscheider gebeten, einerseits zu bewerten, wie gut ihr eigenes Unternehmen auf Herausforderungen im Bereich IT-Sicherheit vorbereitet ist und einzuschätzen, ob das Gleiche für andere Unternehmen gilt. Die Antworten auf diese beiden Fragen sind in der folgenden Abbildung dargestellt.

Abbildung 1: Einschätzung der eigenen Vorbereitung auf IT-sicherheitsrelevante Herausforderungen im Vergleich zu konkurrierenden Unternehmen (von +2 sehr gut vorbereitet bis -2 gar nicht vorbereitet)

Die Ergebnisse zeigen, dass die Befragten der Meinung sind, dass ihr eigenes Unternehmen deutlich besser auf Herausforderungen im Bereich IT-Sicherheit vorbereitet ist als andere konkurrierende Unternehmen. Um es deutlich zu machen: Natürlich kann es in bestimmten Fällen sein, dass ein Unternehmen besser vorbereitet ist als andere Unternehmen, aber dass dies für alle Unternehmen gilt, ist nicht möglich. Die Ergebnisse sind auf Basis eines T-Tests statistisch signifikant. In der Psychologie spricht man in diesem Fall auch von einem sogenannten unrealistischen Optimismus. Dieser besagt, dass Menschen dazu tendieren, ihr eigenes Risiko im Vergleich zu anderen verzerrt wahrzunehmen und zu unterschätzen.
Überträgt man diese Ergebnisse aus der psychologischen Forschung auf unser Beispiel, bedeutet dies, dass die Unternehmen ihr eigenes IT-Sicherheitsrisiko systematisch unterschätzen. Eine Vermutung ist, dass sich Unternehmen hinsichtlich ihrer Investitionen in IT-Sicherheit ähnlich verhalten wie es Endnutzer bei der Preisgabe von persönlichen Informationen tun. Man spricht hier auch vom sogenannten Privacy-Paradox, das vereinfacht ausgedrückt bedeutet, dass viele Leute zwar behaupten, dass ihnen ihre Privatsphäre sehr wichtig sei, tatsächlich aber andere Werte höher bewerten und sich unvorsichtig verhalten. So geben die Nutzer Informationen preis und bereuen dies später nicht selten. Dabei gehen sie häufig (unrealistisch optimistisch) davon aus, dass ihnen schon nichts passieren wird. In der Wissenschaft spricht man hier von einem Intention-Behavior-Gap. Ein ähnliches Verhalten scheint es in Unternehmen zu geben: Kaum jemand würde behaupten, dass IT-Sicherheit für Unternehmen kein relevantes Thema wäre. Dennoch werden wichtige Investitionen in IT-Sicherheit aufgrund eines unrealistischen Optimismus nicht getätigt oder verschoben. Auch hier scheint die Maxime zu gelten, die sich auch bei Endnutzern beobachten lässt: „Uns wird schon nichts passieren.“ Dieses IT-Sicherheits-Paradox ist aus zwei Gründen hochproblematisch. Zum einen wird im Extremfall auf diese Weise die Existenz des gesamten Unternehmens aufs Spiel gesetzt. Zum anderen können unterlassene Investitionen in die eigene IT-Sicherheit die gesamte Wirtschaft und Gesellschaft gefährden. Was für die Digitalisierung der Wirtschaft als solche gilt, gilt auch für den Bereich IT-Sicherheit – der manchmal auch als die „ugly sister of digitalization“ bezeichnet wird – sie muss Chefsache werden.

Literaturverzeichnis
Bazerman, Max H., Ann E. Tenbrunsel, and Kimberly Wade-Benzoni. „Negotiating with yourself and losing: Making decisions with competing internal preferences.“ Academy of Management Review 23.2 (1998): 225-241.
Sheeran, Paschal. „Intention—behavior relations: A conceptual and empirical review.“ European review of social psychology 12.1 (2002): 1-36.
Sonnenschein, Rabea, André Loske, and Peter Buxmann. „Which IT Security Investments Will Pay Off for Suppliers? Using the Kano Model to Determine Customers‘ Willingness to Pay.“ 49th Hawaii International Conference on (2016).
Weinstein, Neil D., and William M. Klein. „Unrealistic optimism: Present and future.“ Journal of Social and Clinical Psychology 15.1 (1996): 1-8.

Künstliche Intelligenz – Eine Managementperspektive (Teil 3): Die Anbieterseite

Die Anwendungspotenziale von KI für die Wirtschaft wurden bereits im zweiten Teil dieses Blogs behandelt. Daher wollen wir uns im Folgenden die Anbieterseite anschauen. Wer sind die wichtigsten Akteure auf dem KI-Markt? Es hat ein regelrechter Kampf um die Vorherrschaft begonnen. So hat Google kürzlich die Software „TensorFlow“, eine Bibliothek für Machine-Learning-Software, unter einer Open-Source-Lizenz kostenlos für Nutzer verfügbar gemacht. Interessanterweise folgten sowohl Microsoft als auch Facebook unmittelbar und stellten den Quellcode ihrer Tools „CNTK“ bzw. „Caffe2“ ebenfalls unter einer Open-Source-Lizenz bereit. Die Zielsetzung und die Strategie dieser Unternehmen ist klar: Es geht darum, sich Marktanteile auf dem Gebiet der KI zu sichern. Google war mit dieser Open-Source-Strategie übrigens vor ein paar Jahren schon mit dem Betriebssystem Android sehr erfolgreich, das mittlerweile – je nach Quelle – auf ca. 80 bis 90 Prozent aller Smartphones läuft.

Wie schon im ersten Blog dargelegt, bieten die immer größeren weltweit verfügbaren Datenmengen, verbesserte Algorithmen und nicht zuletzt auch steigende Rechner- und Prozessorleistungen der KI eine Vielzahl neuer Anwendungsmöglichkeiten. Im Bereich der Rechner- und Prozessorleistungen kommt gerade „the next big thing“ auf uns zu. Es ist noch unklar, wann diese Technologie einsatzbereit sein wird, aber Firmen wie Google oder IBM arbeiten bereits mit Hochdruck daran: Ein Quantencomputer könnte die Rechenleistung von IBM Watson millionenfach übertreffen. Das heißt, es könnten viel größere Datenmengen in kürzester Zeit von Algorithmen verarbeitet werden. Das hat übrigens nicht nur Auswirkungen auf die Anwendbarkeit von KI-Algorithmen. Ein Beispiel für die Anwendung von Quantencomputern, das eher nachdenklich macht, sind die Möglichkeiten Krypto-Algorithmen in kürzester Zeit zu knacken. Wann ist es soweit, dass diese Quantencomputer-Technologie einsatzbereit ist? Hier gehen die Prognosen der Experten weit auseinander – sie reichen von drei Jahren (Google) bis hin zu mehreren Jahrzehnten.

Kommen wir zurück zur KI: Sowohl für Anbieter als auch für anwendende Unternehmen ist es höchste Zeit, sich mit diesen neuen Technologien und den Auswirkungen auf ihr Geschäft auseinanderzusetzen. Der Markt ist gigantisch. Accenture beispielsweise geht gemäß einem Bericht der Frankfurter Allgemeinen Zeitung davon aus, dass die weltweite Wirtschaftsleistung um zwölfeinhalb Billionen Euro zulegen kann.  PwC greift mit 14 Billionen sogar noch etwas höher. Schauen wir uns die Anbieter an, die diesen gigantischen Markt dominieren wollen, findet sich ein altbekanntes Muster: Es sind wieder US-amerikanische Firmen, die dabei sind, auf dem Gebiet der KI eine Führungsrolle zu übernehmen. Google und IBM übernehmen hier eine Vorreiterrolle. Auch Facebook, Microsoft und Amazon investieren kräftig. China ist ebenfalls mit dabei: So kündigte der chinesische Technologieminister Wan Gang vor wenigen Tagen einen nationalen KI-Plan an.  Europäische Anbieter laufen dagegen hinterher und die EU-Kommission kümmert sich anscheinend stärker darum, Digitalisierungsindexe von Ländern zu erstellen oder auch Firmen wie Google und Facebook zu verklagen (was nicht verkehrt sein muss, aber doch eher defensiv als zukunftsorientiert erscheint). Denn KI wird die Wirtschaft und Gesellschaft dramatisch verändern und es entsteht gerade ein gigantischer Markt. Viele haben das erkannt. Die Zukunft hat bereits begonnen.

Künstliche Intelligenz – Eine Managementperspektive (Teil 2): Wie sich KI auf die Wirtschaft auswirken wird

KI wird die Wirtschaft in den nächsten Jahren sehr stark verändern. Gemäß einer aktuellen Studie prognostizieren mehr als 70 Prozent der befragten Führungskräfte bis 2025 einen großen bis sehr großen Einfluss der KI auf ihre Unternehmensstrategie.[1]

Methodisch stehen derzeit Deep-Learning-Ansätze, etwa auf Basis von Künstlichen Neuronalen Netzen (KNN), hoch im Kurs und dies wird sich vermutlich auch in den nächsten Jahren nicht ändern. Demgegenüber sinkt die Bedeutung (regelbasierter) Expertensysteme deutlich. Häufig findet man auch eine Verbindung verschiedenster methodischer Ansätze. Die folgende Tabelle zeigt eine Auswahl interessanter Anwendungsgebiete mit Literaturquellen auf:

Quelle Einsatzgebiete von KI
Infosys (2016), S. 8 Big Data, Predictive Analytics, Maschinenlernen, Expertensysteme, neuronale Netzwerke
Irrgang &Klawitter (2010), S. 21 ff. Expertensysteme in Industrie, Medizin, Wissenschaft und Forschung, Militär, Spielen, Büroautomation, Wirtschaft und Finanzen, Lehre und Ausbildung, Bibliothekswesen, Ingenieurwissenschaften
Mainzer (2016), S. 172 ff. Industrie 4.0
Soprasteria (2017), S. 7 Robotic Process Automation (RPA), intelligente Automatisierungstechnologien, digitalen Assistenten, intelligente Sensorik, selbstlernende Maschinen
Bauer et al. (2017), S. 8 Autonomes Fahren, Predictive maintenance, Collaborative and context-aware robots, Yield enhancement in manufacturing, Automated quality testing, AI-enhanced supply chain management, Business support function automation
Purdy & Daugherty (2016), S.11 Computer Vision, Audio Processing, Natural Language Processing, Knowledge Representation, Maschinenlernen, Expertensysteme
Mills (2016), S. 3 Maschinenlernen, Natural Language Processing (NLP), Expertensysteme, Vision, Sprache, Planung, Robotik

Eine viel diskutierte Debatte dreht sich um die potenzielle Vernichtung von Arbeitsplätzen durch KI. Hierzu gibt es viele Studien, die zu völlig unterschiedlichen Ergebnissen kommen und die ich Ihnen hier ohne Anspruch auf Vollständigkeit zusammengestellt habe.

Quelle Auswirkungen auf Arbeitsmarkt

Chui, Manyika, & Miremadi (2016)

 

    • 45 Prozent der bezahlten Aktivitäten können automatisiert werden
    • 78 Prozent vorhersagbarer Arbeit ist automatisierbar
  • Arbeitsplatz von allen wird transformiert

Government (2016), S. 2.

    • Entstehung Arbeitsplätze in den Bereichen Entwicklung und Kontrolle von Künstlicher Intelligenz
  • Bedrohung von Arbeitsplätzen im Niedriglohnsegment
Mainzer (2016), S. 178.

 

    • Entstehung Arbeitsplätze im Kundenservice, in der Mechatronik und Robotik
  • Überdisziplinäre Zusammenarbeit in Teams und gesteigerte Kooperationsfähigkeit notwendig
Wisskirchen et al. (2017), S. 14 ff.
    • 1/3 der Arbeit, welche einen Bachelor Abschluss voraussetzt, kann automatisiert werden
    • Gradueller Prozess
    • Keine Nachfrage mehr für einfache, repetitive Arbeit
  • Höhere Nachfrage für hochqualifizierte Arbeitnehmer (Verständnis für IT, Mathematik, Wissenschaft; soziale und interdisziplinäre Kompetenz)
Stanford University (2016)
    • Ersatz von Aufgaben statt gesamter Jobs in naher Zukunft
    • Schaffung neuer Arten von Jobs
    • Gradueller Prozess
    • Automatisierung von z.B. Radiologen, LKW Fahrern, Gärtnern
    • Kleinere Organisationsgrößen
  • Neue Märkte
Markoff (2011)
    • Neue Jobs am Ende der Wirtschaftspyramide
    • Verlust von Jobs in der Mitte der Wirtschaftspyramide
  • Verlangsamtes Wachstum von Jobs an der Spitze der Wirtschaftspyramide bedingt durch Automatisierung
PwC (2017)
    • 35 % existierender Jobs (Deutschland) sind durch Automatisierung bedroht
    • Natur der Jobs wird sich eher ändern, als dass Jobs verschwinden
    • Bedrohte Sektoren: Transport, Fertigung, Handel
    • Weniger bedrohte Sektoren: Bildung, Gesundheit, Sozialarbeit
  • Einkommensungleichheit wird steigen

Dabei kann ich mich auch aufgrund der völlig unterschiedlichen Ergebnisse des Eindrucks nicht erwehren, dass sich einige Autoren bei ihren Analysen auch an den Interessen ihrer Auftraggeber oder an zu erwartender Aufmerksamkeit im Netz orientieren.

Ich bin hier vorsichtig optimistisch und denke nicht, dass es durch KI zu einer massenweisen Vernichtung von Arbeitsplätzen kommen wird. Natürlich würde ich einem jungen Menschen vor dem Hintergrund der Fortschritte auf dem Gebiet des autonomen Fahrens heute nicht raten, den Beruf eines Bus- oder LKW-Fahrers zu wählen. Aber unter dem Strich wird es vermutlich ähnlich wie etwa bei der Automatisierung im Produktionsbereich ausgehen. Auch hier wurden viele Jobs durch Maschinen ersetzt, aber es wurden auch neue geschaffen und heute haben wir zum Glück eine vergleichsweise geringe Arbeitslosigkeit. Eine ähnliche Entwicklung am Arbeitsmarkt werden wir vermutlich auch beim Thema KI erleben, wobei es grundsätzlich zu einer Verschiebung hin zu Arbeitsplätzen für höher Qualifizierte kommen wird. Daher denke ich auch nicht, dass eine Robotersteuer, wie von Bill Gates gefordert, sinnvoll und notwendig ist.

Neben den Erfolgsmeldungen gibt es natürlich auch Fragestellungen, an denen sich die Algorithmen erfolglos die Zähne ausbeißen. Ein aktuelles Beispiel hierzu – nicht nur im Kontext Sozialer Netzwerke – ist die Erkennung von „Fake News“. Allerdings ist anzumerken, dass in Experimenten Menschen sogar noch schlechter als die Algorithmen abschneiden. Es wäre mal spannend, ob ein besserer Algorithmus den Satz „KI wird in 100 Jahren die Weltherrschaft übernehmen“ als Fake News oder wahr klassifizieren würde.

Ein Fehler in der öffentlichen Diskussion über KI besteht m. E. darin, dass häufig suggeriert wird, es gäbe eine Maschine, die über eine ähnliche Form von Intelligenz und Bewusstsein verfügt, wie wir Menschen. Stichwort: die Maschinen übernehmen die Macht über die Menschen. Informatiker sprechen in diesem Kontext auch von starker KI. Ich sehe hier keinen Grund zur Beunruhigung, denn von einer solchen Entwicklung sind wir m. E. noch meilenweit entfernt und ähnliche Horrorvisionen gab es schon vor Jahrzehnten. Es ist einfach schön schaurig und gruselig: Hollywood lässt grüßen.

Natürlich wäre es eine Fehleinschätzung zu denken, dass man einfach mal KI im Unternehmen einführt und auf einmal das Marketing, das Bestellwesen, die Softwareentwicklung etc. „intelligent“ sind. Vielmehr ist es so, dass wir von Algorithmen sprechen, die selbständig bestimmte Aufgaben durchführen, Entscheidungen treffen und dabei auch lernen, wie das etwa bei KNN der Fall ist. Das würde beispielsweise bedeuten, dass man in einem Unternehmen eine KI-basierte Predictive-Analytics-Anwendung in der Produktionssteuerung hätte und eine weitere KI-Anwendung, die in der Lage ist, Anomalien aufzudecken, die auf einen Sicherheitsvorfall hindeuten usw. Auch IBM Watson ist beispielsweise keine wirkliche „general purpose machine“ (auch wenn das Marketing dies schon durch den genial gewählten Namen „Watson“ geschickt suggeriert!), sondern dahinter verbergen sich einzelne und zum Teil sehr leistungsfähige Algorithmen für verschiedenste Anwendungsgebiete. Beispielsweise spielt eine Anwendung Schach, eine andere Jeopardy, eine dritte macht Spracherkennung usw.

Von der „starken“, alles beherrschenden KI sind wir also noch sehr weit weg und ich denke auch nicht, dass sie in absehbarer Zeit kommen wird. Es gibt hierzu aber auch andere Meinungen. Beispielsweise ist KI-Forscher Ray Kurzweil von Google recht ambitioniert und frei von Selbstzweifeln. Auf die Frage, ob es Gott gibt, antwortete er: „Noch nicht“.

Literatur

Accenture (2016): Why artificial intelligence is the future of growth

https://www.accenture.com/lv-en/_acnmedia/PDF-33/Accenture-Why-AI-is-the-Future-of-Growth.pdf

Bauer, H. et al. (2017): Smartening up with Artificial Intelligence (AI) – What’s in it for Germany and its Industrial Sector?

https://www.mckinsey.de/files/170419_mckinsey_ki_final_m.pdf

Chui, M., Manyika, J., & Miremadi, M. (2016): Where machines could replace humans—and where they can’t (yet) (2016)

http://www.mckinsey.com/business-functions/digital-mckinsey/our-insights/where-machines-could-replace-humans-and-where-they-cant-yet

E&Y (2016): Einsatz digitaler Technologien in der Immobilienwirtschaft

http://www.ey.com/Publication/vwLUAssets/ey-einsatz-digitaler-technologien-in-der-immobilienwirtschaft/$FILE/ey-einsatz-digitaler-technologien-in-der-immobilienwirtschaft.pdf

Government, USA (2016): Artificial Intelligence, Automation, and the Economy  (2016)

https://obamawhitehouse.archives.gov/sites/whitehouse.gov/files/documents/Artificial-Intelligence-Automation-Economy.PDF

Infosys (2016): Amplifying Human Potenzial: Towards Purposeful Artificial Intelligence

https://www.infosys.com/aimaturity/Documents/amplifying-human-potential-CEO-report.pdf

Irrgang, B., & Klawitter, J. (2010): Künstliche Intelligenz: technologischer Traum oder gesellschaftliches Trauma?(2010)

https://hds.hebis.de/ulbda/Record/HEB381280861

Mainzer, K. (2016): Künstliche Intelligenz – Wann übernehmen die Maschinen? (2016)

https://link.springer.com/book/10.1007%2F978-3-662-48453-1

Markoff, J. (2011): Armies of Expensive Lawyers, Replaced by Cheaper Software (2011)

http://www.nytimes.com/2011/03/05/science/05legal.html

Mills, M. (2016): ARTIFICIAL INTELLIGENCE IN LAW: THE STATE OF PLAY 2016 (2016)

https://www.neotalogic.com/wp-content/uploads/2016/04/Artificial-Intelligence-in-Law-The-State-of-Play-2016.pdf

PwC (2016): Big Data for Big Decisions: Algorithmen halten Einzug in die Chefetage

https://www.pwc.de/de/business-analytics/assets/big-decisions-survey-2016.pdf

PwC (2017): Up to 30% of existing UK jobs could be impacted by automation by early 2030s, but this should be offset by job gains elsewhere in economy

http://pwc.blogs.com/press_room/2017/03/up-to-30-of-existing-uk-jobs-could-be-impacted-by-automation-by-early-2030s-but-this-should-be-offse.html

Sopra Steria Consulting (2017): Potentialstudie: Künstliche Intelligenz

https://www.soprasteria.de/docs/librariesprovider33/Studien/potenzialanalyse-künstliche-intelligenz-2017.pdf?sfvrsn=0

Stanford University (2016): One Hundred Year Study on Artificial Intelligence (AI100): Employment and Workplace (2016)

https://ai100.stanford.edu/2016-report/section-ii-ai-domain/employment-and-workplace

Wisskirchen, G, Biacabe, B. T., Bormann, U., Muntz, A., Niehaus, G., Soler, G. J., von Brauchitsch, B. (2017): Artificial Intelligence and Robotics and Their Impact on the Workplace. (2017)

http://matrixni.org/documents/artificial-intelligence-robotics-impact-workplace/

[1] Soprasteria (2017), S. 9.

Künstliche Intelligenz – Eine Managementperspektive in drei Teilen

Seit vielen Jahren beobachtet und erforsche ich gemeinsam mit den Wissenschaftlichen Mitarbeiterinnen und Mitarbeitern an unserem Lehrstuhl, wie die Digitalisierung und neue Technologien Wirtschaft und Gesellschaft verändern. Mit dem Thema Künstliche Intelligenz (KI) steht die nächste drastische Veränderung an. Die Zeit ist reif für KI und Unternehmen jeder Größe und jeder Branche sollten sich jetzt intensiv mit dem Thema beschäftigen. Ich starte hier einen dreiteiligen Blog. Im ersten Teil würde ich Sie gerne davon überzeugen, dass es sich bei KI nicht um einen Hype handelt, wie vielfach behauptet wird. Im zweiten Teil wollen wir untersuchen, wie KI die Wirtschaft verändern wird. Gegenstand des dritten Teils werden dann Anbieterstrategien und ein Zukunftsausblick sein.

Warum KI kein Hype ist

Skeptiker behaupten, dass es noch lange dauern würde bis KI Einzug in die Praxis Einzug hält. Immer wieder höre ich auch, dass es ähnliche Überlegungen wie heute doch schon vor dreißig Jahren gegeben habe und KI überschätzt würde. Diesen Skeptikern halte ich immer entgegen, dass es beispielsweise Künstliche Neuronale Netze (KNN) tatsächlich schon seit den 40er Jahren gibt, aber wer deswegen Deep Learning bzw. allgemeiner KI heute nicht auf die eigene Agenda setzt, begeht dennoch einen großen Fehler.

Schon bei den Anfängen des Internet oder genauer des World Wide Web in den 90er Jahren argumentierten die Kritiker ganz ähnlich: Damals hieß es, dass es Netze doch schon lange gäbe und die Technologien wie TCP/IP oder HTML noch gar nicht ausgereift seien und es das alles schon einmal gegeben hätte (in der Tat sagte Tim Berners Lee einmal, dass er HTML gerne besser gemacht hätte, wenn er gewusst hätte, wie weit sich die Sprache verbreiten würde). Aber die Zeit war reif für den Siegeszug von Internet und WWW – nicht aufgrund der Technologie, sondern weil sich die Rahmenbedingungen geändert hatten: Der Zugang zum Internet war schon damals nahezu kostenlos und damit fiel eine wichtige Barriere. Genau so ist es mit KI: Auch heute kann man natürlich argumentieren, dass es Genetische Algorithmen, KNN und andere Machine-Learning-Ansätze schon lange Zeit gibt, aber die Rahmenbedingungen für KI haben sich drastisch verbessert und auch hier sind einige Barrieren weggefallen bzw. neue Voraussetzungen geschaffen worden:

  • Daten bzw. Big Data – etwa zum Training von KNN – sind heute in einer nie gekannten Menge verfügbar und die Datenmenge steigt exponentiell.
  • Rechenpower und Prozessorleistungen sind so kostengünstig wie nie zuvor.
  • Die Performance von „Deep Learning Algorithmen“ hat sich in den letzten Jahren verbessert.
  • Es existiert eine Vielzahl von kostenlos verfügbaren Toolkits und Bibliotheken zur Entwicklung von KI- oder Machine-Learning-Anwendungen.

Dass die Entwicklung im Bereich KI auch von Experten massiv unterschätzt wird, zeigt das Beispiel Go – ein ursprünglich aus China stammendes strategisches Brettspiel, das weit komplexer als Schach ist. So prognostizierten KI-Experten im Jahr 2015 in einer Studie der University of Oxford, dass ein KI-Algorithmus erst im Jahre 2027 in der Lage sein würde, die besten menschlichen Go-Spieler zu schlagen. Es kam anders und bereits im letzten Jahr siegte das von Google Deepmind entwickelte alphaGo gegen verschiedene Weltklassespieler. Dieser Sieg der KI über die besten menschlichen Spieler ist vor allem deswegen von großem Interesse, weil die Komplexität von Go es KI-Algorithmen trotz aller Rechenpower und Prozessorleistungen unmöglich macht, alle Züge vollständig zu enumerieren bzw. durchzuprobieren. Auch die besten (menschlichen) Spieler benötigen Intuition, um Go erfolgreich zu spielen. Genauso wie alphaGo: Die Entwickler fütterten ihre Software, die wie viele KI-Entwicklungen auf KNN basiert, zunächst mit Millionen von Go-Partien. Dann ließen sie die Software gegen sich selbst spielen, um weiter zu lernen – wie Dr. B. aus Stefan Zweigs Schachnovelle, der Schach-Meister wird, nachdem er monatelang Partien im Kopf gegen sich selbst spielt, um in der Isolationshaft nicht wahnsinnig zu werden.

In meinen Augen zeigt das Beispiel, dass KI eher unter- als überschätzt wird. Daher sollten sich auch Führungskräfte in Unternehmen mit dem Thema eingehend beschäftigen. In meinem nächsten Blog werde ich dann darauf eingehen, wie der Einsatz von KI-Algorithmen die Arbeit von morgen verändern wird.

Wie wirtschaftlich ist der Einsatz von Social Collaboration Tools?

Häufig ist in der digitalen Arbeitswelt das folgende Paradox zu beobachten: Über das Internet arbeiten wildfremde Menschen häufig kooperativer zusammen als das innerhalb von Unternehmen der Fall ist. Nehmen wir beispielsweise den Austausch von Quellcode (nicht selten hunderte Zeilen selbstentwickelte Software) unter Softwareentwicklern, die sich gar nicht persönlich kennen. Das Motiv ist häufig ganz einfach: Die Entwickler wollen sich gegenseitig helfen – oder auch später einmal nach dem Motto „eine Hand wäscht die andere“ profitieren. In Unternehmen finden sich in vielen Fällen ganz andere Denkmuster. Informationen werden zurückgehalten, gegenseitige Hilfe findet häufig aus Zeitmangel oder anderen Motiven kaum statt.

Im Rahmen unserer zum zweiten Mal durchgeführten Deutschen Social Collaboration Studie haben wir untersucht, ob der Einsatz von Social Collaboration Tools eine sinnvolle Unterstützung bieten kann, um die Zusammenarbeit von Mitarbeitern in Unternehmen zu verbessern. In diesem Kontext bezeichnet „Social Collaboration“ den Einsatz moderner Technologien, um neue Formen der Zusammenarbeit zu unterstützen bzw. Mitarbeiter besser zur Bewältigung aktueller Aufgaben zu befähigen. Ein Beispiel stellt der Einsatz von Enterprise Social Networks (ESN) dar. Im Rahmen der zweiten Social Collaboration Studie haben wir in Kooperation mit dem Beratungshaus Campana & Schott insgesamt 1005 Mitarbeiter aus verschiedensten Industrien befragt.

Anzahl der Befragten

Tätigkeitsfelder der Befragten

Branchen

Die Ergebnisse zeigen grundsätzlich positive Effekte der Investition in Social Collaboration Tools, wie die folgende Zusammenfassung zeigt:

Verbesserung der Unternehmenskultur

Um Aussagen über die Ziele des Einsatzes von Social Collaboration Tools zu erhalten, wurden Mitarbeiter mit Führungsverantwortung zu diesem Thema befragt. Interessanterweise rangiert die Verbesserung der Unternehmenskultur ganz oben auf der Liste der wichtigsten Ziele. Das ist auch deshalb bemerkenswert, weil traditionelle Prioritäten beim IT-Einsatz  wie beispielsweise Kostensenkungen offenbar in den Hintergrund treten.

Ziele von Social Collaboration

Die Studie zeigt zudem einen positiven Zusammenhang zwischen dem Zugehörigkeitsgefühl zum Unternehmen und der Nutzung von Enterprise Social Networks. Das heißt, entweder nutzen Mitarbeiter, die sich tendenziell stärker mit dem Unternehmen identifizieren, eher stärker ein ESN – oder die ESN-Nutzung stärkt das Zugehörigkeitsgefühl.

Der Einsatz von Social Collaboration Tools führt zu einer höheren Arbeitseffizienz

In der Studie haben wir verschiedene Szenarien für den Einsatz von Social Collaboration Tools entwickelt und auf dieser Basis den Social Collaboration Reifegrad gemessen. Die Ergebnisse zeigen einen positiven Zusammenhang zwischen diesem Reifegrad – vereinfacht ausgedrückt: der Intensität der Nutzung von Social Collaboration Tools für verschiedene Aufgabenstellungen – und der Arbeitseffizienz der Mitarbeiter:

Arbeitseffizienz der Mitarbeiter

Ein besonders positiver Zusammenhang existiert für den Einsatz von Enterprise Social Networks.

Social Collaboration Tools erhöhen die Innovationskraft

Die Innovationskraft kann durch den Einsatz dieser Tools und von Enterprise Social Networks insbesondere dadurch erhöht werden, dass die Zusammenarbeit in Teams besser unterstützt wird. Dies erfolgt wiederum dadurch, dass die ESN-Nutzung signifikant positiven Einfluss auf das Metawissen der Mitarbeiter hat. Wenn einer vom anderen weiß, mit welchen Themen er oder sie sich gerade beschäftigt und wer im Unternehmen über welche Spezialkenntnisse, Fähigkeiten und Connections verfügt, lassen sich neue Ideen besser kombinieren und schneller in marktreife Angebote überführen. Das Wissen in Bezug auf die Expertise der Kollegen wird dabei als „Who knows what“ bezeichnet. Die andere Dimension des Metawissens wird „Who knows whom“ genannt und repräsentiert das Wissen der Mitarbeiter in Bezug auf die Verbindungen ihrer Kollegen. Die Studie zeigt einen klaren Zusammenhang zwischen dem Nutzungsgrad von Enterprise Social Networks und den beiden genannten Metawissen-Dimensionen.

Die gesamte Studie können Sie unter http://www.collaboration-studie.de/ herunterladen.

Purpose Led Organizations – mehr als ein neuer Marketing-Hype?

Ich weiß nicht wie es Ihnen geht, wenn Sie im Bereich Innovation oder Digitalisierung einen neuen Begriff hören. Also ich werde mittlerweile in der Regel erst einmal skeptisch. Neulich „belehrte“ mich ein Berater beispielsweise, dass ich das Wort CDO falsch verwenden würde; es ginge nämlich in Wirklichkeit gar nicht um den Chief Digital Officer, sondern viel mehr um den Chief Disruptive Officer. Naja, der Mann wird es sicherlich wissen.

Jetzt zum Thema dieses Posts, der Purpose led Organization. Was steckt dahinter? Der Begriff ist nicht wirklich scharf definiert, aber im Grunde genommen handelt es sich um Organisationen (die sich selbst so bezeichnen), deren Zielsetzung nicht nur darin besteht, Geld zu verdienen, sondern sich auch für soziale, ökologische bzw. nachhaltige Ziele einzusetzen. Es geht auch darum, eine Unternehmenskultur zu etablieren, in der dieser „Purpose“ im Mittelpunkt der Strategien und des Handelns steht. Zudem ist die Purpose led Organization durch die Arbeit der Mitarbeiter in agilen Teams gekennzeichnet, in denen sie Eigenverantwortung tragen – auch für das Budget. Man spricht in diesem Kontext auch von einer Ende-zu-Ende-Verantwortung.

Ein interessantes Beispiel dafür ist „buurtzorg“, ein Modell aus Holland, welches aktuell die ambulante Pflege verändert. Aber auch Unternehmen aus der Softwareindustrie wollen diesen Weg gehen. So sollen beispielsweise die Mitarbeiter des Cloud-Anbieters Salesforce mindestens eine Woche im Jahr für gemeinnützige Organisationen arbeiten. Zudem stellen mehrere Softwareanbieter gemeinnützigen Organisationen zum Teil auch die eigenen Lösungen kostenlos zur Verfügung. Ein anderes Beispiel für eine Maßnahme auf dem Weg zur Purpose led Organization ist die Gestaltung des gesamten Ökosystems eines Unternehmens. Das würde zum Beispiel bedeuten, dass auch Lieferanten und anderer Partner gewisse ethische Mindeststandards erfüllen müssen. Jetzt stellt sich aber natürlich auch die Frage, ob der Wandel zur Purpose led Organization mehr als reines Marketing ist. Seit mehreren Jahren werben Unternehmen ja mit unterschiedlichsten Slogans, die eher an eine Mission zur Verbesserung der Welt erinnern als an Unternehmen, die primär durch die Erwirtschaftung von Gewinnen getrieben sind.

Natürlich gibt es solche Unternehmen, die es mit der Zielsetzung der Purpose led Organization ernst meinen, während andere nur auf einen Trend aufspringen und auf ein besseres Image hoffen. Fatal ist es, wenn sich Organisationen lediglich einen „Purpose led“ -Anstrich geben und ansonsten wenige bis keine konkreten Maßnahmen entwickeln, um diesem Anspruch gerecht zu werden. Fatal deswegen, weil Mitarbeiter, Partner und die Öffentlichkeit dies früher oder später bemerken werden.

Meiner Meinung nach werden Maßnahmen auf dem Weg zur Purpose led Organization häufig mit Marketing verbunden. Das ist so auch erstmal in Ordnung. Wenn sich nämlich die Zielsetzung, etwas „Gutes für die Welt zu tun“, mit Marketing und sogar Employer Branding gut in Einklang bringen lässt, dann ist das doch grundsätzlich eine gute Sache und wir dürfen gespannt sein, ob und inwieweit dieser Ansatz die Arbeitswelt verändern wird. Eine interessante Umfrage von EY zu diesem Thema finden Sie unter diesem Link. Eine – etwas selbstzentrierte – Übersicht über Purpose led Organizations bietet das Londoner Beratungshaus Radley Yeldar unter diesem Link.

Was denken Sie? Ist die Purpose led Organization mehr als geschicktes Marketing und Employer Branding? Lohnt es sich für die Unternehmen und wird das Konzept die Arbeitswelt verändern? Ich bin gespannt auf Ihre Einschätzung!

Digitalisierung verändert die Wirtschaft – nur uns betrifft das nicht

In der letzten Zeit werde ich immer häufiger gefragt, ob das Thema Digitalisierung nicht ein vorübergehender Hype sei, der von Marktforschungsinstituten, Beratungsgesellschaften, Medien und anderen immer weiter befeuert wird.

Meine deutliche Antwort lautet: Nein. Aber ich kann die Frage dennoch gut verstehen, denn wenn man sich die Inhalte mancher Kongresse oder auch die Newsfeeds vieler sozialer Netzwerke anschaut, ist der Tiefgang häufig überschaubar. Man findet viele neue Buzzwords, Binsenweisheiten, wie die Tatsache, dass Airbnb oder Uber die Hotel- bzw. Taxibranche verändern oder auch viele kaum belegbare und wenig differenziert vorgetragene Behauptungen, dass Blockchains zukünftig Banken und Energieanbieter ersetzen werden.

Aber viel gefährlicher als die häufig ahnungslosen und selbsternannten Evangelisten der Digitalisierung sind in meinen Augen jedoch die „Bremser“. Ein trauriges Beispiel ist aktuell im Rahmen der Digitalisierungspläne für Schulen zu finden. Nach den Plänen von Bildungsministerin Johanna Wanka soll der Bund in den kommenden fünf Jahren insgesamt fünf Milliarden Euro investieren, um Schulen mit Computern und WLAN auszustatten. Im Gegenzug für das Geld vom Bund sollen sich die Länder verpflichten, digitale Bildung umzusetzen – also Lehrer fortzubilden und Unterrichtskonzepte zu entwickeln. Wenn Sie mich fragen, ist das ein großer Schritt in die richtige Richtung, um Kinder und Jugendliche fit zu machen für die digitale Zukunft. Diese Meinung scheint der Präsident des Deutschen Lehrerverbandes, Josef Kraus, nicht zu teilen. Sein Statement: „Diese Euphorie ums Digitale kann ich gar nicht nachvollziehen“. Was soll man dazu noch sagen? Er gibt mit dieser Aussage wirklich alles, um ein weit verbreitetes bestehendes Vorurteil zu bestätigen.

Vor diesem Hintergrund finde ich die Frage spannend, ob die Digitalisierung in Unternehmen tatsächlich noch unterschätzt wird. Um dies herauszufinden, haben wir in Kooperation mit der Lünendonk GmbH und Cognizant Technology Solutions eine Umfrage durchgeführt. Ein Ergebnis der Studie: ja, die Folgen der Digitalisierung werden weiter unterschätzt. Etwas präziser: wir haben die teilnehmenden Unternehmen einerseits gefragt, ob die Digitalisierung in ihrem Unternehmen zu starken Veränderungen führen wird. Lediglich 17 Prozent haben dieser Aussage zugestimmt. Interessanterweise sind aber andererseits 30 Prozent der Ansicht, dass die Digitalisierung in anderen Unternehmen der gleichen Branche zu sehr großen Veränderungen führen wird.

unbenannt

Das erinnert mich an das aus der Psychologie bekannte Phänomen des „Unrealistischen Optimismus“. In einfachen Worten: Man gibt sich der Illusion hin, dass es immer nur die anderen, aber nicht einen selbst trifft.

Wie kommt es dazu, dass Unternehmen davon ausgehen, selber weniger von Veränderungen durch die Digitale Transformation betroffen zu sein als andere? Bei der Detailanalyse fällt auf, dass besonders die Unternehmensgröße einen Einfluss auf die Veränderungserwartung hat. Analysiert man die Ergebnisse anhand der Unternehmensgröße zeigt sich, dass insbesondere die großen Unternehmen mit mehr als 10.000 Mitarbeitern mit geringeren Veränderungen rechnen. Diese großen Unternehmen haben ihre Wurzeln häufig in der Old Economy. Die gesamte Studie können Sie hier herunterladen.

Das Konzept des Innovators Dilemma von Clayton Christensen, der in Harvard lehrt und forscht, zeigt, wie disruptive Innovationen ganze Branche verändern. Er erläuterte die Idee damals in den 90er Jahren an traditionellen Branchen, wie der Stahlindustrie. Das Konzept gilt aber umso stärker für die digitale Transformation. Ein bekanntes Beispiel für ein frühes Opfer der Digitalisierung ist Kodak.

Abschließend kann ich also nur noch einmal betonen, dass die Digitalisierung natürlich kein vorübergehender Hype ist und offenbar von vielen Unternehmen immer noch unterschätzt wird. Die Unternehmen sollten sich vom CEO über den CIO (evtl. auch CDO) bis hin zu den Mitarbeiterinnen und Mitarbeitern in den Fachabteilungen auf immer schneller werdende Veränderungen einstellen. Sowohl Startups als auch „etablierte“ Internet-Player wie die Big 4 (also Amazon, Apple, Facebook und Google) werden mit viel Kreativität sowie enormer Entwicklungspower in andere Branchen vordringen und dort etablierte Geschäftsmodelle in Frage stellen. Die Konsequenz ist klar – und damit kommen wir abschließend nochmal auf das Ergebnis der Studie zurück: Die Digitalisierung wird die gesamte Wirtschaft verändern und immer schneller neue Geschäftsmodelle hervorbringen – und diese Entwicklung wird nicht nur die anderen treffen.

Der Wert von Daten und die Entwicklung datenbasierter Geschäftsmodelle

Wie lässt sich der ökonomische Wert von Daten bestimmen?

Mit der Digitalisierung sind viele Optionen entstanden, große Datenmengen zu sammeln, mit denen Firmen wie Facebook oder Google viel Geld verdienen. Und es kommen ständig neue Unternehmen dazu, die um die neue Währungseinheit im 21. Jahrhundert, das vielzitierte „neue Öl“, konkurrieren. Es stellt sich die Frage: Was sind unsere Daten eigentlich wert? Und wie lässt sich ihr ökonomischer Wert bestimmen?

Wir wollen uns diesen Fragen zunächst aus wissenschaftlicher Perspektive nähern: Jacob Marschak und Helmut Laux haben Modelle zur Berechnung von Datenwerten entwickelt. Diese Modelle basieren auf der (normativen) Entscheidungstheorie, die Modelle bereitstellt, um unterschiedliche Handlungsoptionen zu bewerten. Mithilfe dieser Modelle lässt sich der Wert von Informationen bestimmen, die eingeholt werden, um die beste der bestehenden Handlungsoptionen auszuwählen. Anmerkung: Ich schließe mich hier Carl Shapiro und Hal Varian an, die in ihrem wegweisendem Buch „Informationen Rules“ von 1998 Information als „everything that can be digitized“ definieren. Das Buch stellt die zentralen ökonomischen Grundlagen der digitalen Wirtschaft dar, die im wesentlich auch heute noch gelten.

Zurück zur Bewertung von Informationen. Ich möchte Ihnen ein paar Beispiele nennen, die zeigen, für welche Fälle diese Modelle zur Bewertung von Informationen grundsätzlich geeignet sind, ohne hier auf die Mathematik dahinter einzugehen:

  • Ein Unternehmen muss entscheiden, an welchen Standorten eine neue Niederlassung eröffnet werden soll. Es beschafft sich Informationen über das Bildungsniveau und die Kosten für Personal und Grundstücke an diesen Standorten.
  • Ein Unternehmen möchte ein etabliertes Produkt durch ein Neues ablösen und befragt seine Kunden, was sie für das neue Produkt zahlen würden.
  • Eine Familie sammelt Informationen zu verschiedenen Ländern, Hotels und Flügen, um den nächsten Sommerurlaub zu planen.

Wenn man nun die neuen Informationen in die Bewertungsbögen einträgt, die auf den Modellen zu Ermittlung der Informationswerte beruhen, dann verändert sich möglicherweise die Wahrscheinlichkeit, mit der ein bestimmtes Ereignis eintritt. Es ergibt sich ein neuer Gewinnerwartungswert. Und die Differenz zwischen dem alten und dem neuen Gewinnerwartungswert beschreibt den Wert der neuen Informationen.

Diese Modelle bestimmen folglich den Wert von Informationen, mit denen die beste Handlungsoption ausgewählt werden kann.

Bis dato gibt es aber keine Modelle, anhand derer sich der Wert einer Kundendatenbank oder der Wert der Daten eines Social-Media-Anbieters direkt ermitteln ließen. Der Wert dieser Daten muss für den konkreten Einzelfall ermittelt werden, denn er hängt vom verwendeten Geschäftsmodell ab.

Wie lassen sich datenbasierte Geschäftsmodelle entwickeln?

Heute sammeln viele Unternehmen Daten, ohne überhaupt zu wissen, was sie damit später einmal anfangen wollen. Wie gesagt, Daten haben einen Wert – da ist es naheliegend, sie vorbeugend schon mal zu sammeln. Ich bekomme relativ häufig Anfragen von Unternehmen, die wissen möchten, was sie mit ihren gesammelten Daten denn nun anfangen können und wie man in diesem Zusammenhang mit dem Thema Privatsphäre umgeht.

Zum Einstieg bieten sich Verfahren an, die die Kreativität anregen, wie Brainstorming, ein Hackathon oder auch Design Thinking.

Wenn sich auf Basis der ersten Ergebnisse zeigt, dass es sich lohnen könnte, ein Geschäftsmodell zu entwickeln, dann eignet sich das mittlerweile sehr bekannte  Modell Canvas von Alexander Osterwalder und Yves Pigneur, um bestehende Geschäftsmodelle zu veranschaulichen oder zu dokumentieren. Wenn es aber darum geht, gänzlich neue Geschäftsmodelle zu entwickeln, habe ich mit dem so genannten St. Gallener Ansatz von Alexander Gassmann sehr gute Erfahrungen gemacht. Dieser Ansatz stellt 55 Muster von erfolgreichen Geschäftsmodellen bereit. Bei der Arbeit an einem konkreten Fall, schaut man sich diese etablierten Muster an und überlegt, ob es sinnvoll sein könnte, sie auf eine neue Branche zu übertragen.

Wir haben kürzlich einen Workshop mit 12 Mitarbeiterinnen und Mitarbeitern eines großen Unternehmens aus dem Maschinenbau durchgeführt, um Ideen zu entwickeln, wie sich die Daten, die alltäglich u.a. von verschiedensten Sensoren gesammelt werden, gewinnbringend nutzen lassen. Das Ziel bestand darin, Geschäftsmodellinnovationen zu entwickeln, mit denen das Unternehmen von seiner Datensammlung profitiert.

Nach einer kurzen Einführung in das Thema Entwicklung von Geschäftsmodellen haben wir gemeinsam eine Datenlandkarte erstellt. Bei der Vorbereitung des Workshops hatten wir aus den verfügbaren Geschäftsmodell-Mustern des St. Gallener Ansatzes 27 herausgepickt, die uns im konkreten Fall interessant erschienen.

Im Verlauf des Workshops wurde dann jeweils eine Karte gezogen, bspw. das Muster „Razer & Blade“: Ein Produkt oder Service wird also sehr günstig oder sogar kostenlos an (potenzielle) Kunden verteilt, um im Anschluss mit  ergänzenden Dienstleistungen oder Produkten Geld zu verdienen.

Wenn alle das Prinzip des Musters verstanden hatten, diskutierte die Gruppe, ob diese Idee für das Unternehmen geeignet sein könnte. Alle Ideen wurden dokumentiert. Wenn die Diskussion abebbte, wurde die nächste Karte gezogen. Am Ende des Tages hatten wir knapp 40 Ideen entwickelt, wie auf Basis der verfügbaren Daten Services für Kunden entwickelt werden könnten. Auf Basis dieser 40 Ideen lässt sich nun auch der Wert der Daten für das jeweils konkrete Szenario berechnen – allerdings ohne Metamodell wie es von Jacob Marschak und Helmut Laux entwickelt wurde.

Keynote bei den Hamburger IT Strategietagen

Im Februar wurde ich eingeladen, eine Keynote mit dem Titel „Reality Check Digitalisierung – Treiber, Hemmnisse und Zukunftsinvestitionen“ bei den Hamburger IT Strategietagen zu halten. Die von Hamburg@work, FAKTOR 3 LIVE und dem CIO Magazin gemeinsam veranstaltete Tagung versammelte zum vierzehnten Mal das Who-is-Who der deutschsprachigen IT-Anwender in der Hansestadt.

Meine Vortragsfolien zum Download finden Sie hier, ein Video meiner Keynote können Sie sich hier ansehen.

Einen ausführlichen Artikel über den Vortrag können Sie hier lesen.