Über Algorithmenethik und gefährliche Getränkeautomaten – Zum Bericht der Datenethikkommission der Bundesregierung

 

Künstliche Intelligenz als Basistechnologie

Die fast universelle Anwendbarkeit von KI-Algorithmen – Erik Brynjolfsson und Andrew McAffee vom MIT sprechen von der wichtigsten „general purpose technology“ unseres Zeitalters – macht die Nutzung von Künstlicher Intelligenz (KI) interessant für Unternehmen aller Größen und unterschiedlicher Branchen. Aber auch bei der Lösung wichtiger gesellschaftlicher Herausforderungen kann die KI-Nutzung helfen. KI kann die Diagnose und Therapie von Krankheiten unterstützen, Sprache erkennen oder Cyberangriffe verhindern. Allerdings weisen Algorithmen auch Grenzen auf. Häufig liefern sie nicht transparente Ergebnisse, das heißt, es ist möglicherweise nicht nachvollziehbar, warum eine KI eine bestimmte Entscheidung trifft oder vorschlägt. Darüber hinaus kann die Nutzung von KI-Algorithmen zu Verzerrungen (engl. Bias) führen. Ein bekanntes Beispiel hierfür ist der von Amazon praktizierte und gescheiterte Versuch, eine Software auf KI-Basis zu entwickeln, die aus allen eingegangenen Bewerbungen für eine offene Stelle automatisiert die geeignetsten fünf Bewerber herausfiltert. Da Amazon trotz mehrjähriger Entwicklungszeit nicht sicherstellen konnte, dass die Software die Bewerber – zum Beispiel aufgrund ihres Geschlechts – nicht diskriminiert, wurde das Projekt eingestellt. Diese Verzerrungen dürfen aber natürlich nicht so interpretiert werden, dass KI-Algorithmen bewusst diskriminieren. Diskriminierungen stecken in aller Regel in den Trainingsdaten: Wenn also beispielsweise ein Algorithmus zum Maschinellen Lernen mit Daten lauter erfolgreicher Männer „gefüttert“ wird, kann dies zu dem Fehler führen, dass der Algorithmus Frauen benachteiligt. In der Regel diskriminieren die Daten, nicht die Algorithmen.

 

Der Bericht der Datenethikkommission

Vor dem Hintergrund dieser und ähnlicher Grenzen der Anwendung von KI-Algorithmen nahm die im Juli 2018 von der Bundesregierung eingesetzte Datenethikkommission ihre Arbeit auf. Die 16 Mitgliederinnen und Mitglieder kommen aus den Bereichen Informatik, Ethik, Theologie, Recht und Verbraucherschutz. Ende Oktober 2019 legten sie ihren etwa 250 Seiten langen Abschlussbericht vor. In diesem skizzieren sie einen umfassenden Regulierungsrahmen für den Umgang mit Daten und algorithmischen Systemen. Der Bericht zielt wie die DSGVO darauf, den „schwachen“ Menschen vor allen möglichen Gefahren zu schützen.

Der Begriff der KI wird in diesem Bericht als eine Teilmenge algorithmischer Systeme verstanden. Die Kommission hat also nicht nur KI-Algorithmen, sondern jeglichen Softwarecode betrachtet.

Die Kommission entwickelt in ihrem Bericht Handlungsempfehlungen für eine personenbezogene Datennutzung. Handlungsbedarf sehen die Experten beispielsweise bei Ansätzen einer Totalüberwachung, bei einer die Privatsphäre der Menschen verletzenden Profilbildung und einer dem Demokratieprinzip zuwiderlaufenden Beeinflussung politischer Wahlen. Auch für den Verbraucherschutz und gegen viele Formen des Handels mit personenbezogenen Daten sollten Maßnahmen ergriffen werden, heißt es in dem Bericht. Die Empfehlungen entsprechen in großen Teilen der DSGVO. Bemängelt werden in diesem Zusammenhang insbesondere Defizite in der Anwendung geltenden Rechts.

Dagegen haben es die Empfehlungen der Kommission in Bezug auf die Nutzung algorithmischer Systeme in sich. Kernpunkt ist eine Bewertung der Risiken von Algorithmen bzw. algorithmischen Systemen. Diese Risiken werden in fünf Kritikalitätsstufen unterschieden (Stufe 1=Anwendungen ohne oder mit geringem Schädigungspotenzial bis Stufe 5=Anwendungen mit unvertretbarem Schädigungspotenzial).  Bereits ab Stufe 2 (Anwendungen mit einem gewissen Schädigungspotenzial) müssen nach Meinung der Mitglieder der Kommission Unternehmen eine „angemessene Risikofolgenabschätzung“ erstellen und veröffentlichen. Zudem werden ebenfalls ab dieser Stufe Offenlegungspflichten gegenüber Aufsichtsinstitutionen, Ex-ante-Kontrollen sowie Auditverfahren vorgeschlagen. Algorithmen mit „unvertretbarem Schädigungspotenzial“ sollen nach Vorstellung der Kommission verboten werden können.

Darüber hinaus schlagen die Experten eine Pflicht für Unternehmen zur Benennung eines Algorithmus-Beauftragten vor – in Analogie zur Position der Datenschutzbeauftragten. Weiterhin empfiehlt die Kommission ein Gütesiegel, um eine Orientierung in Bezug auf die Bewertung vertrauenswürdiger algorithmischer Systeme zu geben. Dieses Siegel könne ein Anreiz für Unternehmen sein, vertrauenswürdige Systeme zu entwickeln und zu verwenden.

Auf dieser Basis beginnt der Wunsch der Experten nach mehr Regulierung. Als oberste Kontrollinstanz soll die Bundesregierung nach Ansicht der Kommission ein bundesweites „Kompetenzzentrum Algorithmische Systeme“ einrichten, das bestehende Aufsichtsbehörden durch „technischen und regulatorischen Sachverstand“ dabei unterstützen soll, algorithmische Systeme im Hinblick auf die Einhaltung von Recht und Gesetz zu kontrollieren. Zur Umsetzung der vorgeschlagenen Maßnahmen empfiehlt das Expertengremium darüber hinaus eine Regulierung auf EU-Ebene. Diese Regulierung soll zentrale Grundprinzipien enthalten, die an den von der Datenethikkommission benannten Anforderungen angelehnt sein könnten. Was auf der Ebene der EU geregelt wird, soll schließlich in den einzelnen Mitgliedsstaaten eine „Konkretisierung“ erfahren.

 

Software eats the World

Bei der Bewertung der Empfehlungen der Kommission muss uns klar sein, dass jede Software ein algorithmisches System ist. Marc Andreessen, Mitgründer von Netscape Communications und heute einer der einflussreichsten Risikokapitalgeber der Welt, formulierte bereits 2011 den berühmten Satz „Software eats the world“ und sprach davon, dass jedes Unternehmen zu einem Softwareanbieter wird. Da es künftig wenige Bereiche geben wird, die nicht Software-unterstützt funktionieren, ist unklar, wie eine Regulierung von Algorithmen und Daten mit vertretbarem Aufwand und angemessener Geschwindigkeit erfolgen kann, ohne dabei Innovationen zu verhindern.

Ein Beispiel dafür, wie die Kommission denkt, ist die im Bericht zu findende Einschätzung von Software, die in Getränkeautomaten zum Einsatz kommt. Wörtlich heißt es: „Die in einem Getränkeautomaten zum Einsatz gelangenden Algorithmen haben zwar auch ein gewisses Schädigungspotenzial, weil ein Nutzer z.B. keine Ware erhalten und sein Geld verlieren könnte. Dieses Schädigungspotenzial überschreitet aber nicht die Schwelle zu einem besonderen Schädigungspotenzial im Algorithmenkontext.“ Das ist keine Satire.

Gegen eine unbürokratische und nicht von systematischer Bedenkenträgerei geprägte Überwachung von KI-Algorithmen ist grundsätzlich nichts einzuwenden. Aber etwas mehr Pragmatismus wäre hier hilfreicher gewesen: Beispielsweise könnte man bei spezifischen Algorithmen bzw. Anwendungsgebieten ansetzen, etwa im Bereich der  Gesichtserkennung. Die Nutzung solcher algorithmischer Systeme enthält in vielen Fällen ein großes Risiko für die Privatsphäre der Menschen, siehe nicht zuletzt das Social Credit System in China. Ein anderes Beispiel sind KI-Algorithmen, die zur Kriegsführung eingesetzt werden können. Vor diesem Hintergrund haben kürzlich etwa 3.000 Google Mitarbeiterinnen und Mitarbeiter zu Recht ihrem Vorstandsvorsitzenden Sundar Pichai eine Mahnung geschickt, in der sie eindringlich vor der Entwicklung autonomer Waffensysteme warnen. Eine der zentralen Aufgaben besteht also darin, dass es gelingt, die Vorteile von KI zu heben, ohne die Risiken zu vernachlässigen. KI soll den Menschen und der Wirtschaft dienen.

Die sehr regulatorischen Vorschläge der Kommission bereiten insbesondere Sorgen, weil sie die ohnehin eher  langsame Entwicklung der Digitalisierung in Deutschland weiter bremsen könnten. Zur Erinnerung: Wir liegen beispielsweise im Digitalisierungsrankings des IMD World Digital Competitiveness Ranking 2019 weltweit nur auf dem 17. Platz. „Die Wettbewerbsfähigkeit großer Industrienationen wie Deutschland wird durch lange Entscheidungsprozesse, veraltete IT-Strukturen, eine verbreitete Skepsis gegenüber Technologie und im internationalen Vergleich unzureichende Investitionen in Zukunftstechnologien beeinträchtigt“, heißt es warnend in einem aktuellen Strategiepapier des Auswärtigen Amtes. Wenn nun fast jedes algorithmische System erst in Bezug auf sein Schadenpotenzial analysiert und auditiert werden soll, wird dies zu einer weiteren Verlangsamung der digitalen Transformation bei uns führen und die Gefahr vergrößern, dass wir im digitalen Innovationswettbewerb mit Ländern wie USA, China oder Israel  weiter zurückfallen. Auch für den weltweiten Standortwettbewerb gilt schließlich die Aussage des kanadischen Premierministers Justin Trudeau beim World Economic Forum 2018 in Davos: „The pace of change has never been this fast, yet it will never be this slow again“.

Innovation @ Google – Was wir lernen können

Im letzten Herbst hatte ich die Gelegenheit, ein paar Wochen im Silicon Valley zu verbringen. Neben den üblichen touristischen Zielen entlang des Highway Nr. 1, Treffen mit Start-ups und den Besuchen an den Universitäten in Berkeley und Stanford hat mich insbesondere ein Tag bei Google in Mountain View sehr beeindruckt.

Dabei hätte ich auch gerne etwas zu meinen Themen Macht der Daten und Privatsphäre erfahren, aber all meine Versuche, darüber mit Google-Mitarbeitern zu diskutieren, blieben erfolglos. Bei diesem Thema machen sie dicht: „Alles im Sinne der Nutzer“, „Privatsphäre ist uns sehr wichtig“ und weitere Worthülsen.

Was mich aber ebenso sehr beschäftigte, war die Frage, wie Google es trotz seiner Größe schafft, so innovativ zu bleiben. Ich hatte das Glück, dass ein Freund, der dort arbeitet, sich einen Tag Zeit nahm, um mir den Campus und auch die neuesten Entwicklungen – etwa im Bereich Künstliche Intelligenz – zu zeigen. Der Eindruck vom Campus: viele junge freundliche und sympathische Menschen, verschiedene Cafeterias mit sehr gutem Essen und Getränken, Volleyballplätze und überall ein sehr entspanntes Klima – Kalifornien eben.

Anders als bei vielen deutschen Firmen strengt Google sich wirklich an, um innovativ zu bleiben. Es geht um weit mehr als „Nettigkeiten“, wie Fahrräder für Teammeetings oder ein Dinosaurier auf dem Campus, der alle Mitarbeiter daran erinnern soll, wie schnell selbst Riesen aussterben. Ich bin bis heute beeindruckt, wie es einer Firma mit ca. 80.000 Mitarbeitern gelingt, innovativ zu bleiben. Dies gilt für viele Bereiche, wie z.B. Künstliche Intelligenz, autonomes Fahren, Augmented Reality und viele andere.

Neben einem guten Gehalt unternimmt Google vieles, um für die begehrten Softwareentwickler und andere digitale Experten attraktiv zu sein. So können die Mitarbeiter anderthalb Tage pro Woche für ein eigenes Projekt aufwenden. Hierfür muss kein Business-Plan entwickelt werden. Vielmehr haben die Initiatoren die Aufgabe, Mitstreiter im Sinne von Followern zu finden, die mit ihnen gemeinsam an einem Projekt arbeiten. Ein weiterer Punkt, den ich spannend fand: das variable Gehalt wird dort nicht vom Chef oder der Chefin bestimmt, sondern von den „Peers“ im Team. Das Ziel dahinter: Die Leistung im Team und nicht hierarchisches Denken fördern.

Google hat es mit diesen und weiteren Maßnahmen schlicht geschafft, ein Vorreiter bei den Themen Leadership und Mitarbeiter zu sein. Alle wissen, dass das die Schlüssel zur Innovationskraft sind, aber nur den wenigsten gelingt es, tatsächlich ein begehrter Arbeitgeber zu werden. Google ist mittlerweile für viele Universitätsabsolventen der Traumarbeitgeber schlechthin – und das gilt nicht nur für die Studenten aus Stanford oder Berkeley. Google hat also freie Auswahl im globalen Pool der Top-Talents. Dabei muss jeder Kandidat mehrere Gespräche mit verschiedenen Google Mitarbeitern führen und alle(!) Gesprächspartner müssen der Einstellung zustimmen. Auch von meinen Studierenden und Doktoranden/innen höre ich immer wieder: „Wenn es klappt, würde ich am liebsten zu Google gehen.“ Und dabei denken sie nicht zuerst an die Sonne Kaliforniens.

Traditionelle Unternehmen in Europa und Deutschland können in Bezug auf Innovationen und Unternehmenskultur noch immer viel von Google lernen. Ein Vorurteil, das man zum Thema Digitalisierung oft hört, wurde auf meiner Reise übrigens nicht bestätigt: Das vielzitierte „Fail fast“ konnte ich nicht beobachten. Im Gegenteil: Amir erzählte mir, dass sein Projekt, das er über mehrere Monate geleitet und vorangetrieben hat, am nächsten Tag hoffentlich den siebten Qualitätstest bestehen würde. Erst dann gehe seine Softwarelösung live. „Fail fast“ scheint jedenfalls bei Google doch nicht (mehr) so weit verbreitet zu sein, wie hierzulande manchmal behauptet wird. Vielleicht war das in frühen Tagen anders, als Google noch ein Disruptor war – heute steht es auf der Seite der etablierten Incumbents und hat ein Markenversprechen einzulösen. Qualität und Innovation gehört eben doch zusammen – auch im Silicon Valley.

Das IT-Sicherheits-Paradox: Warum Unternehmen zu wenig in IT-Sicherheit investieren

Mit der zunehmenden Digitalisierung von Wirtschaft und Gesellschaft gehen auch immer größere IT-Sicherheitsrisiken einher. So werden mehr und mehr Unternehmen, nicht zuletzt kleine und mittelständische, Opfer von Sicherheitsvorfällen. Bitkom schätzt beispielsweise, dass durch IT-Sicherheitsvorfälle allein deutschen Firmen im letzten Jahr ein Schaden von 55 Milliarden Euro entstanden ist. Und es handelt sich dabei natürlich nur um die Spitze des Eisbergs. Viele Sicherheitsvorfälle werden gar nicht erst bekannt gemacht, entweder weil es den Unternehmen schlicht peinlich ist oder auch, weil sie einen Imageschaden befürchten. Darüber hinaus wissen die Unternehmen in vielen Fällen noch nicht einmal selbst, ob sie Opfer eines Sicherheitsvorfall wurden – frei nach dem Motto: Entweder der Feind ist schon drin oder du hast es noch nicht bemerkt.
Das Ziel dieses Kurzbeitrags besteht darin zu analysieren, ob Entscheidungsträgern in Unternehmen bestehende IT-Sicherheitsrisiken bewusst sind. Auf den ersten Blick erstaunt die Frage vielleicht etwas, weil es eine Vielzahl von Studien gibt, die besagen, dass IT-Sicherheit von vielen Entscheidern als das wichtigste Thema im Rahmen der digitalen Agenda angesehen wird (siehe z.B. Bitcom). Diese angebliche Priorisierung steht jedoch im Widerspruch zu einigen Expertengesprächen, die wir mit Führungskräften durchgeführt haben und die von vielen unterlassenen Investitionen in IT-Sicherheitslösungen berichteten. Daher haben wir uns entschieden, die Frage nach der Bedeutung des Themas IT-Sicherheit mit Hilfe einer etwas größer angelegten Studie zu untersuchen. Grundlage unserer Studie, die in Zusammenarbeit mit der Lünendonk GmbH durchgeführt wurde, ist eine Befragung von 103 Entscheidungsträgern, überwiegend CIOs und IT-Leitern. Dabei ist es natürlich naheliegend, diese Entscheider nicht direkt zu fragen, ob IT-Sicherheit ein wichtiges Thema ist. Die Antwort wäre klar und die Ergebnisse langweilig. Daher haben wir die Entscheider gebeten, einerseits zu bewerten, wie gut ihr eigenes Unternehmen auf Herausforderungen im Bereich IT-Sicherheit vorbereitet ist und einzuschätzen, ob das Gleiche für andere Unternehmen gilt. Die Antworten auf diese beiden Fragen sind in der folgenden Abbildung dargestellt.

Abbildung 1: Einschätzung der eigenen Vorbereitung auf IT-sicherheitsrelevante Herausforderungen im Vergleich zu konkurrierenden Unternehmen (von +2 sehr gut vorbereitet bis -2 gar nicht vorbereitet)

Die Ergebnisse zeigen, dass die Befragten der Meinung sind, dass ihr eigenes Unternehmen deutlich besser auf Herausforderungen im Bereich IT-Sicherheit vorbereitet ist als andere konkurrierende Unternehmen. Um es deutlich zu machen: Natürlich kann es in bestimmten Fällen sein, dass ein Unternehmen besser vorbereitet ist als andere Unternehmen, aber dass dies für alle Unternehmen gilt, ist nicht möglich. Die Ergebnisse sind auf Basis eines T-Tests statistisch signifikant. In der Psychologie spricht man in diesem Fall auch von einem sogenannten unrealistischen Optimismus. Dieser besagt, dass Menschen dazu tendieren, ihr eigenes Risiko im Vergleich zu anderen verzerrt wahrzunehmen und zu unterschätzen.
Überträgt man diese Ergebnisse aus der psychologischen Forschung auf unser Beispiel, bedeutet dies, dass die Unternehmen ihr eigenes IT-Sicherheitsrisiko systematisch unterschätzen. Eine Vermutung ist, dass sich Unternehmen hinsichtlich ihrer Investitionen in IT-Sicherheit ähnlich verhalten wie es Endnutzer bei der Preisgabe von persönlichen Informationen tun. Man spricht hier auch vom sogenannten Privacy-Paradox, das vereinfacht ausgedrückt bedeutet, dass viele Leute zwar behaupten, dass ihnen ihre Privatsphäre sehr wichtig sei, tatsächlich aber andere Werte höher bewerten und sich unvorsichtig verhalten. So geben die Nutzer Informationen preis und bereuen dies später nicht selten. Dabei gehen sie häufig (unrealistisch optimistisch) davon aus, dass ihnen schon nichts passieren wird. In der Wissenschaft spricht man hier von einem Intention-Behavior-Gap. Ein ähnliches Verhalten scheint es in Unternehmen zu geben: Kaum jemand würde behaupten, dass IT-Sicherheit für Unternehmen kein relevantes Thema wäre. Dennoch werden wichtige Investitionen in IT-Sicherheit aufgrund eines unrealistischen Optimismus nicht getätigt oder verschoben. Auch hier scheint die Maxime zu gelten, die sich auch bei Endnutzern beobachten lässt: „Uns wird schon nichts passieren.“ Dieses IT-Sicherheits-Paradox ist aus zwei Gründen hochproblematisch. Zum einen wird im Extremfall auf diese Weise die Existenz des gesamten Unternehmens aufs Spiel gesetzt. Zum anderen können unterlassene Investitionen in die eigene IT-Sicherheit die gesamte Wirtschaft und Gesellschaft gefährden. Was für die Digitalisierung der Wirtschaft als solche gilt, gilt auch für den Bereich IT-Sicherheit – der manchmal auch als die „ugly sister of digitalization“ bezeichnet wird – sie muss Chefsache werden.

Literaturverzeichnis
Bazerman, Max H., Ann E. Tenbrunsel, and Kimberly Wade-Benzoni. „Negotiating with yourself and losing: Making decisions with competing internal preferences.“ Academy of Management Review 23.2 (1998): 225-241.
Sheeran, Paschal. „Intention—behavior relations: A conceptual and empirical review.“ European review of social psychology 12.1 (2002): 1-36.
Sonnenschein, Rabea, André Loske, and Peter Buxmann. „Which IT Security Investments Will Pay Off for Suppliers? Using the Kano Model to Determine Customers‘ Willingness to Pay.“ 49th Hawaii International Conference on (2016).
Weinstein, Neil D., and William M. Klein. „Unrealistic optimism: Present and future.“ Journal of Social and Clinical Psychology 15.1 (1996): 1-8.

Künstliche Intelligenz – Eine Managementperspektive (Teil 3): Die Anbieterseite

Die Anwendungspotenziale von KI für die Wirtschaft wurden bereits im zweiten Teil dieses Blogs behandelt. Daher wollen wir uns im Folgenden die Anbieterseite anschauen. Wer sind die wichtigsten Akteure auf dem KI-Markt? Es hat ein regelrechter Kampf um die Vorherrschaft begonnen. So hat Google kürzlich die Software „TensorFlow“, eine Bibliothek für Machine-Learning-Software, unter einer Open-Source-Lizenz kostenlos für Nutzer verfügbar gemacht. Interessanterweise folgten sowohl Microsoft als auch Facebook unmittelbar und stellten den Quellcode ihrer Tools „CNTK“ bzw. „Caffe2“ ebenfalls unter einer Open-Source-Lizenz bereit. Die Zielsetzung und die Strategie dieser Unternehmen ist klar: Es geht darum, sich Marktanteile auf dem Gebiet der KI zu sichern. Google war mit dieser Open-Source-Strategie übrigens vor ein paar Jahren schon mit dem Betriebssystem Android sehr erfolgreich, das mittlerweile – je nach Quelle – auf ca. 80 bis 90 Prozent aller Smartphones läuft.

Wie schon im ersten Blog dargelegt, bieten die immer größeren weltweit verfügbaren Datenmengen, verbesserte Algorithmen und nicht zuletzt auch steigende Rechner- und Prozessorleistungen der KI eine Vielzahl neuer Anwendungsmöglichkeiten. Im Bereich der Rechner- und Prozessorleistungen kommt gerade „the next big thing“ auf uns zu. Es ist noch unklar, wann diese Technologie einsatzbereit sein wird, aber Firmen wie Google oder IBM arbeiten bereits mit Hochdruck daran: Ein Quantencomputer könnte die Rechenleistung von IBM Watson millionenfach übertreffen. Das heißt, es könnten viel größere Datenmengen in kürzester Zeit von Algorithmen verarbeitet werden. Das hat übrigens nicht nur Auswirkungen auf die Anwendbarkeit von KI-Algorithmen. Ein Beispiel für die Anwendung von Quantencomputern, das eher nachdenklich macht, sind die Möglichkeiten Krypto-Algorithmen in kürzester Zeit zu knacken. Wann ist es soweit, dass diese Quantencomputer-Technologie einsatzbereit ist? Hier gehen die Prognosen der Experten weit auseinander – sie reichen von drei Jahren (Google) bis hin zu mehreren Jahrzehnten.

Kommen wir zurück zur KI: Sowohl für Anbieter als auch für anwendende Unternehmen ist es höchste Zeit, sich mit diesen neuen Technologien und den Auswirkungen auf ihr Geschäft auseinanderzusetzen. Der Markt ist gigantisch. Accenture beispielsweise geht gemäß einem Bericht der Frankfurter Allgemeinen Zeitung davon aus, dass die weltweite Wirtschaftsleistung um zwölfeinhalb Billionen Euro zulegen kann.  PwC greift mit 14 Billionen sogar noch etwas höher. Schauen wir uns die Anbieter an, die diesen gigantischen Markt dominieren wollen, findet sich ein altbekanntes Muster: Es sind wieder US-amerikanische Firmen, die dabei sind, auf dem Gebiet der KI eine Führungsrolle zu übernehmen. Google und IBM übernehmen hier eine Vorreiterrolle. Auch Facebook, Microsoft und Amazon investieren kräftig. China ist ebenfalls mit dabei: So kündigte der chinesische Technologieminister Wan Gang vor wenigen Tagen einen nationalen KI-Plan an.  Europäische Anbieter laufen dagegen hinterher und die EU-Kommission kümmert sich anscheinend stärker darum, Digitalisierungsindexe von Ländern zu erstellen oder auch Firmen wie Google und Facebook zu verklagen (was nicht verkehrt sein muss, aber doch eher defensiv als zukunftsorientiert erscheint). Denn KI wird die Wirtschaft und Gesellschaft dramatisch verändern und es entsteht gerade ein gigantischer Markt. Viele haben das erkannt. Die Zukunft hat bereits begonnen.

Künstliche Intelligenz – Eine Managementperspektive (Teil 2): Wie sich KI auf die Wirtschaft auswirken wird

KI wird die Wirtschaft in den nächsten Jahren sehr stark verändern. Gemäß einer aktuellen Studie prognostizieren mehr als 70 Prozent der befragten Führungskräfte bis 2025 einen großen bis sehr großen Einfluss der KI auf ihre Unternehmensstrategie.[1]

Methodisch stehen derzeit Deep-Learning-Ansätze, etwa auf Basis von Künstlichen Neuronalen Netzen (KNN), hoch im Kurs und dies wird sich vermutlich auch in den nächsten Jahren nicht ändern. Demgegenüber sinkt die Bedeutung (regelbasierter) Expertensysteme deutlich. Häufig findet man auch eine Verbindung verschiedenster methodischer Ansätze. Die folgende Tabelle zeigt eine Auswahl interessanter Anwendungsgebiete mit Literaturquellen auf:

Quelle Einsatzgebiete von KI
Infosys (2016), S. 8 Big Data, Predictive Analytics, Maschinenlernen, Expertensysteme, neuronale Netzwerke
Irrgang &Klawitter (2010), S. 21 ff. Expertensysteme in Industrie, Medizin, Wissenschaft und Forschung, Militär, Spielen, Büroautomation, Wirtschaft und Finanzen, Lehre und Ausbildung, Bibliothekswesen, Ingenieurwissenschaften
Mainzer (2016), S. 172 ff. Industrie 4.0
Soprasteria (2017), S. 7 Robotic Process Automation (RPA), intelligente Automatisierungstechnologien, digitalen Assistenten, intelligente Sensorik, selbstlernende Maschinen
Bauer et al. (2017), S. 8 Autonomes Fahren, Predictive maintenance, Collaborative and context-aware robots, Yield enhancement in manufacturing, Automated quality testing, AI-enhanced supply chain management, Business support function automation
Purdy & Daugherty (2016), S.11 Computer Vision, Audio Processing, Natural Language Processing, Knowledge Representation, Maschinenlernen, Expertensysteme
Mills (2016), S. 3 Maschinenlernen, Natural Language Processing (NLP), Expertensysteme, Vision, Sprache, Planung, Robotik

Eine viel diskutierte Debatte dreht sich um die potenzielle Vernichtung von Arbeitsplätzen durch KI. Hierzu gibt es viele Studien, die zu völlig unterschiedlichen Ergebnissen kommen und die ich Ihnen hier ohne Anspruch auf Vollständigkeit zusammengestellt habe.

Quelle Auswirkungen auf Arbeitsmarkt

Chui, Manyika, & Miremadi (2016)

 

    • 45 Prozent der bezahlten Aktivitäten können automatisiert werden
    • 78 Prozent vorhersagbarer Arbeit ist automatisierbar
  • Arbeitsplatz von allen wird transformiert

Government (2016), S. 2.

    • Entstehung Arbeitsplätze in den Bereichen Entwicklung und Kontrolle von Künstlicher Intelligenz
  • Bedrohung von Arbeitsplätzen im Niedriglohnsegment
Mainzer (2016), S. 178.

 

    • Entstehung Arbeitsplätze im Kundenservice, in der Mechatronik und Robotik
  • Überdisziplinäre Zusammenarbeit in Teams und gesteigerte Kooperationsfähigkeit notwendig
Wisskirchen et al. (2017), S. 14 ff.
    • 1/3 der Arbeit, welche einen Bachelor Abschluss voraussetzt, kann automatisiert werden
    • Gradueller Prozess
    • Keine Nachfrage mehr für einfache, repetitive Arbeit
  • Höhere Nachfrage für hochqualifizierte Arbeitnehmer (Verständnis für IT, Mathematik, Wissenschaft; soziale und interdisziplinäre Kompetenz)
Stanford University (2016)
    • Ersatz von Aufgaben statt gesamter Jobs in naher Zukunft
    • Schaffung neuer Arten von Jobs
    • Gradueller Prozess
    • Automatisierung von z.B. Radiologen, LKW Fahrern, Gärtnern
    • Kleinere Organisationsgrößen
  • Neue Märkte
Markoff (2011)
    • Neue Jobs am Ende der Wirtschaftspyramide
    • Verlust von Jobs in der Mitte der Wirtschaftspyramide
  • Verlangsamtes Wachstum von Jobs an der Spitze der Wirtschaftspyramide bedingt durch Automatisierung
PwC (2017)
    • 35 % existierender Jobs (Deutschland) sind durch Automatisierung bedroht
    • Natur der Jobs wird sich eher ändern, als dass Jobs verschwinden
    • Bedrohte Sektoren: Transport, Fertigung, Handel
    • Weniger bedrohte Sektoren: Bildung, Gesundheit, Sozialarbeit
  • Einkommensungleichheit wird steigen

Dabei kann ich mich auch aufgrund der völlig unterschiedlichen Ergebnisse des Eindrucks nicht erwehren, dass sich einige Autoren bei ihren Analysen auch an den Interessen ihrer Auftraggeber oder an zu erwartender Aufmerksamkeit im Netz orientieren.

Ich bin hier vorsichtig optimistisch und denke nicht, dass es durch KI zu einer massenweisen Vernichtung von Arbeitsplätzen kommen wird. Natürlich würde ich einem jungen Menschen vor dem Hintergrund der Fortschritte auf dem Gebiet des autonomen Fahrens heute nicht raten, den Beruf eines Bus- oder LKW-Fahrers zu wählen. Aber unter dem Strich wird es vermutlich ähnlich wie etwa bei der Automatisierung im Produktionsbereich ausgehen. Auch hier wurden viele Jobs durch Maschinen ersetzt, aber es wurden auch neue geschaffen und heute haben wir zum Glück eine vergleichsweise geringe Arbeitslosigkeit. Eine ähnliche Entwicklung am Arbeitsmarkt werden wir vermutlich auch beim Thema KI erleben, wobei es grundsätzlich zu einer Verschiebung hin zu Arbeitsplätzen für höher Qualifizierte kommen wird. Daher denke ich auch nicht, dass eine Robotersteuer, wie von Bill Gates gefordert, sinnvoll und notwendig ist.

Neben den Erfolgsmeldungen gibt es natürlich auch Fragestellungen, an denen sich die Algorithmen erfolglos die Zähne ausbeißen. Ein aktuelles Beispiel hierzu – nicht nur im Kontext Sozialer Netzwerke – ist die Erkennung von „Fake News“. Allerdings ist anzumerken, dass in Experimenten Menschen sogar noch schlechter als die Algorithmen abschneiden. Es wäre mal spannend, ob ein besserer Algorithmus den Satz „KI wird in 100 Jahren die Weltherrschaft übernehmen“ als Fake News oder wahr klassifizieren würde.

Ein Fehler in der öffentlichen Diskussion über KI besteht m. E. darin, dass häufig suggeriert wird, es gäbe eine Maschine, die über eine ähnliche Form von Intelligenz und Bewusstsein verfügt, wie wir Menschen. Stichwort: die Maschinen übernehmen die Macht über die Menschen. Informatiker sprechen in diesem Kontext auch von starker KI. Ich sehe hier keinen Grund zur Beunruhigung, denn von einer solchen Entwicklung sind wir m. E. noch meilenweit entfernt und ähnliche Horrorvisionen gab es schon vor Jahrzehnten. Es ist einfach schön schaurig und gruselig: Hollywood lässt grüßen.

Natürlich wäre es eine Fehleinschätzung zu denken, dass man einfach mal KI im Unternehmen einführt und auf einmal das Marketing, das Bestellwesen, die Softwareentwicklung etc. „intelligent“ sind. Vielmehr ist es so, dass wir von Algorithmen sprechen, die selbständig bestimmte Aufgaben durchführen, Entscheidungen treffen und dabei auch lernen, wie das etwa bei KNN der Fall ist. Das würde beispielsweise bedeuten, dass man in einem Unternehmen eine KI-basierte Predictive-Analytics-Anwendung in der Produktionssteuerung hätte und eine weitere KI-Anwendung, die in der Lage ist, Anomalien aufzudecken, die auf einen Sicherheitsvorfall hindeuten usw. Auch IBM Watson ist beispielsweise keine wirkliche „general purpose machine“ (auch wenn das Marketing dies schon durch den genial gewählten Namen „Watson“ geschickt suggeriert!), sondern dahinter verbergen sich einzelne und zum Teil sehr leistungsfähige Algorithmen für verschiedenste Anwendungsgebiete. Beispielsweise spielt eine Anwendung Schach, eine andere Jeopardy, eine dritte macht Spracherkennung usw.

Von der „starken“, alles beherrschenden KI sind wir also noch sehr weit weg und ich denke auch nicht, dass sie in absehbarer Zeit kommen wird. Es gibt hierzu aber auch andere Meinungen. Beispielsweise ist KI-Forscher Ray Kurzweil von Google recht ambitioniert und frei von Selbstzweifeln. Auf die Frage, ob es Gott gibt, antwortete er: „Noch nicht“.

Literatur

Accenture (2016): Why artificial intelligence is the future of growth

https://www.accenture.com/lv-en/_acnmedia/PDF-33/Accenture-Why-AI-is-the-Future-of-Growth.pdf

Bauer, H. et al. (2017): Smartening up with Artificial Intelligence (AI) – What’s in it for Germany and its Industrial Sector?

https://www.mckinsey.de/files/170419_mckinsey_ki_final_m.pdf

Chui, M., Manyika, J., & Miremadi, M. (2016): Where machines could replace humans—and where they can’t (yet) (2016)

http://www.mckinsey.com/business-functions/digital-mckinsey/our-insights/where-machines-could-replace-humans-and-where-they-cant-yet

E&Y (2016): Einsatz digitaler Technologien in der Immobilienwirtschaft

http://www.ey.com/Publication/vwLUAssets/ey-einsatz-digitaler-technologien-in-der-immobilienwirtschaft/$FILE/ey-einsatz-digitaler-technologien-in-der-immobilienwirtschaft.pdf

Government, USA (2016): Artificial Intelligence, Automation, and the Economy  (2016)

https://obamawhitehouse.archives.gov/sites/whitehouse.gov/files/documents/Artificial-Intelligence-Automation-Economy.PDF

Infosys (2016): Amplifying Human Potenzial: Towards Purposeful Artificial Intelligence

https://www.infosys.com/aimaturity/Documents/amplifying-human-potential-CEO-report.pdf

Irrgang, B., & Klawitter, J. (2010): Künstliche Intelligenz: technologischer Traum oder gesellschaftliches Trauma?(2010)

https://hds.hebis.de/ulbda/Record/HEB381280861

Mainzer, K. (2016): Künstliche Intelligenz – Wann übernehmen die Maschinen? (2016)

https://link.springer.com/book/10.1007%2F978-3-662-48453-1

Markoff, J. (2011): Armies of Expensive Lawyers, Replaced by Cheaper Software (2011)

http://www.nytimes.com/2011/03/05/science/05legal.html

Mills, M. (2016): ARTIFICIAL INTELLIGENCE IN LAW: THE STATE OF PLAY 2016 (2016)

https://www.neotalogic.com/wp-content/uploads/2016/04/Artificial-Intelligence-in-Law-The-State-of-Play-2016.pdf

PwC (2016): Big Data for Big Decisions: Algorithmen halten Einzug in die Chefetage

https://www.pwc.de/de/business-analytics/assets/big-decisions-survey-2016.pdf

PwC (2017): Up to 30% of existing UK jobs could be impacted by automation by early 2030s, but this should be offset by job gains elsewhere in economy

http://pwc.blogs.com/press_room/2017/03/up-to-30-of-existing-uk-jobs-could-be-impacted-by-automation-by-early-2030s-but-this-should-be-offse.html

Sopra Steria Consulting (2017): Potentialstudie: Künstliche Intelligenz

https://www.soprasteria.de/docs/librariesprovider33/Studien/potenzialanalyse-künstliche-intelligenz-2017.pdf?sfvrsn=0

Stanford University (2016): One Hundred Year Study on Artificial Intelligence (AI100): Employment and Workplace (2016)

https://ai100.stanford.edu/2016-report/section-ii-ai-domain/employment-and-workplace

Wisskirchen, G, Biacabe, B. T., Bormann, U., Muntz, A., Niehaus, G., Soler, G. J., von Brauchitsch, B. (2017): Artificial Intelligence and Robotics and Their Impact on the Workplace. (2017)

http://matrixni.org/documents/artificial-intelligence-robotics-impact-workplace/

[1] Soprasteria (2017), S. 9.

Künstliche Intelligenz – Eine Managementperspektive in drei Teilen

Seit vielen Jahren beobachtet und erforsche ich gemeinsam mit den Wissenschaftlichen Mitarbeiterinnen und Mitarbeitern an unserem Lehrstuhl, wie die Digitalisierung und neue Technologien Wirtschaft und Gesellschaft verändern. Mit dem Thema Künstliche Intelligenz (KI) steht die nächste drastische Veränderung an. Die Zeit ist reif für KI und Unternehmen jeder Größe und jeder Branche sollten sich jetzt intensiv mit dem Thema beschäftigen. Ich starte hier einen dreiteiligen Blog. Im ersten Teil würde ich Sie gerne davon überzeugen, dass es sich bei KI nicht um einen Hype handelt, wie vielfach behauptet wird. Im zweiten Teil wollen wir untersuchen, wie KI die Wirtschaft verändern wird. Gegenstand des dritten Teils werden dann Anbieterstrategien und ein Zukunftsausblick sein.

Warum KI kein Hype ist

Skeptiker behaupten, dass es noch lange dauern würde bis KI Einzug in die Praxis Einzug hält. Immer wieder höre ich auch, dass es ähnliche Überlegungen wie heute doch schon vor dreißig Jahren gegeben habe und KI überschätzt würde. Diesen Skeptikern halte ich immer entgegen, dass es beispielsweise Künstliche Neuronale Netze (KNN) tatsächlich schon seit den 40er Jahren gibt, aber wer deswegen Deep Learning bzw. allgemeiner KI heute nicht auf die eigene Agenda setzt, begeht dennoch einen großen Fehler.

Schon bei den Anfängen des Internet oder genauer des World Wide Web in den 90er Jahren argumentierten die Kritiker ganz ähnlich: Damals hieß es, dass es Netze doch schon lange gäbe und die Technologien wie TCP/IP oder HTML noch gar nicht ausgereift seien und es das alles schon einmal gegeben hätte (in der Tat sagte Tim Berners Lee einmal, dass er HTML gerne besser gemacht hätte, wenn er gewusst hätte, wie weit sich die Sprache verbreiten würde). Aber die Zeit war reif für den Siegeszug von Internet und WWW – nicht aufgrund der Technologie, sondern weil sich die Rahmenbedingungen geändert hatten: Der Zugang zum Internet war schon damals nahezu kostenlos und damit fiel eine wichtige Barriere. Genau so ist es mit KI: Auch heute kann man natürlich argumentieren, dass es Genetische Algorithmen, KNN und andere Machine-Learning-Ansätze schon lange Zeit gibt, aber die Rahmenbedingungen für KI haben sich drastisch verbessert und auch hier sind einige Barrieren weggefallen bzw. neue Voraussetzungen geschaffen worden:

  • Daten bzw. Big Data – etwa zum Training von KNN – sind heute in einer nie gekannten Menge verfügbar und die Datenmenge steigt exponentiell.
  • Rechenpower und Prozessorleistungen sind so kostengünstig wie nie zuvor.
  • Die Performance von „Deep Learning Algorithmen“ hat sich in den letzten Jahren verbessert.
  • Es existiert eine Vielzahl von kostenlos verfügbaren Toolkits und Bibliotheken zur Entwicklung von KI- oder Machine-Learning-Anwendungen.

Dass die Entwicklung im Bereich KI auch von Experten massiv unterschätzt wird, zeigt das Beispiel Go – ein ursprünglich aus China stammendes strategisches Brettspiel, das weit komplexer als Schach ist. So prognostizierten KI-Experten im Jahr 2015 in einer Studie der University of Oxford, dass ein KI-Algorithmus erst im Jahre 2027 in der Lage sein würde, die besten menschlichen Go-Spieler zu schlagen. Es kam anders und bereits im letzten Jahr siegte das von Google Deepmind entwickelte alphaGo gegen verschiedene Weltklassespieler. Dieser Sieg der KI über die besten menschlichen Spieler ist vor allem deswegen von großem Interesse, weil die Komplexität von Go es KI-Algorithmen trotz aller Rechenpower und Prozessorleistungen unmöglich macht, alle Züge vollständig zu enumerieren bzw. durchzuprobieren. Auch die besten (menschlichen) Spieler benötigen Intuition, um Go erfolgreich zu spielen. Genauso wie alphaGo: Die Entwickler fütterten ihre Software, die wie viele KI-Entwicklungen auf KNN basiert, zunächst mit Millionen von Go-Partien. Dann ließen sie die Software gegen sich selbst spielen, um weiter zu lernen – wie Dr. B. aus Stefan Zweigs Schachnovelle, der Schach-Meister wird, nachdem er monatelang Partien im Kopf gegen sich selbst spielt, um in der Isolationshaft nicht wahnsinnig zu werden.

In meinen Augen zeigt das Beispiel, dass KI eher unter- als überschätzt wird. Daher sollten sich auch Führungskräfte in Unternehmen mit dem Thema eingehend beschäftigen. In meinem nächsten Blog werde ich dann darauf eingehen, wie der Einsatz von KI-Algorithmen die Arbeit von morgen verändern wird.

Wie wirtschaftlich ist der Einsatz von Social Collaboration Tools?

Häufig ist in der digitalen Arbeitswelt das folgende Paradox zu beobachten: Über das Internet arbeiten wildfremde Menschen häufig kooperativer zusammen als das innerhalb von Unternehmen der Fall ist. Nehmen wir beispielsweise den Austausch von Quellcode (nicht selten hunderte Zeilen selbstentwickelte Software) unter Softwareentwicklern, die sich gar nicht persönlich kennen. Das Motiv ist häufig ganz einfach: Die Entwickler wollen sich gegenseitig helfen – oder auch später einmal nach dem Motto „eine Hand wäscht die andere“ profitieren. In Unternehmen finden sich in vielen Fällen ganz andere Denkmuster. Informationen werden zurückgehalten, gegenseitige Hilfe findet häufig aus Zeitmangel oder anderen Motiven kaum statt.

Im Rahmen unserer zum zweiten Mal durchgeführten Deutschen Social Collaboration Studie haben wir untersucht, ob der Einsatz von Social Collaboration Tools eine sinnvolle Unterstützung bieten kann, um die Zusammenarbeit von Mitarbeitern in Unternehmen zu verbessern. In diesem Kontext bezeichnet „Social Collaboration“ den Einsatz moderner Technologien, um neue Formen der Zusammenarbeit zu unterstützen bzw. Mitarbeiter besser zur Bewältigung aktueller Aufgaben zu befähigen. Ein Beispiel stellt der Einsatz von Enterprise Social Networks (ESN) dar. Im Rahmen der zweiten Social Collaboration Studie haben wir in Kooperation mit dem Beratungshaus Campana & Schott insgesamt 1005 Mitarbeiter aus verschiedensten Industrien befragt.

Anzahl der Befragten

Tätigkeitsfelder der Befragten

Branchen

Die Ergebnisse zeigen grundsätzlich positive Effekte der Investition in Social Collaboration Tools, wie die folgende Zusammenfassung zeigt:

Verbesserung der Unternehmenskultur

Um Aussagen über die Ziele des Einsatzes von Social Collaboration Tools zu erhalten, wurden Mitarbeiter mit Führungsverantwortung zu diesem Thema befragt. Interessanterweise rangiert die Verbesserung der Unternehmenskultur ganz oben auf der Liste der wichtigsten Ziele. Das ist auch deshalb bemerkenswert, weil traditionelle Prioritäten beim IT-Einsatz  wie beispielsweise Kostensenkungen offenbar in den Hintergrund treten.

Ziele von Social Collaboration

Die Studie zeigt zudem einen positiven Zusammenhang zwischen dem Zugehörigkeitsgefühl zum Unternehmen und der Nutzung von Enterprise Social Networks. Das heißt, entweder nutzen Mitarbeiter, die sich tendenziell stärker mit dem Unternehmen identifizieren, eher stärker ein ESN – oder die ESN-Nutzung stärkt das Zugehörigkeitsgefühl.

Der Einsatz von Social Collaboration Tools führt zu einer höheren Arbeitseffizienz

In der Studie haben wir verschiedene Szenarien für den Einsatz von Social Collaboration Tools entwickelt und auf dieser Basis den Social Collaboration Reifegrad gemessen. Die Ergebnisse zeigen einen positiven Zusammenhang zwischen diesem Reifegrad – vereinfacht ausgedrückt: der Intensität der Nutzung von Social Collaboration Tools für verschiedene Aufgabenstellungen – und der Arbeitseffizienz der Mitarbeiter:

Arbeitseffizienz der Mitarbeiter

Ein besonders positiver Zusammenhang existiert für den Einsatz von Enterprise Social Networks.

Social Collaboration Tools erhöhen die Innovationskraft

Die Innovationskraft kann durch den Einsatz dieser Tools und von Enterprise Social Networks insbesondere dadurch erhöht werden, dass die Zusammenarbeit in Teams besser unterstützt wird. Dies erfolgt wiederum dadurch, dass die ESN-Nutzung signifikant positiven Einfluss auf das Metawissen der Mitarbeiter hat. Wenn einer vom anderen weiß, mit welchen Themen er oder sie sich gerade beschäftigt und wer im Unternehmen über welche Spezialkenntnisse, Fähigkeiten und Connections verfügt, lassen sich neue Ideen besser kombinieren und schneller in marktreife Angebote überführen. Das Wissen in Bezug auf die Expertise der Kollegen wird dabei als „Who knows what“ bezeichnet. Die andere Dimension des Metawissens wird „Who knows whom“ genannt und repräsentiert das Wissen der Mitarbeiter in Bezug auf die Verbindungen ihrer Kollegen. Die Studie zeigt einen klaren Zusammenhang zwischen dem Nutzungsgrad von Enterprise Social Networks und den beiden genannten Metawissen-Dimensionen.

Die gesamte Studie können Sie unter http://www.collaboration-studie.de/ herunterladen.

Purpose Led Organizations – mehr als ein neuer Marketing-Hype?

Ich weiß nicht wie es Ihnen geht, wenn Sie im Bereich Innovation oder Digitalisierung einen neuen Begriff hören. Also ich werde mittlerweile in der Regel erst einmal skeptisch. Neulich „belehrte“ mich ein Berater beispielsweise, dass ich das Wort CDO falsch verwenden würde; es ginge nämlich in Wirklichkeit gar nicht um den Chief Digital Officer, sondern viel mehr um den Chief Disruptive Officer. Naja, der Mann wird es sicherlich wissen.

Jetzt zum Thema dieses Posts, der Purpose led Organization. Was steckt dahinter? Der Begriff ist nicht wirklich scharf definiert, aber im Grunde genommen handelt es sich um Organisationen (die sich selbst so bezeichnen), deren Zielsetzung nicht nur darin besteht, Geld zu verdienen, sondern sich auch für soziale, ökologische bzw. nachhaltige Ziele einzusetzen. Es geht auch darum, eine Unternehmenskultur zu etablieren, in der dieser „Purpose“ im Mittelpunkt der Strategien und des Handelns steht. Zudem ist die Purpose led Organization durch die Arbeit der Mitarbeiter in agilen Teams gekennzeichnet, in denen sie Eigenverantwortung tragen – auch für das Budget. Man spricht in diesem Kontext auch von einer Ende-zu-Ende-Verantwortung.

Ein interessantes Beispiel dafür ist „buurtzorg“, ein Modell aus Holland, welches aktuell die ambulante Pflege verändert. Aber auch Unternehmen aus der Softwareindustrie wollen diesen Weg gehen. So sollen beispielsweise die Mitarbeiter des Cloud-Anbieters Salesforce mindestens eine Woche im Jahr für gemeinnützige Organisationen arbeiten. Zudem stellen mehrere Softwareanbieter gemeinnützigen Organisationen zum Teil auch die eigenen Lösungen kostenlos zur Verfügung. Ein anderes Beispiel für eine Maßnahme auf dem Weg zur Purpose led Organization ist die Gestaltung des gesamten Ökosystems eines Unternehmens. Das würde zum Beispiel bedeuten, dass auch Lieferanten und anderer Partner gewisse ethische Mindeststandards erfüllen müssen. Jetzt stellt sich aber natürlich auch die Frage, ob der Wandel zur Purpose led Organization mehr als reines Marketing ist. Seit mehreren Jahren werben Unternehmen ja mit unterschiedlichsten Slogans, die eher an eine Mission zur Verbesserung der Welt erinnern als an Unternehmen, die primär durch die Erwirtschaftung von Gewinnen getrieben sind.

Natürlich gibt es solche Unternehmen, die es mit der Zielsetzung der Purpose led Organization ernst meinen, während andere nur auf einen Trend aufspringen und auf ein besseres Image hoffen. Fatal ist es, wenn sich Organisationen lediglich einen „Purpose led“ -Anstrich geben und ansonsten wenige bis keine konkreten Maßnahmen entwickeln, um diesem Anspruch gerecht zu werden. Fatal deswegen, weil Mitarbeiter, Partner und die Öffentlichkeit dies früher oder später bemerken werden.

Meiner Meinung nach werden Maßnahmen auf dem Weg zur Purpose led Organization häufig mit Marketing verbunden. Das ist so auch erstmal in Ordnung. Wenn sich nämlich die Zielsetzung, etwas „Gutes für die Welt zu tun“, mit Marketing und sogar Employer Branding gut in Einklang bringen lässt, dann ist das doch grundsätzlich eine gute Sache und wir dürfen gespannt sein, ob und inwieweit dieser Ansatz die Arbeitswelt verändern wird. Eine interessante Umfrage von EY zu diesem Thema finden Sie unter diesem Link. Eine – etwas selbstzentrierte – Übersicht über Purpose led Organizations bietet das Londoner Beratungshaus Radley Yeldar unter diesem Link.

Was denken Sie? Ist die Purpose led Organization mehr als geschicktes Marketing und Employer Branding? Lohnt es sich für die Unternehmen und wird das Konzept die Arbeitswelt verändern? Ich bin gespannt auf Ihre Einschätzung!

Digitalisierung verändert die Wirtschaft – nur uns betrifft das nicht

In der letzten Zeit werde ich immer häufiger gefragt, ob das Thema Digitalisierung nicht ein vorübergehender Hype sei, der von Marktforschungsinstituten, Beratungsgesellschaften, Medien und anderen immer weiter befeuert wird.

Meine deutliche Antwort lautet: Nein. Aber ich kann die Frage dennoch gut verstehen, denn wenn man sich die Inhalte mancher Kongresse oder auch die Newsfeeds vieler sozialer Netzwerke anschaut, ist der Tiefgang häufig überschaubar. Man findet viele neue Buzzwords, Binsenweisheiten, wie die Tatsache, dass Airbnb oder Uber die Hotel- bzw. Taxibranche verändern oder auch viele kaum belegbare und wenig differenziert vorgetragene Behauptungen, dass Blockchains zukünftig Banken und Energieanbieter ersetzen werden.

Aber viel gefährlicher als die häufig ahnungslosen und selbsternannten Evangelisten der Digitalisierung sind in meinen Augen jedoch die „Bremser“. Ein trauriges Beispiel ist aktuell im Rahmen der Digitalisierungspläne für Schulen zu finden. Nach den Plänen von Bildungsministerin Johanna Wanka soll der Bund in den kommenden fünf Jahren insgesamt fünf Milliarden Euro investieren, um Schulen mit Computern und WLAN auszustatten. Im Gegenzug für das Geld vom Bund sollen sich die Länder verpflichten, digitale Bildung umzusetzen – also Lehrer fortzubilden und Unterrichtskonzepte zu entwickeln. Wenn Sie mich fragen, ist das ein großer Schritt in die richtige Richtung, um Kinder und Jugendliche fit zu machen für die digitale Zukunft. Diese Meinung scheint der Präsident des Deutschen Lehrerverbandes, Josef Kraus, nicht zu teilen. Sein Statement: „Diese Euphorie ums Digitale kann ich gar nicht nachvollziehen“. Was soll man dazu noch sagen? Er gibt mit dieser Aussage wirklich alles, um ein weit verbreitetes bestehendes Vorurteil zu bestätigen.

Vor diesem Hintergrund finde ich die Frage spannend, ob die Digitalisierung in Unternehmen tatsächlich noch unterschätzt wird. Um dies herauszufinden, haben wir in Kooperation mit der Lünendonk GmbH und Cognizant Technology Solutions eine Umfrage durchgeführt. Ein Ergebnis der Studie: ja, die Folgen der Digitalisierung werden weiter unterschätzt. Etwas präziser: wir haben die teilnehmenden Unternehmen einerseits gefragt, ob die Digitalisierung in ihrem Unternehmen zu starken Veränderungen führen wird. Lediglich 17 Prozent haben dieser Aussage zugestimmt. Interessanterweise sind aber andererseits 30 Prozent der Ansicht, dass die Digitalisierung in anderen Unternehmen der gleichen Branche zu sehr großen Veränderungen führen wird.

unbenannt

Das erinnert mich an das aus der Psychologie bekannte Phänomen des „Unrealistischen Optimismus“. In einfachen Worten: Man gibt sich der Illusion hin, dass es immer nur die anderen, aber nicht einen selbst trifft.

Wie kommt es dazu, dass Unternehmen davon ausgehen, selber weniger von Veränderungen durch die Digitale Transformation betroffen zu sein als andere? Bei der Detailanalyse fällt auf, dass besonders die Unternehmensgröße einen Einfluss auf die Veränderungserwartung hat. Analysiert man die Ergebnisse anhand der Unternehmensgröße zeigt sich, dass insbesondere die großen Unternehmen mit mehr als 10.000 Mitarbeitern mit geringeren Veränderungen rechnen. Diese großen Unternehmen haben ihre Wurzeln häufig in der Old Economy. Die gesamte Studie können Sie hier herunterladen.

Das Konzept des Innovators Dilemma von Clayton Christensen, der in Harvard lehrt und forscht, zeigt, wie disruptive Innovationen ganze Branche verändern. Er erläuterte die Idee damals in den 90er Jahren an traditionellen Branchen, wie der Stahlindustrie. Das Konzept gilt aber umso stärker für die digitale Transformation. Ein bekanntes Beispiel für ein frühes Opfer der Digitalisierung ist Kodak.

Abschließend kann ich also nur noch einmal betonen, dass die Digitalisierung natürlich kein vorübergehender Hype ist und offenbar von vielen Unternehmen immer noch unterschätzt wird. Die Unternehmen sollten sich vom CEO über den CIO (evtl. auch CDO) bis hin zu den Mitarbeiterinnen und Mitarbeitern in den Fachabteilungen auf immer schneller werdende Veränderungen einstellen. Sowohl Startups als auch „etablierte“ Internet-Player wie die Big 4 (also Amazon, Apple, Facebook und Google) werden mit viel Kreativität sowie enormer Entwicklungspower in andere Branchen vordringen und dort etablierte Geschäftsmodelle in Frage stellen. Die Konsequenz ist klar – und damit kommen wir abschließend nochmal auf das Ergebnis der Studie zurück: Die Digitalisierung wird die gesamte Wirtschaft verändern und immer schneller neue Geschäftsmodelle hervorbringen – und diese Entwicklung wird nicht nur die anderen treffen.

Der Wert von Daten und die Entwicklung datenbasierter Geschäftsmodelle

Wie lässt sich der ökonomische Wert von Daten bestimmen?

Mit der Digitalisierung sind viele Optionen entstanden, große Datenmengen zu sammeln, mit denen Firmen wie Facebook oder Google viel Geld verdienen. Und es kommen ständig neue Unternehmen dazu, die um die neue Währungseinheit im 21. Jahrhundert, das vielzitierte „neue Öl“, konkurrieren. Es stellt sich die Frage: Was sind unsere Daten eigentlich wert? Und wie lässt sich ihr ökonomischer Wert bestimmen?

Wir wollen uns diesen Fragen zunächst aus wissenschaftlicher Perspektive nähern: Jacob Marschak und Helmut Laux haben Modelle zur Berechnung von Datenwerten entwickelt. Diese Modelle basieren auf der (normativen) Entscheidungstheorie, die Modelle bereitstellt, um unterschiedliche Handlungsoptionen zu bewerten. Mithilfe dieser Modelle lässt sich der Wert von Informationen bestimmen, die eingeholt werden, um die beste der bestehenden Handlungsoptionen auszuwählen. Anmerkung: Ich schließe mich hier Carl Shapiro und Hal Varian an, die in ihrem wegweisendem Buch „Informationen Rules“ von 1998 Information als „everything that can be digitized“ definieren. Das Buch stellt die zentralen ökonomischen Grundlagen der digitalen Wirtschaft dar, die im wesentlich auch heute noch gelten.

Zurück zur Bewertung von Informationen. Ich möchte Ihnen ein paar Beispiele nennen, die zeigen, für welche Fälle diese Modelle zur Bewertung von Informationen grundsätzlich geeignet sind, ohne hier auf die Mathematik dahinter einzugehen:

  • Ein Unternehmen muss entscheiden, an welchen Standorten eine neue Niederlassung eröffnet werden soll. Es beschafft sich Informationen über das Bildungsniveau und die Kosten für Personal und Grundstücke an diesen Standorten.
  • Ein Unternehmen möchte ein etabliertes Produkt durch ein Neues ablösen und befragt seine Kunden, was sie für das neue Produkt zahlen würden.
  • Eine Familie sammelt Informationen zu verschiedenen Ländern, Hotels und Flügen, um den nächsten Sommerurlaub zu planen.

Wenn man nun die neuen Informationen in die Bewertungsbögen einträgt, die auf den Modellen zu Ermittlung der Informationswerte beruhen, dann verändert sich möglicherweise die Wahrscheinlichkeit, mit der ein bestimmtes Ereignis eintritt. Es ergibt sich ein neuer Gewinnerwartungswert. Und die Differenz zwischen dem alten und dem neuen Gewinnerwartungswert beschreibt den Wert der neuen Informationen.

Diese Modelle bestimmen folglich den Wert von Informationen, mit denen die beste Handlungsoption ausgewählt werden kann.

Bis dato gibt es aber keine Modelle, anhand derer sich der Wert einer Kundendatenbank oder der Wert der Daten eines Social-Media-Anbieters direkt ermitteln ließen. Der Wert dieser Daten muss für den konkreten Einzelfall ermittelt werden, denn er hängt vom verwendeten Geschäftsmodell ab.

Wie lassen sich datenbasierte Geschäftsmodelle entwickeln?

Heute sammeln viele Unternehmen Daten, ohne überhaupt zu wissen, was sie damit später einmal anfangen wollen. Wie gesagt, Daten haben einen Wert – da ist es naheliegend, sie vorbeugend schon mal zu sammeln. Ich bekomme relativ häufig Anfragen von Unternehmen, die wissen möchten, was sie mit ihren gesammelten Daten denn nun anfangen können und wie man in diesem Zusammenhang mit dem Thema Privatsphäre umgeht.

Zum Einstieg bieten sich Verfahren an, die die Kreativität anregen, wie Brainstorming, ein Hackathon oder auch Design Thinking.

Wenn sich auf Basis der ersten Ergebnisse zeigt, dass es sich lohnen könnte, ein Geschäftsmodell zu entwickeln, dann eignet sich das mittlerweile sehr bekannte  Modell Canvas von Alexander Osterwalder und Yves Pigneur, um bestehende Geschäftsmodelle zu veranschaulichen oder zu dokumentieren. Wenn es aber darum geht, gänzlich neue Geschäftsmodelle zu entwickeln, habe ich mit dem so genannten St. Gallener Ansatz von Alexander Gassmann sehr gute Erfahrungen gemacht. Dieser Ansatz stellt 55 Muster von erfolgreichen Geschäftsmodellen bereit. Bei der Arbeit an einem konkreten Fall, schaut man sich diese etablierten Muster an und überlegt, ob es sinnvoll sein könnte, sie auf eine neue Branche zu übertragen.

Wir haben kürzlich einen Workshop mit 12 Mitarbeiterinnen und Mitarbeitern eines großen Unternehmens aus dem Maschinenbau durchgeführt, um Ideen zu entwickeln, wie sich die Daten, die alltäglich u.a. von verschiedensten Sensoren gesammelt werden, gewinnbringend nutzen lassen. Das Ziel bestand darin, Geschäftsmodellinnovationen zu entwickeln, mit denen das Unternehmen von seiner Datensammlung profitiert.

Nach einer kurzen Einführung in das Thema Entwicklung von Geschäftsmodellen haben wir gemeinsam eine Datenlandkarte erstellt. Bei der Vorbereitung des Workshops hatten wir aus den verfügbaren Geschäftsmodell-Mustern des St. Gallener Ansatzes 27 herausgepickt, die uns im konkreten Fall interessant erschienen.

Im Verlauf des Workshops wurde dann jeweils eine Karte gezogen, bspw. das Muster „Razer & Blade“: Ein Produkt oder Service wird also sehr günstig oder sogar kostenlos an (potenzielle) Kunden verteilt, um im Anschluss mit  ergänzenden Dienstleistungen oder Produkten Geld zu verdienen.

Wenn alle das Prinzip des Musters verstanden hatten, diskutierte die Gruppe, ob diese Idee für das Unternehmen geeignet sein könnte. Alle Ideen wurden dokumentiert. Wenn die Diskussion abebbte, wurde die nächste Karte gezogen. Am Ende des Tages hatten wir knapp 40 Ideen entwickelt, wie auf Basis der verfügbaren Daten Services für Kunden entwickelt werden könnten. Auf Basis dieser 40 Ideen lässt sich nun auch der Wert der Daten für das jeweils konkrete Szenario berechnen – allerdings ohne Metamodell wie es von Jacob Marschak und Helmut Laux entwickelt wurde.