Über Algorithmenethik und gefährliche Getränkeautomaten – Zum Bericht der Datenethikkommission der Bundesregierung

 

Künstliche Intelligenz als Basistechnologie

Die fast universelle Anwendbarkeit von KI-Algorithmen – Erik Brynjolfsson und Andrew McAffee vom MIT sprechen von der wichtigsten „general purpose technology“ unseres Zeitalters – macht die Nutzung von Künstlicher Intelligenz (KI) interessant für Unternehmen aller Größen und unterschiedlicher Branchen. Aber auch bei der Lösung wichtiger gesellschaftlicher Herausforderungen kann die KI-Nutzung helfen. KI kann die Diagnose und Therapie von Krankheiten unterstützen, Sprache erkennen oder Cyberangriffe verhindern. Allerdings weisen Algorithmen auch Grenzen auf. Häufig liefern sie nicht transparente Ergebnisse, das heißt, es ist möglicherweise nicht nachvollziehbar, warum eine KI eine bestimmte Entscheidung trifft oder vorschlägt. Darüber hinaus kann die Nutzung von KI-Algorithmen zu Verzerrungen (engl. Bias) führen. Ein bekanntes Beispiel hierfür ist der von Amazon praktizierte und gescheiterte Versuch, eine Software auf KI-Basis zu entwickeln, die aus allen eingegangenen Bewerbungen für eine offene Stelle automatisiert die geeignetsten fünf Bewerber herausfiltert. Da Amazon trotz mehrjähriger Entwicklungszeit nicht sicherstellen konnte, dass die Software die Bewerber – zum Beispiel aufgrund ihres Geschlechts – nicht diskriminiert, wurde das Projekt eingestellt. Diese Verzerrungen dürfen aber natürlich nicht so interpretiert werden, dass KI-Algorithmen bewusst diskriminieren. Diskriminierungen stecken in aller Regel in den Trainingsdaten: Wenn also beispielsweise ein Algorithmus zum Maschinellen Lernen mit Daten lauter erfolgreicher Männer „gefüttert“ wird, kann dies zu dem Fehler führen, dass der Algorithmus Frauen benachteiligt. In der Regel diskriminieren die Daten, nicht die Algorithmen.

 

Der Bericht der Datenethikkommission

Vor dem Hintergrund dieser und ähnlicher Grenzen der Anwendung von KI-Algorithmen nahm die im Juli 2018 von der Bundesregierung eingesetzte Datenethikkommission ihre Arbeit auf. Die 16 Mitgliederinnen und Mitglieder kommen aus den Bereichen Informatik, Ethik, Theologie, Recht und Verbraucherschutz. Ende Oktober 2019 legten sie ihren etwa 250 Seiten langen Abschlussbericht vor. In diesem skizzieren sie einen umfassenden Regulierungsrahmen für den Umgang mit Daten und algorithmischen Systemen. Der Bericht zielt wie die DSGVO darauf, den „schwachen“ Menschen vor allen möglichen Gefahren zu schützen.

Der Begriff der KI wird in diesem Bericht als eine Teilmenge algorithmischer Systeme verstanden. Die Kommission hat also nicht nur KI-Algorithmen, sondern jeglichen Softwarecode betrachtet.

Die Kommission entwickelt in ihrem Bericht Handlungsempfehlungen für eine personenbezogene Datennutzung. Handlungsbedarf sehen die Experten beispielsweise bei Ansätzen einer Totalüberwachung, bei einer die Privatsphäre der Menschen verletzenden Profilbildung und einer dem Demokratieprinzip zuwiderlaufenden Beeinflussung politischer Wahlen. Auch für den Verbraucherschutz und gegen viele Formen des Handels mit personenbezogenen Daten sollten Maßnahmen ergriffen werden, heißt es in dem Bericht. Die Empfehlungen entsprechen in großen Teilen der DSGVO. Bemängelt werden in diesem Zusammenhang insbesondere Defizite in der Anwendung geltenden Rechts.

Dagegen haben es die Empfehlungen der Kommission in Bezug auf die Nutzung algorithmischer Systeme in sich. Kernpunkt ist eine Bewertung der Risiken von Algorithmen bzw. algorithmischen Systemen. Diese Risiken werden in fünf Kritikalitätsstufen unterschieden (Stufe 1=Anwendungen ohne oder mit geringem Schädigungspotenzial bis Stufe 5=Anwendungen mit unvertretbarem Schädigungspotenzial).  Bereits ab Stufe 2 (Anwendungen mit einem gewissen Schädigungspotenzial) müssen nach Meinung der Mitglieder der Kommission Unternehmen eine „angemessene Risikofolgenabschätzung“ erstellen und veröffentlichen. Zudem werden ebenfalls ab dieser Stufe Offenlegungspflichten gegenüber Aufsichtsinstitutionen, Ex-ante-Kontrollen sowie Auditverfahren vorgeschlagen. Algorithmen mit „unvertretbarem Schädigungspotenzial“ sollen nach Vorstellung der Kommission verboten werden können.

Darüber hinaus schlagen die Experten eine Pflicht für Unternehmen zur Benennung eines Algorithmus-Beauftragten vor – in Analogie zur Position der Datenschutzbeauftragten. Weiterhin empfiehlt die Kommission ein Gütesiegel, um eine Orientierung in Bezug auf die Bewertung vertrauenswürdiger algorithmischer Systeme zu geben. Dieses Siegel könne ein Anreiz für Unternehmen sein, vertrauenswürdige Systeme zu entwickeln und zu verwenden.

Auf dieser Basis beginnt der Wunsch der Experten nach mehr Regulierung. Als oberste Kontrollinstanz soll die Bundesregierung nach Ansicht der Kommission ein bundesweites „Kompetenzzentrum Algorithmische Systeme“ einrichten, das bestehende Aufsichtsbehörden durch „technischen und regulatorischen Sachverstand“ dabei unterstützen soll, algorithmische Systeme im Hinblick auf die Einhaltung von Recht und Gesetz zu kontrollieren. Zur Umsetzung der vorgeschlagenen Maßnahmen empfiehlt das Expertengremium darüber hinaus eine Regulierung auf EU-Ebene. Diese Regulierung soll zentrale Grundprinzipien enthalten, die an den von der Datenethikkommission benannten Anforderungen angelehnt sein könnten. Was auf der Ebene der EU geregelt wird, soll schließlich in den einzelnen Mitgliedsstaaten eine „Konkretisierung“ erfahren.

 

Software eats the World

Bei der Bewertung der Empfehlungen der Kommission muss uns klar sein, dass jede Software ein algorithmisches System ist. Marc Andreessen, Mitgründer von Netscape Communications und heute einer der einflussreichsten Risikokapitalgeber der Welt, formulierte bereits 2011 den berühmten Satz „Software eats the world“ und sprach davon, dass jedes Unternehmen zu einem Softwareanbieter wird. Da es künftig wenige Bereiche geben wird, die nicht Software-unterstützt funktionieren, ist unklar, wie eine Regulierung von Algorithmen und Daten mit vertretbarem Aufwand und angemessener Geschwindigkeit erfolgen kann, ohne dabei Innovationen zu verhindern.

Ein Beispiel dafür, wie die Kommission denkt, ist die im Bericht zu findende Einschätzung von Software, die in Getränkeautomaten zum Einsatz kommt. Wörtlich heißt es: „Die in einem Getränkeautomaten zum Einsatz gelangenden Algorithmen haben zwar auch ein gewisses Schädigungspotenzial, weil ein Nutzer z.B. keine Ware erhalten und sein Geld verlieren könnte. Dieses Schädigungspotenzial überschreitet aber nicht die Schwelle zu einem besonderen Schädigungspotenzial im Algorithmenkontext.“ Das ist keine Satire.

Gegen eine unbürokratische und nicht von systematischer Bedenkenträgerei geprägte Überwachung von KI-Algorithmen ist grundsätzlich nichts einzuwenden. Aber etwas mehr Pragmatismus wäre hier hilfreicher gewesen: Beispielsweise könnte man bei spezifischen Algorithmen bzw. Anwendungsgebieten ansetzen, etwa im Bereich der  Gesichtserkennung. Die Nutzung solcher algorithmischer Systeme enthält in vielen Fällen ein großes Risiko für die Privatsphäre der Menschen, siehe nicht zuletzt das Social Credit System in China. Ein anderes Beispiel sind KI-Algorithmen, die zur Kriegsführung eingesetzt werden können. Vor diesem Hintergrund haben kürzlich etwa 3.000 Google Mitarbeiterinnen und Mitarbeiter zu Recht ihrem Vorstandsvorsitzenden Sundar Pichai eine Mahnung geschickt, in der sie eindringlich vor der Entwicklung autonomer Waffensysteme warnen. Eine der zentralen Aufgaben besteht also darin, dass es gelingt, die Vorteile von KI zu heben, ohne die Risiken zu vernachlässigen. KI soll den Menschen und der Wirtschaft dienen.

Die sehr regulatorischen Vorschläge der Kommission bereiten insbesondere Sorgen, weil sie die ohnehin eher  langsame Entwicklung der Digitalisierung in Deutschland weiter bremsen könnten. Zur Erinnerung: Wir liegen beispielsweise im Digitalisierungsrankings des IMD World Digital Competitiveness Ranking 2019 weltweit nur auf dem 17. Platz. „Die Wettbewerbsfähigkeit großer Industrienationen wie Deutschland wird durch lange Entscheidungsprozesse, veraltete IT-Strukturen, eine verbreitete Skepsis gegenüber Technologie und im internationalen Vergleich unzureichende Investitionen in Zukunftstechnologien beeinträchtigt“, heißt es warnend in einem aktuellen Strategiepapier des Auswärtigen Amtes. Wenn nun fast jedes algorithmische System erst in Bezug auf sein Schadenpotenzial analysiert und auditiert werden soll, wird dies zu einer weiteren Verlangsamung der digitalen Transformation bei uns führen und die Gefahr vergrößern, dass wir im digitalen Innovationswettbewerb mit Ländern wie USA, China oder Israel  weiter zurückfallen. Auch für den weltweiten Standortwettbewerb gilt schließlich die Aussage des kanadischen Premierministers Justin Trudeau beim World Economic Forum 2018 in Davos: „The pace of change has never been this fast, yet it will never be this slow again“.

KI in der Medizin und die Datenspende

Im Rahmen einer Studie für das Land Hessen im Bereich Künstlicher Intelligenz hatte ich neulich gemeinsam mit einer Doktorandin ein Gespräch mit einem Chefarzt eines hessischen Universitätsklinikums. Unser ursprüngliches Thema war – ihr denkt es euch schon – die Anwendung von KI-Algorithmen in der Medizin. Er zeigte uns Anwendungsmöglichkeiten, wie etwa die Diagnose und Therapie von Krankheiten und wie intelligente Algorithmen das Potenzial haben, die Diagnose von Krankheiten zu beschleunigen und präziser zu machen (https://orange.handelsblatt.com/artikel/53316).

Dann wollte ich das Thema Privatsphäre eigentlich nur streifen, aber es wurde letztlich der Schwerpunkt des Gesprächs – und ich habe eine Menge gelernt: Eigentlich scheint es ganz einfach: Gesundheitsdaten sind besonders zu schützen, die Gründe dafür sind auf den ersten Blick offensichtlich. Allerdings gibt es auch eine andere Perspektive und wir haben „both sides oft the story“ zu betrachten: Die häufig heftig kritisierte Verknüpfung von Daten kann für die Behandlung von Patientinnen und Patienten viele Vorteile haben. Wüssten wir beispielsweise wie sich verschiedene Operationsverfahren und/oder die Gabe von Medikamenten langfristig auf den Gesundheitszustand der Patienten auswirken (wie geht es ihnen, müssen sie ggf. nochmals operiert werden), könnte die Behandlung bei verschiedensten Krankheitsbildern verbessert werden. Ein weiteres Beispiel ist der Prototyp der Berliner Charité. Patienten, die einen Schlaganfall erlitten haben, sollen mithilfe von Machine-Learning-Modellen eine individualisierte Behandlung erfahren. Auf Basis der vorhandenen Symptome findet ein Abgleich mit Datensätzen anderer Patienten statt. So kann im Einzelfall fundiert entschieden werden, welche Therapie erfolgsversprechend und somit sinnvoll ist. (Quelle: https://www.heise.de/newsticker/meldung/Dr-Data-was-Kuenstliche-Intelligenz-in-der-Medizin-kann-4236103.html). Dass die Daten dann natürlich vor unbefugten Zugriff geschützt werden müssen, ist fast ein „No-Brainer“ – dachte ich. Allerdings berichtete mir der Arzt von vielen Schwerkranken, die auf Privatsphäre keinen Wert mehr legen. Vielmehr stellen sie ihre Arztberichte, Laborwerte oder Befunde öffentlich ins Netz in der Hoffnung auf Hilfe. Das aus der Forschung bekannte Privacy-Paradox oder der Privacy Calculus wird damit auf den Kopf gestellt. Diese Schwerkranken können sich Privatsphäre nicht mehr leisten.

Vor dem Hintergrund, dass sowohl die medizinische Forschung als auch Schwerkranke von einer Aufhebung der zum Teil sehr strengen Datenschutzregeln sehr profitieren könnten, haben wir auch über die Idee einer Datenspende – ähnlich wie eine Blut- oder Organspende – gesprochen. Das bedeutet, dass medizinische Daten anonymisiert und pseudonymisiert für Forschungszwecke gespendet werden können. Solche Datenspenden können – ähnlich wie Blut- oder Organspenden – Leben retten. Der Onkologe Christof von Kalle vom Deutschen Krebsforschungszentrum Heidelberg spricht davon, dass durch die Analyse und Verknüpfung von Daten eine Vielzahl von Menschenleben gerettet werden könnten. Die Idee einer Datenspende stellt klassische wissenschaftliche Theorien aus den Bereichen Wirtschaftswissenschaften oder Psychologie zum Thema Privatsphäre ebenfalls auf dem Kopf.

Es war ein sehr spannendes und erkenntnisreiches Gespräch, in dem ich sehr viel Neues gelernt habe, und wir haben verabredet, zukünftig zusammenzuarbeiten. Ich freue mich sehr darauf. Es gibt viel zu tun – in der Forschung als auch im Bereich der Aufklärung der Menschen. Nicht immer ist nämlich die Analyse und Verknüpfung von Daten schlecht bzw. für die Menschen von Nachteil. Vielmehr kann auf diese Weise auch ein großartiger Beitrag für eine bessere Welt geleistet werden, indem Patientinnen und Patienten besser geholfen werden kann und Menschenleben gerettet werden können. Auf dem Rückweg fragte mich meine Doktorandin mit leuchtenden Augen, ob sie ihr nächstes Forschungsprojekt im Bereich Künstlicher Intelligenz, Privacy und Medizin machen könnte. Natürlich habe ich ja gesagt.

Innovation @ Google – Was wir lernen können

Im letzten Herbst hatte ich die Gelegenheit, ein paar Wochen im Silicon Valley zu verbringen. Neben den üblichen touristischen Zielen entlang des Highway Nr. 1, Treffen mit Start-ups und den Besuchen an den Universitäten in Berkeley und Stanford hat mich insbesondere ein Tag bei Google in Mountain View sehr beeindruckt.

Dabei hätte ich auch gerne etwas zu meinen Themen Macht der Daten und Privatsphäre erfahren, aber all meine Versuche, darüber mit Google-Mitarbeitern zu diskutieren, blieben erfolglos. Bei diesem Thema machen sie dicht: „Alles im Sinne der Nutzer“, „Privatsphäre ist uns sehr wichtig“ und weitere Worthülsen.

Was mich aber ebenso sehr beschäftigte, war die Frage, wie Google es trotz seiner Größe schafft, so innovativ zu bleiben. Ich hatte das Glück, dass ein Freund, der dort arbeitet, sich einen Tag Zeit nahm, um mir den Campus und auch die neuesten Entwicklungen – etwa im Bereich Künstliche Intelligenz – zu zeigen. Der Eindruck vom Campus: viele junge freundliche und sympathische Menschen, verschiedene Cafeterias mit sehr gutem Essen und Getränken, Volleyballplätze und überall ein sehr entspanntes Klima – Kalifornien eben.

Anders als bei vielen deutschen Firmen strengt Google sich wirklich an, um innovativ zu bleiben. Es geht um weit mehr als „Nettigkeiten“, wie Fahrräder für Teammeetings oder ein Dinosaurier auf dem Campus, der alle Mitarbeiter daran erinnern soll, wie schnell selbst Riesen aussterben. Ich bin bis heute beeindruckt, wie es einer Firma mit ca. 80.000 Mitarbeitern gelingt, innovativ zu bleiben. Dies gilt für viele Bereiche, wie z.B. Künstliche Intelligenz, autonomes Fahren, Augmented Reality und viele andere.

Neben einem guten Gehalt unternimmt Google vieles, um für die begehrten Softwareentwickler und andere digitale Experten attraktiv zu sein. So können die Mitarbeiter anderthalb Tage pro Woche für ein eigenes Projekt aufwenden. Hierfür muss kein Business-Plan entwickelt werden. Vielmehr haben die Initiatoren die Aufgabe, Mitstreiter im Sinne von Followern zu finden, die mit ihnen gemeinsam an einem Projekt arbeiten. Ein weiterer Punkt, den ich spannend fand: das variable Gehalt wird dort nicht vom Chef oder der Chefin bestimmt, sondern von den „Peers“ im Team. Das Ziel dahinter: Die Leistung im Team und nicht hierarchisches Denken fördern.

Google hat es mit diesen und weiteren Maßnahmen schlicht geschafft, ein Vorreiter bei den Themen Leadership und Mitarbeiter zu sein. Alle wissen, dass das die Schlüssel zur Innovationskraft sind, aber nur den wenigsten gelingt es, tatsächlich ein begehrter Arbeitgeber zu werden. Google ist mittlerweile für viele Universitätsabsolventen der Traumarbeitgeber schlechthin – und das gilt nicht nur für die Studenten aus Stanford oder Berkeley. Google hat also freie Auswahl im globalen Pool der Top-Talents. Dabei muss jeder Kandidat mehrere Gespräche mit verschiedenen Google Mitarbeitern führen und alle(!) Gesprächspartner müssen der Einstellung zustimmen. Auch von meinen Studierenden und Doktoranden/innen höre ich immer wieder: „Wenn es klappt, würde ich am liebsten zu Google gehen.“ Und dabei denken sie nicht zuerst an die Sonne Kaliforniens.

Traditionelle Unternehmen in Europa und Deutschland können in Bezug auf Innovationen und Unternehmenskultur noch immer viel von Google lernen. Ein Vorurteil, das man zum Thema Digitalisierung oft hört, wurde auf meiner Reise übrigens nicht bestätigt: Das vielzitierte „Fail fast“ konnte ich nicht beobachten. Im Gegenteil: Amir erzählte mir, dass sein Projekt, das er über mehrere Monate geleitet und vorangetrieben hat, am nächsten Tag hoffentlich den siebten Qualitätstest bestehen würde. Erst dann gehe seine Softwarelösung live. „Fail fast“ scheint jedenfalls bei Google doch nicht (mehr) so weit verbreitet zu sein, wie hierzulande manchmal behauptet wird. Vielleicht war das in frühen Tagen anders, als Google noch ein Disruptor war – heute steht es auf der Seite der etablierten Incumbents und hat ein Markenversprechen einzulösen. Qualität und Innovation gehört eben doch zusammen – auch im Silicon Valley.

Künstliche Intelligenz – Eine Managementperspektive in drei Teilen

Seit vielen Jahren beobachtet und erforsche ich gemeinsam mit den Wissenschaftlichen Mitarbeiterinnen und Mitarbeitern an unserem Lehrstuhl, wie die Digitalisierung und neue Technologien Wirtschaft und Gesellschaft verändern. Mit dem Thema Künstliche Intelligenz (KI) steht die nächste drastische Veränderung an. Die Zeit ist reif für KI und Unternehmen jeder Größe und jeder Branche sollten sich jetzt intensiv mit dem Thema beschäftigen. Ich starte hier einen dreiteiligen Blog. Im ersten Teil würde ich Sie gerne davon überzeugen, dass es sich bei KI nicht um einen Hype handelt, wie vielfach behauptet wird. Im zweiten Teil wollen wir untersuchen, wie KI die Wirtschaft verändern wird. Gegenstand des dritten Teils werden dann Anbieterstrategien und ein Zukunftsausblick sein.

Warum KI kein Hype ist

Skeptiker behaupten, dass es noch lange dauern würde bis KI Einzug in die Praxis Einzug hält. Immer wieder höre ich auch, dass es ähnliche Überlegungen wie heute doch schon vor dreißig Jahren gegeben habe und KI überschätzt würde. Diesen Skeptikern halte ich immer entgegen, dass es beispielsweise Künstliche Neuronale Netze (KNN) tatsächlich schon seit den 40er Jahren gibt, aber wer deswegen Deep Learning bzw. allgemeiner KI heute nicht auf die eigene Agenda setzt, begeht dennoch einen großen Fehler.

Schon bei den Anfängen des Internet oder genauer des World Wide Web in den 90er Jahren argumentierten die Kritiker ganz ähnlich: Damals hieß es, dass es Netze doch schon lange gäbe und die Technologien wie TCP/IP oder HTML noch gar nicht ausgereift seien und es das alles schon einmal gegeben hätte (in der Tat sagte Tim Berners Lee einmal, dass er HTML gerne besser gemacht hätte, wenn er gewusst hätte, wie weit sich die Sprache verbreiten würde). Aber die Zeit war reif für den Siegeszug von Internet und WWW – nicht aufgrund der Technologie, sondern weil sich die Rahmenbedingungen geändert hatten: Der Zugang zum Internet war schon damals nahezu kostenlos und damit fiel eine wichtige Barriere. Genau so ist es mit KI: Auch heute kann man natürlich argumentieren, dass es Genetische Algorithmen, KNN und andere Machine-Learning-Ansätze schon lange Zeit gibt, aber die Rahmenbedingungen für KI haben sich drastisch verbessert und auch hier sind einige Barrieren weggefallen bzw. neue Voraussetzungen geschaffen worden:

  • Daten bzw. Big Data – etwa zum Training von KNN – sind heute in einer nie gekannten Menge verfügbar und die Datenmenge steigt exponentiell.
  • Rechenpower und Prozessorleistungen sind so kostengünstig wie nie zuvor.
  • Die Performance von „Deep Learning Algorithmen“ hat sich in den letzten Jahren verbessert.
  • Es existiert eine Vielzahl von kostenlos verfügbaren Toolkits und Bibliotheken zur Entwicklung von KI- oder Machine-Learning-Anwendungen.

Dass die Entwicklung im Bereich KI auch von Experten massiv unterschätzt wird, zeigt das Beispiel Go – ein ursprünglich aus China stammendes strategisches Brettspiel, das weit komplexer als Schach ist. So prognostizierten KI-Experten im Jahr 2015 in einer Studie der University of Oxford, dass ein KI-Algorithmus erst im Jahre 2027 in der Lage sein würde, die besten menschlichen Go-Spieler zu schlagen. Es kam anders und bereits im letzten Jahr siegte das von Google Deepmind entwickelte alphaGo gegen verschiedene Weltklassespieler. Dieser Sieg der KI über die besten menschlichen Spieler ist vor allem deswegen von großem Interesse, weil die Komplexität von Go es KI-Algorithmen trotz aller Rechenpower und Prozessorleistungen unmöglich macht, alle Züge vollständig zu enumerieren bzw. durchzuprobieren. Auch die besten (menschlichen) Spieler benötigen Intuition, um Go erfolgreich zu spielen. Genauso wie alphaGo: Die Entwickler fütterten ihre Software, die wie viele KI-Entwicklungen auf KNN basiert, zunächst mit Millionen von Go-Partien. Dann ließen sie die Software gegen sich selbst spielen, um weiter zu lernen – wie Dr. B. aus Stefan Zweigs Schachnovelle, der Schach-Meister wird, nachdem er monatelang Partien im Kopf gegen sich selbst spielt, um in der Isolationshaft nicht wahnsinnig zu werden.

In meinen Augen zeigt das Beispiel, dass KI eher unter- als überschätzt wird. Daher sollten sich auch Führungskräfte in Unternehmen mit dem Thema eingehend beschäftigen. In meinem nächsten Blog werde ich dann darauf eingehen, wie der Einsatz von KI-Algorithmen die Arbeit von morgen verändern wird.

Der Wert von Daten und die Entwicklung datenbasierter Geschäftsmodelle

Wie lässt sich der ökonomische Wert von Daten bestimmen?

Mit der Digitalisierung sind viele Optionen entstanden, große Datenmengen zu sammeln, mit denen Firmen wie Facebook oder Google viel Geld verdienen. Und es kommen ständig neue Unternehmen dazu, die um die neue Währungseinheit im 21. Jahrhundert, das vielzitierte „neue Öl“, konkurrieren. Es stellt sich die Frage: Was sind unsere Daten eigentlich wert? Und wie lässt sich ihr ökonomischer Wert bestimmen?

Wir wollen uns diesen Fragen zunächst aus wissenschaftlicher Perspektive nähern: Jacob Marschak und Helmut Laux haben Modelle zur Berechnung von Datenwerten entwickelt. Diese Modelle basieren auf der (normativen) Entscheidungstheorie, die Modelle bereitstellt, um unterschiedliche Handlungsoptionen zu bewerten. Mithilfe dieser Modelle lässt sich der Wert von Informationen bestimmen, die eingeholt werden, um die beste der bestehenden Handlungsoptionen auszuwählen. Anmerkung: Ich schließe mich hier Carl Shapiro und Hal Varian an, die in ihrem wegweisendem Buch „Informationen Rules“ von 1998 Information als „everything that can be digitized“ definieren. Das Buch stellt die zentralen ökonomischen Grundlagen der digitalen Wirtschaft dar, die im wesentlich auch heute noch gelten.

Zurück zur Bewertung von Informationen. Ich möchte Ihnen ein paar Beispiele nennen, die zeigen, für welche Fälle diese Modelle zur Bewertung von Informationen grundsätzlich geeignet sind, ohne hier auf die Mathematik dahinter einzugehen:

  • Ein Unternehmen muss entscheiden, an welchen Standorten eine neue Niederlassung eröffnet werden soll. Es beschafft sich Informationen über das Bildungsniveau und die Kosten für Personal und Grundstücke an diesen Standorten.
  • Ein Unternehmen möchte ein etabliertes Produkt durch ein Neues ablösen und befragt seine Kunden, was sie für das neue Produkt zahlen würden.
  • Eine Familie sammelt Informationen zu verschiedenen Ländern, Hotels und Flügen, um den nächsten Sommerurlaub zu planen.

Wenn man nun die neuen Informationen in die Bewertungsbögen einträgt, die auf den Modellen zu Ermittlung der Informationswerte beruhen, dann verändert sich möglicherweise die Wahrscheinlichkeit, mit der ein bestimmtes Ereignis eintritt. Es ergibt sich ein neuer Gewinnerwartungswert. Und die Differenz zwischen dem alten und dem neuen Gewinnerwartungswert beschreibt den Wert der neuen Informationen.

Diese Modelle bestimmen folglich den Wert von Informationen, mit denen die beste Handlungsoption ausgewählt werden kann.

Bis dato gibt es aber keine Modelle, anhand derer sich der Wert einer Kundendatenbank oder der Wert der Daten eines Social-Media-Anbieters direkt ermitteln ließen. Der Wert dieser Daten muss für den konkreten Einzelfall ermittelt werden, denn er hängt vom verwendeten Geschäftsmodell ab.

Wie lassen sich datenbasierte Geschäftsmodelle entwickeln?

Heute sammeln viele Unternehmen Daten, ohne überhaupt zu wissen, was sie damit später einmal anfangen wollen. Wie gesagt, Daten haben einen Wert – da ist es naheliegend, sie vorbeugend schon mal zu sammeln. Ich bekomme relativ häufig Anfragen von Unternehmen, die wissen möchten, was sie mit ihren gesammelten Daten denn nun anfangen können und wie man in diesem Zusammenhang mit dem Thema Privatsphäre umgeht.

Zum Einstieg bieten sich Verfahren an, die die Kreativität anregen, wie Brainstorming, ein Hackathon oder auch Design Thinking.

Wenn sich auf Basis der ersten Ergebnisse zeigt, dass es sich lohnen könnte, ein Geschäftsmodell zu entwickeln, dann eignet sich das mittlerweile sehr bekannte  Modell Canvas von Alexander Osterwalder und Yves Pigneur, um bestehende Geschäftsmodelle zu veranschaulichen oder zu dokumentieren. Wenn es aber darum geht, gänzlich neue Geschäftsmodelle zu entwickeln, habe ich mit dem so genannten St. Gallener Ansatz von Alexander Gassmann sehr gute Erfahrungen gemacht. Dieser Ansatz stellt 55 Muster von erfolgreichen Geschäftsmodellen bereit. Bei der Arbeit an einem konkreten Fall, schaut man sich diese etablierten Muster an und überlegt, ob es sinnvoll sein könnte, sie auf eine neue Branche zu übertragen.

Wir haben kürzlich einen Workshop mit 12 Mitarbeiterinnen und Mitarbeitern eines großen Unternehmens aus dem Maschinenbau durchgeführt, um Ideen zu entwickeln, wie sich die Daten, die alltäglich u.a. von verschiedensten Sensoren gesammelt werden, gewinnbringend nutzen lassen. Das Ziel bestand darin, Geschäftsmodellinnovationen zu entwickeln, mit denen das Unternehmen von seiner Datensammlung profitiert.

Nach einer kurzen Einführung in das Thema Entwicklung von Geschäftsmodellen haben wir gemeinsam eine Datenlandkarte erstellt. Bei der Vorbereitung des Workshops hatten wir aus den verfügbaren Geschäftsmodell-Mustern des St. Gallener Ansatzes 27 herausgepickt, die uns im konkreten Fall interessant erschienen.

Im Verlauf des Workshops wurde dann jeweils eine Karte gezogen, bspw. das Muster „Razer & Blade“: Ein Produkt oder Service wird also sehr günstig oder sogar kostenlos an (potenzielle) Kunden verteilt, um im Anschluss mit  ergänzenden Dienstleistungen oder Produkten Geld zu verdienen.

Wenn alle das Prinzip des Musters verstanden hatten, diskutierte die Gruppe, ob diese Idee für das Unternehmen geeignet sein könnte. Alle Ideen wurden dokumentiert. Wenn die Diskussion abebbte, wurde die nächste Karte gezogen. Am Ende des Tages hatten wir knapp 40 Ideen entwickelt, wie auf Basis der verfügbaren Daten Services für Kunden entwickelt werden könnten. Auf Basis dieser 40 Ideen lässt sich nun auch der Wert der Daten für das jeweils konkrete Szenario berechnen – allerdings ohne Metamodell wie es von Jacob Marschak und Helmut Laux entwickelt wurde.

Der Preis des Kostenlosen – Was sind unsere Daten wert?

Seit 2012 führen wir in Kooperation mit dem Radiosender hr-iNFO unsere Studie „Der Preis des Kostenlosen“ durch. Wir konzentrieren uns dabei insbesondere auf zwei Fragen:

1. Wie hoch ist die Akzeptanz für Geschäftsmodelle, die vordergründig kostenlos erscheinen, die aber eigentlich mit den Daten ihrer Nutzer Geld verdienen?
2. Was sind den Befragten ihre Daten wert?

Im Gegensatz zu den ersten beiden Untersuchungen haben wir dieses Mal eine repräsentative Stichprobe erhoben – wir hatten etwas mehr als 1000 Teilnehmer.

Mittlerweile entsteht insbesondere in den USA eine ganze Industrie, die mit Daten der Kunden Geld verdient. Beispielsweise kann man dort seine Daten, etwa die eigenen Lokationsdaten oder Kreditkartenumsätze, direkt an Anbieter verkaufen. Unsere Studie zeigt, dass dieses Prinzip für eine knappe Mehrheit der Befragten ein Geschäftsmodell ist wie jedes andere auch. Gleichzeitig würden die meisten ihre eigenen Daten aber nicht verkaufen.

Spannend: Je älter die Befragten sind, desto skeptischer sind sie in Bezug auf diese neuen Geschäftsmodelle. Ebenso steigt die Sorge, die sich die Befragten um ihre Privatsphäre machen, mit dem Alter an. Die Ergebnisse geben damit auch Hinweise darauf, wo die Reise mit den datenbasierten Geschäftsmodellen zukünftig hingehen könnte – wenn die Akzeptanz insbesondere bei den Jüngeren größer ist.alter_privacy

Ebenfalls bemerkenswert: Die meisten Teilnehmer der Studie überschätzen den Wert ihrer Daten drastisch und sind der Meinung, dass sie etwa bei Facebook nicht ausreichend für die Preisgabe ihrer Daten kompensiert werden. Es ist also nicht nur die Sorge um die eigene Privatsphäre, die dazu führt, dass viele Befragten den Deal „Daten gegen Service“ ablehnen: Die wahrgenommene Fairness dieser Angebote sinkt signifikant, je höher der Wert der eigenen Daten eingeschätzt wird.

Ein amüsantes Detail: Männer waren sich sehr sicher, dass sie den Wert ihrer Daten richtig einschätzen. Sie lagen aber genauso falsch wie die Frauen!

Dann noch eine spannende Zahl zu einem bemerkenswerten Paradox: Circa 60 Prozent der Facebook-Nutzer sagen, dass sie ihre Daten nie an die neuen Anbieter von datenbasierten Geschäftsmodellen verkaufen würden. Die Nutzer geben ihre Daten also kostenlos (in diesem Fall auf Facebook) preis, würden sie aber nicht verkaufen. Ein schöner Widerspruch, finde ich, den man psychologisch erklären kann. Wir haben statistisch kontrolliert, dass diese 60 Prozent der Befragten durchaus über den Wert der Daten nachdenken. Der Widerspruch lässt sich also nicht durch Gedankenlosigkeit erklären.
Wer mehr Interesse an diesem Thema hat, hier der Link zur Sendung vom Hessischen Rundfunk.

Im nächsten Beitrag werde ich meinen Blick auf die andere Seite lenken und darauf eingehen, welchen Wert die Daten für Unternehmen haben.