Das IT-Sicherheits-Paradox: Warum Unternehmen zu wenig in IT-Sicherheit investieren

Mit der zunehmenden Digitalisierung von Wirtschaft und Gesellschaft gehen auch immer größere IT-Sicherheitsrisiken einher. So werden mehr und mehr Unternehmen, nicht zuletzt kleine und mittelständische, Opfer von Sicherheitsvorfällen. Bitkom schätzt beispielsweise, dass durch IT-Sicherheitsvorfälle allein deutschen Firmen im letzten Jahr ein Schaden von 55 Milliarden Euro entstanden ist. Und es handelt sich dabei natürlich nur um die Spitze des Eisbergs. Viele Sicherheitsvorfälle werden gar nicht erst bekannt gemacht, entweder weil es den Unternehmen schlicht peinlich ist oder auch, weil sie einen Imageschaden befürchten. Darüber hinaus wissen die Unternehmen in vielen Fällen noch nicht einmal selbst, ob sie Opfer eines Sicherheitsvorfall wurden – frei nach dem Motto: Entweder der Feind ist schon drin oder du hast es noch nicht bemerkt.
Das Ziel dieses Kurzbeitrags besteht darin zu analysieren, ob Entscheidungsträgern in Unternehmen bestehende IT-Sicherheitsrisiken bewusst sind. Auf den ersten Blick erstaunt die Frage vielleicht etwas, weil es eine Vielzahl von Studien gibt, die besagen, dass IT-Sicherheit von vielen Entscheidern als das wichtigste Thema im Rahmen der digitalen Agenda angesehen wird (siehe z.B. Bitcom). Diese angebliche Priorisierung steht jedoch im Widerspruch zu einigen Expertengesprächen, die wir mit Führungskräften durchgeführt haben und die von vielen unterlassenen Investitionen in IT-Sicherheitslösungen berichteten. Daher haben wir uns entschieden, die Frage nach der Bedeutung des Themas IT-Sicherheit mit Hilfe einer etwas größer angelegten Studie zu untersuchen. Grundlage unserer Studie, die in Zusammenarbeit mit der Lünendonk GmbH durchgeführt wurde, ist eine Befragung von 103 Entscheidungsträgern, überwiegend CIOs und IT-Leitern. Dabei ist es natürlich naheliegend, diese Entscheider nicht direkt zu fragen, ob IT-Sicherheit ein wichtiges Thema ist. Die Antwort wäre klar und die Ergebnisse langweilig. Daher haben wir die Entscheider gebeten, einerseits zu bewerten, wie gut ihr eigenes Unternehmen auf Herausforderungen im Bereich IT-Sicherheit vorbereitet ist und einzuschätzen, ob das Gleiche für andere Unternehmen gilt. Die Antworten auf diese beiden Fragen sind in der folgenden Abbildung dargestellt.

Abbildung 1: Einschätzung der eigenen Vorbereitung auf IT-sicherheitsrelevante Herausforderungen im Vergleich zu konkurrierenden Unternehmen (von +2 sehr gut vorbereitet bis -2 gar nicht vorbereitet)

Die Ergebnisse zeigen, dass die Befragten der Meinung sind, dass ihr eigenes Unternehmen deutlich besser auf Herausforderungen im Bereich IT-Sicherheit vorbereitet ist als andere konkurrierende Unternehmen. Um es deutlich zu machen: Natürlich kann es in bestimmten Fällen sein, dass ein Unternehmen besser vorbereitet ist als andere Unternehmen, aber dass dies für alle Unternehmen gilt, ist nicht möglich. Die Ergebnisse sind auf Basis eines T-Tests statistisch signifikant. In der Psychologie spricht man in diesem Fall auch von einem sogenannten unrealistischen Optimismus. Dieser besagt, dass Menschen dazu tendieren, ihr eigenes Risiko im Vergleich zu anderen verzerrt wahrzunehmen und zu unterschätzen.
Überträgt man diese Ergebnisse aus der psychologischen Forschung auf unser Beispiel, bedeutet dies, dass die Unternehmen ihr eigenes IT-Sicherheitsrisiko systematisch unterschätzen. Eine Vermutung ist, dass sich Unternehmen hinsichtlich ihrer Investitionen in IT-Sicherheit ähnlich verhalten wie es Endnutzer bei der Preisgabe von persönlichen Informationen tun. Man spricht hier auch vom sogenannten Privacy-Paradox, das vereinfacht ausgedrückt bedeutet, dass viele Leute zwar behaupten, dass ihnen ihre Privatsphäre sehr wichtig sei, tatsächlich aber andere Werte höher bewerten und sich unvorsichtig verhalten. So geben die Nutzer Informationen preis und bereuen dies später nicht selten. Dabei gehen sie häufig (unrealistisch optimistisch) davon aus, dass ihnen schon nichts passieren wird. In der Wissenschaft spricht man hier von einem Intention-Behavior-Gap. Ein ähnliches Verhalten scheint es in Unternehmen zu geben: Kaum jemand würde behaupten, dass IT-Sicherheit für Unternehmen kein relevantes Thema wäre. Dennoch werden wichtige Investitionen in IT-Sicherheit aufgrund eines unrealistischen Optimismus nicht getätigt oder verschoben. Auch hier scheint die Maxime zu gelten, die sich auch bei Endnutzern beobachten lässt: „Uns wird schon nichts passieren.“ Dieses IT-Sicherheits-Paradox ist aus zwei Gründen hochproblematisch. Zum einen wird im Extremfall auf diese Weise die Existenz des gesamten Unternehmens aufs Spiel gesetzt. Zum anderen können unterlassene Investitionen in die eigene IT-Sicherheit die gesamte Wirtschaft und Gesellschaft gefährden. Was für die Digitalisierung der Wirtschaft als solche gilt, gilt auch für den Bereich IT-Sicherheit – der manchmal auch als die „ugly sister of digitalization“ bezeichnet wird – sie muss Chefsache werden.

Literaturverzeichnis
Bazerman, Max H., Ann E. Tenbrunsel, and Kimberly Wade-Benzoni. “Negotiating with yourself and losing: Making decisions with competing internal preferences.” Academy of Management Review 23.2 (1998): 225-241.
Sheeran, Paschal. “Intention—behavior relations: A conceptual and empirical review.” European review of social psychology 12.1 (2002): 1-36.
Sonnenschein, Rabea, André Loske, and Peter Buxmann. “Which IT Security Investments Will Pay Off for Suppliers? Using the Kano Model to Determine Customers’ Willingness to Pay.” 49th Hawaii International Conference on (2016).
Weinstein, Neil D., and William M. Klein. “Unrealistic optimism: Present and future.” Journal of Social and Clinical Psychology 15.1 (1996): 1-8.

Künstliche Intelligenz – Eine Managementperspektive (Teil 2): Wie sich KI auf die Wirtschaft auswirken wird

KI wird die Wirtschaft in den nächsten Jahren sehr stark verändern. Gemäß einer aktuellen Studie prognostizieren mehr als 70 Prozent der befragten Führungskräfte bis 2025 einen großen bis sehr großen Einfluss der KI auf ihre Unternehmensstrategie.[1]

Methodisch stehen derzeit Deep-Learning-Ansätze, etwa auf Basis von Künstlichen Neuronalen Netzen (KNN), hoch im Kurs und dies wird sich vermutlich auch in den nächsten Jahren nicht ändern. Demgegenüber sinkt die Bedeutung (regelbasierter) Expertensysteme deutlich. Häufig findet man auch eine Verbindung verschiedenster methodischer Ansätze. Die folgende Tabelle zeigt eine Auswahl interessanter Anwendungsgebiete mit Literaturquellen auf:

Quelle Einsatzgebiete von KI
Infosys (2016), S. 8 Big Data, Predictive Analytics, Maschinenlernen, Expertensysteme, neuronale Netzwerke
Irrgang &Klawitter (2010), S. 21 ff. Expertensysteme in Industrie, Medizin, Wissenschaft und Forschung, Militär, Spielen, Büroautomation, Wirtschaft und Finanzen, Lehre und Ausbildung, Bibliothekswesen, Ingenieurwissenschaften
Mainzer (2016), S. 172 ff. Industrie 4.0
Soprasteria (2017), S. 7 Robotic Process Automation (RPA), intelligente Automatisierungstechnologien, digitalen Assistenten, intelligente Sensorik, selbstlernende Maschinen
Bauer et al. (2017), S. 8 Autonomes Fahren, Predictive maintenance, Collaborative and context-aware robots, Yield enhancement in manufacturing, Automated quality testing, AI-enhanced supply chain management, Business support function automation
Purdy & Daugherty (2016), S.11 Computer Vision, Audio Processing, Natural Language Processing, Knowledge Representation, Maschinenlernen, Expertensysteme
Mills (2016), S. 3 Maschinenlernen, Natural Language Processing (NLP), Expertensysteme, Vision, Sprache, Planung, Robotik

Eine viel diskutierte Debatte dreht sich um die potenzielle Vernichtung von Arbeitsplätzen durch KI. Hierzu gibt es viele Studien, die zu völlig unterschiedlichen Ergebnissen kommen und die ich Ihnen hier ohne Anspruch auf Vollständigkeit zusammengestellt habe.

Quelle Auswirkungen auf Arbeitsmarkt

Chui, Manyika, & Miremadi (2016)

 

    • 45 Prozent der bezahlten Aktivitäten können automatisiert werden
    • 78 Prozent vorhersagbarer Arbeit ist automatisierbar
  • Arbeitsplatz von allen wird transformiert

Government (2016), S. 2.

    • Entstehung Arbeitsplätze in den Bereichen Entwicklung und Kontrolle von Künstlicher Intelligenz
  • Bedrohung von Arbeitsplätzen im Niedriglohnsegment
Mainzer (2016), S. 178.

 

    • Entstehung Arbeitsplätze im Kundenservice, in der Mechatronik und Robotik
  • Überdisziplinäre Zusammenarbeit in Teams und gesteigerte Kooperationsfähigkeit notwendig
Wisskirchen et al. (2017), S. 14 ff.
    • 1/3 der Arbeit, welche einen Bachelor Abschluss voraussetzt, kann automatisiert werden
    • Gradueller Prozess
    • Keine Nachfrage mehr für einfache, repetitive Arbeit
  • Höhere Nachfrage für hochqualifizierte Arbeitnehmer (Verständnis für IT, Mathematik, Wissenschaft; soziale und interdisziplinäre Kompetenz)
Stanford University (2016)
    • Ersatz von Aufgaben statt gesamter Jobs in naher Zukunft
    • Schaffung neuer Arten von Jobs
    • Gradueller Prozess
    • Automatisierung von z.B. Radiologen, LKW Fahrern, Gärtnern
    • Kleinere Organisationsgrößen
  • Neue Märkte
Markoff (2011)
    • Neue Jobs am Ende der Wirtschaftspyramide
    • Verlust von Jobs in der Mitte der Wirtschaftspyramide
  • Verlangsamtes Wachstum von Jobs an der Spitze der Wirtschaftspyramide bedingt durch Automatisierung
PwC (2017)
    • 35 % existierender Jobs (Deutschland) sind durch Automatisierung bedroht
    • Natur der Jobs wird sich eher ändern, als dass Jobs verschwinden
    • Bedrohte Sektoren: Transport, Fertigung, Handel
    • Weniger bedrohte Sektoren: Bildung, Gesundheit, Sozialarbeit
  • Einkommensungleichheit wird steigen

Dabei kann ich mich auch aufgrund der völlig unterschiedlichen Ergebnisse des Eindrucks nicht erwehren, dass sich einige Autoren bei ihren Analysen auch an den Interessen ihrer Auftraggeber oder an zu erwartender Aufmerksamkeit im Netz orientieren.

Ich bin hier vorsichtig optimistisch und denke nicht, dass es durch KI zu einer massenweisen Vernichtung von Arbeitsplätzen kommen wird. Natürlich würde ich einem jungen Menschen vor dem Hintergrund der Fortschritte auf dem Gebiet des autonomen Fahrens heute nicht raten, den Beruf eines Bus- oder LKW-Fahrers zu wählen. Aber unter dem Strich wird es vermutlich ähnlich wie etwa bei der Automatisierung im Produktionsbereich ausgehen. Auch hier wurden viele Jobs durch Maschinen ersetzt, aber es wurden auch neue geschaffen und heute haben wir zum Glück eine vergleichsweise geringe Arbeitslosigkeit. Eine ähnliche Entwicklung am Arbeitsmarkt werden wir vermutlich auch beim Thema KI erleben, wobei es grundsätzlich zu einer Verschiebung hin zu Arbeitsplätzen für höher Qualifizierte kommen wird. Daher denke ich auch nicht, dass eine Robotersteuer, wie von Bill Gates gefordert, sinnvoll und notwendig ist.

Neben den Erfolgsmeldungen gibt es natürlich auch Fragestellungen, an denen sich die Algorithmen erfolglos die Zähne ausbeißen. Ein aktuelles Beispiel hierzu – nicht nur im Kontext Sozialer Netzwerke – ist die Erkennung von „Fake News“. Allerdings ist anzumerken, dass in Experimenten Menschen sogar noch schlechter als die Algorithmen abschneiden. Es wäre mal spannend, ob ein besserer Algorithmus den Satz „KI wird in 100 Jahren die Weltherrschaft übernehmen“ als Fake News oder wahr klassifizieren würde.

Ein Fehler in der öffentlichen Diskussion über KI besteht m. E. darin, dass häufig suggeriert wird, es gäbe eine Maschine, die über eine ähnliche Form von Intelligenz und Bewusstsein verfügt, wie wir Menschen. Stichwort: die Maschinen übernehmen die Macht über die Menschen. Informatiker sprechen in diesem Kontext auch von starker KI. Ich sehe hier keinen Grund zur Beunruhigung, denn von einer solchen Entwicklung sind wir m. E. noch meilenweit entfernt und ähnliche Horrorvisionen gab es schon vor Jahrzehnten. Es ist einfach schön schaurig und gruselig: Hollywood lässt grüßen.

Natürlich wäre es eine Fehleinschätzung zu denken, dass man einfach mal KI im Unternehmen einführt und auf einmal das Marketing, das Bestellwesen, die Softwareentwicklung etc. „intelligent“ sind. Vielmehr ist es so, dass wir von Algorithmen sprechen, die selbständig bestimmte Aufgaben durchführen, Entscheidungen treffen und dabei auch lernen, wie das etwa bei KNN der Fall ist. Das würde beispielsweise bedeuten, dass man in einem Unternehmen eine KI-basierte Predictive-Analytics-Anwendung in der Produktionssteuerung hätte und eine weitere KI-Anwendung, die in der Lage ist, Anomalien aufzudecken, die auf einen Sicherheitsvorfall hindeuten usw. Auch IBM Watson ist beispielsweise keine wirkliche „general purpose machine“ (auch wenn das Marketing dies schon durch den genial gewählten Namen „Watson“ geschickt suggeriert!), sondern dahinter verbergen sich einzelne und zum Teil sehr leistungsfähige Algorithmen für verschiedenste Anwendungsgebiete. Beispielsweise spielt eine Anwendung Schach, eine andere Jeopardy, eine dritte macht Spracherkennung usw.

Von der „starken“, alles beherrschenden KI sind wir also noch sehr weit weg und ich denke auch nicht, dass sie in absehbarer Zeit kommen wird. Es gibt hierzu aber auch andere Meinungen. Beispielsweise ist KI-Forscher Ray Kurzweil von Google recht ambitioniert und frei von Selbstzweifeln. Auf die Frage, ob es Gott gibt, antwortete er: „Noch nicht“.

Literatur

Accenture (2016): Why artificial intelligence is the future of growth

https://www.accenture.com/lv-en/_acnmedia/PDF-33/Accenture-Why-AI-is-the-Future-of-Growth.pdf

Bauer, H. et al. (2017): Smartening up with Artificial Intelligence (AI) – What’s in it for Germany and its Industrial Sector?

https://www.mckinsey.de/files/170419_mckinsey_ki_final_m.pdf

Chui, M., Manyika, J., & Miremadi, M. (2016): Where machines could replace humans—and where they can’t (yet) (2016)

http://www.mckinsey.com/business-functions/digital-mckinsey/our-insights/where-machines-could-replace-humans-and-where-they-cant-yet

E&Y (2016): Einsatz digitaler Technologien in der Immobilienwirtschaft

http://www.ey.com/Publication/vwLUAssets/ey-einsatz-digitaler-technologien-in-der-immobilienwirtschaft/$FILE/ey-einsatz-digitaler-technologien-in-der-immobilienwirtschaft.pdf

Government, USA (2016): Artificial Intelligence, Automation, and the Economy  (2016)

https://obamawhitehouse.archives.gov/sites/whitehouse.gov/files/documents/Artificial-Intelligence-Automation-Economy.PDF

Infosys (2016): Amplifying Human Potenzial: Towards Purposeful Artificial Intelligence

https://www.infosys.com/aimaturity/Documents/amplifying-human-potential-CEO-report.pdf

Irrgang, B., & Klawitter, J. (2010): Künstliche Intelligenz: technologischer Traum oder gesellschaftliches Trauma?(2010)

https://hds.hebis.de/ulbda/Record/HEB381280861

Mainzer, K. (2016): Künstliche Intelligenz – Wann übernehmen die Maschinen? (2016)

https://link.springer.com/book/10.1007%2F978-3-662-48453-1

Markoff, J. (2011): Armies of Expensive Lawyers, Replaced by Cheaper Software (2011)

http://www.nytimes.com/2011/03/05/science/05legal.html

Mills, M. (2016): ARTIFICIAL INTELLIGENCE IN LAW: THE STATE OF PLAY 2016 (2016)

https://www.neotalogic.com/wp-content/uploads/2016/04/Artificial-Intelligence-in-Law-The-State-of-Play-2016.pdf

PwC (2016): Big Data for Big Decisions: Algorithmen halten Einzug in die Chefetage

https://www.pwc.de/de/business-analytics/assets/big-decisions-survey-2016.pdf

PwC (2017): Up to 30% of existing UK jobs could be impacted by automation by early 2030s, but this should be offset by job gains elsewhere in economy

http://pwc.blogs.com/press_room/2017/03/up-to-30-of-existing-uk-jobs-could-be-impacted-by-automation-by-early-2030s-but-this-should-be-offse.html

Sopra Steria Consulting (2017): Potentialstudie: Künstliche Intelligenz

https://www.soprasteria.de/docs/librariesprovider33/Studien/potenzialanalyse-künstliche-intelligenz-2017.pdf?sfvrsn=0

Stanford University (2016): One Hundred Year Study on Artificial Intelligence (AI100): Employment and Workplace (2016)

https://ai100.stanford.edu/2016-report/section-ii-ai-domain/employment-and-workplace

Wisskirchen, G, Biacabe, B. T., Bormann, U., Muntz, A., Niehaus, G., Soler, G. J., von Brauchitsch, B. (2017): Artificial Intelligence and Robotics and Their Impact on the Workplace. (2017)

http://matrixni.org/documents/artificial-intelligence-robotics-impact-workplace/

[1] Soprasteria (2017), S. 9.

Künstliche Intelligenz – Eine Managementperspektive in drei Teilen

Seit vielen Jahren beobachtet und erforsche ich gemeinsam mit den Wissenschaftlichen Mitarbeiterinnen und Mitarbeitern an unserem Lehrstuhl, wie die Digitalisierung und neue Technologien Wirtschaft und Gesellschaft verändern. Mit dem Thema Künstliche Intelligenz (KI) steht die nächste drastische Veränderung an. Die Zeit ist reif für KI und Unternehmen jeder Größe und jeder Branche sollten sich jetzt intensiv mit dem Thema beschäftigen. Ich starte hier einen dreiteiligen Blog. Im ersten Teil würde ich Sie gerne davon überzeugen, dass es sich bei KI nicht um einen Hype handelt, wie vielfach behauptet wird. Im zweiten Teil wollen wir untersuchen, wie KI die Wirtschaft verändern wird. Gegenstand des dritten Teils werden dann Anbieterstrategien und ein Zukunftsausblick sein.

Warum KI kein Hype ist

Skeptiker behaupten, dass es noch lange dauern würde bis KI Einzug in die Praxis Einzug hält. Immer wieder höre ich auch, dass es ähnliche Überlegungen wie heute doch schon vor dreißig Jahren gegeben habe und KI überschätzt würde. Diesen Skeptikern halte ich immer entgegen, dass es beispielsweise Künstliche Neuronale Netze (KNN) tatsächlich schon seit den 40er Jahren gibt, aber wer deswegen Deep Learning bzw. allgemeiner KI heute nicht auf die eigene Agenda setzt, begeht dennoch einen großen Fehler.

Schon bei den Anfängen des Internet oder genauer des World Wide Web in den 90er Jahren argumentierten die Kritiker ganz ähnlich: Damals hieß es, dass es Netze doch schon lange gäbe und die Technologien wie TCP/IP oder HTML noch gar nicht ausgereift seien und es das alles schon einmal gegeben hätte (in der Tat sagte Tim Berners Lee einmal, dass er HTML gerne besser gemacht hätte, wenn er gewusst hätte, wie weit sich die Sprache verbreiten würde). Aber die Zeit war reif für den Siegeszug von Internet und WWW – nicht aufgrund der Technologie, sondern weil sich die Rahmenbedingungen geändert hatten: Der Zugang zum Internet war schon damals nahezu kostenlos und damit fiel eine wichtige Barriere. Genau so ist es mit KI: Auch heute kann man natürlich argumentieren, dass es Genetische Algorithmen, KNN und andere Machine-Learning-Ansätze schon lange Zeit gibt, aber die Rahmenbedingungen für KI haben sich drastisch verbessert und auch hier sind einige Barrieren weggefallen bzw. neue Voraussetzungen geschaffen worden:

  • Daten bzw. Big Data – etwa zum Training von KNN – sind heute in einer nie gekannten Menge verfügbar und die Datenmenge steigt exponentiell.
  • Rechenpower und Prozessorleistungen sind so kostengünstig wie nie zuvor.
  • Die Performance von „Deep Learning Algorithmen“ hat sich in den letzten Jahren verbessert.
  • Es existiert eine Vielzahl von kostenlos verfügbaren Toolkits und Bibliotheken zur Entwicklung von KI- oder Machine-Learning-Anwendungen.

Dass die Entwicklung im Bereich KI auch von Experten massiv unterschätzt wird, zeigt das Beispiel Go – ein ursprünglich aus China stammendes strategisches Brettspiel, das weit komplexer als Schach ist. So prognostizierten KI-Experten im Jahr 2015 in einer Studie der University of Oxford, dass ein KI-Algorithmus erst im Jahre 2027 in der Lage sein würde, die besten menschlichen Go-Spieler zu schlagen. Es kam anders und bereits im letzten Jahr siegte das von Google Deepmind entwickelte alphaGo gegen verschiedene Weltklassespieler. Dieser Sieg der KI über die besten menschlichen Spieler ist vor allem deswegen von großem Interesse, weil die Komplexität von Go es KI-Algorithmen trotz aller Rechenpower und Prozessorleistungen unmöglich macht, alle Züge vollständig zu enumerieren bzw. durchzuprobieren. Auch die besten (menschlichen) Spieler benötigen Intuition, um Go erfolgreich zu spielen. Genauso wie alphaGo: Die Entwickler fütterten ihre Software, die wie viele KI-Entwicklungen auf KNN basiert, zunächst mit Millionen von Go-Partien. Dann ließen sie die Software gegen sich selbst spielen, um weiter zu lernen – wie Dr. B. aus Stefan Zweigs Schachnovelle, der Schach-Meister wird, nachdem er monatelang Partien im Kopf gegen sich selbst spielt, um in der Isolationshaft nicht wahnsinnig zu werden.

In meinen Augen zeigt das Beispiel, dass KI eher unter- als überschätzt wird. Daher sollten sich auch Führungskräfte in Unternehmen mit dem Thema eingehend beschäftigen. In meinem nächsten Blog werde ich dann darauf eingehen, wie der Einsatz von KI-Algorithmen die Arbeit von morgen verändern wird.

Wie wirtschaftlich ist der Einsatz von Social Collaboration Tools?

Häufig ist in der digitalen Arbeitswelt das folgende Paradox zu beobachten: Über das Internet arbeiten wildfremde Menschen häufig kooperativer zusammen als das innerhalb von Unternehmen der Fall ist. Nehmen wir beispielsweise den Austausch von Quellcode (nicht selten hunderte Zeilen selbstentwickelte Software) unter Softwareentwicklern, die sich gar nicht persönlich kennen. Das Motiv ist häufig ganz einfach: Die Entwickler wollen sich gegenseitig helfen – oder auch später einmal nach dem Motto „eine Hand wäscht die andere“ profitieren. In Unternehmen finden sich in vielen Fällen ganz andere Denkmuster. Informationen werden zurückgehalten, gegenseitige Hilfe findet häufig aus Zeitmangel oder anderen Motiven kaum statt.

Im Rahmen unserer zum zweiten Mal durchgeführten Deutschen Social Collaboration Studie haben wir untersucht, ob der Einsatz von Social Collaboration Tools eine sinnvolle Unterstützung bieten kann, um die Zusammenarbeit von Mitarbeitern in Unternehmen zu verbessern. In diesem Kontext bezeichnet „Social Collaboration“ den Einsatz moderner Technologien, um neue Formen der Zusammenarbeit zu unterstützen bzw. Mitarbeiter besser zur Bewältigung aktueller Aufgaben zu befähigen. Ein Beispiel stellt der Einsatz von Enterprise Social Networks (ESN) dar. Im Rahmen der zweiten Social Collaboration Studie haben wir in Kooperation mit dem Beratungshaus Campana & Schott insgesamt 1005 Mitarbeiter aus verschiedensten Industrien befragt.

Anzahl der Befragten

Tätigkeitsfelder der Befragten

Branchen

Die Ergebnisse zeigen grundsätzlich positive Effekte der Investition in Social Collaboration Tools, wie die folgende Zusammenfassung zeigt:

Verbesserung der Unternehmenskultur

Um Aussagen über die Ziele des Einsatzes von Social Collaboration Tools zu erhalten, wurden Mitarbeiter mit Führungsverantwortung zu diesem Thema befragt. Interessanterweise rangiert die Verbesserung der Unternehmenskultur ganz oben auf der Liste der wichtigsten Ziele. Das ist auch deshalb bemerkenswert, weil traditionelle Prioritäten beim IT-Einsatz  wie beispielsweise Kostensenkungen offenbar in den Hintergrund treten.

Ziele von Social Collaboration

Die Studie zeigt zudem einen positiven Zusammenhang zwischen dem Zugehörigkeitsgefühl zum Unternehmen und der Nutzung von Enterprise Social Networks. Das heißt, entweder nutzen Mitarbeiter, die sich tendenziell stärker mit dem Unternehmen identifizieren, eher stärker ein ESN – oder die ESN-Nutzung stärkt das Zugehörigkeitsgefühl.

Der Einsatz von Social Collaboration Tools führt zu einer höheren Arbeitseffizienz

In der Studie haben wir verschiedene Szenarien für den Einsatz von Social Collaboration Tools entwickelt und auf dieser Basis den Social Collaboration Reifegrad gemessen. Die Ergebnisse zeigen einen positiven Zusammenhang zwischen diesem Reifegrad – vereinfacht ausgedrückt: der Intensität der Nutzung von Social Collaboration Tools für verschiedene Aufgabenstellungen – und der Arbeitseffizienz der Mitarbeiter:

Arbeitseffizienz der Mitarbeiter

Ein besonders positiver Zusammenhang existiert für den Einsatz von Enterprise Social Networks.

Social Collaboration Tools erhöhen die Innovationskraft

Die Innovationskraft kann durch den Einsatz dieser Tools und von Enterprise Social Networks insbesondere dadurch erhöht werden, dass die Zusammenarbeit in Teams besser unterstützt wird. Dies erfolgt wiederum dadurch, dass die ESN-Nutzung signifikant positiven Einfluss auf das Metawissen der Mitarbeiter hat. Wenn einer vom anderen weiß, mit welchen Themen er oder sie sich gerade beschäftigt und wer im Unternehmen über welche Spezialkenntnisse, Fähigkeiten und Connections verfügt, lassen sich neue Ideen besser kombinieren und schneller in marktreife Angebote überführen. Das Wissen in Bezug auf die Expertise der Kollegen wird dabei als „Who knows what“ bezeichnet. Die andere Dimension des Metawissens wird „Who knows whom“ genannt und repräsentiert das Wissen der Mitarbeiter in Bezug auf die Verbindungen ihrer Kollegen. Die Studie zeigt einen klaren Zusammenhang zwischen dem Nutzungsgrad von Enterprise Social Networks und den beiden genannten Metawissen-Dimensionen.

Die gesamte Studie können Sie unter http://www.collaboration-studie.de/ herunterladen.