Corporate Learning Is More Important Than Ever” An Interview with Josh Bersin

In today’s “always-on” workplace, companies should not be afraid to invest in new tools and platforms that deliver the learning people want and aspire for, saysJosh Bersin, principal, Deloitte Consulting LLP, and founder and editor-in- chief of Bersin. “Artificial intelligence, chatbots, video, and virtual and augmented reality will significantly change learning in the years ahead.”

Bersin is the leading provider of research and advisory services focused on corporate learning. More than 60% of the Fortune’s 100 Best Companies to Work For are Bersin members, and more than a million human resources professionals read Bersin research every month.

In this interview, Josh Bersin talks about the transformations that are taking place in the learning & development segment and analyzes the trends and challenges that will shape the future of corporate learning.

What changes have you observed in L&D in the past 10 years?

Ten years ago we were building page-turning e-learning programs and they barely ran on mobile devices. The content was really a “repurpose” of instructor-led training and much of the content development was based on the ADDIE model. We developed the concept of “blended learning” (which is now called “flipped learning”) so people could study online and then attend a class in person. And we had very traditional learning management systems, which arranged content into courses, programs, and curricula.

As social media entered our lives, of course all this changed. Employees and consumers now want bite-sized instructional content (now called “micro-learning”), they want content that is very easy to find, and they want a user experience that feels more like a search engine or a TV set, not a course catalog. We have been trying to build this infrastructure for the last five years, and now in 2018 it’s finally possible. Consumer libraries and many others have accelerated this shift.

According to a survey by Deloitte Consulting LLP, from 2016 to 2017, business and HR leaders’ concern with learning and career development skyrocketed, up by almost 40%. To what do you attribute this growth?

There are two huge drivers of learning today. First, the economy is booming, so companies are hiring, training, and reskilling their people faster than ever. Second, the rate of change in technology, tools, and business practices is breathtaking.

The digital revolution, growth in AI and new algorithms, growth in the use of software, and all the automation at work has forced us all to go “back to school.”

So employees and leaders are very focused on reskilling our people (at all levels) and the appetite for modern, easy to consume learning is enormous.

Photo Josh Bersin, Principal, Deloitte Consulting LLP, and Founder and editor-in-chief of Bersin

Josh Bersin, Principal, Deloitte Consulting LLP, and Founder and editor-in-chief of Bersin

How do you foster and build a learning culture within the company? What are the main issues for a company to become a high impact learning organization?

In all the research we’ve done (and we’ve done a lot), we always conclude that no matter how good or weak your learning technology is, it’s culture that matters. When a company has a “culture of learning” – people take time to reflect, they have time to learn, they talk about mistakes in a positive way – people can learn.

While technology-enabled learning is important, it’s not as important as giving people mentors, sponsors, and experts to learn from – and giving them the time, rewards, and environment to learn at work.

Companies that embrace a learning culture can adapt, reorganize, move into new product areas, and grow in a much more sustainable way – and our research proves this.

„While technology-enabled learning is important, it’s not as important as giving people mentors, sponsors, and experts to learn from – and giving them the time, rewards, and environment to learn at work. “ Josh Bersin

What is the key to creating a successful L&D program that really impacts the company results?

I’ve written two books on corporate training and it’s not a simple process. The first step is to really diagnose the problem you’re trying to solve. Is your “sales training” program designed to help people sell? Upsell? Increase new sales? Or increase close rates? The clearer and more prescriptive you are in problem definition the easier it is to really identify the learning objectives and the learning gaps.

Second the designer must use what is now called “design thinking” (we used to call it performance consulting) to understand the learners’ work environment, existing skills, educational background, and managerial environment. A training program alone won’t solve a problem if it doesn’t reinforce and support the entire work environment.

This also means understanding what type of learning experience will really “grab” the employees and get them to pay attention.

And this also involves interviewing people in the role, to see what gaps exist.

Third, the designer must build a set of small, easy to absorb, highly interactive learning experiences, content, and interactivities that drive a learning outcome. This is the instructional design stage, and the designer should be up to date on the latest technologies and approaches. Right now micro-learning, virtual and augmented reality, chatbots and video are really exciting approaches. But often a face to face exercise, simulation, or project is needed.

If you do all this work, and test and iterate on your design, your program will really drive value. I always encourage L&D leaders to evaluate learning by asking employees “would you recommend this?” and “have you used this?” This kind of practical analysis helps you stay grounded in reality, and not spend too much time creating academic content that may not really drive the business result.

Recently you characterized Blackboard as a “Program Experience (Delivery) Platform.” Can you speak more about what that means and how Program Experience (Delivery) Platforms impact business and learning at organizations today?

Yes. Throughout the L&D market companies need platforms to help them design, build, implement and measure their training programs. The original LMS vision was to be this platform, but it really became a learning “management system” and not a true “learning system.”

Today, given the enormous growth in micro and macro forms of online learning, there is a need for a new set of platforms. These include systems that can manage content, administer traditional training, and programs that can bring together instructor facilitated programs (ie. leader-led or instructor-led courses) in high-fidelity programs like onboarding, sales training, customer service training, ethics, and other high consequence programs. Blackboard falls into this category. Where most education has a teacher, Blackboard’s platform provides a solution for training programs that involve an instructor, a subject-matter expert, or a mentor or coach. Many companies need this type of solution, and Blackboard’s specific design can be useful for many training applications.

What are micro and macro-learning and how can companies help employees identify what type of learning they need?

Every learning solution has macro and micro-topics. Fundamentals, background, and theory are always macro or longer-form topics. For example, if you want to learn how to become a Java programmer, you need fundamental education in data structures, syntax, language, and use of the various Java tools. Once you become a programmer and learn how to code, however, you may need lots of “add-on” education which teaches you special techniques, solutions to common problems, and small answers to typical questions in a micro format.

This blend is common in every type of learning. Macro learning is fundamental. Micro-learning is applications, answers to questions, and new applications.

How can companies select and apply technology in a way that truly engage workers in their learning programs?

As I mentioned above, the hot new topic is “learning experience design.” What will it really feel like to take this course or program? Will it fit into the flow of work? Will the learner enjoy it and feel compelled to complete it? Will the learner meet others and feel inspired to create a community from this course? Will it help them move their career goals forward? Will it provide the types of learning (auditory, lecture, example, simulation, virtual reality, video, project, etc.) that the learner enjoys and remembers? Will there be enough “spaced learning” to let the material sink in and really stick? All these questions are independent of the topic, and they represent the excitement and design opportunities for learning leaders to build something truly amazing for their companies.

An oil and gas company I know recently built a 3D virtual world to teach employees about geology, history of rock and sediments, and the different types of chemistry that go into the formation of fossil fuels. The experience is more fascinating than a movie, and extremely memorable. This type of program would be boring in a classroom and probably boring in traditional e-learning, but using virtual reality and 3D animation they made it compelling and very memorable.

You have mentioned in a lecture that companies tend to increasingly reward workers for skills and abilities, not position. At the same time, recent research indicates that people are looking for non-traditional, short-term degrees and certifications. They want to learn specific skills that help them grow and evolve at work. How can corporate learning contribute to that?

Every organization rewards people for their formal education, certificates, and certified skills. But beyond that, real performance is based on an individual’s true abilities, experiences, their natural gifts, and their desire and passion to solve problems. These “non-certifiable” areas of capabilities are what we try to assess in behavioral interviews, reference checks, and on-the-job assessments and exercises. Knowing that someone is “certified” in Sales or Engineering may mean nothing about their actual experience and capabilities in different domains of these fields.

We in L&D have to help recruiters vet this out, and our true learning challenge is to identify these “non-certified” capabilities and skills and teach people to focus on improving in these areas, giving people experiences to learn, and coaching and mentoring people with strong advice on how to improve.

Research indicates that individuals now are working harder and they are more distracted and less productive than ever. In a scenario where employees are overwhelmed by information, how can companies make continuous learning easier?

This just gets back to the topic of experience design and micro-learning. Can you give me “just enough” learning to solve my problem without forcing me to complete a course when I don’t need it? That’s the magic of a modern learning experience today.

What trends will define the future of corporate learning?

In summary, I would say that corporate learning is more important than ever. Today, we have a vast amount of new technology, terminology, and concepts to teach people. But at the same time we want to teach people “how to perform better” – as technical professionals, managers, leaders, or workers. These “performance learning” programs are always custom-designed and need to reflect “what works in your company.” So our job in L&D is to apply all the new technologies and design approaches to making our particular company perform better.

Finally, I would say that artificial intelligence, chatbots, video, and virtual and augmented reality will significantly change learning in the years ahead.

We now have algorithms that can observe what works best, communicate with us in human language, and show us how to do something that might be expensive or dangerous in the real world. I strongly urge L&D professionals to experiment with these new tools, many will become the most powerful technologies and solutions in the future. And of course don’t be afraid to invest in new platforms. Now is the time to look for new platforms that deliver the learning people want and aspire for in today’s “always-on” workplace.

Quick take: Expert on corporate learning, Josh Bersin helps companies prepare for the future of work by investing in their people.

Source: Priscila Zigunovas and Josh Bersin

Moore’s Law ist eine lahme Ente

Viele sind genervt vom ständigen Gerede über künstliche Intelligenz und maschinelles Lernen. Ein Hype sei das, übertrieben oder gar irrelevant. Zwei aktuelle Beispiele zeigen, wie falsch diese Annahme ist.

„Systeme maschinellen Lernens werden besser, je grösser sie werden, wenn sie auf schnellerer und stärker spezialisierter Hardware laufen, Zugang zu mehr Daten bekommen und verbesserte Algorithmen enthalten. All diese Verbesserungen finden jetzt statt, deshalb entwickelt sich maschinelles Lernen rasant.“

Andrew Mcafee und Erik Brynjolfsson, „Machine, Plattform, Crowd“ (2017)

Jedes Mal, wenn ich eine Kolumne schreibe, in der es um künstliche Intelligenz (KI) oder besser: um maschinelles Lernen geht, melden sich anschliessend Leute zu Wort, die das alles für einen Hype halten. Alles völlig übertrieben, etwas, das vorübergehen wird wie Laserdiscs oder Tamagotchis.

Oft verweisen sie auf ihre eigene langjährige Erfahrung mit Computern und erklären, dass das damals in den Siebzigern alles ja auch schon nicht geklappt hat. Andere erfinden Vergleiche, zum Beispiel: Das Gerede von der KI sei „wie der Atomhype der Fünfziger- und Sechzigerjahre“, schliesslich hätten wir bis heute keine Atomautos.

Ein gern vorgebrachtes Argument ist auch, dass sich Moores Gesetz, die permanente Verdoppelung der Leistungsfähigkeit von Computer- und Speicherchips seit den Sechzigerjahren, seinem Ende zuneigt. Die Ära des exponentiellen Wachstums in diesem Bereich ist vermutlich in der Tat vorbei. Ich habe hier neulich schon einmal behauptet, dass die exponentielle Entwicklung trotzdem weitergehen wird.

Faktor 300’000

Jetzt hat jemand nachgerechnet, was ich nur behaupten konnte: Wie schnell KI-Systeme flotter werden nämlich. Konkret geht es um die Menge an Rechenleistung, mit der lernende Systeme arbeiten, gemessen in Petaflop pro Sekunde. Ein Petaflop sind 10 hoch 15 Operationen, etwa in einem künstlichen neuronalen Netz.

Die Informatiker Dario Amodei und Danny Hernandez haben nun ermittelt, wie viele Petaflop/s in einer Reihe grosser KI-Projekte seit 2012 berechnet wurden. Die beiden arbeiten für OpenAI, ein Non-Profit-Forschungsunternehmen, das unter anderem der bekanntlich KI-besorgte Elon Musk aus der Taufe gehoben hat.

Das Ergebnis der Studie ist für die Zeit von 2012 bis 2017 eine Steigerung um den Faktor 300’000. Oder, wenn man es als Funktion ausdrücken möchte: Die Masszahl für die eingesetzte Rechenleistung verdoppelte sich in diesem Zeitraum im Schnitt alle dreieinhalb Monate. Dagegen ist Moore’s Law eine lahme Ente.

Alle dreieinhalb Monate verdoppelt

Das hat unter anderem damit zu tun, dass sehr viel Geld in diese Technologie gesteckt wird und deshalb mehr Kapazität zum Einsatz kommen kann – aber nicht nur. Hernandez und Amodei nennen mehrere Methoden, die KI-Forscher in den vergangenen Jahren entwickelt haben, um mehr Flop pro Sekunde aus der Hardware herauszuholen – und die Tatsache, dass es mittlerweile speziell für neuronale Netze entwickelte Chips gibt, die für das massive parallele Rechnen optimiert sind, das diese Systeme brauchen. Google selbst baut sogenannte Tensor Processing Units, TPUs, die vielerorts mittlerweile die Grafikkarten (GPUs) ersetzen, die jahrelang Supercomputer zu immer neuen Höchstleistungen angetrieben haben.

Noch mal kurz und verständlich formuliert: Die neuen KI-Systeme verdoppeln im Moment im Schnitt alle dreieinhalb Monate ihr Tempo. Und zwar nicht nur, weil so viel Geld in sie gesteckt wird, sondern auch, weil ihre Schöpfer ständig neue Tricks erfinden und anwenden.

Der automatische Gurkenbeurteiler

Nun könnte man, und auch das passiert in KI-Diskussionen immer wieder, einwenden, dass das trotzdem alles Spielereien sind: „Sich selbst Go beizubringen, ist nicht so wahnsinnig schwer“, schrieb kürzlich jemand ins SPIEGEL-ONLINE-Forum. Natürlich ist das erstens Quatsch – kein Mensch hat sich je selbst beibringen können, besser zu spielen als Googles AlphaGo Zero, und das wird auch nie mehr passieren.

Zweitens ist es ein unsinniges Argument. „Die leistungsfähigsten maschinell lernenden Systeme von heute, die so unterschiedliche Aufgaben erfüllen wie Energiemanagement in Rechenzentren, Spracherkennung, Bilderkennung und automatische Übersetzung, ähneln einander in bemerkenswerter Weise“, schreiben die MIT-Ökonomen Andrew Mcafee und Erik Brynjolfsson in ihrem eingangs zitierten Buch.

Die beiden erzählen darin unter anderem die lustige Geschichte eines japanischen Ingenieurs, der die Basistechnologie von Googles erster Go-Maschine AlphaGo benutzte, um seiner Mutter lästige Arbeit zu ersparen. Seine Eltern betreiben eine Gurkenfarm, und die Sortierung der Erträge in neun Qualitätsstufen fiel ausschliesslich der Mutter des Ingenieurs zu. Also baute ihr Sohn mithilfe schon 2016 frei verfügbarer KI-Methoden einen automatischen Gurkenbeurteiler.

Pillen aus dem Rechner

Auch das mag mancher noch albern oder irrelevant finden. Also noch ein aktuelleres und in meinen Augen wesentlich schlagkräftigeres Beispiel: Vor einigen Wochen erschien in „Nature“ eine meiner Wahrnehmung nach von der Laienöffentlichkeit vollständig übersehene Studie. Ich persönlich habe nur mitbekommen, dass sie erschienen ist, weil ich mit einem der Autoren in einem völlig anderen Forschungsprojekt zusammenarbeiten darf.

Marwin Segler, Mike Preuss und Mark Waller berichten darin, wie sie gemeinsam ein AlphaGo durchaus ähnliches System konstruiert haben, das in einem chemischen Verfahren namens Retrosynthese Ergebnisse erzielt, die Fachleute nicht von menschengemachten Lösungen unterscheiden können.

Retrosynthese ist keine theoretische Fingerübung. Es geht darin darum, Wege zu finden, wie man neuartige Moleküle aus kommerziell oder anderweitig verfügbaren Bausteinen zusammensetzen kann. Ihr Erfinder Elias Corey bekam für die Entwicklung der Retrosynthese 1990 den Nobelpreis für Chemie. Es handelt sich um ein mühseliges, aber ungemein nützliches Verfahren. Man benutzt es zum Beispiel, um neue Medikamente zu entwickeln.

Das KI-System, das solche Molekülbaupläne entwerfen kann, ist noch nicht perfekt. Es produziert aber schon jetzt Resultate, die Fachleute für organische Chemie in Doppelblindtests nicht von aus der Literatur bekannten Lösungen unterscheiden können.

Maschinen würden bald „als wertvolle Assistenten akzeptiert werden“, schreiben die Autoren, bei einem Verfahren „das eine zentrale Rolle dabei spielt, die drängendsten Probleme der Menschheit in Landwirtschaft, Medizin und Materialwissenschaft zu lösen“.

Um es anders zu formulieren: Viele von uns werden in naher Zukunft vermutlich Medikamente schlucken, deren Bauplan eine Maschine entworfen hat. Das ist dann doch ein bisschen mehr als Go und Gurkensortieren.

Source: Christian Stöcker

 

KI Künstliche Inteligenz: Sicher durch das digitale Labyrinth

Wie können Lösungsanbieter jedem Kunden rund um die Uhr personalisierten Support bieten? Die Antwort lautet: durch den Einsatz von künstlicher Intelligenz (KI).

Digitale Transformation ist eine entscheidende Voraussetzung, um in der heutigen Geschäftswelt wettbewerbsfähig zu bleiben – an dieser Tatsache kommt kein Unternehmen mehr vorbei. Vielen von ihnen kommt jedoch der Weg zum digitalen Unternehmen einem Irrgarten gleich, in dem sie erst die richtige Richtung finden müssen.

Cloud-Lösungen bieten heute die Möglichkeit, Anwendungen miteinander zu verbinden. Sie lassen sich flexibel nutzen sowie skalieren und unterstützen auf diese Weise die individuellen Anforderungen von Unternehmen, die sich immer wieder ändern. Zwar hat diese nahtlose Innovation vielen Unternehmen den Weg in die digitale Transformation geebnet, doch führt auch dieser nicht immer geradeaus.

Hier kommt der Kunden-Support mit seinen Services ins Spiel – zumindest wäre dies seine Aufgabe. Denn trotz der zunehmenden Vielfalt von Lösungen setzen zu viele Anbieter beim Kunden-Support nach wie vor auf einen pauschalen Ansatz. Doch jedes Unternehmen nutzt individuelle digitale Systeme und Prozesse, die auch einen individuellen Support erfordern.

Künstliche Intelligenz, ein „Mitglied“ des Support-Teams

Künstliche Intelligenz kann die Arbeit von Support-Spezialisten unterstützen und das Team als zuverlässiges, technisch versiertes „Mitglied“ ergänzen, indem sie durch die Verarbeitung und Auswertung grosser Datenmengen Empfehlungen für die optimale Lösung unterbreitet.

Beim Bearbeiten einer Support-Anfrage verirren sich Experten mitunter ebenso im Labyrinth wie die Kunden selbst. Da Lösungsanbieter viele Tausend Produkte gleichzeitig unterstützen müssen, gibt es dazu auch Unmengen von Daten, aus denen sich wiederum Millionen von möglichen Lösungen ableiten lassen. Hinzu kommt, dass Kunden so vielfältig sind wie die von ihnen eingesetzten Lösungen und deshalb ein und dasselbe Problem von verschiedenen Kunden ganz unterschiedlich beschrieben wird.

Um dem Team vor diesem Hintergrund den richtigen Weg zur Problemlösung zu weisen, kann künstliche Intelligenz zwischen den Zeilen von Support-Anfragen lesen und dafür sorgen, dass den Support-Spezialisten sofort die notwendigen Informationen zur Verfügung stehen. Durch diesen schnellen Zugriff auf Daten sind Support-Mitarbeiter in der Lage, Probleme doppelt so schnell zu beheben und Anfragen wesentlich effizienter und genauer zu bearbeiten.

Ein präventiver Support-Ansatz

Durch die vielen Tausend Support-Meldungen täglich entstehen umfangreiche Daten, die Aufschluss über die Häufigkeit bestimmter Probleme geben und auch darüber, in welcher Form sie auftreten und wie sie sich am besten lösen lassen. Die Support-Abteilung würde Jahrzehnte brauchen, aussagekräftige Informationen aus diesen Daten abzuleiten. Künstliche Intelligenz hingegen ist in der Lage, komplexe IT-Landschaften eigenständig zu überwachen und die Informationen, die zur Behebung von Problemen mit einer bestimmten Lösung relevant sind, auszulesen.

Durch Analyse der bereits vorhandenen Daten kann künstliche Intelligenz häufig auftretende Probleme aufgreifen, sodass der Softwareanbieter Lösungsstrategien entwickeln und bereitstellen kann. SAP stellt beispielsweise eine umfassende Bibliothek mit Artikeln in der Wissensdatenbank SAP Knowledge Base zur Verfügung, die Anleitungen zur Lösung bekannter Probleme enthalten. Der Einsatz von künstlicher Intelligenz auf den Backend-Systemen ermöglicht eine einfache Zuordnung und stellt sicher, dass die empfohlenen Artikel zur jeweiligen Lösung passen und auf die Anforderungen der Kunden zugeschnitten sind.

Oft treten bestimmte Sachverhalte immer wieder auf, weshalb ein präventiver Support-Ansatz für den langfristigen Erfolg entscheidend ist. Mithilfe künstlicher Intelligenz lässt sich erkennen, ob ein Problem auf kurze Sicht noch weitere Kunden betreffen wird, sodass entsprechende Gegenmassnahmen ergriffen werden können. Ebenfalls gefährdete Kunden können dann benachrichtigt werden, noch bevor das Problem tatsächlich auftritt. Es können ausserdem die erforderlichen Änderungen an der Lösung vorgenommen werden, damit sich die Probleme in Zukunft vermeiden lassen.

Der zunehmende Einsatz von künstlicher Intelligenz im Support wird dazu führen, dass die Zahl der Vorfälle deutlich abnimmt und auch für die Problembehebung wesentlich weniger Zeit benötigt wird. Noch bevor ein Anwender seine Support-Meldung vollständig eingegeben hat, wird künstliche Intelligenz auf der Grundlage der verwendeten Begriffe sowie bisheriger Support-Anfragen dieses Anwenders und anderer Kunden eine geeignete Lösung vorschlagen. Mit diesen neuen Möglichkeiten sind Unternehmen durch den Einsatz von künstlicher Intelligenz bestens gerüstet, ihren Weg aus dem digitalen Labyrinth zu finden und ihre Support-Prozesse zu optimieren.

Source: Jens Trotzky

Maschinelles Lernen (ML) wird Standard

Das maschinelle Lernen ist aus diversen Bereichen schon nicht mehr wegzudenken. Die Systeme sortieren Werbenachrichten aus oder beantworten automatisch Anwenderfragen. Nun schicken sich die Computer an, dem Menschen noch mehr manuelle Geschäftstätigkeiten abzunehmen. Das Potenzial scheint unerschöpflich.

 

Als Netflix 2013 «House of Cards» lancierte, entwickelte sich die Serie schnell zum meist heruntergeladenen Content des Unternehmens – ein Ergebnis, das die Verantwortlichen bei Netflix in keiner Weise überraschte. Sie durchforsteten einen riesigen Daten-Pool zu den Konsumgewohnheiten ihrer Abonnenten und stellten fest, dass «House of Cards» sehr gute Chancen hatte, sich zu einem Hit zu entwickeln, noch bevor sie die Serie einkauften.

Netflix hat sich bei diesem Entscheid nicht von der Intuition leiten lassen, sondern auf maschinelles Lernen (ML) gesetzt. Der Streamingdienstleister vertraute auf die Fähigkeit von Maschinen, mithilfe von Algorithmen selbstständig Muster in unstrukturierten Datenbeständen wie Bildern, Texten oder gesprochener Sprache zu erkennen, Vorhersagen zu treffen oder Daten zu klassifizieren, ohne explizit dafür programmiert zu sein. Die Möglichkeiten von maschinellem Lernen beschränken sich allerdings nicht darauf, den nächsten TV-Blockbuster zu identifizieren. Eine Reihe von Anwendungen, die heute als selbstverständlich gelten, basieren auf ML: Das Filtern von Spam etwa oder die künstlichen Stimmen, die mit uns aus dem Smartphone oder anderen digitalen Endgeräten sprechen.

Selbstlernende Algorithmen

Diese Beispiele sind zwar nützlich, aber nur einfache Vorboten im Hinblick auf das Potenzial von ML. Eine Vielzahl von Geschäftsprozessen wird heute von starren, softwarebasierten Regeln gesteuert. Dieser Ansatz ist jedoch von beschränktem Nutzen, wenn es um die Bewältigung komplexer Prozesse geht. Zudem verlangen diese Prozesse häufig die Intervention von Menschen für repetitive Aufgaben und manuelle Eingriffe. Rechnungen und Spesen auf ihre Richtigkeit zu prüfen, gehört ebenso dazu wie Dutzende oder Hunderte von Lebensläufe zu prüfen, um eine offene Stelle zu besetzen.

Selbstlernende Algorithmen können solche Aufgaben übernehmen und darüber hinaus Lösungen aufzeigen, die bisher verborgen blieben. Sie können das Recruiting verbessern, den Kundendienst personalisieren, Betrügereien aufdecken und die Qualitätskontrolle in der Fertigung übernehmen. Die Vielzahl an möglichen Anwendungsfällen und der damit verbundene Nutzen solcher Lösungen machen ML zu einer der zentralen Disziplinen im Bereich der künstlichen Intelligenz (KI). Daher erstaunt es nicht, dass eine grosse Mehrheit von Managern mehr technische Intelligenz im Geschäftsalltag begrüsst, wie eine Befragung der Harvard Business Review unter rund 1800 Führungskräften ergeben hat. Sie können sich freuen: Maschinelles Lernen ist nicht mehr nur ein Thema aus Scifi-Romanen, sondern reale Praxis in der heutigen Geschäftswelt.

Intelligenz für die Buchhaltung

In der Buchhaltung sind Lösungen, die maschinelles Lernen nutzen, aktuell in der Lage, Überweisungen aufgrund historischer Daten automatisch der richtigen Rechnung zuzuordnen. Dabei merkt sich die Lösung, welche Schritte der Bearbeiter nun unternimmt, um die Überweisung richtig zuzuordnen. Auf diese Weise lernen solche Lösungen und können durch einen zunehmenden Automatisierungsgrad Kosten senken.

Ein weites Feld für den Einsatz von ML lässt sich im Marketing erschliessen. Man denke nur an all die Datenströme, die den Vermarktungsorganisationen zur Verfügung stehen: POS-Transaktionen, Onlinekäufe, Klickraten (CTR), Browsing-Verhalten, Interaktionen in den sozialen Medien, Smartphone-Nutzung, Geolokalisierung und mehr. Mithilfe von maschinellem Lernen können Marketers diese Daten auswerten, um Kunden mit höherer Granularität zu kategorisieren und zu segmentieren oder Kampagnen aufzusetzen, die Kundenreaktionen genauer vorhersagen.

“Maschinelles Lernen ist nicht mehr Scifi, sondern reale Praxis in der heutigen Geschäftswelt„

Source: Markus Noga, Head of Machine Learning, SAP

Sponsoring und Detailhandel

Ein zusätzlicher Anwendungsbereich im Marketing ist das Sponsoring. Marketingabteilungen müssen ihre finanziellen Engagements immer mehr mit soliden Angaben zum ROI unterlegen können. Hier kommen Lösungen auf ML-Basis zum Zug, die den Firmen helfen, den Einfluss ihrer Sponsoring-Massnahmen zu ermitteln. Dazu messen sie beispielsweise, wie oft und wie lange das Unternehmenslogo bei Live-Übertragungen einer Sportveranstaltung oder eines Musikfestivals auf dem Bildschirm zu sehen ist. Was bisher mühsam manuell ermittelt werden musste, übernehmen nun Algorithmen. Sie identifizieren quasi in Echtzeit die Grösse der Logos, die Position im Bild und die Dauer der Darstellung. In Verbindung mit Vergleichsdaten anderer Marken und definierten Kennzahlen lässt sich ermitteln, ob das Sponsoring für das Unternehmen lohnenswert ist.

“Im Handel können intelligente Systeme die Farbtrends des nächsten Sommers ermitteln und Kunden schon jetzt beraten„

Source: Markus Noga, Head of Machine Learning, SAP

Weitere Einsatzmöglichkeiten von ML bieten sich im Personalwesen, sei es, um Stellen schneller mit den passenden Kandidaten zu besetzen oder um den Mitarbeitern mit Empfehlungen für die Weiterbildung und zum Aufbau von Expertise bei ihrer Karriereplanung behilflich zu sein. Ebenfalls im Blick haben die Entwicklungsteams den Detailhandel: Hier können intelligente Systeme die Farbtrends des Sommers ermitteln und der Kundschaft entsprechende Angebote unterbreiten.

Demokratisierungsschub

Angesichts der schier unbegrenzten Einsatzmöglichkeiten von maschinellem Lernen stellt sich die Frage, was der Markt derzeit tatsächlich zu bieten hat. An der Spitze der Pyramide befinden sich eigenständige ML-Produkte für dedizierte Anwendungsbereiche. Zusätzlich hält der Markt Plattformen bereit, die sich bestens als technische Grundlage eignen, um ML-Logik mithilfe von bereits trainierten Algorithmen in eigene Lösungen einzubauen. Unternehmen können diese Service-APIs erwerben und damit eigene Anwendungen «intelligent» machen.

Solche gebrauchsfertigen Services bescheren dem maschinellen Lernen einen Demokratisierungsschub, vorausgesetzt, sie sind via Standardschnittstellen einfach zugänglich. Angesichts der Anwendungsbreite von Machine Learning wird ein «One size fits all»-Ansatz allerdings kaum jedes Bedürfnis abdecken können. Verfügbare Modelle für die Bilderkennung beispielsweise sind in der Lage, eine Vielzahl von Objekten – von Autos bis Menschen – zu kategorisieren. Wenn aber ein Autohändler auf visuelles Shopping setzen möchte, muss er dem Bilderkennungsservice beibringen, zwischen den einzelnen Automodellen zu unterscheiden. Dies ist möglich, indem er den Service mit spezifischen Daten «schult».

Auch das bietet der Markt – und zwar als intuitiven Prozess, ohne Fachkenntnisse in Data Science, ohne komplizierte Betriebsmittel und ohne teuren Investitionsaufwand. Massgeschneiderte Machine-Learning-Intelligenz ist kein Vorrecht von Weltkonzernen. Jedes Unternehmen kann bereits heute davon profitieren.

Kriterien für die Anwendung von Machine Learning

1. Das grösste Potenzial für maschinelles Lernen schlummert in der Automatisierung volumenstarker Aufgaben mit komplexen Algorithmen und grossen Mengen an unstrukturierten Daten.

2. Maschinelles Lernen funktioniert am besten bei spezifischen, klar definierten Aufgaben, bei denen der gewünschte Output und der relevante Input konkret benannt werden können.

3. Maschinelles Lernen erfordert grosse Datenmengen. Es braucht Beispiele in ausreichender Anzahl, damit die Maschine aussagekräftige Annäherungen an die gewünschten Entscheide lernen kann.

4. Die Daten, die als Lernbasis dienen, müssen wesentliche Unterschiede enthalten (zum Beispiel bei den Kundeneigenschaften), damit der Algorithmus seine Mission erfüllen kann.

Source: Markus Noga, Head of Machine Learning, SAP

Künstliche Intelligenz: Welche Ideen sich rechnen

Lernfähige Systeme erhöhen die Effizienz in den Unternehmen, machen Kunden zufriedener und Produkte besser.

Welche Anwendungsszenarien Sinn machen.

„Maschinelles Lernen“ ist das Modewort schlechthin. „Doch ein gutes Anwendungsszenario dafür zu finden ist gar nicht so einfach“, bemerkt Klaus Schimmer, Director Business Development Machine Learning im SAP Innovation Center Network in Walldorf. Manchmal stellt sich bei genauerem Hinsehen dann doch heraus, dass es sich „nur“ um ein Prozessthema handelt oder regelbasiert über ein SAP-Modul gelöst werden kann und maschinelles Lernen gar nicht nötig ist. Künstliche Intelligenz, so definiert das IT-Beratungshaus Capgemini in seiner jüngsten Studie „Turning AI into Concrete Value“, umfasst Technologien, die Daten dazu nutzen, ständig dazu zu lernen. Dazu gehören etwa virtuelle Agenten, die in Interaktion mit Menschen treten können, Bild- und Texterkennung, Algorithmen, die als neuronales Netz dem Gehirn nachgeahmt sind sowie autonome Agenten, die eigenmächtig Entscheidungen treffen können. „Machine Learning ist die Technologie, die künstliche Intelligenz möglich macht. Mit dieser Technologie werden wir in Zukunft nicht nur bei einfachen und sich wiederholenden Tätigkeiten unterstützen können, sondern vor allem auch Innovation ermöglichen. Ziel für uns bei SAP ist es, das intelligente Unternehmen zu erschaffen. Fast so, wie ein selbst fahrendes Auto“, sagt Schimmer. Für den KI-Experten ist klar: „Wenn die Intelligenz Sinn macht, ist der Effekt verglichen mit herkömmlicher Software enorm“.

“Ziel von SAP ist es, das intelligente Unternehmen zu erschaffen. Fast so, wie ein selbst fahrendes Auto.”

Halbakustisch oder elektrisch? Bilderkennung für den Gitarrencheck

Wenn etwa Hobbygitarrist Schimmer dem Machine-Learning-Service aus dem SAP-Leonardo-Portfolio beibringt, was eine halbakustische und was eine elektrische Gitarre ist, klassifiziert die Bilderkennung nach kurzer Zeit die eine Gitarre zu 70 Prozent als elektrisch und 30 Prozent als akustisch sowie die andere eindeutig mit einer Übereinstimmung von mehr als 90 Prozent als elektrisches Instrument. Diese Methode macht sich etwa ein Schmuckhersteller zunutze. Der Kunde von SAP verkauft jährlich 40.000 „Glasprodukte“, an denen hin und wieder etwas abbricht. Im Servicefall reicht nun das Einsenden eines Fotos, um das Produkt zu identifizieren und so die Reparatur enorm zu beschleunigen. Das spart in der Firma Kosten und die Kunden sind zufriedener.

Capgemini: Effizienz, Mitarbeiterproduktivität und Kundenzufriedenheit steigen durch KI

Dieses Beispiel zeigt, welche praktischen Vorteile im Einsatz der künstlichen Intelligenz liegen. Gefragt nach dem Nutzen von künstlicher Intelligenz in den Unternehmen sahen 78 Prozent der knapp 1.000 von Capgemini weltweit Befragten in der zunehmenden Effizienz den grössten Vorteil, gefolgt von einer Unterstützung der Mitarbeiterproduktivität (77 Prozent) und verringerten Betriebskosten durch verbesserte Prozesse (75 Prozent). Zudem erwarten die Experten eine bessere Beziehung zu ihren Kunden: 73 Prozent sind davon überzeugt, künftig zufriedenere Kunden zu haben, 72 Prozent rechnen mit weniger Beschwerden und 66 Prozent gehen davon aus, dass sich weniger Kunden künftig einen anderen Anbieter suchen – die Abwanderungsquote also sinkt.

Für den SAP-Experten Schimmer wird maschinelles Lernen dann interessant, „wenn es dazu führt, dass die Fehlerrate der Maschine mindestens so gut ist wie beim Menschen“. Gerade bei manuellen Prozessen, zum Beispiel in der Buchhaltung, ist der „Faktor Mensch“ immer noch eine nicht unerhebliche Fehlerquelle. „Hier kann Automation nicht nur Kosten sparen, sondern sogar die Qualität erhöhen“, so Schimmer. Heute ist es noch so, dass Mitarbeiter in der Buchhaltung seitenweise sogenannte Zahlungsavise abtippen und manuell Rechnungen zuordnen müssen. In Zukunft ermöglicht es die Intelligenz von SAP Leonardo Machine Learning, diese Dokumente automatisch zu erfassen, intelligent zu interpretieren und im elektronischen Format zur Weiterverarbeitung bereit zu stellen. „Was vorher manuell oder regelbasiert ablief, ist plötzlich intelligent“, meint Schimmer, der davon ausgeht, dass immer mehr dieser „Mach-das-Unmögliche-möglich-Use-Cases“ entstehen werden, die einerseits geschäftliche Daten verarbeiten, andererseits aber auch Video-, Text-, Bild- oder Social-Media-Daten mit einbeziehen.

McKinsey: Das bringen die acht wichtigsten Anwendungsszenarien für künstliche Intelligenz

Das Beratungshaus McKinsey hat sich für die Studie „Smartening up with Artificial Intelligence“ acht als besonders relevant identifizierte Anwendungsszenarien hinsichtlich ihres Potenzials angeschaut:

1. Automation von Business-Support-Funktionen: 30 Prozent der Business-Support-Funktionen werden künftig von künstlicher Intelligenz profitieren. Für den IT-Help-Desk liegt das Automatisierungspotenzial bei 90 Prozent.

2. Autonome Fahrzeuge: Im Jahr 2030 werden zehn bis 15 Prozent der verkauften Neuwagen autonom fahren können. Jährlich ist mit einer Wachstumsrate von 40 Prozent zu rechnen.

3. Vorausschauende Wartung: Die Wartungskosten sinken durch den Einsatz der Vorhersagemöglichkeiten um bis zu 15 Prozent. Inspektionskosten sinken um 25 Prozent. Der Ausfall von Maschinen kann um 20 Prozent gesenkt werden.

4. Kollaborative und kontext-sensitive Roboter: Die Produktivität in der Fertigung nimmt um bis zu 20 Prozent zu. Zudem sind geringere Kosten für die Entwicklung zu erwarten sowie Investitionsausgaben (CAPEX) sinken, da abgesperrte Bereiche, die ausschliesslich für Roboter nötig waren, wegfallen.

5. Ausschuss in der Fertigung reduzieren: 30 Prozent weniger Bauteile werden qualitativ unzureichend gefertigt. Dazu trägt eine KI-basierte Qualitätskontrolle und eine Fehler-Ursachen-Analyse bei.

6. Automatisierte Qualitätstests: Die Produktivität erhöht sich um 50 Prozent, sofern eine KI-basierte Qualitätsüberprüfung etwa über den Einsatz von Kamerasystemen genutzt wird. Bis zu 90 Prozent mehr defekte Bauteile können so entdeckt werden.

7. KI-unterstützes Lieferkettenmanagement: Durch präzise Bedarfsprognosen und flexibles Anpassen von Routen kommt es um 50 Prozent weniger zu falschen Vorhersagen. Es passiert um 65 Prozent seltener, dass Verkäufe nicht zustande kommen, da Produkte nicht mehr verfügbar sind. Zudem lässt sich 50 Prozent der Lagerfläche einsparen.

8. Bessere Performance für Projekte aus der Forschung und Entwicklung: Durch Verbesserung der Kommunikation und Interaktion ist mit einer erhöhten Produktivität von 10 bis 15 Prozent zu rechnen. Der Time-to-Market ist um 10 Prozent beschleunigt.

SAP Leonardo: Start-up-Mentalität für den Einstieg – mit und ohne maschinelles Lernen

Das Spektrum an vielversprechenden Anwendungsszenarien zeigt das Potenzial der künstlichen Intelligenz, das künftig zudem mit anderen Technologien verknüpft werden kann. Ein komplettes SAP-Leonardo-End-to-End-Szenario könnte beispielsweise so aussehen: Eine mit Kamera ausgestattete Drohne übernimmt die Überprüfung von grossen Maschinen, bei gefundenen angerosteten Teilen recherchiert SAP Leonardo autonom im digitalen Zwilling der Maschine, sucht über Bilderkennung das betreffende Bauteil heraus, gibt einen intelligenten Bestellvorschlag über SAP Ariba ab, tauscht eine 3-D-Drucklizenz – gesichert per Blockchain – mit dem Lieferanten aus und lässt das Bauteil erstellen. Hier spielen Machine Learning und andere technische Lösungen aus dem SAP-Leonardo-Portfolio wie IoT, Analytics und die Blockchain-Technologie ineinander. Um entsprechende Anwendungsszenarien im Unternehmen mehr und mehr zu etablieren, ist allerdings zunächst eine Start-up-Mentalität gefragt, mit der an entsprechende Projekte herangegangen werden sollte: „Kunden müssen ihre Erfahrungen machen, kreativ sein und auch mal Risiken eingehen. Auch wenn vielleicht nicht jedes Projekt gelingt – bei Erfolg ist die Wirkung durchschlagend“, ist Klaus Schimmer überzeugt.

Source: Andreas Schmitz, SAP

Amazon will den Sprachdienst Alexa in Büros bringen und Sekretäre überflüssig machen. Schweizer Firmen sind nicht abgeneigt

Bisher hat sich Amazons Sprachdienst Alexa vor allem in Privathaushalten eingenistet. Die Sprachröhre steht im Wohn- oder Schlafzimmer und informiert über das Wetter oder schaltet den neuesten Film ein. Inzwischen sollen alleine in deutschen Haushalten eine halbe Million Alexa-Geräte herumstehen. Offizielle Zahlen gibt das Unternehmen nicht heraus.

Doch die Sphäre der Privatwohnungen ist Amazon nicht genug. Bei einer Entwicklerkonferenz in Las Vegas Ende November hat das Unternehmen Alexa for Business vorgestellt: einen Dienst für das Büro, der klassische Sekretariatsaufgaben übernehmen soll. Das heisst, Büromaterial nachbestellen, Konferenzräume buchen, Telefonkonferenzen steuern und Meetings vereinbaren: klassische Aufgaben, die bisher in den  Vorzimmern der Führungskräfte übernommen werden.

Alexa könnte sich also durch die neuen Fähigkeiten zum Killer für Sekretariatsjobs entwickeln. Doch nutzen Schweizer Firmen den neuen Dienst schon? Und wie stellt man Sekretärinnen und Sekretäre darauf ein, dass ihre Aufgaben in Kürze von einem Amazon-Gerät übernommen werden könnten?

In den USA ist Amazon bereits eine Reihe von Partnerschaften eingegangen, die die Befehle von Büroarbeitern erleichtern sollen. Darunter sind Cloud-Anbieter wie Salesforce oder Monitoringtools wie Splunk. Firmen sollen aber auch selbst Anwendungen entwickeln können, die auf die Bedürfnisse in den Büros angepasst sind und Befehlsempfängerin Alexa die Arbeit erleichtern.

So ähnlich macht es etwa die Schweizerische Post. Zwar ist Alexa noch nicht Teil der offiziellen Unternehmenspolitik und noch nicht verpflichtend in den Büros. Aber am Empfang des Postgebäudes in Bern steht Amazons Alexa und gibt den Besuchern Informationen, welche Sitzungsräume besetzt sind und welche nicht. Eine klassische Aufgabe für Sekretariats- oder Empfangsangestellte, die damit überflüssig werden. Dafür hat die Post Alexa mit der Software Locatee kurzgeschlossen, die die Arbeitsplatzbelegung im Berner Sitz der Post in Echtzeit analysiert und die Daten an das Amazon-Gerät weiterleitet.

Verbreitung in der Schweiz

Bei Raiffeisen steht Amazons Alexa bisher nur im hauseigenen Innovationslabor RAI Lab. Raiffeisen-Sprecherin Corinne Schöb sagt: «Wir sind überzeugt, dass sich Assistenten mittels künstlicher Intelligenz mehr und mehr entwickeln werden und auch grosse Unterstützung bieten. Es wird aber noch einige Zeit dauern, bis sie breite Verwendung im Büroalltag finden.» Auf privaten Geräten, die auch im geschäftlichen Kontext genützt würden, werde aber bereits der Sprachdienst Cortana von Windows eingesetzt, um beispielsweise Termine zu erfassen. Bei der Zurich Versicherung hingegen ist Alexa «noch kein Thema».

Durch Geräte wie Alexa sei eine Produktivitätssteigerung durchaus möglich, erklärt Miriam Nido vom Institut für Arbeits- und Organisationsforschung in Zürich. Durch die Anwendungen «erweitern sich Möglichkeiten, Arbeitssysteme werden von funktionierenden zu lernenden Systemen». Problematisch bei der Verwendung der Angebote seien offene Fragen bezüglich Datenschutz. Immer wieder wird Kritik an der «Datenkrake» Alexa laut. Die weitere Verwendung von Informationen durch Amazon bleibt im Dunkeln. Zudem könnte die häufige Verwendung von Sprachassistenten im Büro zu Störungen der anderen Mitarbeiter führen. «Handlungsoptionen werden dann natürlich durch Amazon gesteuert, es ist vorprogrammiert, was wir als Entscheidungsgrundlage verwenden», so Nido. Steuerungsmöglichkeiten des Menschen würden verloren gehen. Und natürlich ergäbe sich die Gefahr, dass durch Dienste wie Amazons Alexa im Büro Arbeitsplätze mit geringerem Qualifizierungsgrad und Routinetätigkeiten verschwinden würden. Viele Mitarbeiter könnten zudem bei der Einführung des Tools überfordert sein und einen Druck empfinden, es zu verwenden, um nicht als unmodern angesehen zu werden.

Schwierige Implementierung

Firmen, die Funktionen auf automatisierte Sprachsysteme auslagern wollen, sollten ein sorgfältiges Veränderungsmanagement betreiben. Ein Pilotprojekt etwa, bei dem zukünftige Nutzer an das Tool herangeführt werden und die Veränderung der Rolle des Menschen im Umfeld des Geräts angesprochen wird. «Die menschliche Kontrolle über automatisierte Prozesse sollte bewahrt bleiben», so die Organisationsexpertin. Der automatische Prozess muss von Mitarbeitern verstanden werden und im besten Fall auch beeinflussbar sein.

Firmen hilft beim Implementierungsprozess solcher neuen Tools das Dreiphasenmodell von Kurt Lewin. Dieses Modell besagt, dass Veränderungen in einem ersten Schritt immer eines Aufbrechens bestehender Routinen bedürfen. In einem zweiten Schritt müssen die gewünschten zukünftigen Routinen und Strukturen eingeführt und erprobt werden, bevor schliesslich in einem dritten Schritt die neuen Routinen und Strukturen gefestigt und im Unternehmen verankert werden können.

Im Idealfall gibt es in einer Firma auch das Modell der differenziellen Arbeitsgestaltung. Damit ist gemeint, dass verschiedene Arbeitsstrukturen bestehen, zwischen denen Beschäftigte wählen können. Nicht für alle Mitarbeiter oder Abteilungen sind beispielsweise die gleichen Tools geeignet. Anderseits sind Firmen unter Druck, nicht gleich mehrere Systeme parallel laufen zu lassen und so den Wildwuchs von Sprachassistenten zu befördern.

Hilfreich für Firmen könnte dabei die Zusammenarbeit von mehreren Assistenten, etwa Amazons Alexa und Microsofts Cortana, sein. Nähern sich die Assistenten an und bilden nicht Informationssilos, die nicht miteinander kommunizieren, steht der Implementierung kaum mehr etwas im Weg.

Bei der Post in Bern gibt Alexa am Empfang Auskunft über die Belegung der Sitzungszimmer.

Wenn sich Sprachassistenten nicht gegenseitig verstehen, droht ein Organisationschaos.

Source: Stefan Mair, Haldelszeitung

Google’s new artificial intelligence talks like you, me and everyone

The system first creates a spectrogram of the text, a visual representation of how the speech should sound.

San Francisco: In a major step towards its „AI first“ dream, Google has developed a text-to-speech artificial intelligence (AI) system that will confuse you with its human-like articulation.

The tech giant’s text-to-speech system called „Tacotron 2“ delivers an AI-generated computer speech that almost matches with the voice of humans, technology news website Inc.com reported.

At Google I/O 2017 developers conference, company’s Indian-origin CEO Sundar Pichai announced that the internet giant was shifting its focus from mobile-first to „AI first“ and launched several products and features, including Google Lens, Smart Reply for Gmail and Google Assistant for iPhone.

According to a paper published in arXiv.org, the system first creates a spectrogram of the text, a visual representation of how the speech should sound.

That image is put through Google’s existing WaveNet algorithm, which uses the image and brings AI closer than ever to indiscernibly mimicking human speech. The algorithm can easily learn different voices and even generates artificial breaths.

„Our model achieves a mean opinion score (MOS) of 4.53 comparable to a MOS of 4.58 for professionally recorded speech,“ the researchers were quoted as saying.

On the basis of its audio samples, Google claimed that „Tacotron 2“ can detect from context the difference between the noun „desert“ and the verb „desert,“ as well as the noun „present“ and the verb „present,“ and alter its pronunciation accordingly.

It can place emphasis on capitalised words and apply the proper inflection when asking a question rather than making a statement, the company said in the paper.

Meanwhile, Google’s engineers did not reveal much information but they left a big clue for developers to figure out how far they have come in developing this system.

According to the report, each of the ‚.wav‘ file samples has a filename containing either the term „gen“ or „gt.“

Based on the paper, it’s highly probable that „gen“ indicates speech generated by Tacotron 2 and „gt“ is real human speech. („GT“ likely stands for „ground truth,“ a machine learning term that basically means „the real deal“.)

Source: By IANS, The Economic Times

The Human Factor In An AI Future

As artificial intelligence becomes more sophisticated and its ability to perform human tasks accelerates exponentially, we’re finally seeing some attempts to wrestle with what that means, not just for business, but for humanity as a whole.

From the first stone ax to the printing press to the latest ERP solution, technology that reduces or even eliminates physical and mental effort is as old as the human race itself. However, that doesn’t make each step forward any less uncomfortable for the people whose work is directly affected – and the rise of AI is qualitatively different from past developments.

Until now, we developed technology to handle specific routine tasks. A human needed to break down complex processes into their component tasks, determine how to automate each of those tasks, and finally create and refine the automation process. AI is different. Because AI can evaluate, select, act, and learn from its actions, it can be independent and self-sustaining.

Some people, like investor/inventor Elon Musk and Alibaba founder and chairman Jack Ma, are focusing intently on how AI will impact the labor market. It’s going to do far more than eliminate repetitive manual jobs like warehouse picking. Any job that involves routine problem-solving within existing structures, processes, and knowledge is ripe for handing over to a machine. Indeed, jobs like customer service, travel planning, medical diagnostics, stock trading, real estate, and even clothing design are already increasingly automated.

As for more complex problem-solving, we used to think it would take computers decades or even centuries to catch up to the nimble human mind, but we underestimated the exponential explosion of deep learning. IBM’s Watson trounced past Jeopardy champions in 2011 – and just last year, Google’s DeepMind AI beat the reigning European champion at Go, a game once thought too complex for even the most sophisticated computer.

Where does AI leave human?

This raises an urgent question for the future: How do human beings maintain our economic value in a world in which AI will keep getting better than us at more and more things?

The concept of the technological singularity – the point at which machines attain superhuman intelligence and permanently outpace the human mind – is based on the idea that human thinking can’t evolve fast enough to keep up with technology. However, the limits of human performance have yet to be found. It’s possible that people are only at risk of lagging behind machines because nothing has forced us to test ourselves at scale.

Other than a handful of notable individual thinkers, scientists, and artists, most of humanity has met survival-level needs through mostly repetitive tasks. Most people don’t have the time or energy for higher-level activities. But as the human race faces the unique challenge of imminent obsolescence, we need to think of those activities not as luxuries, but as necessities. As technology replaces our traditional economic value, the economic system may stop attaching value to us entirely unless we determine the unique value humanity offers – and what we can and must do to cultivate the uniquely human skills that deliver that value.

Honing the human advantage

As a species, humans are driven to push past boundaries, to try new things, to build something worthwhile, and to make a difference. We have strong instincts to explore and enjoy novelty and risk – but according to psychologist Mihaly Csikszentmihalyi, these instincts crumble if we don’t cultivate them.

AI is brilliant at automating routine knowledge work and generating new insights from existing data. What it can’t do is deduce the existence, or even the possibility, of information it isn’t already aware of. It can’t imagine radical new products and business models. Or ask previously unconceptualized questions. Or envision unimagined opportunities and achievements. AI doesn’t even have common sense! As theoretical physicist Michio Kaku says, a robot doesn’t know that water is wet or that strings can pull but not push. Nor can robots engage in what Kaku calls “intellectual capitalism” – activities that involve creativity, imagination, leadership, analysis, humor, and original thought.

At the moment, though, we don’t generally value these so-called “soft skills” enough to prioritize them. We expect people to develop their competency in emotional intelligence, cross-cultural awareness, curiosity, critical thinking, and persistence organically, as if these skills simply emerge on their own given enough time. But there’s nothing soft about these skills, and we can’t afford to leave them to chance.

Lessons in being human

To stay ahead of AI in an increasingly automated world, we need to start cultivating our most human abilities on a societal level – and to do so not just as soon as possible, but as early as possible.

Singularity University chairman Peter Diamandis, for example, advocates revamping the elementary school curriculum to nurture the critical skills of passion, curiosity, imagination, critical thinking, and persistence. He envisions a curriculum that, among other things, teaches kids to communicate, ask questions, solve problems with creativity, empathy, and ethics, and accept failure as an opportunity to try again. These concepts aren’t necessarily new – Waldorf and Montessori schools have been encouraging similar approaches for decades – but increasing automation and digitization make them newly relevant and urgent.

The Mastery Transcript Consortium is approaching the same problem from the opposite side, by starting with outcomes. This organization is pushing to redesign the secondary school transcript to better reflect whether and how high school students are acquiring the necessary combination of creative, critical, and analytical abilities. By measuring student achievement in a more nuanced way than through letter grades and test scores, the consortium’s approach would inherently require schools to reverse-engineer their curricula to emphasize those abilities.

Most critically, this isn’t simply a concern of high-tuition private schools and “good school districts” intended to create tomorrow’s executives and high-level knowledge workers. One critical aspect of the challenge we face is the assumption that the vast majority of people are inevitably destined for lives that don’t require creativity or critical thinking – that either they will somehow be able to thrive anyway or their inability to thrive isn’t a cause for concern. In the era of AI, no one will be able to thrive without these abilities, which means that everyone will need help acquiring them. For humanitarian, political, and economic reasons, we cannot just write off a large percentage of the population as disposable.

In the end, anything an AI does has to fit into a human-centered value system that takes our unique human abilities into account. Why would we want to give up our humanity in favor of letting machines determine whether or not an action or idea is valuable? Instead, while we let artificial intelligence get better at being what it is, we need to get better at being human. That’s how we’ll keep coming up with groundbreaking new ideas like jazz music, graphic novels, self-driving cars, blockchain, machine learning – and AI itself.

Source: Dan Wellers and Kai Goerlich

Are You Ready To Meet Your Intelligent Robotic Co-Worker?

With all the talk about Artificial Intelligence (AI) invading our workspaces, you must think that we’re on the verge of a reality where walking and talking humanoid robots join us in the break room in the very near future. Although this is where we are heading—eventually—it’s still decades away by most predictions. AI is certainly impacting our work today and will continue to burrow deeper into the way we conduct business as time progresses until ultimately robots are our work companions. For now, AI will augment our own abilities and will work alongside us via the technology we use through AI embedded in machinery, wearable devices and more. Our cognitive co-workers will help us carry out a single job more efficiently.

As we get farther along in this transition, we will be expected to rely on the decisions and direction of AI devices. They will swallow data in real time and output what it believes our actions should be based on solid, measurable facts. We’re at the perfect juncture when businesses need to determine how its human workforce should work best with its AI workforce to capit alis e on the strengths of each. Our challenge in the near term is to figure how to accept AI devices as an extension of our team as well as to challenge and improve them for the good of business.

Those that see this new reality as a glass-half-full scenario envision a future where human intelligence and intelligent systems are intertwined in co-existence and continually exchange info so one is better with the other. Artificial intelligence can amplify our human intelligence.

Here are a few ways AI and humans are already co-existing in today’s business world:

AI Assists in the Dressing Room

Transforming brick-and-mortar retail shops to enhance the customer experience through technology, Oak Lab’s innovative fitting room mirror not only reflects a shopper’s image but it is also an interactive shopping command centre with a touch-screen powered by RFID technology. Shoppers can customise their fitting room experience, call for assistance from store associates and even receive recommendations for other complementary products. This technology isn’t designed to replace sales associates, but to “make their jobs easier, make them more effective,” according to Healey Cypher, Oak’s CEO.

Improving the Global Supply Chain through Tech

With a combo of blockchain payments, machine vision and artificial intelligence,bext360’s mission is to “improve the global supply chain for agricultural products.” Bext360 is currently impacting the coffee trade and small-scale farmers with their complete coffee “suppl(ai)” chain solution that makes it easier for coffee farmers to get a fair price and get paid instantly for their beans. Coffee buyers can quickly analyse the quality of beans through the “eyes” and help of a mobile robot. Then, the company’s mobile app helps the coffee farmer and buyer negotiate a fair price. Using blockchain technology, the app and cloud-based software records the source of the beans and who paid what for them. Coffee wholesalers and retailers can also embed the API into their website, marketing, point-of-sale systems and tools to help manage their supply chain.

You’re In Good Hands with AI

For the auto insurance industry, assessing vehicle damage to process claims is a cumbersome and time-consuming process but Tractable hopes to change that with its AI for expert visual tasks. At the core of any AI tech is the data that informs its decisions. In this case, the AI network has studied a huge database of auto claim images and data policy. Once the AI evaluates the images and finds something questionable, it can flag it to be reviewed by humans. Again, this technology is intended to enhance the process and make the claims process easier, more accurate and quicker for the human claims representatives.

Route Employee’s Questions to the Right Resource

Computer software from Starmind uses machine learning to route employee questions in a large organ isation to the right person. The software takes past queries and answers and learns to apply them to today’s questions and tracks down the experts within the company who can help. There are many applications for this type of machine learning from retaining the knowledge of key people to unburdening experts who are tasked with answering similar questions over and over and can also boost productivity.

Your AI Admin Assistant

In today’s corporate world, Baxter AI hopes to take over many of the admin tasks that bog down professionals. This AI service can get information from Google Analytics, SQL databases, Excel and more to build reports that are in high demand. These tedious reporting tasks play to the strengths of AI capabilities and free up in the humans to focus on what they do best.

Now is the time to accept AI systems as our new co-workers and rely on them for their support in predictive, smart and analytic technology capabilities.

Source: Bernard Marr

Smartness und künstliche Intelligenz. Disruptives Szenario?

Nichts hat die Welt in den letzten zwanzig Jahren mehr verändert als das Internet. Die Verknüpfung von Rechnern rund um den Globus mit einem Protokoll, das Texte, Bilder und Filme auf jedem  Computer lesbar macht, hat die Art und Weise, wie wir leben und arbeiten nachhaltig verändert. Nirgends sonst ist der technische Fortschritt so rasant, mit einer exponentiellen Steigerung der technischen Leistung und zu allem noch begleitet von einem fast ebenso schnellen Sinken der Preise. Die nächsten zwanzig Jahre der Informations- und Kommunikationstechnologien werden ebenso disruptive Wirkungen haben wie die vergangenen.

IoT Internet der Dinge

Das Internet wird heute laufend in die realen Gegenstände verlängert. Immer mehr Dinge der realen Welt, wie beispielsweise die Klimatechnik eines Hauses, das Auto, ja selbst der Blumentopf sind im Internet selbst repräsentiert. Damit können sie über das Internet ferngesteuert werden von jedem denkbaren Eingabegerät: Vom Computer, dem Smartphone oder dem Tablet. Auch die Sensortechnik befindet sich in einem Sturmlauf: Die realen Gegenstände werden mittels Sensoren dazu in die Lage versetzt, ihre Umwelt wahrzunehmen: Temperatur, Bewegung, Bewegungsveränderung, Berührung, Schadstoffe in der Luft, um nur einiges zu nennen. Diese umweltsensiblen Gegenstände können ihre Messungen via Internet mitteilen.

Wenn entsprechende Algorithmen hinterlegt sind, können diese Daten interpretiert und sie einem Nutzer zur Kenntnis gebracht werden, damit dieser angezeigte Aktionen unternimmt. Möglich ist aber auch, dass die Dinge eigenständig aufgrund der veränderten Umweltbedingungen agieren. An der Hochschule für Technik und Architektur hat das Team von Alexander Klapproth das iHomeLab aufgebaut. In diesem Haus sind alle Dinge miteinander verknüpft. Das demonstrierte Szenario beschreibt die Situation einer betagten, alleine lebenden Frau. Wenn sie hinfällt und nicht mehr aufsteht, merkt dies das Haus (z.B. mit einem Sturzsensor, den die Frau auf sich trägt oder mit einem Fussboden, der mit Sensoren ausgestattet ist). Steht die Frau nicht mehr auf, versucht das Haus zuerst mögliche Missverständnisse auszuräumen: über den TV-Screen spricht es die Verunglückte an. Gibt sie keine Antwort (keine Entwarnung), schaltet das Haus eine Bildleitung frei auf das Handy eines zuvor bezeichneten Verwandten. Auch der kann versuchen, mit seiner Angehörigen in Kontakt zu treten. Zugleich setzt sich ein kleiner Gesundheitsroboter in Bewegung, der die Vitaldaten der Frau misst: Puls, Atmung, Temperatur. Weil der Angehörige sich zu weit weg befindet, alarmiert das Haus automatisch die Ambulanz, nicht ohne die Personaldaten und die gemessenen Vitalfunktionswerte gleich mitzuliefern. Wenn die Sanitäter schliesslich eintreffen, „weiss“ das Haus, dass es seine Türen automatisch öffnen soll, damit diese der Frau die notwendige Hilfe leisten können.

Damit sind zwei der drei Funktionen des intelligenten Hauses beschrieben: Die Funktion eines Wohnassistenten (assistent living) und die Sicherheitsfunktion (Zutrittsregelung). Die dritte Funktion ist vielleicht das wichtigste angesichts der Energiewende: Die Intelligenz des Hauses hilft den Energiehaushalt optimal zu regeln. Wird das Haus verlassen, können sich beispielsweise die Rollladen schliessen, um Wärmeverluste zu minimieren. Der Kühlschrank wird einige Minuten pro Stunde vom Strom genommen ohne die Kühlkette zu beeinträchtigen – nämlich dann, wenn das Stromnetz durch andere Nutzungen belastet ist. An das Potenzial smarter Haustechnik glaubt offensichtlich auch Google, hat der Internetkonzern doch im Januar 2014 den Thermostate-Hersteller Nest übernommen. Dafür zahlt Google 2.3 Mrd. Dollar und erhält Zugang zu den Daten. Nest hat in der Haustechnik Sensoren eingebaut, damit das Klima den jeweiligen Personen anpasst werden kann. Grosse Mühe gibt sich Nest, dass der Bewohner sich nicht fremdgesteuert vorkommen, was viele kennen aus den Rollladen, die bei der kleinsten Sonneneinstrahlung automatisch runterfahren. Erkennen die Sensoren beispielsweise Rauchentwicklung, genügt es, vor dem Nest-Gerät zu winken, wenn der Rauch vom Kochen herrührt und nichts zu bedeuten hat. Eine ansonsten automatische Alarmierung der Feuerwehr bleibt dann aus.

Smartness in den Dingen erhöht zudem die Sicherheit. Bereits 1999 erfand Steve Gass aus Oregon (USA) eine intelligente Tischsäge(SawStop). Tischsägen sind Quelle vieler Unfälle. Aus Unachtsamkeit gerät immer wieder ein Finger in die Säge, die zum Zersägen von Holz mit 5000 Umdrehungen in der Minute ausgestattet ist. Steve Gass machte seine Säge intelligent: Weil sie beim Sägen zugleich die elektrische Leitfähigkeit des zu bearbeitenden Materials misst, erkennt die Säge, wenn statt des Holzes ein Finger kommt, denn ein Finger ist deutlich leitfähiger als ein Stück Holz. Wenn das passiert, stoppt die Säge in weniger als einer Millisekunde und rückt unter den Tisch. Am Finger bleibt allenfalls eine kleine Hautschürfung, die mit einem Pflaster aus der Betriebsapotheke genügend behandelt ist. Weil auf das Modul, welches die Säge anhält, ungeheure Kräfte wirken (1000 G), geht das Modul dabei kaputt. Der Ersatz kostet allerdings lediglich 60 Dollar – deutlich weniger, als was ein Chirurg verlangen würde, wenn er den Finger wieder anzunähen versuchen würde, ganz zu schweigen von den Heilungs- und Rehabilitationskosten.

Smartness wird auch den Strassenverkehr revolutionieren. Ein heutiger Mittelklasse-Wagen hat verschiedene intelligente Assistenzsysteme bereits eingebaut: Der Spurhalte-Assistenz hält das Auto in der Spur. Die automatische Parkhilfe parkt selbständig ein, wenn der Fahrer neben die Lücke fährt. Der geschwindigkeitsabhängige Tempomat hält genügend Sicherheitsabstand zum vorausfahrenden Fahrzeug, ohne dass der Lenker etwas unternehmen muss. Bei freier Bahn beschleunigt das Auto wieder auf die gewünschte Reisegeschwindigkeit. In naher Zukunft sprechen Autos mit anderen Autos, tauschen also beispielsweise Daten des EPS-Systems aus und melden einander lokal auftretende Fahrbahngefahren (z.B. Eis), so dass das dahinterfahrende Fahrzeug sich bereits darauf einstellen kann (z.B. die Geschwindigkeit reduzieren). Die Autos werden aber auch vermehrt mit der Strasse sprechen, etwa um Baustellen abzusichern. Und sie werden von der Strasse zeitgenau über lokale Hindernisse wie Staus informiert. Das Navigationssystem kann dann beispielsweise alarmieren, dass dreihundert Meter weiter vorne soeben ein Unfall passiert ist. Diese Systeme werden den Verkehr sicherer machen und – wenn die Autos ganz von selber fahren können – die bestehende Kapazität der Strassen besser ausnützen helfen und so Stockungen des Verkehrs reduzieren helfen.

Big Data und künstliche Intelligenz

Die wachsende Zahl von Sensoren, aber auch die Navigationsgeräte in Handys und anderen Gadgets, tragen dazu bei, dass das weltweit vorhandene Datenvolumen immer weiter wächst. 2013 gab es bereits zwei Zettabytes an gespeicherten Daten. Ein Zettabyte ist eine Trilliarde Bytes oder eine Trillion mal mehr Daten (1015), als die mehrbändige Encyclopedia Britannica umfasst. Und jeden Tag kommen fünfzig Petabytes dazu – das ist eine Zahl mit 15 Nullen (das Zettabyte hat 21 Nullen). Wahrlich: Big Data. Das Problem mit diesen Daten besteht aber darin, dass sie für sich genommen noch kaum etwas wert sind. Sie sind zwar da, aber sie ergeben noch keinen Sinn. Die meisten Daten, die neu dazu kommen, sind nicht strukturiert, stellen also keine Zahlen dar sondern sind Sensordaten, Filmdaten, Bilder, Sprachdaten. Solche Daten sind vage und unsicher und nicht ohne weiteres zu deuten.

Künstliche Intelligenz

Abhilfe schaffen kann hier Künstliche Intelligenz. 1997 gelang es IBM, mit Deep Blue einen Schachcomputer zu konstruieren, der besser als der beste menschliche Spieler Schach spielen konnte. Deep Blue schlug den Schachgrossmeister Garri Kasparov in einem regulären Wettkampf. Deep Blue basierte auf enormer Rechenleistung. Pro Sekunde konnte er 100 bis 200 Stellungen berechnen. Für einen Laien ist noch vorstellbar, dass ein Computer in einem Spiel, bei dem die Felder klar begrenzt und alle Züge eindeutig definiert sind, mehr und weiter vorausdenken kann, als dies ein Mensch kann. Als IBM aber im Februar 2011 den Nachfolger Watson präsentierte, staunte die Welt. Watson stellte sich im beliebten amerikanischen Wissensquiz Jeopardy! zwei menschlichen Gegnern, die aufgrund ihrer immensen Allgemeinbildung wahre Champions waren. Beide hatten sie in mehreren Spielshow zusammen schon je über eine Million Dollar Preisgeld gewonnen. In diesem Quiz werden Fragen zu ganz unterschiedlichen Wissensgebieten gestellt. Schwierig daran ist überdies, dass die Fragen zuweilen mit Sprachwitz oder Ironie formuliert sind. Die Spieler wählen aus einem Wissensgebiet einen Geldbetrag, hinter dem sich eine Frage verbirgt. Die Frage wird vorgelesen und wer am schnellsten reagiert, hat die erste Chance zu antworten. Stimmt die Antwort, wird der angezeigte Betrag dem Konto gutschrieben, ist die Antwort falsch, wird er abgezogen und die Mitkonkurrenten erhalten die Möglichkeit zu antworten. Watson (benannt nach dem Gründer von IBM, Thomas I. Watson) war ein revolutionärer Fortschritt: Nicht nur verstand Watson natürliche Sprache, sei sie gesprochen oder geschrieben. Das alleine ist schon ein Meilenstein, die alle einzuschätzen wissen, die einmal mit Spracherkennung von Computern zu tun hatten, z.B. mit SIRI von iPhone. Das erlaubte den Programmierern, Watson mit Büchern, Tabellen, Bildern und anderen unstrukturierten Daten zu füttern und es erlaubte dem Quizmaster, Watson überhaupt eine Frage zu stellen. Darüber hinaus funktioniert Watson ganz anders als herkömmliche Computer: Herkömmliche Algorithmen definieren, was bei Vorliegen von bestimmten Daten als nächstes zu prozessieren sei. Der Weg zum Ergebnis ist also in vielen Varianten vorprogrammiert, so dass zumindest der Programmierer immer nachvollziehen kann, warum am Schluss dieses und nicht ein anderes Ergebnisse resultiert hat. Nicht so bei Watson: Dieser Computer bildet selbst Hypothesen dazu, was die Antwort auf die Frage sein könnte. Er stellt mehrere Hypothesen auf und überprüft in einem nächsten Schritt, welche Belege oder Evidenzen er findet, die eine seiner Hypothesen stützen. Auf diese Weise hat Watson in Jeopardy! immer mehrere Antworten geprüft. War er zu über 90 Prozent sicher, die richtige Antwort gefunden zu haben, zog er das Spiel an sich. In der Vorbereitung zur Quiz-Show haben die Ingenieure von IBM mit Watson trainiert – und sich dabei die dritte aussergewöhnliche Eigenschaft von Watson zunutze gemacht: Watson lernt eigenständig dazu. Wenn man ihm sagte, dass seine Antwort falsch sei, hat er daraus gelernt.

Zu Beginn des Jahres 2014 kündigte IBM an, Watson in eine eigene Geschäftseinheit zu überführen und stellte dafür über eine Millarde Dollar bereit. Drei Jahre nach der bemerkenswerten Quizshow ist Watson heute 24mal schneller und 2400 Prozent leistungsfähiger und 90 Prozent kleiner als 2011. Er passt nun in drei Pizza-Schachteln. Der neuen Geschäftseinheit werden mittelfristig gegen 2000 IT-Spezialisten, Programmierer, Industrie-Experten und Forscher angehören. Die neue Einheit umfasst drei Bereiche: Watson Discovery, Watson Analytics und Watson Explorer. Discovery soll beispielsweise Projekte in der Pharma- und Biotechindustrie unterstützen. Er soll helfen, die Forschung voranzutreiben und insbesondere die Zeit drastisch zu reduzieren, die es heute von der Entwicklung bis zur Markteinführung braucht. Die ersten Gehversuche in Medizin und pharmazeutischer Forschung waren offensichtlich sehr vielversprechend. Für eine US-amerikanische Krankenhauskette half das System mit, am konkreten Patienten die erfolgversprechendste Therapie zu definieren. Die entsprechende Gesellschaft wies darauf hin, dass bis heute rund die Hälfte aller Medikamente nach dem Versuch-Irrtum-Prinzip verschrieben werden. Ein intelligentes System, das riesige Mengen von Daten, Erfahrungsberichten und Forschungsergebnissen verarbeiten kann, verspricht diese Rate deutlich zu senken. Watson Analytics soll insbesondere bei der Visualisierung von Daten zu Diensten sein. Ohne Daten speziell aufbereiten und in Grafik-Programm übertragen zu müssen, sollen künftig grafische Darstellungen von Daten mittels Sprachbefehl angefordert werden können. Das ist ein wichtiger Schritt auf dem Weg, aus Big Data verwertbare Ergebnisse zu erkennen. Big Data ist auch die Stossrichtung von Watson Explorer: Hier geht es darum, in den riesigen Datenmengen Zusammenhänge zu erkennen, die vorher noch keiner gesehen hat. IBM wird Watson als Cloud-Programm bereitstellen und hat ankündigt, dass es in einigen Jahren ein Smartphone-App davon geben wird. Goodbye Siri, hello Watson!

Watson ist nicht die einzige Künstliche Intelligenz. Aber mit IBM im Rücken, ist Watson sicher geeignet, die Welt zu verändern. Auch der Neurowissenschafter Sebastian Seung am MIT nutzt Künstliche Intelligenz, um die Kartierung der Neuronen der Retina mithilfe tausender spielbegeisterter Laien und Wissenschafter voranzutreiben. Er hat ein Spiel entwickelt, bei der Gamer Punkte sammeln können, in dem sie an diesem wissenschaftlichen Projekt einen Beitrag leisten. Dank Künstlicher Intelligenz kann jedermann am EyeWire-Projekt mitwirken, weil das System im Hintergrund die Spielaktivitäten lenkt und deutet. Dieses Beispiel weist darauf hin, wie tiefgreifend die Revolution sein wird.

Das Ende des Textes – das neue Wissen

Das wissenschaftliche, aber als online-Spiel aufgesetzte Projekt EyeWire ist ein Beispiel für Gamification. Darunter versteht man die Verbindung von Spielelementen wie rasches Feedback, Belohnung oder Wettbewerb mit der Absicht, wissenschaftliche Ergebnisse zu erzielen, Verhalten zu verändern, soziale Verbesserungen zu erreichen oder einfach zu lernen. „m.Paani“ beispielsweise ist ein Loyalitätsprogramm für Mobiltelefon-Nutzer, das Mittel für soziale Projekte generiert. „Fun Theory“, von Volkswagen, gesponsert, setzt auf den Spieltrieb, um Menschen zu gesünderem Verhalten anzuregen, beispielsweise durch die Verwandlung einer Treppe in eine aufsteigende Klaviertastatur: Jeder Schritt erzeugt einen Ton, das Treppengehen also eine Abfolge von Tönen. Dafür lassen viele Menschen die Rolltreppe stehen und gehen zu Fuss, weil es Spass macht. Ein anderes Projekt im Rahmen der „Fun Theory“ manipuliert öffentliche Abfallkübel, so dass Menschen überall Abfall suchen und einwerfen, um den Effekt (eine Tonkulisse, die sich anhört als ob ein riesiger Brocken in eine tiefe Schlucht geworfen wird) wieder und wieder zu hören. Die Verschmelzung von Training und Spielen führt zudem die Videogame-Industrie und das Militär zusammen, seit immer häufiger das Militär auf ferngesteuerte Drohnen setzt. Sie teilen technische Innovationen, aber auch Spielinhalte und reale Missionsszenarien. Offenbar braucht ein Gamer viel weniger Training um eine Drohne steuern zu lernen als jemand, der wenig Spielpraxis mitbringt.

Die Industrialisierung hat den Produktionsprozess in viele kleine Einzelschritte zerlegt, die mit einem schöpferischen Werken kaum mehr etwas gemeinsam hatte. Mehr noch: Auch die Schulen wurden industrialisiert, in dem die Lernschritte mechanisiert und automatisiert wurden. Das Spiel geriet in seriösen Umfeldern in Verruf. Wie der spanische Spieltheoretiker und Gamer Flavio Escribano in einem Aufsatz aus dem Jahr 2013 aufzeigt, fand während des vergangenen Jahrhunderts ein regelrechter De-Gamification-Prozess statt, der erst in den 70er Jahren hinterfragt wurde.

Die Digitalisierung hat dem Spielen wieder Auftrieb gegeben, nachdem schon zuvor über das „seriöse Spielen“ in einem edukativen Umfeld nachgedacht wurde.  Das ist keineswegs der einzige und schon gar nicht der wichtigste Effekt der Digitalisierung. Viel fundamentaler ist die Veränderung des Gefässes von Wissen. Bisher wurde Wissen zur Hauptsache in der Form von Texten gesammelt, vermittelt und überliefert. Nun liegen immer mehr Bilder, Filme, Grafiken vor, worin Wissen gespeichert ist. Der Text verliert zunehmend seine Vorrangstellung. Und damit auch das Buch als Trägermedium. Dass der Brockhaus sein Erscheinen im März 2014 einstellt und nur die Online-Version noch sechs Jahre weiterführen will, ist beredtes Zeugnis davon. Wissen ist aus den Buchdeckeln ausgebrochen und nun im weltweiten Netz für alle zugänglich. „Der Text ist tot. Es lebe das Wissen!“ (in Hohe Luft., 1/2014, p. 53ff) sagt einer, des er wissen muss: Klaus Ceynowa ist der stellvertretende Direktor der Bayrischen Staatsbibliothek, und damit Hüter einer Gattung von bisher zentralen Einrichtungen der Wissensspeicherung. In diesem Aufsatz beschreibt Ceynowa, dass es keine „Publikation“ mehr, die den aktuellen Stand des Wissens festhält, sondern ein sich dynamisch weiterentwickeltes Kontinuum eines Informationsstroms.  Während früher durch die Publikation das Wissen erst öffentlich wurde, erübrigt sich das heute. Damit schaffen wir uns allerdings auch neue Probleme: Die Sicherung eines fluiden, sich ständig veränderten Wissens ist schwierig, alleine schon weil die technischen Formate sich sehr schnell verändern, aber auch weil ein gesicherter Grund, nun das relevante zu wissen, für den Forschenden verloren geht. Dafür ist Wissen von überall abrufbar, situationsspezifisch und selbst geografisch angepasst durch die Georeferenzierung von Wissensinhalten durch die GPS-Systeme.

Weil die Form des Wissens und die Eigenart seiner Fixierung sich fundamental verändern, verändert sich auch das Lernen. Ceynowa glaubt, dass wir uns vom Bild des gründlich, Zeile für Zeile lesenden Lesers verabschieden müssen. An seiner Stelle kommt die Figur des sich in vernetzten Wissensräumen sich agil bewegenden Entdeckers.

Source: Geaorge T. Roos Zukunftsforscher