Freitag, 30. Januar 2015

on-demand economy

Eines der Modethemen des Jahres 2014 war sicherlich die sharing economy. Taxidienste und Ferienwohnungen wurden heiß diskutiert, die Senkung soziale Standards war ein Reizthema. Ging es hier wirklich um das Teilen, war nicht eher die Profitmaximierung Ziel alles Handelns?
Der Economist hat jüngst einen Artikel veröffentlicht, der die Debatte etwas weiter führt und dem Kind einen neuen Namen gibt: die on-demand economy. Es geht um Arbeiten auf Abruf. Darum, Dienstleistungen über Apps, über Onlinemarktplätzte zu vermitteln und traditionelle Unternehmensstrukturen aufzulösen. Jeder ist der Anbieter einer Dienstleistung, es braucht keine festen unternehmerischen Strukturen mehr, und bei Ebay werden Dienstleistungen wie Bücher oder Fahrräder angeboten.  MacHammer in Deutschland ist ein gutes Beispiel.

In der deutschen Diskussion heißt dies dann Crowdworking, zumindest ist dies der Begriff in einer gerade erschienenen Publikationen des Zentrums für europäische Wirtschaftsforschung ZEW. Während der Economist ja hier geradezu einen Trend ausmachte und das Ende der klassischen, von Unternehmen geprägten Volkswirtschaft prognostizierte,so ist das ZEW hier zurückhaltend, zumindest für Deutschland. Cloudworking scheint noch kein Thema zu sein hierzulande.

Aber das mag sich auf kurz oder lang ändern. Zumindest sehen andere Experten für die IT Wirtschaft schon jetzt eine Tendenz dazu, Freelancer stärker einzubinden als traditionelle Arbeitnehmer. Ist das die Zukunft von digitalisierte Arbeit, ist das die Zukunft von Industrie 4.0 und anderen neuen Formen der Arbeit?

Sonntag, 25. Januar 2015

Weltverbesserer

Das Jahr ist noch jung und voller Hoffnung. Da passt es, heute mal zu Weltverbesserungsveranstaltungen zu bloggen. Ich spare mir die Kommentare zum Weltwirtschaftsforum in Davos (auf dem absteigenden Ast? diesmal mit vielen Mitgliedern der Bundesregierung?) und nehme den Einstieg über das 2. Internationale Deutschlandforum, eine Veranstaltung des Kanzleramts am 19. und 20. Januar.

In den Nachrichten wurde ja vor allen Dingen die Bundeskanzlerin gezeigt, wie sie sich kleine Kästen für drahtloses Internet und preiswerte Laptops zeigen lässt. Auf der Seite des Kanzleramts findet man etwas genauere Informationen. Das ganze war ein zweitägiges Forum mit etwa 120 Teilnehmern, parallelen Workshops und gemeinsamen Paneldiskussionen, auf denen dann auch irgendwann die Kanzlerin erschien. Es ging um das große Ganze, um Lösungen für die Welt: wie Innovationen das Leben der Menschen besser machen können. In gewisser Weise auch ein Ansatz, den die Bundesregierung mit ihrer Innovationsstrategie verfolgt. Eingelade war unter anderem John Kao vom Institute for Large Scale Innovation. Was für ein Titel: großformatige Innovationen - in Klammern zur Rettung der Welt - eigentlich scheint dieses Institut vor allen Dingen ein Netzwerk zu sein, zur Diskussion, für gemeinsame Veranstaltungen.

Mit der Rettung der Welt beschäftigt sich nicht nur das Kanzleramt und Herr Kao.
Das Institute for Globally Transformative Technologies hat einen Bericht zu 50 breakthrough technologies veröffentlicht (für eilige Leser hier zusammengefasst). Gefallen hat mir an diesem Bericht mehreres: zum einen der sehr systematischer Ansatz, zunächst die Problemstellung aufgrund unterschiedlicher Studien und Daten zu analysieren. dann in einer ebenfalls sehr systematischen Weise die Anforderungen und Herausforderungen für mögliche Lösungen zu skizzieren, also zum Beispiel, wie der Marktzugang gelingen soll, welche gesellschaftlichen Veränderungen Voraussetzungen für die Lösungen sind und wie anspruchsvoll auf der technologischen Ebene eine mögliche Lösung aussehen müsste. Abgeschätzt wird auch die Hebelwirkung, also welche Innovationen die größten Hebelwirkungen entfalten, und die zeitlich Perspektive, wann also eine entsprechende Innovation zur Verfügung stehen könnte.

Für mich das gelungene Beispiel eine Synthese aus gesellschaftlichen Bedarf und Herausforderungen sowie technologischen Lösungen, sozusagen: society demand meets technology push.

Samstag, 24. Januar 2015

Evidenzbasierte Politik

2015 ist zum internationalen Jahr der Evaluation ausgerufen worden. Die Gesellschaft für Evaluation (DeGEval) widmet ihre Jahrestagung dem Motto: Evaluation und Wissensgesellschaft und plant eine ganze Reihe anderer Veranstaltungen mit internationaler Beteiligung.

Aber Evaluation ist nicht das einzige Instrument, um eine evidenzbasierte Politik zu befördern. Gestolpert bin ich die letzten Tage über Berichte, die zwar schon einige Zeit zurückliegen, aber einen interessanten neuen Ansatz aus Großbritannien beschreiben. Dort wurden neue Einrichtungen für eine evidenzbasierte Politik im Bereichen wie der Sozialpolitik, der Kriminalitätsbekämpfung oder der Gesundheitspolitik gegründet. In Deutschland würde man wohl sagen, das sind eine Art Ressortforschungseinrichtungen, allerdings in diesem Fall sehr resortübergreifen und interdisziplinär angelegt. Wer die Diskussion in UK weiterverfolgen verfolgen möchte, dem seien die nachfolgendem Links (hier und hier) empfohlen.

Insgesamt ist der Stellenwert gesicherte Erkenntnis als Basis für politische Handeln in Großbritannien schon seit vielen Jahren fest verankert. Die Verwaltung zum Beispiel richtete sich an den Prinzipien des New Public Management aus und definierte Kennziffern, um die Effektivität ihres Handelns zu messen und auch daran durchaus Budgetentscheidung zu knüpfen (in eine ähnliche Richtung ist übrigens auch Österreich seit kurzem gegangen, siehe eine erste Evaluation dazu hier). Kennziffern-orientiertes Handeln kann aber, wie wir aus Unternehmen wissen, recht seltsame Blüten treiben. Darum, und auch aus demokratietheoretischen Gründen ist dieser Ansatz in der öffentlichen Verwaltung auch nicht unumstritten.

Evidenzbasierte Politik muss nicht zwingend Kennziffern-basiert sein. Es geht ja eigentlich darum, dass wissenschaftliche Erkenntnis darüber, was wirklich wirkt, zu einer besseren Politikgestaltung beiträgt. In diesem Sinne noch ein letzter Gedankenschlenker:

In Berlin fand im Januar eine Konferenz zum Thema Nudging (also "Anstupsen", das sanfte Drängen des Staates zur"richtigen" Entscheidung seiner Bürger durch Erkenntnisse der Psychologie) statt - mit vielen, vielen Artikeln, die ich noch gar nicht alle lesen konnte, die mir ber sehr spanned zu sein scheinen. Nudging ist ja auch eine Art evidenzbasierte Politik, hier basierend auf den Erkenntnissen der Verhaltensökonomie. Ich hatte ja schon einmal darüber geschrieben, dass auch das deutsche Kanzleramt diesen Ansatz (der übrigens wieder aus Großbritannien importiert wurden) ganz interessant fand.

Mir fehlt hier noch die Verknüpfung solcher verhaltensökonomischer Ansätze mit den Möglichkeiten neuer Technologien, um das Verhalten und die Emotionen von Menschen besser einschätzen zu können (was da geht, zeigt zum Beispiel dieser Radiobeitrag des Deutschlandfunk zum Thema Sprachtechnologie), und natürlich auch, um Menschen besser zu steuern, damit sie das tun was sie tun sollten (wenn sie vernünftig wären).

Montag, 19. Januar 2015

the myth of ai

Berlin, Januar 2015

Die Süddeutsche hat Anfang Januar einen bereits im November auf der Seite edge erschienen Artikel von Jarron Lanier (hier der Originalartikel und die Diskussion auf edge.org) kommentiert. Lanier hatte erst im Okober 2014 den Friedenspreis des deuschen Buchhandes erhalten hatte.
Die ganze Debatte hatte das nun auch auf Deutsch erschienene Buch von Nick Bostrom zur Superintelligenz ausgelöst. Der Beitrag von Lanier (und das Buch von Bostrom) hatte zu einer breiten Diskussion in den USA geführt (z.B. hier und hier), wurde aber in Deutschland wohl bislang nicht rezipiert.

Die Grundthese der Debatte, um die sich alle Beiträge ranken, ist die folgende: Künstliche Intelligenzen nimmt in einem Maße zu, dass sie tatsächlich größer wird als die menschliche Intelligenz und in der Lage, die Menschheit zu beherrschen. Das ist ins Negative gewendet die These von der Singularität, die Ray Kurzweil geäußert hatte und eine typische Science Fiction Dystopie. Lanier selbst setzt sich mit dieser These nur recht kurz auseinander. Er hält das eher für unwahrscheinlich und beklagt die Aufmerksamkeiswellen, die immer wieder zu unrealistischen Erwartungen an die künstliche Intelligenz führen und das Leben von Wissenschaftlern schwer machen.

Sein Hauptinteresse gilt der Frage ob nicht eine sehr schwachbrüstige künstliche Intelligenz, die von Unternehmen wie Google oder Amazon benutzt wird zu ihren eigenen Zwecken, und der das Mäntelchen der künstlichen Intelligenz nur als Mythos übergelegt wird, viel gefährlicher ist und schädlicher als eine echt, starke künstliche Intelligenz.

Die dann folgenden Antworten und Kommentare andere Autoren nehmen sich alle möglichen Details und Aspekte von Lanier, aber auch der ganzen Diskussion an. Es geht darum, ob eine künstliche Intelligenz ohne Körper überhaupt möglich ist, da dann der Zugang zu Emotionen nicht denkbar ist; es geht darum, inwieweit hier über Jahrzehnte hinweg immer wieder  übertriebene Erwartungen an künstliche Intelligenz geweckt wurden; es geht auch darum, ob das exponentielles Wachstum, das laut Moorschem Gesetz auf Halbleiterebene anzunehmen ist, auch für den Output der Computer, also die eigentliche künstliche Intelligenz gilt. Einige Autoren kommen zu dem Schluss: Ja, künstliche intelligenz wird uns auf absehbare Zeit nicht bedrohen und es gibt eine ganze Reihe von Gefahren, die viel dringender sind und die wir zuerst diskutieren sollten.

Andere Kommentatoren sind der Meinung: Es ist zwar sehr unwahrscheinlich, dass künstliche Intelligenz die Menschheit bedroht. Aber wenn das der Fall ist, dann ist es wirklich bedrohlich und von daher sollten wir lieber jetzt schon unsere Gedanken machen. Das ist die Abwägung zwischen Risiko und Wahrscheinlichkeit, die hier mit einer sehr starken Bevorzugung des Risikos entschieden wird. Wen dieses Thema interessiert, der sollte auf der Seite des Future of Humanities Institut der Universität Oxford schauen. Der Leiter ist übrigens der oben genannte Bostrom.

P.S. Wer noch nicht genug von dieser Diskussion hat, dem seien die aktuellen Seiten von edge empfohlen. Die Frage 2015 lautet: "What do you think about machines that think?". Und viele, viele Seiten Antwort lauern hier...

Nachtrag Februar2015: Die Deatte scheint in Fahrt zu kommen. Die Edge-Frage wird jetzt auch in Deutschland rezipiert (z.B. hier und hier),  Wired schildet die Entwicklung vn Künstlicher Intelligenz in den letzten Jahrzehnten und auch der Blog des World Economic Forum greift das Thema auf.

Samstag, 17. Januar 2015

Lange Zeitreihen 2

Zeitungen meldeten letztes Jahr, dass China endlich die USA als größte Wirtschaft überholt habe. Hintergrund war eine Berechnung des Internationalen Währungsfonds im Herbst. Die Angemessenheit der Indikatoren wurde sofort angezweifelt,  die meisten Kommentatoren kamen zu einem deutlich späteren Zeitpunkt für dieses Ereignis. Der Economist z.B. lässt seine Leser seit Jahren raten, wann es endlich soweit ist. Zuletzt veröffentlichte er im August 2014 ein Update und kommt eher auf 2019 oder später. Das ist übrigens just der Zeitpunkt, zudem laut OECD China auch in Hinblick auf Forschungs- und Entwicklungsausgaben aufgeschlossen haben wird.


Ob nun 2014, 2019 oder 2022 ist aber eigentlich nebensächlich, wenn wir in etwas längeren Zeiträumen denken. Mit sehr langen Zeitreien hat sich z.B. Ian Morris in seinem Buch "Wer regiert die Welt?" auseinandergesetzt. Er hat einen zusammengesetzten Indikator entwickelt, den er gesellschaftliche Entwicklungen nennt und der aus den Teilindikatoren Kriegsführungskapazität, Urbanisierung, Energieausbeute und Informationstechnik besteht. Die zugehörige Grafik, die von grauer Vorzeit bis heute reicht und nicht Länder sondern Wirtschaftsräume miteinander vergleicht in Morris Worten den Osten und den Westen , sieht dann so aus:

Insgesamt scheint es ein knappes Kopf an Kopf Rennen zu sein, in dem mal der Osten, mal der Westen vorne ist. Die Pointe am Ende des Buches ist übrigens, dass beide miteinander verschmelzen und in einer sehr engen Abhängigkeitsbeziehungen leben: die USA und China werden zu Chimerika. Dieser Blogbeitrag setzt sich kritisch mit Morris Ansatz auseinander. Die eingangs erwähnten Daten zeigen aber, daß der grundsätzliche Trend schon stimmt. Die Globalisierung ändert das weltweite Gleichgewicht, Europa ist schon lange nicht mehr die Nummer 1, und die USA absehbar dann auch nicht mehr.
Wie es zu dieser Vorherrschaft des Westens kam, beschreibt exemplarisch ziemlich anschaulich das (wenn auch zumindest in der deutschen Ausgabe leider schlecht geschriebene) Buch "King Cotton". Technischer Fortschritt und militärische Gewalt (sowie eine restriktive Marktabschottung) gaben dem Westen die Chance, die zuvor dominanten Baumwollregionen wie Indien zu überholen.


Jetzt haben Dekolonisierung, Freihandel, Änderungen innerhalb des Westens und auch Technologiediffusion dazu geführt, daß der Süden wieder Baumwollproduktion und -Verarbeitet bestimmten.



Wenn ich mir die aktuelle Diskussion um die Rückverlagerung der Produktion in die westlichen Industriestaaten anschaue oder auch darüber, in inwieweit neue Technologien die Globalisierung ausbremsen und höhere Löhne in China hier die weltweite Arbeitsteilung in Frage stellen, dann bin ich mir nicht sicher, in welche Richtung der Trend tatsächlich laufen wird. Lassen wir uns überraschen.



Freitag, 2. Januar 2015

lange Zeitreihen 1


Die OECD hat iisten letzten Wfällt t ne Serie von Blogartikeln veröffentlicht, die anlässlich des hundertso ist, sten Jahrestages des ersten Weltkriges die Situation heute mir der vor hundert Jahren vergleicht (z.B. hier und hier). Spannend ist zu Beispiel der Beitrag, wie sich Geschlechterungleichheit Demnachaicklt hat (hier), ausgehend von einer Situation vor hundert Jahren, als kriegsbedingt Frauen in alen Berufen dominierten.

Was die Artikel auch faszinieend macht, ist die Perspektive von hundert Jahren. In langen Entwicklungen zu denken, liegt leider nicht immer nahe. Auch in der Innovationspolitik wird meist nur ein Zeitraum der letzte paar Jahre überblickt, die längeren Entwickungslinien bleiben ausgeblendet. Der jüngste Bundesbericht Forschung und Innovation (BuFI) beschreibt bei seinem Blick auf die FuE-Quote (S. 18) nur die Jahre seit 1991. Das sieht dann (abgesehen vom Rückgang der ersten Jahresscheibe 1991 auf 1995) wie eine stete Aufwärtsbewegung aus, von 2,19% (1995) auf 2,98%.

Ältere Daten sind gar nicht so einfach zu finden. Der BuFI hatte zwar einen Vorgänger, aber den ersten Bricht zur technlogischen Leistunhsfähigkeit gibt es auch erst ab 1995 (die Aktualisierung von 1996 findet sich noch im Netz, mit  Daten ab 1981). Die Daten des 1996er Berichts auf S. 30 lesen sich schon anders als diedes letzten BuFI. Demnach stieg die FuE-Quote von 1981 bis 1987 an (auf ein Hoch von über 2,6%) um dann 8 Jahre lang kontinuierlich zu sinken.



Ganz anders sieht das Bild dann nach dieser Quelle von Kaplan (Using Federal R&D to promote commercial innovation, April 1988) aus, nachdem die FuE-Quote seit den 60er Jahren beständig stieg.





















 
Wenn man dann alle Datenreihen zusammenfügt, bekommt man ungefähr die nchfolgende Graphik. Da erscheint dann der Abfall von Anfang der 90er eher als kurzer Einbruch.
















Ähnlich argumentiiert übrigens diese Langfristbetrachtung der OECD aus dem Jahr 1997 in ihrer Conclusion:

"In the case of Japan and Germany, large macroeconomic shocks (caused by the burst of the financial bubble and unification respectively) had a very detrimental effect on all forms
of investment including R&D"
 

Mit Abstand scheint mir das auch so. Lange Zeitreihen schaffen also einen guten Überblick...


P.S. wie das so ist, hinterher fällt einem immer noch was ein. Drei Punkte muss ich heute noch nachliefern.

Zunächst hat mich die Frage beschäftigt, wie weit man die statistische Zeitreihe eigentlich zurückverfolgen kann. Für Deutschland wohl nur bis in die 50er Jahre, für die USA bis in die 30er Jahre. Dieser Artikel gräbt ein wenig in der Vergangenheit und gelangt zu den historischen Wurzeln der FuE - Quote. Demnach lag die Quote in den USA (und sicher auch in Deutschland) damals deutlich unter 1%. Am Anfang waren es nur branchenspezifische Innovationsintensitäten, die gemessen wurden. Dann hatman auch die staatliche Finanzierung dazugerechnet und eine volkswirtschaftliche Gesamtinvestition in Forschung ermittelt.

Genau so kann man sich fragen, wohin das ganze führen soll. Wie viel Prozent sind realistisch? Wenn man sich die höchsten Zahlen einiger Länder oder auch Regionen anschaut, so sind 4 bis 5 % durchaus erreichbar - zumindest theoretisch. Allerdings hängt es in der Praxis auch davon ab, welche Branchen eigentlich in einer Region bzw. einem Land vertreten sind. Dieser Beitrag, der im Rahmen der Diskussion um das Europäische 3 % -Ziel entstanden ist, setzt sich sehr kritisch mit einer einheitlichen Zielsetzung auseinander und legt ziemlich deutlich offen, dass vor allem die Branchenstruktur den entscheidenden Einfluss über eine mögliche und erreichbare Iinnovationsintensität ausmacht.

Aber gleichwohl, der Trend geht nach oben! Und das muss doch einen Grund haben ( - und vielleichtauch irgendwann doch ein Ende). Genannt werden, in lockerer Schüttung und hier ohne Quelle und Verweis: Höheres Preisniveau für akademische Arbeit, wissensintensivere Güter (möglicher Indikator: mehr Investitionn in immaterielle Güter), Folgen des Wettbewerbs, sektorale Verschiebungen der Volkswirtschaften (hin zu diensleistungsintenisveren Gütern) ... Aber entscheidend sind wohl die Effekte in einzelnen Branchen. Und da sind wir fst wieder beim Ausgangskonzept der 30er Jahre...