Sonntag, 20. Dezember 2015

Neolitische Revolution und Innovationen

Gestern habe ich mir als Podcast den Vortrag eines Archäologen zum Thema Innovationen in der Frühgeschichte angehört. Ich beschäftige mich zwar beruflich schon wirklich lange mit Innovationen, und Geschichte, auch die Ur- und Frühgeschichte, fand ich schon immer spannend, aber diesem Zusammenhang hatte ich bisher noch nie gesehen. Dabei ist es eigentlich natürlich ziemlich einleuchtend. Archäologen machen sich Gedanken über frühe Kulturen. Sie versuchen also, menschliche Gesellschaften anhand ihrer kulturellen Eigenarten zu beschreiben und vor allen Dingen die Interaktion zwischen diesen Kulturen zu analysieren. Veränderungen in den Kulturen, die sich vor allen Dingen an Innovationen festmachen, sind dabei ein wichtiges Merkmal. Von daher müssen sich Archäologen zwangsläufig mit der Frage beschäftigen, was Innovationen sind, warum Gesellschaften Neues hervorbringen und warum sich dies durchsetzt, wie sich Innovationen verbreiten, und vor allen Dingen, wie diese Verbreitung zu interpretieren ist. Mindestens drei Fragen sind dabei zu beantworten, die sich auch die moderne Innovationsforschung stellt.

Warum wird überhaupt innoviert? Vermutlich sind es schon äußere Veränderungen, ist das der Stress, der Menschen dazu bringt, sich neue Lösungen zu überlegen. Not macht erfinderisch, wie der Autor in meinem Vortrag meint. Ich finde, das kann man schön sehen an der aktuellen Flüchtlingssituation, die ja auch Stress für unsere Gesellschaft ist, und in der unheimlich viel innovatives Potenzial freigesetzt wird.

Dann ist ja die Frage, ob Innovationen immer nützlich sind. Ob sie also einen wirtschaftlichen Vorteil bringen. Und da heutzutage vor allen Dingen innovationsökonomen das Geschäft der Innovationsforschung betreiben, fällt die Analyse häufig zu Gunsten des ökonomischen Nutzens aus. Aber die Geschichte, und zwar die lange Geschichte angefangen in der Jungsteinzeit zeigt wohl, dass die Nützlichkeit nicht immer der ausschlaggebende Grund ist, neues anzunehmen. Häufig sind dassoziale Prozesse, die mit Prestige zu tun haben, mit kultischen Fragen, oder einfach auch mit Geschmack. Das schönste Beispiel des Vortrags fand ich den Übergang von der Jäger- und Sammler-Gesellschaft zur Sesshaftigkeit mit Ackerbau und Viehzucht. Das war für den Einzelnen nicht wirklich ein positiver Wandel, da nun lange harte Arbeit den Tag strukturierte, während die Jäger und Sammler viel mehr freie Zeit gehabt hatten. Gesamtgesellschaftlich war das Ganze aber scheinbar schon ein Erfolgsmodell, sonst hätte es sich nicht durchgesetzt.

Und die dritte Frage ist vor allen Dingen für die Geschichtsforschung eine zentrale. Haben sich Innovationen ausgebreitet, weil sie von Menschen mit genommen wurden, oder sind nur Ideen gewandert. Haben wir es also mit einem Phänomen des Transfers zu tun oder der Migration. Das ist dann zentral, wenn man die Frage beantworten möchte, ob zum Beispiel der Ackerbau durch Menschen mitgebracht wurde die dann in Mitteleuropa sesshaft wurden, oder ob einfach die Technik des Ackerbaus Stück für Stück aus dem Balkan und Donauraum bis nach Mitteleuropa weitergegeben wurde. Ein anderes Beispiel sind die vielen Kulturen, die sich nur an unterschiedlichen Keramik -Stilen identifizieren lassen, Bandkeramik und so weiter. Auch hier kann man fragen, ob dahinter tatsächlich auch einheitliche Gruppen standen, die sich auch biologisch als miteinander verwandt festmachen lassen, oder ob ihr einfach eine Mode weitergegeben wurde. Sollten in der Zukunft Archäologen unsere Zivilisation ausgaben, würden sie vermutlich nicht davon ausgehen, das nur deshalb, weil Menschen fast auf der ganzen Welt iPhones benutzt haben, diese auch miteinander verwandt waren.

Die moderne Innovationsforschung setzt ihren Schwerpunkt also auf den Transfer von Wissen und Innovationen. Es sind die Produkte, die verkauft werden, sind die Ideen, die weitergegeben werden, es ist der spillover vom Innovator zu den vielen anderen Akteuren des Innovationssystems. Einzelne Menschen, die ihre Ideen mitnehmen, spielen keine große Rolle. Das hat sicher auch forschungspraktische Gründe. Nicht zuletzt der Datenschutz, aber einfach auch die Kosten zur Umsetzung einer solchen Methodik machen es praktisch unmöglich, Einzelpersonen in den Blick zu nehmen, wenn man Innovationsprozesse über längere Zeiträume verfolgen möchte.

Dabei wäre es schon interessant zu beobachten, wie sich Neues über den individuellen Werdegang der Beteiligten ausbreitet. Wie sich also zum Beispiel aus Forschungsprojekten durch den beruflichen Werdegang der Beteiligten, ihre Veränderungen des Arbeitsplatzes, ihren direkten Austausch mit Kollegen und Freunden Neues Stück für Stück verbreitet. Migration statt Wissenstransfer als wichtiges Element der Ausbreitung. Stattdessen schauen wir uns in der Regel an, wie sich die Kooperationsbeziehungen von Organisationen, von Forschungseinrichtungen und Unternehmen im Laufe der Zeit verändern und welchen Einfluss darauf die Beteiligung an Forschungsprojekten hat. Alles richtig, aber möglicherweise nur die halbe Geschichte.

Samstag, 12. Dezember 2015

Startups und Großkonzerne

Anfang Dezember stellte der Stifterverband wie jedes Jahr die neuesten F&E Zahlen für Deutschland vor. Demnach nähert sich Deutschland mit 2,87 Prozent weiter seinem drei Prozent Ziel an. Die Welt scheint in Ordnung. Noch. Allerdings macht der Stifterverband auch deutlich, dass ein Großteil der privaten F&E Investitionen auf das Konto der großen Konzerne geht. Und die sind aktuell mitten in einem Umbau, von dem man nicht weiß, wie er sich zum Beispiel schon nächstes Jahr auf die Statistik auswirken wird.

Beispiel VW: Hier gab es diese Woche eine Pressekonferenz, wie der Konzern auf den Abgaskanal reagieren und seine Strukturen umbauen möchte. Zwar wiegelt die Konzernspitze ab. Die drohenden Kosten zur Bewältigung des Skandals sind scheinbar geringer, als zunächst gedacht. Aber das wahre Ausmaß der finanziellen Belastungen ist aufgrund der anstehenden Klagen in den USA noch nicht wirklich abzusehen. Und damit auch nicht, ob der Konzern mehr finanzielle Ressourcen aus der Forschung in solche Zahlungen umwidmen muss als heute schon absehbar. Und das könnte sich tatsächlich in der Statistik niederschlagen. Jedes Jahr aufs Neue zeigt die Kommission in ihrem European Industrial R&D Scoreboard, das VW mit Abstand der größte Investor in Forschung und Entwicklung und das weltweit, andere Quellen wie PwC bestätigen das. Aber vielleicht steigert das Unternehmen ja auch seine Forschungsaufwendungen, zum Beispiel im Bereich Elektromobilität, die erst kürzlich verkündet. Und das wäre möglicherweise auch dringend, da ganz aktuell eher die Meldungen über chinesische Erfolge bei der Elektromobilität durch den Blätterwald rauschen als deutsche. Hierzulande scheinen die Verkaufszahlen sogar noch zurückzugehen.

Ein anderer zentraler Spieler ist Siemens. Der neue Unternehmenschef hat gerade erst ziemlich vollmundig verkündet, dass Siemens in Zukunft mehr in Forschung und Entwicklung investieren wird als bislang. Außerdem möchte Siemens die kreative Kraft seiner eigenen Mitarbeiter neu nutzen, indem so etwas wie interne Start-ups besser gefördert werden. Das ist jetzt kein neues Konzept, auch für Siemens nicht, aber es zeigt, wie man sich dort Sorgen macht, als Großkonzern die rasanten Technologieentwicklungen zu verschlafen. Außerdem soll, wie das aktuelle Magazin von Siemens pictures of the future zeigt, noch stärker mit anderen Start-ups zusammen gearbeitet werden.

Das zeigt sich in letzten Jahren sowieso immer stärker als drin, dass Großkonzerne zum Beispiel über corporate venture den Kontakt zu jungen Unternehmen suchen. Auch wenn diese Zusammenarbeit nicht immer von Erfolg gekrönt ist, wie diese Meldung zeigt.

P.S. Kleiner Nachschlag: jetzt machen sich die Konkurrenten von VW noch einen Spaß drauf und fordern den Konzern auf, statt teuer umzurüsten doch gleich in Elektromobilität zu investieren ...

Sonntag, 29. November 2015

Digitalmanifest

Vor kurzem erschien ein sogenanntes digitales Manifest in der deutschen Ausgabe der Spektrum der Wissenschaft. Es ging nicht wie so häufig in aktuellen Artikeln zur digitalen Revolution darum, inwieweit Deutschland Nachholbedarf habe, zu wenig auf digitale Veränderung vorbereitet seit oder sogar kulturell geprägt zu große Ängste vor den Segnungen der digitalen Revolution habe. Nein ganz im Gegenteil: Eine ganze Reihe namhafter und honorige Wissenschaftler warnen darin vor dramatischen Konsequenzen der Digitalisierung, insbesondere im Hinblick auf einem Missbrauch durch den Staat.

Das klang alles gut gemeint, und natürlich möchten wir nicht, dass der Staat uns manipuliert, dass Allmachtsphantasien sich in Planungswut ausleben, das digitale Systeme über Menschen entscheiden. Aber mal davon abgesehen, dass eine ganze Reihe von Grundannahmen in meinen Ohren mehr als merkwürdig  klangen ( zum Beispiel die Kantsche These, dass Demokratien keine Kriege führen, was wie dieser Artikel zeigt nicht stimmt), fand ich auch den allgemeinen Tenor sehr alarmistisch, ja fast schon verschwörungstheoretisch.

Eine der größten Bedrohungen, die in dem Artikel gezeichnet wurden, stellte das sogenannte "big nudging" da. Zu denken ist big nudging als eine Verbindung von Big Data und dem klassischen nuging. Die Politik könnte versuchen, mit Hilfe intelligenter Algorithmen ganze Gesellschaften digital abzubilden und zu steuern. Natürlich würde das nach Ansicht der Autoren alles ziemlich schief gehen, wo ich Ihnen ausnahmsweise recht geben würde. Aber schon die Grundannahme, dass solche Steuerungsversuche in nächster Zukunft möglich oder gar wahrscheinlich wären, kann ich beim besten Willen nicht teilen. Mir scheinen auch die Indizien, die im Artikel genannt werden, wie die Buchempfehlungen von Amazon (andere Leser haben XY gekauft) oder die individualisierten Sucheinstellungen bei Google nicht wirklich zu tragen.

Und die bekannten nudging-Versuche der Regierungen nicht nur in Deutschland, sondern insbesondere in Großbritannien oder den USA sind mehr als harmlos. Da geht es dann eher darum, die Anschreiben zur Steuererklärung etwas umzuformulieren, um die Leute dazu zu bewegen, diese schneller auszufüllen. Das ist doch mehr auf der Ebene von Warenregalen in Supermärkten, in denen die Waren nicht zufällig sortiert sind, sondern so, dass der Kunde möglichst viel von den teuren Produkten kauft. Auch die Versuche, Gesellschaften digital zu erfassen,  waren  (siehe z.B. futureICT) eher nicht so erfolgreich.

Im Manifest wird ziemlich am Ende des Textes auch das abschreckende Beispiel China genannt, in dem jetzt alle Bürger mit ihrem Internet erhalten geraten werden sollen. Dieses Beispiel zirkuliert schon länger im Netz. Ein neues "social credit system" oder "citizen scoring"
sogenannte sesame credits bei der Alibaba-Tochter Alipay, um insbesondere die Kreditwürdigkeit einzuschätzen. Mit dem neuen Chinesischen System beschäftigte sich zum Beispiel ein Artikel auf Netzpolitik. Die Zeit titelt in ihrem Blog-Beitrag sogar "China plant die totale Überwachung".
"Schon seit einigen Jahren ist die chinesische Führung dabei, ein System zu entwickeln, das das Verhalten seiner Bürger bewertet und öffentlich macht. Ausgangspunkt waren zahlreiche Berichte über das rüpelhafte Verhalten vieler chinesischer Touristen im Ausland."
Kritische wäre es, wenn auch social media Aktivitäten Teil des Bewertungssystems würden. Die scheinen die Player in China aber bislang zu dementieren, wie einige Blogeinträge (z.B. hier ) melden. Inzwischen hat eine parallele Diskussion um die für November angekündigte App Peeple auch die deutsche Blog-Szene erreicht und sehr kritisch kommentiert. Das sind sicher Eindrücke, vor deren Hintesgrund das Manifest entstand.

Ich habe den Eindruck, dass digitale Manifest ist stark beeinflusst vom Buch von Nick Bostrom zur Superintelligenz. Da geht es allerdings in letzter Konsequenz eher um die Welt Vernichtungsmaschine. Ich hatte das Buch von Boston bereits vor einiger Zeit gelesen. Jetzt bin ich aber über einen schönen langen Artikel des New Yorker gestoßen, der nicht nur auf das Buch, sondern insbesondere auf die Person von Bostrom und die verschiedenen Diskussionsstränge, die zu seiner Idee führten, eingeht. Intern spekuliert Bostrom darüber, ob ein wirklich intelligenter Computer so schnell so viel lernen würde, dass er die Menschheit beherrschen kann. Bostrom selbst scheint mir ein sehr ambivalenter Charakter zu sein. Auf der einen Seite verliebt in die Frage, welches Ereignis zum Weltuntergang führen könnte. Auf der anderen Seite nach eigenem Bekenntnis an Anhänger des Transhumanismus. Also jene Bewegung die den Menschen mit Hilfe technischer Mittel und Errungenschaften der modernen Wissenschaft weiter verbessern vervollkommnen möchte. Bis hin zum ewigen Leben. Eine schöne Zusammenfassung des Transhumanismus findet sich in diesem Artikel aus der Frankfurter Allgemeinen Sonntagszeitung. Man sieht, die Zukunft scheidet die Geister.

Aber die finale Szene zur Doomsday-Maschine bleibt weiterhin die folgende:


 


Freitag, 13. November 2015

Bessere Politik durch Evaluation?


Gestern Abend war ich auf einer Podiumsdiskussion zum Thema „Bessere Politik durch Evaluation?“. Ich hatte Dir dazu ja schon die Veranstaltungseinladung geschickt.

 

Das Leitthema wurde gleich zu Beginn etwas in Frage gestellt, als der Moderator Dirk Asendorpf ins Publikum fragte, wie viele der Anwesenden Evaluatoren, wie viele Auftraggeber von Evaluationen und wie viele aus dem Bereich der Politik seien. Evaluatoren und ihre Auftraggeber verteilten sich in etwa hälftig, die Politik war praktisch nicht vertreten. Vielleicht machte das schon ein Problem deutlich (die Politik interessiert sich eigentlich nicht für Evaluation?), vielleicht lag es aber auch eher an der Frage, was überhaupt mit Politik in diesem Kontext gemeint ist. Prof. Thomas Widmer aus der Schweiz, einer der Diskutanten, brachte diese Frage gleich zu Beginn auf. Ist Politik die Verwaltung in den Ministerien, oder ist Politik nur die politische Leitung der Ministerien, ist sie die vielleicht auch nur die Parteipolitik in Person der Abgeordneten? Das ist eine durchaus relevante Frage, da davon auch die möglichen Wirkungen abhängen. Prof. Reinhard Stockmann vom Centrum für Evaluation der Universität des Saarlandes, ein weiterer Diskutant, zitierte amerikanische Studien, nach denen Evaluationen auf der Verwaltungsebene sehr wohl zu verändertem Handeln führen, während die Effekte auf der parteipolitischen Ebene praktisch gleich Null sind. Und Hr. Widmer ergänzt, dass dies auch möglicherweise sehr rational sei, da sich gute Politik durch Information, aber auch durch Ideologie und Interessen getrieben sei. Die „evidence based policy“ sei also gar nicht die perfekteste aller Welten (was er wörtlich nicht so sagte, ich aber zwischen den Zeilen raushörte).

 

Ein weiterer Diskussionsschwerpunkt widmete sich der Frage, ob wir mehr Evaluationen strategischer Politikansätze und ganzer Politikfelder brauchen, und dann auch andere Institutionen, die diese strategischen Evaluationen beauftragen und durchführen können. Mit auf dem Podium saß nämlich auch Michaela Zintl, die bis vor kurzem kommissarische Direktorin des Deutschen Evaluationsinstituts der Entwicklungszusammenarbeit (DEval). Dieses Institut wäre sicher besser in der Lage, solche übergreifenden Evaluierungen durchzuführen. Oder  vielleicht auch nicht? Zumindest hat das erst vor drei Jahren gegründete Institut wohl schon sehr turbulente Anfangstage hinter sich, mit einem nur kurz amtierenden Gründungsdirektor, mit einer kommissarischen Direktorin, die vom Hauptauftraggeber BMZ entsandt wurde und gestern wie gesagt auch auf dem Podium saß. Mit war diese Vorgeschichte nicht präsent gewesen (hier ein interessanter Artikel aus dem letzten  Jahr mit einem Interview des entlassenen Gründungsdirektors), gestern Abend schwang sie auf jeden Fall deutlich mit und führte zur wiederkehrenden Thematisierung des Frage nach Unabhängigkeit.

 

Ein kleines Nebengefecht entwickelte sich um das Verhältnis von Evaluation und Journalismus. Mehrere Diskutanten warfen dem Journalismus relativ plakativ vor, Evaluationsergebnisse zu verdrehen und nicht zu verstehen und so zu einer dramatisierenden Berichterstattung zu führen, die manchen Institutionen keine andere Wahl lasse als Evakuationsbericht nicht zu veröffentlichen. Von der anderen Seite wurde dagegengehalten, dass Evaluationsberichte ja häufig kaum lesbar und verständlich seien und die Zusammenfassungen in verständlicher (leichter?) Sprache dann nur noch weichgespülte Werbetexte für die Öffentlichkeitsarbeit enthielten.

 

Ein letztes Diskussionsschwerpunkt wurde durch den vierten Podiumsgast, Frau Angelika Flatz aus dem österreichischen Bundeskanzleramt, bestimmt, die das neue System der Wirkungsorientierten Haushaltsführung vertrat (hier eine Studie der Hertie School of Governance aus dem letzten Jahr zum Thema). Kurz gesagt geht es darum, für jedes Ressort verbindliche Ziele und Zielerreichungsindikatoren zu bestimmen und dies mit der Haushaltsführung (und ggf. auch der Budgetzuweisung) zu verknüpfen.  Frau Flatz war sehr enthusiastisch und pries vor allem die Veränderungen im Kopf der Beteiligten, die sich nun systematisch Gedanken machen müssen, welche Effekte sie mit ihrer Politik eigentlich erreichen wollen und welche Wirkannahmen diesem Handeln zugrunde liegen. Leider ging sie nicht wirklich auf die Frage des Moderators ein, ob ein solches Kennzahlen-basiertes Steuerungssystem nicht schnell zu einer Politik der einfachen (weil messbaren) Schritte führt. Mir sind aus Österreich im Politikfeld Innovations- und Technologiepolitik auch schon ein Reihe sehr kritischer Stimmen zu Ohren gekommen. Aber es war gestern ja kein österreichischer Abend, sondern ging vor allem um Deutschland.

 

Unterm Strich ein spannender Abend, aber ich bin eher mit Fragen als mit Antworten zum Thema „Bessere Politik durch Evaluation“ herausgekommen.

Samstag, 7. November 2015

Big Data?

Wenn sich die Qualität einer Veranstaltung an dem Grad bemisst, den sie zum Nachdenken anregt, so war ich letzte Woche auf einer wirklich interessanten Veranstaltung. Organisiert hatte sie das Alexander von Humboldt -Institut für Internet und Gesellschaft , eingeladen waren die neue Deutschland -Chefin des Google NewsLab und ein Soziologe der London School of Economics. Beide sollten über das Veranstaltungsthema Big Data sprechen, natürlich jeweils aus ihrer individuellen Perspektive und vor dem Hintergrund ihrer Tätigkeit. Und da lagen schon zwei Probleme der Veranstaltung. Beide Redner sprachen nur sehr bedingt über BIG Data, und beide hatten einander wenig zu sagen.
Die Google Frau spulte eher eine Werbepräsentation ab. Google hat ja in den letzten Monaten ein Angebote für Zeitungen bereitgestellt, um die Journalisten dort im Umgang mit Daten und Grafiken und der Visualisierung zu schulen. Wenn man auf die Website schaut, sieht das wirklich auch ganz beeindruckend aus. Aber natürlich sind auch eine Reihe von kritischen Fragen damit verbunden, zum Beispiel, ob hier ein Konzern nicht sehr viel Einfluss bekommt auf die sogenannte vierte Gewalt.
Entsprechend wurde auch nach dem Vortrag letzte Woche nachgefragt. Und Zahlen sind natürlich nicht alles, wie dieser Artikel zu Pegida zeigt. Aber Datenjournalismus führt auch zu sehr ansprechenden und informativen Ergebnissen. Wobei sie nicht unbedingt etwas mit Big Data zu tun haben, also mit wirklich großen Datenmengen und einer analytischen Auswertung. Es geht eher deskriptiv um die Beschreibung von Daten in ansprechenden Bildern. Letztlich war auch der Vortrag des Londoner Soziologen auf einer ähnlichen Ebene angesiedelt. Auch hier ging es leider nicht darum, wie sie wirklich große Datenmengen zum Beispiel aus sozialen Netzwerken durch soziologische Analysen genutzt werden können, sondern eher darum, wie man Daten schöner darstellen und damit seine Aussagen besser untermauern kann. Zumindest waren das die Beispiele, die de Herr aus London uns präsentierte.
Dass das auch anders geht, blitzt an einer Stelle der Diskussion auf. Unser britischer Gast gab zu, dass er am liebsten Zugriff auf die Daten von Tesco hätte, der britischen Einzelhandelskette, um hier auch Sozialdaten nutzen zu können. Woran sich sogleich die Nachfrage anschloss aus dem die Publikum, ob es denn ethisch zulässig sei, Daten von Unternehmen zu nutzen, deren Kunden nie eingewilligt hätten, Objekt einer soziologischen Untersuchung zu werden.
Wie fruchtbar der kontroverse Dialog zwischen Sozialwissenschaft und Datenjournalismus sein kann, zeigt dieser Bericht über eine Tagung im Herbst. Da versuchen Sozialwissenschaftler, ihren privilegierten Zugang zur Datengenerierung und Interpretation tapfer zu verteidigen, während Journalisten die neuen Möglichkeiten nutzen, um selbst zu einer quasi sozialwissenschaftlichen Rolle zu kommen. Die Grenzen zwischen Wissenschaft und Nichtwissenschaft verschwimmen.
Sei's drum, mich hat die Veranstaltung angeregt. Und Datenjournalismus finde ich eh super. Tollen Datenjournalismus und interaktive Graphiken bietet z. B. die Berliner Morgenpost mit ihrem interaktiven Team. Sonst nicht meine Zeitung, aber das machen sie gut.

P.S. Hier ganz  neu ein Artikel der Veranstalter zur soziologischen Seite des ganzen

Donnerstag, 5. November 2015

Ist Gründen ansteckend?

Ist Gründen ansteckend? Das fragen zwei Autoren in diesem Artikel. Sie stützen sich auf Erkenntnisse, die sie bei der Untersuchung der Gründerlandschaften in Mexico City, Buenos Aires und Istanbul gesammelt haben. Und sie gehen an die Daten mit einem netzwerkanalytischen Ansatz heran. Sie behaupten, dass immer dann, wenn einige wenige Gründer erfolgreich an einem Standort herangewachsen sind, weitere Gründen folgen, weil sie von deren Know-how und finanziellen Ressourcen profitieren. Das ist zunächst einmal nicht wirklich neu. Klar, erfolgreiche Gründer werden nicht selten zu VC-Investoren und finanzieren so neue Gründer. Und neue Gründer profitieren von Erfahrungswissen der alten Gründer, denen sie über Stammtische, Netzwerke, Mentoring-Programme, Startup-Verbände und vieles mehr verbunden sind. Nicht umsonst wird im genannten Artikel von einem Ökosystem gesprochen, ein Begriff, der auch in der sonstigen Gründerforschungsliteratur immer wieder verwendet wird.

Interessant finde ich den Artikel, weil er auf die persönliche eins-zu-eins-Beziehung zwischen individuellen Gründern hinweist. Es sind persönliche Beziehungsnetzwerke, die hier zum Tragen kommen, nicht Netzwerke zwischen Institutionen oder Firmen. Und das ist ein Aspekt, der mir in der Innovationsforschung noch zu selten analysiert wird. Die Weitergabe von Wissen, Erfahrung und Erkenntnissen läuft halt in der Regel über Köpfe, und zwar über einzelne Köpfe. Es sind Menschen, die ihr Wissen mitnehmen, wenn sie von einem Unternehmen zum nächsten wandern, oder aus einer Forschungseinrichtung in ein Unternehmen.

Bei der Evaluation von Innovationsförderprogrammen zum Beispiel wird dieser Aspekt praktisch nie untersucht. Das hat ganz forschungspraktische Gründe. Datenschutzrechtlich ist es schwierig, auf der Einzelpersonen -Ebene zu untersuchen, weil z.B. Adressen selten weitergegeben werden können und dürfen, wenn Mitarbeiter ein Unternehmen verlassen. Stattdessen werden Kooperationsstrukturen zwischen einzelnen Institutionen untersucht. Das ist aber nur die halbe Wahrheit. Der wesentliche spill over passiert über Köpfe, da bin ich mir ziemlich sicher.

Ach ja, wenn wir gerade bei Gründern, beim zwischenmenschlichen Miteinander und bei Ökosystemen sind. Kennen Sie den Kaffeekultur-Indikator? Im August schrieb Gründerszene über einen neuen Indikator, nachdem sich an der Kaffeekultur eine Hightech Metropole erkennen lässt. In den Index fliessen Verfügbarkeit, Qualität und Popularität von Cafes ein. Nach dem Motto Doppelpunkt je mehr Raum für ein nettes Miteinander der Gründer im lauschigen Kaffees ist, desto stärker prosperiert die Gründermetropole. Nach diesem Index liegt Berlin übrigens auch ganz vorne.

Wobei mir die Kausalität noch nicht ganz klar ist. Führt nun die Kaffeehauskultur zu einem erfolgreicheren Gründerstandort, oder zieht der Gründerstandort die entsprechende Kaffeehauskultur nach sich? Auf jeden Fall scheinen Kaffeehäuser echte Ansteckungsherde für Gründer zu sein. Also Vorsicht beim nächsten Kaffee.

Sonntag, 1. November 2015

Experimental design und Evaluation

Vor gut zwei Wochen war ich auf einem Fachgespräch eingeladen, um ein Statement zum Thema Experimente Design aus Sicht der Evaluation zu geben. Als Hauptreferent eingeladen war Albert Bravo-Biosca von NESTA, einem britischen think tank zum Thema Innovationspolitik. Er arbeitet gleichzeitig beim Innovation Growth Lab, einer kleinen Agentur, die sich zum Ziel gesetzt hat, das Thema Experimente Design in die Welt zu tragen. Als dritter Gast war eine Wirtschaftsprofessorin aus München zugegen, deren Arbeitsschwerpunkt ebenfalls im Bereich der Innovationspolitik liegt und die sich als Mitglied diverser Beratungsgremien schon des öfteren für neue methodische Ansätze der Evaluation, insbesondere auch Experimental Design eingesetzt hatte.

Hinter Experimente Design verbirgt sich die Idee, ein und dasselbe politische Ziel mit unterschiedlichen Methoden anzustreben, also sozusagen auszuprobieren, auf welchem Weg man am besten, schnellsten und billigsten ans Ziel kommt. Und gleichzeitig gehört zu Experimente Design auch, dieses unterschiedliche Vorgehen quasi wissenschaftlich zu begleiten und zu analysieren, um zu messen, wo die höchste Wirkung mit erzielt wird.

Experimente Design wird insbesondere im Bereich der Entwicklungspolitik immer häufiger eingesetzt, um methodische wasserdicht zu zeigen, das Hilfe wirkt. Häufig werden auch wie in der medizinischen Forschung Kontrollgruppen geschaffen, denen eine andere oder keine entsprechende Maßnahme zuteil wird. Diese Kontrollgruppe wird zufällig ausgewählt, da heißt das Verfahren randomized controlled trial. Bekannt sind z.B. die Ansätze von Esther Duflo.

In der Innovationspolitik gibt es für randomized controlled trials oder Experimental Design Ansätze in Deutschland keine Beispiele. Deswegen hatte ja eines der innovationspolitisch verantwortlichen Ministerien zu diesem Fachgespräch eingeladen. Herr Bravo-Biosca schilderte eindrücklich, wie viele gute Beispiele es weltweit schon gebe und wie hilfreich ein solcher Ansatz sei.

Gleichwohl gibt es auch eine ganze Reihe von Faktoren dafür, dass dies bislang noch nicht umgesetzt wird. Zum Beispiel ist die Förderkultur hierzulande auf die Auswahl von Erfolgreichen, von Gewinnern ausgelegt. Hierfür wird der ganze Aufwand getrieben, Experten zur Bewertung von Förderanträgen zu finden, die wirtschaftliche Leistungsfähigkeit zu prüfen und Verwertungspläne auszuwerten. Kurzfristig in Kauf zu nehmen, dass man die Falschen auswählt, nur um mittelfristig ein besseres Förderinstrument zu erhalten, ist hier eher unwahrscheinlich.

Zweitens wird es nicht leicht sein, die Unterschiede bei einer abweichenden Verriegelung auf die Wirkung des Programms überhaupt zu messen. Evaluation sind hierzulande sehr früh angesetzt, zu einem Zeitpunkt, zu dem man echte Wirkungen kaum messen, sondern nur antizipieren kann.

Gleichwohl ist es ein faszinierender Ansatz, und wenn Förderpolitik neu gedacht würde, könnte ich mir Experimental Design in der Evaluationspraxis gut vorstellen. Vermutlich muss die Risikobereitschaft der Fördergeber auf kurz oder lang sowieso überdacht werden, um risikohaftere, disruptive Innovationen zu fördern.

Innovatives Hören

Thema des diesjährigen Wissenschaftsjahres war die Zukunftsstadt. Ich finde das Thema spannend und habe deshalb auch einige der Aktionen, die im Rahmen des Wissenschaftsjahres geplant waren, mitverfolgt.

Eigentlich ist das ja ein Thema, das extrem zum Mitmachen einlädt. So wahnsinnig viele Mitmach-Aktionen sind mir aber nicht aufgefallen. Man konnte mit Minecraft seine Stadt der Zukunft bauen. Das war eine Aktion, die sich eher an Jugendliche gerichtet hat. Man konnte auch Stadttöne aufnehmen und hochladen. Das war die Aktion Stadt Klang.

Ich dachte toll, endlich mal was, wo ich mich einbringen kann, und habe schnell ein Soundfile erstellt und hochgeladen. Dann habe ich mir die Website genauer angeschaut und auf andere Klänge geklickt, um sie mir anzuhören. Ganz Deutschland, oder vielmehr die großen Städte Deutschlands waren hier mit vielen vielen Klangbeispielen vertreten. Letztlich war es aber doch alles ziemlich ähnlich: Vögelgezwitscher (hatte ich selbst auch aufgenommen), Menschen, die sich unterhalten, Straßengeräusche, und in ländlichen Gebieten noch ein bisschen mehr Naturgeräusche. Wozu das alles aufgenommen wird, war mir nicht ganz ersichtlich. Die Text- und Video-Beiträge auf der Seite erläuterten eher alle möglichen anderen Themen zum Thema Lärm beziehungsweise Klang in der Stadt.

Ich hatte mir mehr erwartet. Irgendwelche soziologischen oder ökologischen Studien. Ich hatte nämlich gerade ein Buch gelesen, was mich sehr fasziniert hatte. Das große Orchester der Tiere von Bernie Krause. Krauses Idee ist es, dass man die Intaktheit eines Ökosystems anhand seine Klänge und Töne messen kann, da die Tiere sich alle in akustische Nischen eingerichtet haben. Und das hat er toll geschrieben, mit vielen Hörbeispielen und vielen persönlichen Erlebnissen. Aufmerksam geworden auf das Buch bin ich unter anderem über ein Radiofeature des Deutschlandfunk dazu. Das lohnt sich fast ebenso wie das Buch selbst, ist aber im Archiv nicht mehr zu finden. Stattdessen hier der Link auf einen ähnlichen Beitrag des SWR.

Und heute wird Krauses Ansatz auch von Zoologen in Deutschland ausprobiert, so zum Beispiel von der Uni Freiburg. Ein anderes soundscape Projekt will gleich die Klänge der ganzen Erde aufnehmen und ruft zum Mitmachen auf. Dagegen sind die Stadtklänge des Wissenschaftsjahres noch von bescheidenem Anspruch. Insgesamt tummeln sich da wohl einige Projekte. Auch die Universität Salford nimmt Klänge der ganzen Welt auf.

Aber natürlich geht es in diesen Projekten eher um ökologische Fragen und weniger um die Zukunft der Städte. Hier stehen vermutlich wirklich eher Fragen des Lärmschutzes und der klanglichen Stadtgestaltung im Vordergrund.

Und spannend wäre natürlich auch ein historischer Ansatz. Zu hören, wie sich die Klänge der Stadt im Zeitverlauf geändert haben. Wie die Stadt vor 20 Jahren klang. Und wie sie vielleicht in 20 Jahren klingen wird. Wenn zum Beispiel Elektroautos für leisen Straßenverkehr sorgen und die Klingel der vielen Fahrräder dafür den Klangraum bestimmen.

P.S. kleines Update mit toller Radioreportage des Tagesspiegel vom Dezember

Mittwoch, 28. Oktober 2015

Soziale Innovationen und Flüchtlinge

Wenn wir eines fernen Tages auf den Sommer 2015 zurückblicken werden, dann wird dieser Sommer vermutlich der Sommer der Flüchtlinge heißen. Das ist das zentrale  Ereignis, welches Deutschland nachhaltigst verändern wird.
Eine Reihe von Fragen sind heute noch offen. Wird die neue Zuwanderung die Wende in der demografischen Entwicklung Deutschlands bringen? Wird die Fachkräftelücke geschlossen? Folgt auf die Flüchtlingswelle eine Gründungswelle? Lassen sich die vielen Menschen aus anderen Regionen der Welt hier relativ konfliktfrei integrieren? Wie wird sich die Kultur in Deutschland durch diese Menschen verändern?
Auf all diese Fragen habe ich natürlich auch keine Antwort. Spannend finde ich die aktuelle Entwicklung aber auch aus einem anderen Grund. In diesem Thema wird deutlicher als sonst, wie Technologie soziale Entwicklungen beeinflussen kann oder auch könnte.
Das ganze fängt schon an mit der Rolle von Smartphones, die in einer ganzen Reihe von Artikeln herausgegeben wurde. Sascha Lobo schlug auf Spiegel Online einen etwas abenteuerlichen Bogen von Flüchtlingen, die Smartphones zur Orientierung nutzen, hin zu technikfeindlichen Deutschen. Und die Zeit bekräftigt jüngst: Natürlich brauchen Flüchtlinge Handys. Zur Orientierung, als Übersetzungshilfe, mit einer Lernapp zum Deutschlernen, zur Suche der richtigen Himmelsrichtung für das Gebet, und so weiter und so fort. Das Smartphone ist zum Zauberkasten geworden. Es ist das ultimative Werkzeug, um sich in einer fremden Welt zu orientieren.
Und es ist sehr anpassungsfähig. Neue Apps  werden für neue Situationen entwickelt, und das geht heute sehr schnell. In Dresden wurde eine Willkommens-App entwickelt, die mittlerweile auch in anderen Städten aufgegriffen wird. Und für Helfer gibt es eine App, die zeigt, wo welche Dinge noch gebraucht werden.
Ich habe selbst kürzlich gemerkt, wie hilfreich ein Handy zur Kommunikation ist. Mit syrischen Flüchtlingen hier in Pankow, die nur Arabisch sprachen, konnte ich mich unter Nutzung von Google Translate zumindest einigermaßen unterhalten.
Das Bundesministerium für Bildung und Forschung hat angekündigt, eine Sprachapp zum Deutschlernen in Auftrag zu geben. Und Norwegen hat die Entwicklung einer App angekündigt, die Flüchtlingskindern das Lesen lernen erleichtern soll.
Hier wird echter kreativer Geist freigesetzt, der zu echten Innovationen für die Gesellschaft, zu sozialen Innovationen im besten Sinne führt. Erste Preise sind für die besten Ideen ausgelobt worden. Ich habe jetzt ein wenig besser verstanden, wie unmittelbar soziale Innovationen im Sinne technologischer Innovationen für die Gesellschaft wirken können.

P.S.: hier ein neuer Spiegel-Artikel mit einer ganzen Reihe von guten Beispielen von einem Refugee-Hackathon in Berlin

P.P.S.: Wenn man erstmal darauf achtet, sieht man immer mehr spannende Beispiele, wie z. B. die Kiron Universität Berlin, die das Potenzial der bereits existierenden Online Kurse von Universitäten,  also der MOOCS, für Flüchtlinge öffnen möchte. Oder das Startup-Boat, von dem der Tagesspiegel am Wochenende berichtete.

P.P.P.S. die Artikelserien reißen nicht ab, wie auch folgendes Beispiele hier
 zeigt

Freitag, 23. Oktober 2015

Innovationen - one size fits all?

Im Oktober, auf ihrem Ministertreffen in Korea, stellte die OECD ihre überarbeitete Innovationsstrategie 2015 vor. Im Vergleich zur ersten Innovationsstrategie von 2010 sind hier neueste Ergebnisse aus diversen OECD Projekten eingeflossen. Interessant ist, welche Punkte die OECD selbst auf ihrer Website hervorhebt.

Da ist einerseits die langfristige Orientierung staatlicher Investitionen in Forschung und Entwicklung. Mich erinnert das an die Argumentation von Marianna Mazzucato in ihrem Buch über den Entrepreneurial State, in welchem sie die besondere Bedeutung staatlicher Investitionen in Grundlagenforschung am Beispiel eines iPhones erklärt. Viele, viele Jahre, nachdem der Staat in diese Grundlagenforschung investiert hat, zeigt sich erst der marktwirtschaftliche Erfolg von Produkten, die diese Technologien implementiert haben.

Als zweiten Punkt hebt die OECD heraus, dass eine steuerliche F&E Förderung wohl doch nicht der Weisheit letzter Schluss ist, dass also direkte Fördermaßnahmen möglicherweise eine zielgerichtetere Politik versprechen. Da steht Deutschland mit seinem aktuellen policy mix dieses Mal auf der richtigen Seite, wenn auch nicht ganz freiwillig.

Und schließlich betont die OECD einmal mehr die Wichtigkeit einer reflektierten Innovationspolitik, also die Rolle von Evaluation und Monitoring des eigenen Tuns. Das ist natürlich Musik in den Ohren eines Evaluators.

In den letzten Jahren stand die OECD zunehmend vor der Herausforderung, dass aufgrund der Aufnahme neuer Mitgliedstaaten die Gruppe ihre Mitglieder immer heterogener wird. Es wird schwieriger, einen gemeinsamen Nenner zu finden, Empfehlungen zu formulieren, die für alle Mitgliedstaaten gleichermaßen gelten. Diesen schmalen Grad versucht auch die neue OECD Innovationsstrategie. Möglicherweise ist das aber gar nicht die Lösung, möglicherweise liegt gerade in der Heterogenität, in den Unterschieden das Geheimnis des Erfolgs.

Auf diese Idee bin ich gekommen als ich kürzlich zwei sehr interessante Artikel las beziehungsweise wieder las. Der eine Artikel, der im April diesen Jahres erschien und von Alberto Botta ist, beschäftigt sich mit der Frage, inwieweit Ungleichheit und Innovation zusammenhängt. Schön ist der Artikel einerseits, weil er die Diskussion um Mazzucatos Buch ebenso aufgreift wie die Diskussion um evolutionäre Ansätze der volkswirtschaftlichen Betrachtung von Innovationssystemen (varieties of capitalism). Die Kernthese des Artikels ist, dass es mehrere Gleichgewichtszustände geben kann, die zum Teil zu mehr oder auch zu weniger Ungleichheit führen, unabhängig von der Leistungsfähigkeit des Innovationssystems. Dass die USA besonders innovativ und gleichzeitig besonders ungleich sind, ist für den Autor eher ein zufälliges Zusammentreffen unterschiedlicher Faktoren. Die Ungleichheit führt er wesentlich auf den Erfolg des Shareholder Value Ansatzes zurück, weniger auf die Frage, ob nur in Systemen, die Ungleichheit als Motivationsquelle für unternehmerisches Handeln sehen, Innovationsdynamik entfaltet werden kann. Innovationssysteme können also in ganz unterschiedlichen Modi stabil und funktional sein.

Ein zweiter Aufsatz mit dem schönen Titel "Können wir alle nicht etwas mehr wie Skandinavier sein", der aus dem Jahr 2012 stammt, beschäftigt sich noch expliziter mit unterschiedlichen Innovationsregimen und ihrer gegenseitigen Abhängigkeit. Die zentrale These lautet, dass die schöne heile Welt der skandinavischen Wohlfahrtsstaaten, die zwar innovativ, aber auch sehr teuer sind, nur deshalb funktioniert, weil es auf der anderen Seite aggressive, innovative und ungleiche Staaten wie die USA gibt, aus denen die echt radikalen Innovationen stammen. Implizit wird hier ein bisschen das Hohelied des amerikanischen Unternehmertums gesungen. Der erste Artikel, den ich oben erwähnte, setzt sich übrigens recht kritisch mit dieser Ausgangshypothese auseinander und zitiert eine ganze Reihe von Literatur, die zentrale Argumente entkräftet.

Mir geht es aber um einen anderen Punkt. Vielleicht müssen wir die Welt ja als ein großes Innovations-Ökosysteme verstehen, in dem unterschiedliche Staaten unterschiedliche Nischen besetzen und nur in der gegenseitigen Interaktion dauerhaft erfolgreich sein können.

In diesem Fall hätte Deutschland vielleicht schon seine Nische gefunden. Es wäre nicht notwendig, der amerikanischen Gründungskultur blind nachzueifern und zu erwarten, dass hier wie auf der anderen Seite des Atlantik junge Firmen auf dem Boden schießen, schnell wachsen, und endlich traditionelle Firmen verdrängen. Vielleicht ist die evolutionäre Anpassung des deutschen Mittelstands der angemessener Weg für die deutsche Innovations Nische?

Andererseits, wir wissen von Ökosystemen (wenn wir bei dieser Analogie bleiben wollen), dass es nie einen dauerhaften Gleichgewichtszustand gibt. Immer verändern sich einzelne Faktoren, Teile des Ökosystems müssen sich anpassen. Auf jeden Fall ist ein one size fits all nicht die richtige Devise.

Freitag, 25. September 2015

Superforecasting

Im Economist wurde gerade ein spannendes neues Buch rezensiert, dass sich mit sogenannten superforcasters beschäftigt. Ich muss zugeben, ich habe das Buch nicht gelesen, aber das Thema hat mich schon interessiert. Also habe ich gegoogelt.

Schon im Sommer hatte die Süddeutsche Zeitung über das Projekt berichtet, auch die BBC interessierte sich für das Thema. Der Sozialwissenschaftler Philip Tetlock beschäftigt sich schon lange Zeit wissenschaftlich mit der Möglichkeit und den Grenzen der Vorausschau. Er wurde bekannt mit der Einsicht, das sogenannte wissenschaftliche Vorausschauen, zum Beispiel zu Wirtschaftsentwicklung oder von Börsenmärkten, auch nicht besser sind als das Werfen von Dartpfeile. Sprich: da kann man auch gleich würfeln.

Im Moment leitet Tetlock ein entsprechendes Forschungsprojekt im Auftrag von IARPA, eine Forschungsagentur, die der berühmten DARPA nachgebildet ist und für den amerikanischen Geheimdienst Forschungsprojekte finanziert. Im Projekt werden Menschen identifiziert, die besonders gut und ideologiefrei Voraussagen zu politischen und sozialen Entwicklung in der näheren Zukunft treffen können. Und es scheint sie tatsächlich zu geben, die Supervorhersager.

Sie haben keine anderen Informationen zur Verfügung als eine normale Google Suche. Sie sind besser als die Spezialisten, die mit Fachwissen in die Tiefe gehen und in der Regel herangezogen werden, wenn es um eine wissenschaftlich fundierte Vorausschau geht. Auch für den amerikanischen Geheimdienst. Oder für das Außenministerium. Und deshalb sind diese Ministerien so interessiert an den Ergebnissen von Herrn Tetloc.

Natürlich ist der Blick in die Glaskugel immer faszinierend. Aber es gibt vier ganz konkrete, zugegebenermaßen etwas frei assoziierte Gründe, warum ich diesen Ansatz spannend finde.

Erstens: Finanziert das etwas verrückte Projekt wie gesagt durch eine Institution ähnlich der DARPA , die viele zukunftsweisende, innovative Projekte gefördert hat. Aber warum ist DARPA so erfolgreich? Vergleichbar mit Innovationspreisen wie dem X Prize wird hier das Risiko gegenüber dem möglichen Ertrag geringer geschätzt, so dass hier auch in spannende Projekte investiert wird, in die kein normales ziviles Forschungsministerium investieren würde. Das ist ein bisschen zu vergleichen mit den future and emerging technology flagship Projekten der EU, die ebenfalls ganz schön ins Risiko gehen und visionäre Forschungsprojekte wie das human brain project finanzieren. Vielleicht wird nichts draus, aber wenn, dann ist es wirklich was ganz Großes. Das ist echtes Risikogeld, Venture Capital, bei dem der Investor auch davon ausgehen muss, dass 9 von 10 Firmen, in die er investiert, pleite gehen. Aber wenn die eine Firma, die übrig bleibt, dann abgeht wie eine Rakete, dann hat sich das Investment gelohnt. Sollte so möglicher Weise nicht auch Forschungspolitik sein?

Zweiten: Im Fall der Superforcaster ist tatsächlich der Mensch der Maschine noch überlegen. Er kann die verwirrenden Informationen richtig deuten, er macht aus Chaos Ordnung, er findet die richtigen Muster. Die Mustererkennung ist tatsächlich eine Domäne, in der Menschen Computer noch schlagen können, deshalb werden Menschen auch so gerne von citizen science Projekten genutzt, um z.B. große Mengen von Bildern auf Muster zu untersuchen. Aber das ist möglicherweise nur eine Frage der Zeit, bis hier die Maschine den Menschen auch in Mustererkennung überlegen ist.

Drittens: Schließlich hat mich das Verhältnis von foresight und forcast interessiert. Während forcast nur auf die nähere Zukunft schaut, beschäftigt sich foresighte mit dem Blick in die weite Ferne, mit den nächsten 15 bis 20 Jahren. Meine Kollegen sagen immer, bei foresight geht es nicht darum, möglichst richtig zu liegen, die Zukunft korrekt vorauszusagen, sondern sich mit ihr zu beschäftigen, Szenarien durchzudenken und Schlüsse für die Gegenwart zu ziehen. Aber natürlich wäre es schon schön, wenn foresight nicht vollkommen falsch läge. Also lohnt sich meiner Meinung nach durchaus die Frage, was man von den superforcasters lernen kann.

Viertens: Dieses Interview zum Thema zeigt: Superforcasting eignet sich sogar noch besser als sogenannte Vorhersagemärkte als Prognosetool. Aber auch diese sind interessant, weil sie manchmal besser als Experten Wahlergebnisse oder andere zukünftige Ereignisse voraussagen können. Das ist die Expertise der Vielen.

Und für alle die, die jetzt Interesse am Thema superforecast gefunden haben. Man kann sich auf der Website auch anmelden und bewerben als superforcaster. Nur zum Lotto spielen eignet sich die Methode nicht. Da geht es wirklich um Zufälle.

Dienstag, 22. September 2015

Verantwortungsvolle Wissenschaft

Sorgt Wissenschaft für ein besseres Leben?  Ist Wissenschaft überhaupt nützlich?  Wollen Wissenschaftler geliebt werden? 

Lauter Fragen, die ich in meinem Kopf hatte, als ich Anfang der Woche an einem Workshop zum Thema responsible research and innovation für die EU-Kommission teilnahm. Das Konzept war relativ neu für mich, der Begriff ist in Deutschland praktisch unbekannt. Natürlich gibt es die Elemente, die responsible research and innovation ausmachen, auch in Deutschland. Wissenschaftskommunikation, Bürgerbeteiligung, Genderfragen, open science und ethische Aspekte von Forschung spielen auch in der deutschen Diskussion eine Rolle und werden immer stärker auch von Forschungsorganisationen, Forschungsförderern und anderen Akteuren genutzt. Aber halt nicht unter einem Dach. Deswegen wirkte vielleicht auch das Konzept der Europäischen Kommission auf mich ein wenig wie ein Gemischtwarenladen.

Ich habe mich im Verlauf des Workshops immer wieder gefragt, was eigentlich die Motivation der Akteure hinter responsible research and innovation ist. Bei manchen schien mir eine gewisse "Allmachtsphantasie" durchzuschimmern, dass Technik tatsächlich die Probleme dieser Welt lösen kann. Das war im Kontext dieses Workshops umso eigentümlicher, als insbesondere manche  anwesenden Wissenschaftler hier auf die Unternehmensseite doch ein klein wenig herabsahen. Und gleichzeitig strahlten sie genau dasselbe Sendungsbewusstsein aus wie die Teckies aus dem Silicon Valley.

Außerdem vermitteln sie das Gefühl, geliebt werden zu wollen. Sie wollten Teil der Gesellschaft sein, zusammen mit anderen Bürgerinnen und Bürger die Probleme dieser Welt lösen. Und wenn wir schon bei der Perspektive auf den Bürger sind. Die Diskussion um responsible research and innovation hat etwas altmodisch aufklärerisches. Wenn erst die Wissenschaft die Menschheit erleuchtet, dann sieht diese selbst ein, wie sie ihre Probleme lösen kann. Ich habe da so meine Zweifel, ob Wissen gleich Einsicht gleich richtiges Handeln ist.

Die Politik scheint mir hier häufig deutlich profaner und  rationaler.  Sie nutzt den Verweis auf gesellschaftliche Herausforderungen, die mit technischen Lösungen bewältigt werden können, eher, um steigende Ausgaben in Forschung und Entwicklung zu legitimieren.

Und dann habe ich mich gefragt, warum gerade die Europäische Union so auf normativ aufgeladene Konzepte steht. Sie war ja die erste, die in Europa Evaluationen salonfähig gemacht hat. Sie ist die Institution, die Genderaspekte als notwendigen Bestandteil von Forschungsanträgen etabliert hat. Wahrscheinlich muss die Kommission einfach deutlich stärker als nationalstaatliche Institutionen ihr Handeln legitimieren und jeden Euro, den sie ausgibt, auf die Goldwaage legen.

Lustig fand ich übrigens die Hoffnung einiger Wissenschaftsvertreter, dass eine stärkere gesellschaftliche Einbindung ihrer Forschung sie von der Last der ständigen Evaluationen befreien würde. Denn wenn sie  gesellschaftlich  relevant forschen würden, müssten sie die Ausgaben ja nicht mehr schnöde Euro um Euro rechtfertigen. Da haben sie, glaube ich, etwas falsch verstanden. Evaluation ist ja nicht Kontrolle um der Kontrolle willen, sondern soll Steuerungsinformationen auch für die evaluierten Akteure liefern.

Noch ein Konflikt, der immer wieder aufschimmerte, war die Frage, inwieweit Grundlagenforschung sich einem Nützlichkeitsdiktat unterwerfen müsse. Mich erinnert das an die gruselige Diskussion um die Nützlichkeit von Kunst und Musik (wer ein Instrument spielt, ist im Job teamfähiger ... ) oder auch die politische correctness von moderne klassische Musik (ich habe hierzu mal ein erschütterndes Buch über Schostakowitsch im stalinistischen  Russland gelesen).

Übrigens, was ich vergessen habe zu erwähnen: Der Workshop war sehr spannend, toll organisiert, und ich möchte ihn nicht missen. Nur das Thema, das hat mich halt zum Nachdenken angeregt. Auch wenn ich es richtig und wichtig finde, dass Wissenschaft nicht selbstbezogen im Elfenbeinturm stattfindet, sondern sich seiner gesellschaftlichen Einbettung bewusst ist.

Freitag, 18. September 2015

Evaluationsmaschine

Ich war die letzten zwei Tage auf der Jahrestagung der DeGEval, der Gesellschaft für Evaluation, dieses Jahr unter dem Motto "Evaluation und Wissensgesellschaft ". Jedes Jahr treffen sich hier die Evaluationseinrichtungen Deutschlands und Österreichs der unterschiedlichsten Politikfelder, um über neue Projekte und Trends zu berichten und zu diskutieren. In seiner Keynote sprach Professor Kuhlmann relativ kritisch über eine Art Pervertierung der Evaluation des Wissenschaftssystems. Hochschulrankings und impact factors von Publikationen entwickelten ein Eigenleben, sie führten zu weitreichenden Entscheidungen von Universitätsleitungen und beeinflussten maßgeblich Karrierepfade von Wissenschaftlern. All dies, obwohl sie als Indikatoren höchst kritisch zu diskutieren wären.

Aus dem Publikum kam nach diesem Vortrag in der Regel zustimmender Beifall und Kommentare, die die Position von Herrn Kuhlmann stützen. Einer der Zuhörer fragte, wie man diese Trends, unter anderem dem zu einer "Evaluationsmaschine", begegnen können. Mit Evaluationsmaschine meinte er vermutlich die quasi automatische Generierung von Indikatoren und nachfolgende Ableitung von Handlungsempfehlungen.

Ich finde es interessant, dass auf einem Kongress, der das Leitthema Wissensgesellschaft hat, eine solche Angst vor einem besseren oder gar automatisierten Zugang zu Indikatoren steht. Das ist ein bisschen wie die Angst vor dem Autopiloten im Flugzeug, weil man der Meinung ist, der Pilot könnte besser steuern.

Ja, es ist richtig, viele Indikatoren verkürzen die Realität, manche sogar unzulässig. Es ist auch richtig, dass die Messung technischer Systeme vermutlich leichter zu realisieren ist, als die Messung komplexe soziale Systeme. Möglicherweise sind weiterhin Menschen am ehesten in der Lage, die komplexe Interpretation von sozialen Mustern zu leisten. Aber auch hier sehe ich eine Analogie zur Mustererkennung in vielen anderen Bereichen. Noch ist der Mensch da der Maschine überlegen, aber das scheint sich Stück für Stück zu wandeln. Also kann man wohl auch davon ausgehen, dass in den Sozialwissenschaften der Trend eher zu einer quasi automatisierten Messung von geeigneten Indikatoren und einer ebenfalls automatisierten Interpretation gehen wird. Vermutlich wird es tatsächlich irgendwann eine evaluations Maschine geben. Ich nehme fast an, der Zeitpunkt wird nicht in allzu ferner Zukunft liegen. Die Idee einer computergestützten Modellierung komplexer sozialer Systeme wird zum Beispiel im EU - PROJEKT FutureICT gefördert.

Und trotzdem wird noch Platz sein für menschliche Evaluatoren. Vielleicht geht es ein bisschen so wie mit den Assistenzsystemen für Chirurgen. Auch hier geht keiner davon aus, dass die Maschine allein operiert. Viel mehr unterstützt sie den Chirurgen bei seiner Operation und macht ihn deutlich leistungsfähiger. In diesem Sinne freue ich mich jetzt schon auf die Evaluationsmaschine.

Das Abschlussgespräch der Tagung nahm das Thema dann übrigens doch noch einmal auf. Der Panelexperte Hr. Holtmannspötter z.B ging davon aus, dass Big Data und ähnliche Ansätze, z.B. auch die Suche nach auffälligen Mustern und ihre Deutung per Algorithmen, zukünftig häufiger zu sehen sein würden. Sie würden aber menschliche Evaluatoren nicht ersetzen, sondern diese unterstützen und ergänzen.

Bislang sind wir meiner Meinung nach davon aber weit, weit entfernt, zumindest im Politikfeld FTI. Hier müssten wir ja erstmal kurzfristig verfügbare, vergleichbare und auswertbare Daten zur Verfügung haben, bevor wir das Evaluieren halbautomatisiert umstellen könnten. Da sieht es jedoch mau aus. Keine vergleichbaren Indikatoren und keine zugänglichen Vergleichsdaten. Evaluation bleibt hier also bis auf weiteres echte Handarbeit. Willkommen Wissensgesellschaft!

Samstag, 12. September 2015

Machen Männer Geschichte?

Große Männer - und Frauen - machen Geschichte! So zumindest dachte die Geschichtsschreibung des neunzehnten und frühen zwanzigsten Jahrhunderts. Doch heute ist die Geschichtswissenschaft längst weiter. Es sind soziale und wirtschaftliche Faktoren, es sind sogar Umwelteinflüsse wie das Klima, die den Lauf der Geschichte stark beeinflussen. Natürlich hat auch menschliches Handeln seinen Anteil daran, und auch einzelne Personen können, wenn sie an einer entscheidenden Machtposition stehen, entscheidende Weichen stellen. Alles in allem aber wurde wohl der Einfluss einzelner Persönlichkeiten der Geschichte ziemlich überschätzt. Und das sicher auch deshalb, weil die Geschichtsschreibung selbst von den jeweiligen Machthabern beeinflusst und diktiert wurde.

Da sind wir nun weiter, dachte ich. Aber wenn es um das Geschehen in der Wirtschaft geht, scheint sich hartnäckig der Eindruck zu halten, das Firmenlenker entscheiden sind für das Wohl und Wehe ihrer Unternehmen. Da charismatische Personen wie Steve Jobs zu wahren Lichtgestalten hoch geschrieben wurden, wird jetzt auch von Startups erwartet, dass sie von entsprechend herausragenden Persönlichkeiten gegründet und aufgebaut werden. Gerade beklagte sich der Spiegel in einem Essay darüber, dass die deutsche Gründerszene langweilig sei, lauter BWLer, die an die charismatische Nerds des Silicon Valley lange nicht heranreichen könnten. Dabei hatte die Süddeutsche gerade erst die Erotik der BWL-Studenten entdeckt.

Aktuelle Studien zeigen zumindest, dass es kein Gründer-Gen gibt, sondern dass vor allem familiärer Hintergrund den Erfolg von Gründerinnen und Gründern erklärt. Und es gibt auch mehr als leise Zweifel daran, dass die 150 prozentigen Gründer, die Tag und Nacht durcharbeiten, tatsächlich effektiver oder effizienter sind als diejenigen, die sich an normale Arbeitsrythmen halten.

Und in der Gründungs-Forschung weiß man seit langem, dass gemischte Teams - Betriebswirtschaft und Techniker, Frauen und Männer, Alte und Junge, Deutsche und Menschen anderer Herkunft - zusammen besonders erfolgreich sind. Aber es ist halt so schön, an den genialen Steve Jobs zu glauben, der das nächste Apple gründen wird.

Da kann ich nur sagen: Leute, lest mehr Geschichtsbücher, wie zum Beispiel das ziemlich beeindruckende Buch zu Napoleons Feldzug nach Russland (Adam Zamoyski: 1812). Da werdet ihr sehen, welches tragische Kuddelmuddel große Männer anrichten können, vor allen Dingen, wenn sie nicht zusammenarbeiten.

Sonntag, 6. September 2015

Abkürzungen zur Innovation

Bei der Analyse des chinesischen Wirtschaftserfolges wird immer auch wieder auf die Stärke der Chinesen beim Kopieren und Nachmachen verwiesen. In Deutschland rümpft da mancher die Nase, aber eigentlich ist das Nachmachen einer der stärksten Innovationsmotoren, die man sich vorstellen kann. Anders ist eine Verbreitung neuer Ideen ja kaum denkbar, und so manche Idee wird erst beim zweiten Versuch ein Erfolg. Außer natürlich, man schätzt Monopole.

Erst vor kurzem hat der Economy ist einen langen Artikel dazu veröffentlicht, wie schädlich Patente sein können - nicht in jeder Technologie und Branche, aber doch in so manchem Feld. Natürlich schützen Patente dasjenige Unternehmen, welches den Innovationsaufwand hatte. Häufig dienen sie aber heute eher dazu, Monopole abzusichern und Wettbewerber nicht auf den Markt zu lassen. Für die Nutzer von Innovationen ist das ein Nachteil. In diesem Sinne plädiert der Economist dafür,  das "Was" und "Wie lange" von Patenten noch einmal zu überdenken.

Quasi den legalen Weg beschreiten große Unternehmen, die sich die kleinen innovativen Newcomer einfach kaufen, samt ihrer Patente und Innovationen. Gerade für Länder wie Deutschland mit einer gewachsenen traditionellen Industrielandschaft und einer eher schwach ausgeprägten Gründungskultur ist dies eine wunderbare Möglichkeit, ihre Schwäche auszugleichen und trotzdem an die fixen Startups zu kommen. Oder man versucht wie die Franzosen die internationalen Startups mit ein wenig Geld ins Land zu locken, wenn die eigenen Bürger einfach nicht gründen wollen.

Einen anderen Weg gehen wiederum die fixen Chinesen, die sich die innovativen Mittelständler in Deutschland kaufen, samt ihrer Patente und gute Ideen.

Man kann es auch machen wie die Amerikaner, die ein eher schwaches Bildungssystem haben und deshalb auf die gut ausgebildeten, kreativen und risikobereiten Zuwanderer aus aller Welt setzen.

Es gibt also so manche Abkürzungen für ein leistungsfähiges Innovationssystem, und Staaten, deren Haushalte nicht mehr in den Himmel wachsen, sollten sich überlegen, welche diese Abkürzungen für sie attraktiv sein könnten.

Dies trifft auch für Deutschland zu. Viel zu lange haben deutsche Innovationspolitiker auf die Ausgabenseite geschaut und sich stolz auf die Schultern geklopft, dass in den letzten Jahren die Aufwendungen für Forschung und Entwicklung beständig gestiegen sind. Dieses Wachstum wird sich vermutlich nicht in selben Maße aufrechterhalten lassen. Es sind nun Effizienzgewinne gefragt, nicht nur im oben genannten Sinne.