Sonntag, 15. September 2019

Rückblick auf die Jahrestagung 2019 der DeGEval

Dieser Beitrag erschien zuerst im Blog des AK FTI der DeGEval

Vom 12. bis 13. September fand die diesjährige Jahrestagung der DegGEval in Bonn statt. Thema der Tagung war "Nachhaltigkeit und Evaluation". In Zeiten intensiver öffentlicher Diskussion um den Klimawandel sicher ein aktuell gut gewähltes Thema. Für die Evaluationscommunity jedoch durchaus eine Herausforderung. So schilderten es zumindest die Organisatoren der Tagung: die Zahl der Einreichungen für Vorträge war doch deutlich geringer als in den vergangenen Jahren. Dies gilt auch für das Themenfeld Forschungs-, Technologie- und Innovationspolitik. Auch hier gab es nicht gerade viele Beiträge auf der diesjährigen Tagung.

Durch die Tagung zog sich ein doppelter Definitionsversuch von Nachhaltigkeit. Zum einen wurde Nachhaltigkeit verstanden als Dauerhaftigkeit der Wirkungen von Interventionen. Zum anderen wurde Nachhaltigkeit systemisch gefasst, als Wirkung in mindestens drei Dimensionen, nämlich einer ökonomischen, einer ökologischen und einer sozialen Dimension.
Mit diesem Verständnis sollte man meinen, dass Nachhaltigkeit auch im Politikfeld FTI eine nicht unerhebliche Rolle spielt und im Beobachtungsfokus von Evaluationen liegen sollte. Gerade die Dauerhaftigkeit von Veränderungen, die durch Maßnahmen der Innovationspolitik induziert werden, liegt ja durchaus im Interesse der politisch Handelnden. Die Innovationsfähigkeit auch mittelfristig zu steigern, neue Technologien dauerhaft in Märkte einzuführen und damit ganze Branchen zu verändern, all dies sind sicherlich auch Intentionen der Innovationspolitik.

Und tatsächlich prüfen Evaluationen in unserem Politikfeld zumindest die Voraussetzungen einer Aufdauerstellung der erreichten Veränderungen. Das typische Dilemma unsere Evaluationen, ein sehr früher Zeitpunkt der Analyse, der eine echte Messung von Veränderungen eigentlich nicht zulässt, führt jedoch dazu, dass wir faktisch nur sehr wenig darüber wissen, wie dauerhaft die beobachteten oder prognostizierten Veränderungen wirklich sind. Es gibt interessante Evaluationsergebnisse aus Großbritannien, die zeigen, dass z.B. die Veränderung des Innovationsverhaltens von KMU, die Innovationsgutscheine in Anspruch nehmen, von sehr begrenzter Dauer sein kann und zum Teil innerhalb von wenigen Jahren nicht mehr messbar ist. Spannend wäre sicher eine Untersuchung, wie lange die Halbwertszeit der Wirkung von FTI-Maßnahmen in Deutschland ist.

Die zweite Definition von Nachhaltigkeit, also die Wirkung in mindestens drei Dimensionen, einer ökonomischen, einer ökologischen und einer sozialen, wird in Evaluationen unseres Politikfeldes in der Regel eher weniger adressiert. Mit der klassischen Argumentationslogik für Innovationspolitik, nämlich der Hoffnung, dass sie ein wesentlicher Treiber für Wachstum und Wohlstand ist, ist die Dimension der ökonomischen Wirkung sehr präsent in Evaluationen. Entsprechend werden Umsatzveränderungen, Neueinstellungen und Stärkung der Wettbewerbsfähigkeit wo möglich immer gerne untersucht.

Zumindest für Technologiefelder, die explizit auch auf die Bereiche Energie und Mobilität zielen, sind ökologische Wirkungen ein weiter Zielbereich. Fördermaßnahmen der Elektromobilität, der erneuerbaren Energien oder der Materialeffizienz adressieren immer auch ökologische Wirkungen. Allerdings gilt auch hier, dass die Wirkungsvermutungen in der Regel durch Plausibilitätsannahmen ex-ante überprüft werden, das z.B. eine Wirkungsmodellierung Hinweise darauf gibt, ob entsprechende Wirkungen in der Zukunft wahrscheinlich sind. Echte Messungen der Wirkungen in dieser ökologischen Dimension finden in der Regel nicht statt. Es wird heute z. B.  nicht gemessen, ob die CO2-Belastung tatsächlich durch Förderung von Technologieentwicklung im Bereich der Elektromobilität zurückgegangen ist. auch das hat natürlich damit zu tun, dass die erwarteten Wirkungen zu einem deutlich späteren Zeitpunkt stattfinden und von vielen weiteren Faktoren beeinflusst werden, dass also der Zeitpunkt der Messung und die Kausalität kaum lösbare Probleme darstellen.

Die soziale Dimension schließlich ist deutlich unterbelichtet in unseren Evaluationen. Möglicherweise spielt noch eine Rolle, ob spätere Nutzer eines neuen Produktes oder einer neuen Dienstleistung auch entsprechende Komfort-Vorteile genießen, oder ob die regionalen wirtschaftlichen Auswirkungen der Intervention zu einer Steigerung von Wohlstand, Lebensqualität und Attraktivität der Regionen führen. Viele soziale Dimensionen sind aber weiterhin eher nicht im Fokus. Die Auswirkungen auf Genderaspekte werden in deutschen FTI-Evaluationen in der Regel nicht in den Blick genommen. Gleiches gilt für die Auswirkungen auf soziale Ungleichheit oder Partizipationsmöglichkeiten.
Mit der Veränderung der Innovationspolitik selbst könnte sich dies aber in naher Zukunft ändern. Mit der Missionsorientierung rücken  ganzheitliche Ansätze stärker in den Mittelpunkt der Innovationspolitik, partizipative Ansätze werden vermehrt realisiert. 

Missionsorientierung bedeutet auch, das komplexere Interventionen geplant werden, dass der Blick sich auf das Zusammenwirken unterschiedliche Maßnahmen richtet. In diesem Sinne könnte der systemische Gedanke des Nachhaltigkeitskonzepts auch stärker in der Konzeption von innovationspolitischen Maßnahmen ebenso wie in der Evaluation derselben seinen Niederschlag finden.
Innovationspolitik erhält durch diese Umorientierung einen stärker transformativen Charakter, und hier ist es kaum denkbar dass eine der drei Dimensionen Wirtschaft, Ökologie und Gesellschaft nicht berücksichtigt wird. Allerdings braucht es dann auch andere Evaluationsansätze: Querschnittliche Evaluationen, die sich auf viele unterschiedlichen Maßnahmen richten; Längsschnittanalysen, die deutlich längere Zeithorizonte umfassen. qualitative Tiefenuntersuchungen, die auch soziale Dimensionen stärker in den Blick nehmen.

Ich bin mit einem gehörigen Maß an Skepsis auf die diesjährige Tagung gefahren. Das Konzept der Nachhaltigkeit hatte in meiner bisherigen Evaluationspraxis keine Rolle gespielt. Ich bin durchaus angeregt aus Bonn zurückgekehrt. Ich glaube nicht, dass die Dimension der Nachhaltigkeit in naher Zukunft zu einer bestimmenden im Politikfeld FTI werden wird. Aber ich glaube doch, dass einige Anregungen nützlich und sinnvoll wären. Und ich glaube auch, dass sich das Politikfeld insgesamt verändern wird. Nicht nur im Hinblick auf Evaluationen.

Sonntag, 24. Februar 2019

Experimente in der Innovationspolitik

Diese Woche war ich auf der Herrenhausen-Konferenz "The New Role of the State for Diffusion and Emergence of Innovation", einer internationalen Konferenz vor allem von Innovationsökonomen, finanziert von der Volkswagen-Stiftung und organisiert durch die Universitäten Bremen, Jena und Twente. 

Ein Stichwort, dass sich durch viele Beiträge zog und immer wieder auch im Kern der Diskussion stand, war "Experimente". Der Staat solle in der Innovationspolitik stärker auf Experimente zurückgreifen. Doch die Diskussion machte auch deutlich: Jeder versteht etwas anderes unter Experimenten in diesem Kontext.

Das Spektrum reichte von sehr kontrollierten, fast laborhaft arrangierten Experimenten, deren Teilnehmer durch Zufallsprinzip ausgewählt und denen eine Kontrollgruppe zur Seite gestellt werden (randomisierte Kontrollgruppen-Versuche - RCTs), bis hin zu Pilotmaßnahmen der Innovationspolitik, die für eine begrenzte Zeit und in kleineren Umfang umgesetzt und durch eine begleitende Evaluierung ausgewertet werden.

Eigentlich sind es ja mehrere Dimensionen, die in Experimenten zusammen kommen (können). 
  • Experimentieren beschreibt ein Handeln von Versuch und Irrtum, bei dem der Ausgang offen ist. Ich probiere etwas neues aus, meist mehrere Male mit verändertem Vorgehen, bis ich das gewünschte Ergebnis erreiche. Das ganze ist immer wieder mit dem Risiko des Scheiterns verbunden, einer eher ungemütlichen Situationen für den Start. Der Staat scheitert nicht gerne, da dies bei Wahlen sanktioniert werden kann. Deswegen ist er eher konservativ und vertraut auf bewährtes. Die Diskussion auch bei der Konferenz warf dies dem Staat in gewisser Weise vor. Er müsse mutiger sein, neues ausprobieren und dabei das Scheitern in Kauf nehmen. 
  • Ein zweites Verständnis kommt aus der Welt der Wissenschaft, in der das Experiment ein sehr kontrolliertes Vorgehen meint. Die Rahmenbedingungen sind möglichst gut beschrieben in ihrem Einfluss auf das eigentliche Experiment, alles wird ganz genau untersucht, protokolliert und begleitet. Übertragen auf die Innovationspolitik meint dieses Verständnis, dass neue Maßnahmen immer auch durch Evaluationen begleitet sein müssen. Und zwar am besten durch den höchsten nur denkbaren Standard, z.B. in Form einer randomisierten Kontrollgruppenstudie. Das ist natürlich in den meisten innovationspolitischen Anwendungsfällen nur sehr schwer bis gar nicht umzusetzen. 
  • Das Laborhafte zeigt sich auch bei den beiden aktuell in BMBF und BMWi verfolgten Vorgehensweisen, dem regulative Reallabor und dem Experimentierraum, in dem heterogene Akteure in einem geschützten Interaktionsraum zusammenkommen und neue Formen der Zusammenarbeit erproben.

Ein Vortrag der Konferenz machte es sich ganz einfach und nutzte die internationale Vergleichsebene, um alle 6innovationspolitischen Maßnahmen als kleine Experimente zu fassen, von denen man lernen könne. Na ja .....

Unterm Strich finde ich tatsächlich den Gedanken spannend, dass der Staat neues ausprobiert und dabei auch mal mutig ist. Der Staat als innovativer Akteur und nicht allein Ermöglicher von Innovationen. Allerdings, das zeigen die leidvollen Erfahrungen der privaten Akteure, also der Unternehmen, lässt sich innovatives Handeln nicht so einfach verordnen und wird durch manche Organisationsstrukturen auch eher behindert. 

Entsprechend widmen sich auch unterschiedliche Vorschläge neuen Organisationsstrukturen, so z.b. dieses Arbeitspapier zur Einrichtung eines Government Innovation Lab oder dieser Überblicksartikel.

Warum nicht ein Innovationslabor Innovationspolitik schaffen?

Sonntag, 10. Februar 2019

Neue deutsche Industriepolitik - ein paar innovationspolitische Gedanken zur nationalen Industriestrategie

Am 5. Februar hat Bundeswirtschaftsminister Peter Altmaier seine Industriestrategie vorgestellt. Seitdem sind die Wogen hoch geschlagen, von Empörung bis Zustimmung war alles mit dabei. Aber was hat dieser Diskussionsbeitrag (und so verstehe ich das Altmaier-Papier erst einmal) eigentlich inovationspolitisch zu bedeuten?

Wettbewerb

Ein zentraler Punkt der Strategie berührt die Wettbewerbspolitik. Die bislang durch Bundeskartellamt und EU-Kommission gewährleistete Kontrolle soll an neuen Zieldimensionen ausgerichtet werden. Stärker als bisher soll der Weltmarkt als Massstab genommen werden, da brauche es deutlich größere Unternehmen, weil ja auch die internationalen Wettbewerber (aus China) groß seien. Das Argument ist vor allem vor dem Hintergrund des (gerade an der EU-Kommission gescheiterten) deutsch-französischen Fusionsversuchs im Bahnbereich zu sehen.

In einem offenen Brief kritisierten europäische Ökonomen, dass eine Fusion von Siemens und Alstrom den Wettbewerb zwischen diesen beiden Unternehmen beenden und damit zu wenige Innovationen führen würde und unterstützten die Entscheidung der Kommission. Diverse Ökonomen wiesen auf Twitter zudem darauf hin, dass die absolute Zahl der durch Brüssel untersagten Fusionen eher gering war.

Auch das DIW kritisierte in einer Stellungnahme zur Industriestrategie, dass nachlassender Wettbewerbsdruck Innovationen nicht befördere. Hinreichender Wettbewerb ist auch ein Subindikator im "Innovationsindikator Deutschland". Eine geänderte Fusionskontrolle und innovationspolitische Ziele stehen also in einem gewissen Spannungsfeld.

Picking Winners

In einem Beitrag der ZEIT werden weitere Ökonomen zitiert, die insbesondere die Unternehmensbeispiele des Bundeswirtschaftsministers für unglücklich halten, weil sie einzelne Unternehmen hervorheben, die vielleicht gerade nicht mit staatlichen Mitteln künstlich am Leben gehalten werden sollten, wenn sie nicht mehr wettbewerbsfähig sind. Auf diese Herausforderung weißt übrigens auch das Papier des BMWi selbst hin.

Den Vorwurf, der Staat versuche durch eine Auswahl von Unternehmen, die gefördert oder begünstigt werden, zukünftigen Erfolg vorauszusehen und maße sich damit an, schlauer als der Markt zu sein ("Picking Winners"), wird auch für die Innovationsförderung im Rahmen von Fachprogrammen erhoben. Besser sei es, entweder nur geeignete Rahmenbedingungen zu setzen (z.B auch durch die Einführung einer steuerlichen FuE-Förderung), oder zumindest technologieoffen zu fördern. Das sehen andere Experten durchaus anders. Der Staat habe erstens die Aufgabe, inhaltliche Schwerpunkte zu setzen und sei zweitens auch in der Lage, mit geeigneten Kriterien erfolgversprechende Ideen und Unternehmen für eine Förderung zu identifizieren. Natürlich kann auch der Staat irren, und dann hat er manchmal viel Geld in den Sand gesetzt. Darum verlässt er sich möglichst auf unabhängige Expertise, auch um politischer Einflussnahme vorzubeugen. Genau darum gibt es bei der Fusionskontrolle durch Bundeskartellamt und EU-Kommission ja auch. Für die Industriestrategie könnte das heißen: Regeln anpassen, aber bei der unabhängigen Anwendung durch neutrale Instanzen bleiben.

Das Neue Deutschland übrigens findet diese Haltung der oben zitierten Ökonomen naiv, der freie Markt regele mitnichten alles zum guten, Länder wie China nähmen massiv Einfluss, und - unausgesprochen - Deutschland müsse dies auch. In einem Gastbeitrag für den Tagesspiegel unterstützt auch Sigmar Gabriel den Wirtschaftsminister indirekt.

Mittelstand und Großunternehmen

Erhebliche Kritik entzündete sich an der Auswahl der Unternehmensbeispiele im Altmaier-Papier. Hier seien nur große Unternehmen genannt worden, aber es sei doch gerade der innovative Mittelstand, der den Standort Deutschland sichere. Auf den innovativen deutschen Mittelstand verweist z.B. ein Artikel in der NZZ. Allerdings weisen andere Ökonomen wie Mark Schieritz in einem Tweet darauf hin, dass auch große Unternehmen innovativ sind. Tatsächlich stammt ein großteil der innovationsausgaben und auch der Patente in Deutschland von großen Unternehmen. mein Eindruck ist, in dieser Diskussion werden zwei Dimensionen miteinander vermengt. Einerseits die Erkenntnis, die schon bei Schumpeter zu lesen ist, dass Konkurrenz das Geschäft belebt und das junge, neue Unternehmen den Großkonzernen Beine machen (müssen). Und dann die Annahme, dass große, behellige Institutionen gar nicht mehr zu agilem, innovativem Handeln in der Lage sind. Das kann so sein, ist aber doch auch sehr abhängig von der internen Organisation der jeweiligen Institution. Und natürlich haben große Unternehmen auch einen erheblichen Vorteil. Sie haben erhebliche Ressourcen, Zugang zu Know-how und Fachkräften, sie können auch in der Forschung Skaleneffekte nutzen und so weiter und so fort. Klein heißt also nicht immer automatisch auch innovativer.

Es verwundert nicht, dass der Ansatz von Altmaier Großunternehmen zu gefallen scheint, wie die erste Reaktion aus der Konzernspitze der Telekom zeigt.

Erhöhung des Industrieanteils auf 25%

Peter Altmaier möchte den Anteil der Industrie in Deutschland von 23 auf 25% anheben und auch europaweit auf mindestens 20% Industrieanteil kommen. Das ist ein etwas gewagter Vorschlag. Schließlich hängt dieses Jahr davon ab, wie viel Arbeitsplätze tatsächlich in einer automatisierten Fertigung noch gebraucht werden, wie sich Dienstleistungsbranchen entwickeln und überhaupt, welcher Branchenmix in unterschiedlichen Ländern sinnvoll und machbar ist. Diese Idee sehen erste Kommentatoren daher als potenziell dirigistisch und eher naiv an.

Hinter dem Argument des Bundeswirtschaftsminister steckt natürlich die Hoffnung, dass durch Innovationen auch industrielle Fertigung in Europa wieder wettbewerbsfähig wird. tatsächlich scheint das offshoring von fertigungskapazitäten seinen höhepunkt überschritten zu haben. Die Nähe zu Kundenmärkten scheint mittlerweile wichtiger zu sein, als preiswert fertigen zu können. Hier hat die neue Welle der Automatisierung, Industrie 4.0 und so weiter, durchaus seinen Anteil. Andererseits, auch andere Weltregionen können diese Früchte der Innovationen für ihren Standort pflücken.

Standortpolitik

Eher indirekt berührt die neue Industriestrategie die aktuelle Diskussion um Standorte. Mit dem Kohleausstieg ist diese Standortfrage wieder ziemlich in den Mittelpunkt der politischen Auseinandersetzung gerückt. Eine neue Industriepolitik bietet sich daher auch als Hoffnung für Regionen an, die durch den Ausstieg aus der Kohle Strukturwandel zu bewältigen haben. Es häufen sich die Stellungnahmen, die durch die Ansiedlung von Forschungsinstituten und neuen Technologien hoffen, den Strukturwandel sanft bewältigen zu können. Letztlich ist dies aber auch kein besonders neuer Plan. Schon die Versuche, die Solarindustrie in Ostdeutschland mit Förderung zu stärken, war auch dadurch motiviert, die zuvor verzeichneten Verluste an industrieller Kapazität zu kompensieren. Der Erfolg war eher mäßig.

Schutz vor Direktinvestitionen

Ein zentraler Punkt des Papiers ist der Vorschlag, den Ausverkauf zentraler Unternehmen an ausländische Konkurrenz insbesondere aus China verhindern zu können, notfalls auch durch ein Investment des Staates. Dahinter steht die Angst, dass Know-how und Patente abfließen könnten und internationale Wettbewerber stärken. Die Investitionen des deutschen Staates in die heimischen Technologieführer wäre damit verloren. Auch hier weisen einige Kritiker in den letzten Tagen darauf hin, dass viele große deutsche Unternehmen Kapital aus sehr unterschiedlicher internationaler Quelle genutzt haben. Auch Daimler ist, bezogen auf seine Anteilseigner, kein besonders deutscher Konzern.

Auf der anderen Seite nutzen auch deutsche Konzerne die Chance, sich bei interessanten jungen Unternehmen in anderen Ländern einzukaufen. Die Deutschen Autokonzerne z.B. gehen gerne auf Einkaufstour in Israel. Das liegt auch daran, weil die hiesige Startup-Landschaft vielleicht nicht hinreichend interessante Kaufobjekte  bietet. Sollten alle Länder suchen restriktiv sein, wie ist der deutsche wirtschaftsminister im Moment für sein Land vorschlägt, könnten also auch deutsche Unternehmen ein Problem bekommen.

Aus innovationsökonomischer Sicht ist stattdessen eine möglichst große Offenheit ein Faktor, der den Fluss von Know-how begünstigt und damit Innovationsprozesse befördert. Der Innovationsindikator hat in seiner aktuellen Ausgabe auch einen Schwerpunkt auf das Thema Offenheit gelegt und dazu verschiedene Subindikatoren zusammenfasst. Zu ihnen gehören auch ausländische Direktinvestitionen.

Nationale Wertschöpfungsketten

Mit dem Vorschlag des Altmaier-Papiers, Wertschöpfungsketten möglichst national/europäisch zu halten, setzt sich der Ökonom Jeromin Zettelmeyer, bis vor kurzem selbst im BMWi, auf Twitter auseinander. er findet diese Idee weniger überzeugend, da Innovationsprozesse heute international in entsprechenden Wertschöpfungsketten organisiert sind und dies auch große Wettbewerbsvorteile für die entsprechenden Player bedeutet

Innovationspolitik statt Industriepolitik

Ein letzter Kritikpunkt ist grundsätzlicher Natur: Innovationspolitik statt die Schonung der old economy forder Florian Nöll, der Vorsitzende des Bundesverbands Deutscher  Start-ups, der in den genannten Unternehmen des Altmaier-Papiers eher Digitalisierungs-Verlierer sieht.
In dieselbe Richtung geht auch der Kommentar der drei oben genannten Ökonomen, die für eine Fortführung (und Intensivierung, z.B. durch die Einführung einer steuerlichen FuE Förderung) plädieren.

Fazit

Das Papier zu einer neuen Industriestrategie für Deutschland hat eine erhebliche Debatte ausgelöst. Aus innovationspolitischer Sicht sind eine Reihe größerer Spannungsfelder zu identifizieren. Letztlich lässt sich auch fragen, inwieweit die Strategie implizit durch eine sehr spezifische Wahrnehmung der Wettbewerber beeinflusst wurde. China ist klar der große Konkurrent; die chinesische Strategie 2025 ist die Blaupause, an der sich auch das deutsche Papier ab arbeitet. Ob diese chinesische Strategie aber wirklich erfolgreich war oder sein wird, ist durchaus umstritten. Ob ein mächtiger, top-down durchregieren der Staat eine bessere Industrie- und Innovationspolitik Macht als ein Staat, der die richtigen Rahmenbedingungen setzt, ist noch nicht entschieden.

Samstag, 2. Februar 2019

Innovation Winter

Der Winter ist gekommen. Nicht nur in Deutschland, sondern auch in den USA, die in den letzten Tagen von arktischer Kälte geplagt waren. Passend zur Jahreszeit und auch zur Trend-Vorausschau-Sai dieses Jahresanfangs macht im Moment allerdings auch ein anderer Winter von sich reden. Der Winter der Innovationen. Ich bin vor ein paar Tagen zufällig über dieses Konzept gestolpert, ein Kollege hatte einen Trendbericht der Asian Productivity Organization weitergeleitet (Danke, Ernst!). Darin wird das Konzept des Global Innovation Winter vorgestellt, einem globalen Trend zurückgehender Innovationen, die insbesondere durch protektionistische Tendenzen, Sicherheitsbedenken, den technologieorientierten Handelskrieg zwischen den USA und China sowie durch stärkere Regulierungen und Datenschutz ausgelöst werde und globalen Austausch und gemeinsame Innovationsprozesse behindere. Da Innovationen wichtig für Produktivitätswachstum und Wohlstand seien, gebe dieser Trend Anlass zu ernster Besorgnis.

Das Konzept des Winters der Innovationen stammt von Ian Bremmer, einem amerikanischen Politikwissenschaftler und Berater für Risikoanalysen. Er beschrieb den Globalen Winter der Innovationen in seiner Risikovorausschau für 2019. Bremmer hat ein gutes Händchen für einen sexy Begriff bewiesen. Winter der Innovationen, da muss man gleich an "Winter is coming" aus Game of Thrones denken. Dramatische Szenen, das Ende der Welt ist nahe.

Aber ob verstärkte Datenschutzregeln und mehr Sensibilität für Sicherheitsfragen tatsächlich innovationsbremsen oder vielleicht doch eher Innovationstreiber sind, da habe ich eine andere Meinung als Bremmer. Es gibt z.B. durchaus relevante Stimmen, die die europäische Datenschutzgrundverordnung eher als Vorteil für Innovationen sehen. Auch der aktuelle Konflikt zwischen den USA und China um technologische Vorherrschaft in wichtigen Anwendungsfeldern kann als Intensivierung eines Wettbewerbs gesehen werden, der die Akteure hier zu mehr Innovationen antreibt. Zumindest ist er eher Ausdruck einer wachsenden Innovationsstärke Chinas, der die USA nun mit handelspolitischen Mitteln beikommen möchte.

Recht hat Bremmer natürlich mit der grundsätzlichen Annahme, dass Offenheit, Kooperation und Austausch über nationale Grenzen hinweg Innovationen begünstigen. Nicht umsonst hat der im Dezember erschienene Innovationsindikator von ZEW und Fraunhofer ISI dieses Jahr einen eigenen Schwerpunkt auf die Offenheit von innovationssystemen gelegt. schaut man sich diesen Indikator an, so willigt Deutschland erstens nur im Mittelfeld und hat zweitens auch noch im Vergleich zu 2007 an Offenheit eingebüßt, dies gilt auch für andere wichtige Länder wie die USA oder China. Allerdings zählen die Autoren des Innovationsindikators eine ganze Reihe von aktuellen Maßnahmen der Bundesregierung auf, die tendenziell eher zu einer weiteren Öffnung des Wissenschafts- und innovationssystems beitragen.

Auf europäischer Ebene könnte der brexit zu einer Verminderung der Offenheit führen, schließlich ist Großbritannien einer der wichtigsten Akteure der europäischen Forschung im Rahmen von Horizon 2020. die Zusammenarbeit mit britischen Wissenschaftlerinnen und Wissenschaftlern wird durch den Brexit auf jeden Fall nicht einfacher. Deutsche Forschungspolitikern sind hier hinreichend besorgt.

Der Global Risk Report des World Economic Forum 2019 übrigens sieht auch durchaus Trends für eine Schließung, z.B. in Hinblick auf ausländische Direktinvestitionen. Hier schlagen technologische und strategische Rivalitäten insbesondere zwischen China und den westlichen Industriestaaten voll durch. Einen globalen Winter der Innovationen kennt der Risikobericht allerdings nicht.

Der größere Kontext dieser Diskussion ist sicher auch das, was der Economist diese Woche mit Slowbalisation umschrieb: Eine deutliche Abschwächung der Globalisierung.

Bleibt zu hoffen, das auf den Winter wieder ein neuer Frühling folgt; meteorologisch und innovationspolitisch.




Samstag, 19. Januar 2019

Chinesische Reallabore und deutsche Experimentierräume

Chinas wachsende Rolle in allen möglichen Politikfeldern macht das Land zu einem fabelhaften Themen-Joker, der fast immer gezogen werden kann. So auch beim Thema Reallabore, dass in Deutschland zunehmend Fahrt aufnimmt.

Hierzu bin ich vor ein paar Tagen über eine Veröffentlichungen der deutsch-chinesischen Plattform Innovation gestolpert. Diese Plattform wurde vor einigen Jahren vom Bundesministerium für Bildung und Forschung eingerichtet, um den deutsch-chinesischen Austausch zum Thema innovationen zu stärken und für die deutsche Seite einen breiteren Einblick in die Entwicklungsprozesse des chinesischen Innovationssystems zu ermöglichen.

Die Plattform veröffentlicht in sogenannten Policy Briefs Artikel über das chinesische innovationssystem und seine Relevanz für Deutschland. Prof. Markus Taube schreibt in der letzten Ausgabe über experimentelle Freiräume in neuen Technologiefeldern, die der chinesische Staat den Unternehmen immer wieder einräumt, um ihnen eine schnellere Entwicklung als der internationalen Konkurrenz zu ermöglichen. Das ganze funktioniert nach Ansicht von Prof. Taube nur deshalb, weil es einen breiten Grundkonsens der Machtelite in Politik und Wirtschaft gibt, der den temporären Kontrollverlust absichert.

Wenn ich das richtig verstanden habe, ist ein wichtiges Charakteristikum dieses Systems auch, dass die Freiräume nicht gleichermaßen und rechtlich abgesichert allen Akteuren gewährt werden, sondern durch einen jederzeit widerrufbaren Willkürakt des Staates entstehen. Sie unterstreichen die absolute Macht der kommunistischen Parteiherrschaft. Manchmal wird einfach gezielt nicht reguliert, manchmal werden Gesetzesverletzungen stillschweigend toleriert und nachträglich legitimiert. Taube nennt das eine erfolgreiche Guerilla-Strategie des chinesischen Staates.

Solcherlei temporäre, quasi rechtsfreie Räume sind in den westlichen Demokratien unvorstellbar. Hier werden vergleichbare Freiräume nur in sehr eng definierten und streng kontrollieren Rahmen gewährt, z.B. als sogenannte "regulative sandboxes", sozusagen Spielplätze für neue Technologien, zum Thema Fintech in Großbritannien. Hier wurden Startups Möglichkeiten gegeben, über bestehende Regulierungen hinaus neue Dienstleistungen zu entwickeln, allerdings immer sehr eng begleitet von einem Vertreter einer Aufsichtsbehörde, und immer mit dem Ziel, in absehbarer Zeit wieder regelkonform zu arbeiten. Auch Österreich wagt sich 2019 an regulative Sandboxes für FinTechs.

Die deutsche Bundesregierung sucht noch den richtigen Weg für Reallabor und Experimentierräume. Im Moment lässt das Bundeswirtschaftsministerium einen Leitfaden erarbeiten, wie solche Reallabore in Zukunft schneller eingerichtet werden könnten. Ein gerade erschienener Artikel des BMWi skizziert den aktuellen Stand: das BMWi hat eine interministerielle Abeitsgruppe initiiert, um die Strategien der verschiedenen Ministerien zusammenzuführen, geplant ist auch ein Netzwerk zum Thema sowie Wettbewerbe, um zukünftige Reallabore zu unterstützen. Das Ministerium verweist aber auch mit Nachdruck darauf, dass es nicht darum gehen kann, Rechtsschutz abzubauen oder Unsicherheit zu vergrößern. Gerade das kontrollierte Vorgehen, z.B. durch zeitlich begrenzte Öffnungsklauseln, ermögliche es, Veränderungsbedarf auf Regulierungsebene für Innovationen zu testen, ohne dafür z.B. die Sicherheit der Bevölkerung zu gefährden.

Die Strategien Chinas und der westlichen Industriestaaten unterscheiden sich hier also fundamental. Manchmal allerdings liebäugelt doch der ein oder andere Politiker damit, mal nicht alles so streng zu sehen und zugunsten von Digitalisierung und Innovation über einige aus seiner Sicht nebensächliche Regelungen hinwegzugehen. Mehr Shenzhen kann man auch so interpretieren.

Ob allerdings die Vorgaben zu Energieeffizienz die Einrichtung von Co-working spaces verhindern, wie dort angeführt, scheint mir eher eine gewagte These. Digital first, Bedenken second, das kann man auch als naive Vereinfachung der wichtigen Rolle von Regulierung verstehen.

Sonntag, 13. Januar 2019

Mondsüchtig: China 2025

Vor 50 Jahren, am 20 Juli 1969, gelang den Amerikanern die erste bemannte Mondlandung. Der deutsch-französische Sender Arte hat aus diesem Anlass am 6. Januar den "Winter of Moon" ausgerufen und zeigt bis zum 20. Januar viele Filme und Dokumentationen. Noch etwas früher schaffte es China, einen Paukenschlag im Mondland Jahr zu setzen und eine Sonde auf der Rückseite des Mondes zu landen, die mittlerweile auch Videos zur Erde funkt. Die Kommentatoren waren sich international einig, dass dies eine technische Leistung besonderer Art darstellt. Zwar sind in den letzten 50 Jahren schon so einige Landefähre auf dem Mond aufgesetzt, und gerade in diesem Jahr versuchen verschiedene Länder, das Jubiläumsjahr für eigene erste Berührungen mit dem Mond zu nutzen, so z.b. Israel und Indien. Die Rückseite stellt aber doch einige technische Herausforderung dar, die nur mit einem sehr zielstrebigen Vorgehen zu meistern waren.

Trotzdem, die internationale Aufmerksamkeit war schon ungewöhnlich. dies liegt auch daran, dass China im Moment sehr argwöhnisch betrachtet wird, vor allem im Hinblick auf seine technologischen Ambitionen. Gerade die Diskussionen um Huawei zeigten, dass chinesische Technologiekonzern mittlerweile als Bedrohung wahrgenommen werden. Manche Autoren fragten sich in diesem Zusammenhang, ob eine autoritäre, top down organisierte Entscheidungsfindung manchmal nicht vielleicht schneller und effektiver sei als das europäische Modell komplexer Aushandlungsprozesse. Letztlich ist das aber ein autoritär verklärtes Weltbild. Und sehr zweifelhaft, ob das auch in der chinesischen Wirklichkeit funktioniert.

Der Economist nahm die chinesische Mondlandung zum Anlass, in einem breiten Artikel den Aufstieg Chinas als wissenschaftsmarkt zu beschreiben: "Red moon rising. Will China dominate science?" Ein wesentlicher Tenor des Artikels war, dass die Chinesen zwar Stück für Stück weltklasse werden, in manchen Feldern sogar ihre Disziplinen dominieren, aber echte wissenschaftliche Durchbrüche und Anerkennungen z.b. in Form eines Nobelpreises bislang nur selten aus China kamen.

Im Editorial der gleichen Ausgabe des Economist wiederum wird an die größere Frage gestellt, ob eine Einparteiendiktatur auf Dauer genug Freiräume für kreative, unabhängig und querdenkende Wissenschaftler setzen kann, und vor allem, ob diese Wissenschaftler nicht der Keim von Protest und Widerstand gegen die Diktatur sein könnten. Auch der Guardian fragt sich, ob ein autoritärer Staat genug freiräume für kreative innovationsprozesse lassen kann. Die Autoren ziehen eine Parallele zu den aktuellen Handelsgesprächen zwischen China und den USA, in denen China im Moment wieder auf die USA zugeht. Nach Ansicht der Kommentatoren auch deshalb, weil die wirtschaftliche Situation in China nicht so blendend und China auf den Westen angewiesen sei.

Andere Autoren verweisen darauf, dass auch in der Raumfahrt das chinesische, staatszentrierte Modell an Grenzen kommen könnte. Auch wenn die NASA im Moment nicht durch spektakuläre Erfolge glänzt, so zeige die private Raumfahrt in den USA die Vitalität und Kreativität des pluralistischen Staatsmodells.

Im Dezember 2018 gab es dann erste Meldungen, dass China seine Technologiestrategie China 2025 überarbeite und ausländischen Firmen einen besseren Zugang einräume. Der Schritt sei einerseits durch die negativen ausländischen Reaktionen, aber auch durch innerchinesische Kritik an der Strategie ausgelöst. Mancher Autor glaubt sogar, dass die Strategie China 2025 überhaupt nicht vernünftig funktioniert hat.

Beim Mond hat es allerdings ganz gut geklappt. Da sage ich Mal, lieber Westen: I see the bad moon rising!

Samstag, 15. Dezember 2018

Fakten und Innovationen

Vor kurzem traf sich die Welt in Kattowitz, um über die Rettung des Klimas zu verhandeln. Das ist immer auch ein Anlass, um neue wissenschaftliche Berichte zur Entwicklung des Klimawandels zu veröffentlichen und darauf hinzuweisen, dass schnelles Handeln nun wirklich Not tut.

Der Economist hat gerade in einem sehr lesenswerten kleinen Artikel eine Reihe neuerer Studien vorgestellt, die Zweifel daran aufkommen lassen, ob rationale Einsicht in die Problemlage tatsächlich zu vernünftigem Handeln führen kann.

Eine der zitierten  Studien zeigt: Faktenwissen über den Klimawandel und wissenschaftliches Denken (science literacy) hat keinerlei Einfluss auf die persönliche Haltung gegenüber Politikern, die sich für eine Klimapolitik einsetzen oder eben auch nicht. Überspitzt könnte man auch sagen, in der politischen Auseinandersetzung macht Wissen nicht klug.

Eine Erklärung könnte eine der anderen Quellen bieten, die der Economist zitiert. Ein neues Buch von Hugo Mercier und Dann Sperber, "The Enigma of reasoning". Die zentralen Gedanken und eine sehr persönliche Herleitung finden sich in diesem Artikel auf Edge.com. demnach hat rationales Denken und argumentieren vor allen Dingen einen sozialen Zweck: Sich selbst zu rechtfertigen und den anderen zu überzeugen. Am Ende geht es darum, eine gemeinsame Sicht auf die Welt zu gewinnen, um sozial handeln zu können. Es geht also weniger darum, objektiv ein Problem zu verstehen. Und es kann dann durchaus passieren, dass sehr abstruse Positionen sehr überzeugend in solchen Argumentationen vertreten werden. Auch das ist dann sozial rational.

In eine ähnliche Kerbe schlägt das dieses Jahr auf deutsch erschienene Buch von Steven Pinker "Aufklärung jetzt". Ich war beim Lesen ernsthaft irritiert, als ich zu diesen Kapiteln am Ende des Buches kam. Nachdem ich hunderte von Seiten Statistiken über die positive Entwicklung der Welt in allen möglichen Lebensbereichen (Bildung, Gesundheit, Gewalt...) und den segensreichen Einfluss von Aufklärung und Wissenschaft durchgeackert hatte, zitierte Pinker plötzlich reihenweise Studien, wie unfähig Menschen doch sind, vernünftig Probleme zu analysieren und rational zu entscheiden. Stattdessen scheinen politische Einstellungen und emotionale Grundhaltungen alles zu überlagern und zu manchmal bizarren Entscheidungen zu führen.

Pinker sieht die Auflösung dieses Dilemmas in einer breiteren Basierung von Entscheidungen auf Fakten und einem systematischen Vorgehen der Abwägung und Bewertung, was man durchaus auch lernen könne. Er zitiert als Beispiel die Arbeiten von Philip Tetlock zu sogenannten Superforecastern. Tetlock hatte die unglaublich schlechten Prognosefähigkeiten von sogenannten Experten an Börsen und im Geheimdienst untersucht und festgestellt, dass ein kleiner Prozentsatz an Menschen deutlich bessere Prognosen abgeben können. Das Geheimnis des Erfolges ist es dabei, emotional relativ wenig engagiert zu sein und seine Einschätzung auf einer sehr breiten Basis an Fakten zu stützen.

Nach dieser Auffassung können Fakten also durchaus nutzen, um zu sinnvollen Entscheidungen zu kommen, die Frage ist, wie man möglichst neutral und breit diese Fakten in Rechnung sieht. Was liegt nun näher, als künstliche Intelligenz für eine breite und neutrale Entscheidungsfindung zu nutzen? Tatsächlich gibt es solche Visionen oder Fantasien, gutes Regieren zukünftig auf KI zu stützen. Kann sein, dass das zu besseren Entscheidungen führt. Die soziale Funktion der menschlichen Diskussion bleibt damit aber außen vor. Akzeptanz in der Gesellschaft wird so nicht gefördert. Und das war ja gerade das Ausgangsproblem.

Der Gipfel in Kattowitz übrigens scheint kein Beispiel dafür zu sein, dass wissenschaftliche Erkenntnisse zu rationalem Handeln führen. Zumindest sind führende Klimaforscher ziemlich enttäuscht über die dürftigen Ergebnisse, obwohl doch die Notwendigkeit, schnell und massiv zu handeln, mehr als klar sei.

Samstag, 17. November 2018

KI Staatsfonds

Friedrich Merz hatte im Vorfeld seiner Kandidatur als CDU Parteichef den Vorschlag gemacht, das private Investment in Aktien doch steuerlich zu begünstigen, wenn dies der Altersvorsorge diene. Da die meisten von uns keine Aktienprofis sind, würde das Management vermutlich meist ein Investmentverwalter übernehmen, die Sparkasse z.B., oder andere institutionelle Anbieter (vielleicht auch indirekt der ehemalige Arbeitgeber von Herrn Merz). Der Vorschlag stieß auf ein unterschiedliches Echo. Während die einen ihn grundsätzlich interessant fanden, allerdings darauf hinwiesen, dass die meisten deutschen Haushalten gar kein Geld haben, um in Aktien zu investieren, lehnten die andern die Idee eher ab. Allerdings nicht, weil sie eine Stärkung des Aktieninvestments zur Alterssicherung nicht gut fänden, sondern weil es hierfür schon vielfältige Möglichkeiten gäbe, die aber alle nicht optimal funktionierten. Die deutsche Bevölkerung zu Aktienbesitzer zu machen, hat seit dem Fehlstart der T-Aktie vor mehr als 20 Jahren einen gewissen Beigeschmack. Ob mit Reform der bestehenden Systeme oder mit einem neuen Ansatz, leicht wird es nicht werden. Dabei klingt die Idee zunächst einmal sehr schön, dass die Deutschen selbst in Unternehmen investieren, die vom digitalen Wandel profitieren, und somit auch selbst Nutznießer desselben werden. Vielleicht muss doch Vater Staat helfen, der ja im Moment ganz begeistert ist von digitalen Umwälzungen aller Art.

An 15. November stellte die Bundesregierung z. B. ihre neue Strategie zur künstlichen Intelligenz vor. Deutschland soll zu einem führenden Standort für künstliche Intelligenz werden, damit soll ganz wesentlich auch der Wohlstand in Deutschland abgesichert werden. Die ersten Reaktionen waren wohlwollend bis skeptisch. Insbesondere die Besetzung von 100 Lehrstühlen mit hochkarätigem Personal wurdd als nicht kleine Herausforderung gesehen. Auch die Wirkung auf KI-Gründungen bleibt abzuwarten.

Überhaupt ist es mit Digitalisierung und künstlicher Intelligenz so eine Sache. Es gibt eine Reihe von Studien, die diesen Technologien ein erhebliches disruptives Potenzial nachsagen. Und die Disruption, also die verändernde und durcheinanderwirbelnde Wirkung, ist nicht immer für alle gleichermaßen positiv. Der Digitalisierung und dem Einsatz künstlicher Intelligenz wird z.B. auch zugeschrieben, dass sie möglicherweise sozialer Ungleichheit fördern.

Zum einen auf der individuellen Ebene, weil nicht alle Beschäftigten mithalten können mit den neu geforderten Kompetenzen. Weil viele Arbeitsplätze verschwinden und viele neue Arbeitsplätze geschaffen werden, aber vermutlich nicht unbedingt für die selben Personen.

Zum anderen auf Unternehmensebene, weil einige wenige Firmen vom Einsatz dieser Technologien profitieren, ihre Chefs reicher und reicher werden und auch ihre Mitarbeiter einen Teil vom wachsenden Gewinn abbekommen. Andere Firmen hingegen haben es immer schwerer, die Löhne in diesen Unternehmen sinken. Manche Branchen trifft es dabei besonders hart.

Es wird also vermutlich Gewinner und Verlierer geben. Aber wie kann es gelingen, dass die ganze Gesellschaft von diesem Technologiewandel profitiert? Vielleicht durch Investitionen der Bürgerinnen und Bürger in Aktien solcher Unternehmen? Wie oben beschrieben hat das so seine kleinen und großen Fallstricke. Vielleicht könnte auch der Staat einspringen.

Erik Brynjolfsson und Andrew McAfee schlugen schon vor ein paar Jahren in ihrem Buch "The second machine age", dass über eine staatliche Teilhabe an Unternehmen, die Gewinner der digitalen Revolution sind, ein Rückfluss für uns alle gewährleistet werden könnte.

Bereits anlässlich der Veröffentlichung des Eckpunktepapiers zur künstlichen Intelligenz im Sommer griffen einige Autoren die Idee eines Staatsfonds für künstliche Intelligenz auf und beriefen sich dabei auf Brynjolfsson und McAffee. Ein Staatsfonds investiert öffentliche Mittel in vielversprechende Unternehmen, um langfristig eine gute Rendite auch für spätere Generationen zu erwirtschaften. Und wenn KI so eine tolle Idee ist, warum nicht in Firmen investieren, die damit überdurchschnittlich wachsen?

Im Prinzip sind Staatsfonds keine neue Idee. Am bekanntesten sind die Staatsfonds der Ölstaaten wie Saudi-Arabien oder Norwegen, die mit dem Reichtum des heutigen Ölgeschäfts für die Zeit vorsorgen wollen, wenn diese Ressourcen erschöpft sind. Immer größere Summen werden von solchen Staatsfonds jetzt auch in Startups investiert, manche Experten fürchten hier schon eine Investitionsblase, da Staatsfonds anders als klassische Risikokapitalgeber agieren und den Markt überhitzen könnten.

Die Bertelsmann-Stiftung hat bereits 2017 im Rahmen einer kleinen Studie Überlegungen zu einem deutschen Staatsfonds in Anlehnung an das norwegische Vorbild skizziert, dabei aber ein unabhängiges Management, eine an ethischen Grundsätzen orientiere Anlagestrategie und eine internationale, an der Entwicklung der deutschen Volkswirtschaft abgekoppelte Investitionspolitik geforderten. Die Idee taucht immer wieder in deutschen Medien auf, so z. B. zuletzt in Spiegel oder Zeit.

Staatsfonds könnten eine schlaue Idee sein und möglicherweise auch in KI-Unternehmen investieren - vermutlich dann nicht nur in deutsche, sondern international. Damit ist die Idee des Staatsfonds erst einmal unabhängig von der Bemühung zu sehen, eine internatiinal wettbewerbsfähige nationale Industrie - z.B. in KI - aufzubauen.

Staatsfonds wurden jüngst aber auch ins Spiel gebracht, wenn es darum geht, heimische Industrien zu schützen. Im September diesen Jahres wurde angeblich Überlegungen der Bundesregierung berichtet, durch einen Staatsfonds den deutschen Mittelstand z.B. vor chinesischen Übernahmen zu schützen. Die Bundesregierung dementierte. Ob ein Staatsfonds dafür überhaupt ein geeignetes Instrument wäre, daran ließ ja schon die oben genannte Bertelsmann-Studie zweifeln. Andere Abwehrmittel sind die Prüfung von Übernahmen durch nationale Behörden oder künftig sogar durch ein Investment Screening der EU, beide vermutlich geeigneter zum Schutz deutscher Unternehmen (und einer deutschen KI-Unternehmenslandschaft).

Der deutsche KI-Staatsfonds ist im Augenblick kein ernstes Thema der politischen Diskussion. Im Moment scheint die Bundesregierung eine andere Strategie zu befolgen: Die heimische Industrie fit machen für den digitalen Wandel und den Einsatz künstlicher Intelligenz. Und damit Steuerrückflüsse zu garantieren, die man für das Gemeinwohl nutzen kann. Arbeitnehmer durch Weiterbildungsmaßnahmen so qualifizieren, dass sie möglichst wenig auf der Strecke bleiben.

Ob das reicht, werden wir sehen.

Bis dahin kann natürlich jede/r von uns in ihr/sein privates KI Aktienportfolio investieren - wenn sie/er das nötige Kleingeld und den richtigen Riecher hat.

Samstag, 29. September 2018

Rückblick auf die diesjährige Tagung der DeGEval

(dieser Blog-Beitrag erschien zuerst im Blog des Arbeitskreises FTI der DeGEval)

Manche Jahrestagungen von wissenschaftlichen Fachgesellschaften schaffen es ja durchaus in die überregionalen Medien, heute z.b. erschienen ein Beitrag in der Süddeutschen Zeitung zum Deutschen Historikertag. Diese Aufmerksamkeit ist der Jahrestagung der DeGEval bislang nicht vergönnt gewesen. Nun ist die DeGEval sicher nicht mit den deutschen Historikern zu vergleichen, sie ist ungleich weniger im Fächerkanon deutscher Universitäten verankert, auch der breiten Bevölkerung bis das Thema Evaluation vermutlich relativ unbekannt und auch egal. Andererseits ist die Tätigkeit von Evaluatorinnen und Evaluatoren möglicherweise deutlich praxisrelevante als die der deutschen Historikerinnen und Historiker. Grund genug, einen kurzen Rückblick auf die diesjährige Tagung unserer Fachgesellschaft zugeben und aus der Perspektive der Forschungs-, Technologie- und Innovationspolitik auf einigen der besonders relevanten Sessions zu schauen.

Das Motto der diesjährigen Jahrestagung der DeGEval war Wirkungsorientierung und Evaluation. Einerseits scheint dies fast schon eine überflüssige Differenzierung zu sein. Geht es nicht in allen Evaluation auch um Wirkung? Andererseits ist die Messung von Wirkung sicher eine der großen Herausforderungen der Evaluation. Gerade im Bereich von Technologie- und Innovationspolitik (aber nicht nur hier) ist die Wirkung nicht einfach zu messen. Zu viele unterschiedliche Faktoren beeinflussen, interne wie externe. Es geht also meist eher um die Zuschreibung als um die kausale Verknüpfung von Ursache und Wirkung, um Contribution statt Attribution. Auch ist der zeitliche Abstand zwischen Intervention und messbarer Wirkung meist zu lange für reale Evaluationen.
Wie auch in der Vergangenheit zahlten die Vorträge der Tagung allerdings auch dieses Jahr unterschiedlich klar auf das Oberthema ein. Natürlich ging es fast immer irgendwie um Wirkung, aber die spezifischen Herausforderung der Wirkungsanalyse wurden in den meisten Vorträgen nicht wirklich in den Mittelpunkt gerückt.

Hier nun einige Eindrücke von den Sessions, die ich selbst besucht habe:

Session A4 - Analyse komplexer Wirkungsketten von Gleichstellungsmaßnahmen im Innovationssystem
Die Session konzentrierte sich ausschließlich auf eine Zwischenbilanz des europäischen Projektes EFFORTI (“evaluation framework for promoting gender equality in Research and Innovation”). Ziel des Projektes ist es im Wesentlichen, eine Toolbox für Verantwortliche von genderorientierte Maßnahmen im Bereich FTI sowie für Evaluatorinnen und Evaluatoren in diesem Feld zu erarbeiten. Dabei stützt sich das Projekt auf das Konzept der Theorie-basierten Wirkungsanalyse, also die Modellierung von Wirkungsvermutungen und Einflussfaktoren und die Prüfung anhand geeigneter Indikatoren, inwieweit diese Wirkungsvermutung plausibel bzw. durch Daten bestätigt werden können.

Im zweiten Teil der Session wurden zwei Fallbeispiele präsentiert, die das Projektteam erarbeitet hat. Die eine Fallstudie richtete sich auf ein Programm zur Förderung von innovativen Unternehmensgründungen durch Frauen, die andere zielte auf FEMTech, ein Förderprogramm in Österreich, das Projekte fördert die Gender-Dimensionen in die Produkt- und Technologieentwicklung einbeziehen. Beide Fallstudien dienten vor allen Dingen als Trainingsmaterial, um Indikatoren und Zugänge für die Toolbox zusammenzutragen und auf ihre Nutzbarkeit zu prüfen. Einige der untersuchten Beispielen scheinen auch zuvor schon evaluiert worden zu sein, auch waren die Ressourcen für die Fallstudien selbst deutlich kleiner als die für “echte” Evaluation. Aufgrund der Präsentationen wurde nicht deutlich, ob in den Fallstudien tatsächlich neue Erhebungsinstrumente oder Indikatoren genutzt werden. Im Mittelpunkt stand der Zugang über das Wirkmodell. Dies ist für den Bereich FTI eine relativ verbreitete Praxis in Evaluationen. Grundsätzlich lässt sich fragen, ob der Ansatz der EU-Kommission, in solchen Projekten Toolboxen und Leitfäden zu erarbeiten, die dann hinterher in der Evaluationspraxis bzw Förderpraxis genutzt werden, tatsächlich Wirkung entfalten.

Session C1 - Wirkungsorientierte Instrumente im Kontext von Haushalten
In der Session wurden insgesamt drei Vorträge präsentiert. Zwei davon stellten deutsche bzw. österreichische Ansätze der wirkungsorientierten Haushaltssteuerung vor. Während der deutsche Vortrag, der sich auf sogenannte “Spending Reviews” konzentrierte (das BMF hat das Konzept auf seiner Internetseite sehr gut dokumentiert und sowohl Berichte der bisher schon durchgeführten spending reviews als auch Hintergrundartikel eingestellt), ein stark dialogorientiertes, sehr selektives Verfahren der Diskussion von Zielen, Zielerreichung und Konsequenzen für die Steuerung von Politikfeldern beschrieb, präsentierten die österreichischen Kollegen die Praxis der wirkungsorientierten Haushaltsführung und ihr Spannungsverhältnis zur langjährig gelebten Praxis der Evaluation von Einzelfördermaßnahmen.

In beiden Kontexten sind klassische Evaluationen eher eine von mehreren Quellen für die Bewertung von Zielerreichungen. Interessant ist die Betrachtung der Schnittstelle zwischen der Welt der Evaluation und und der Welt der politischen Bewertung von Politikfeldern, ihrer Ziele und der “Performanz”. Hier zeigten insbesondere die österreichischen Kollegen die manchmal doch größere Begriffsverwirrung, die zwischen Controlling, Monitoring und Evaluation, Wirkung und Zielerreichung aufscheint. Letztlich macht das österreichische Beispiel deutlich, wo die Grenzen eines stark auf KPI (key performance indicators) basierten Steuerungsansatzes liegen. Angesprochen wurde z.b. ein möglicherweise zu geringes Ambitionsniveau bei der Formulierung von Zielen. Ebenso thematisiert wurde, dass die Fokussierung auf wenige Indikatoren dazu führen kann, dass unterkomplexe Perspektiven gewählt werden, die wenig Raum für Lernerfahrung bieten. Der deutsche Vortrag zu den “Spending Reviews” veranschaulichte zwar sehr gut, wie der Prozess im Moment organisiert wird und wo auch die Vorteile eines stark diskursiven Ansatzes liegen. Allerdings konnte im Rahmen der Session nicht am konkreten Beispiel diskutiert werden, welche Indikatoren denn im Einzelfall für die Bewertung eines Politikfeldes herangezogen werden, wie mit unterschiedlichen Interpretationen und daraus resultierende konfligierenden Einschätzungen umgegangen wird und in welchem Verhältnis eine solche breitere Perspektive zu Einzelevaluation steht.

Der letzte der drei Vorträge kam aus dem Politikfeld Entwicklungszusammenarbeit. Die Vortragenden der GIZ stellten eine interne Studie vor, die die Nutzung von “experimental design” -Ansätzen untersuchte und dabei zu dem interessanten Schluss kam, dass auftraggeberseitig solche neuen Evaluationsansätze wenig nachgefragt werden, sondern dass die Initiative für diese Ansätze vielmehr bottom-up von einzelnen Verantwortlichen sowie Forschenden ausgeht.

D4: Wirkungszusammenhänge und Wirkungsmessungen in technologieaffinen Projekten und Maßnahmen
in dieser Session wurde zunächst eine kleine Studie für das BMWi aus dem letzten Jahr vorgestellt, in der es um die Analyse von Trends in der technologieoffenen Förderung ging. Der Fokus der Präsentation lag auf methodischen Fragen. In der Studie wurden zwei Ansätze gewählt, einerseits die Befragung von Gutachtern in den beiden untersuchten Programmen, andererseits eine auf "Text Mining"  angelegte quantitative Analyse von Projektbeschreibungen. Die beiden Programme, es handelt sich um das Zentrale Innovationsprogramm Mittelstand - ZIM sowie die industrielle Gemeinschaftsforschung - IGF, sind zusammengenommen die größten innovationspolitischen Fördermaßnahmen für den deutschen Mittelstand. Sie erreichen also in der Breite kleine und mittelständische Unternehmen und müssten geeignet sein, um Technologietrends in dieser Zielgruppe frühzeitig zu identifizieren. Tatsächlich war es über die Gutachterbefragung möglich, relativ differenziert Trends zu beschreiben, allerdings war die zeitliche Einordnung nicht einfach, außerdem bewegten sich die Trends auf sehr unterschiedlicher Ebene. Während einerseits übergreifende Paradigmen wie Industrie 4.0 benannt wurden, ging es andererseits um sehr konkrete Einzellösungen. Das "Text Mining" wiederum war in der Lage, die Gesamtmenge von 5.000 Projektbeschreibungen automatisiert in thematische Cluster zuordnen und lieferte darüber hinaus Hinweise auf die Entstehung neuer Trends. Es zeigte sich allerdings auch, dass hier methodisch  noch einiges zu entwickeln ist, bevor tatsächlich Trends und Trendverläufen gesichert beschrieben werden können.

Ein zweiter Vortrag bezog sich auf die Nutzung von sogenannten “technology readiness level” (TRL) -Skalen, um die standardisierte Einordnung von Projekten entlang des Forschungs- und Entwicklungszyklus vorzunehmen. Die Vortragenden beschrieben auf Grundlage mehrerer Evaluationsbeispiele die Herausforderungen, die sich dabei stellen. So ist es z.B. nicht immer eindeutig, ob in Verbundprojekten das TRL auf Teilvorhaben oder auf die Verbundebene selbst bezogen wird. Auch scheinen immer wieder Befragte Schwierigkeiten mit dem Verständnis von TRL allgemein zu haben. In manchen Branchen wie der Luftfahrtindustrie wird dieses System seit langem genutzt, in anderen Branchen ist es noch weitgehend unbekannt oder eignet sich auch nur sehr bedingt. Dies wäre z.b. für den Bereich Software anzunehmen. Auf der anderen Seite bietet ein standardisiertes Verfahren die Chance, über Programme hinweg Daten zu vergleichen und so zu einer querschnittliche Perspektive von Evaluationen beizutragen.

Ein dritter Vortrag aus Österreich stellte eine konkrete Evaluation in den Mittelpunkt, nämlich die Evaluation des Programms BRIDGE. Der Charme dieses Vortrags lag darin, dass aus Auftraggeber- wie Auftragnehmersicht die Entwicklung des Evaluationsdesigns und seine Umsetzung diskutiert wurde, und zwar in einem sehr lebendigen Dialog. So Bude rekonstruiert, wie die Erwartungen auf Auftraggeberseite, kausale Verbindungen von Ursache und Wirkung tatsächlich messbar zu machen, von Auftragnehmerseite zum Teil enttäuscht werden musste. Andere Absprachen betrafen die Machbarkeit konkreter methodischer Zugänge.

Insgesamt hat die DeGEval-Tagung wieder spannende Einblicke in die Evaluationspraxis des Politikfelds FTI ermöglicht. Die nächste Gelegenheit wird sich im November ergeben, wenn in Wien die Konferenz "Impact of Research and Innovation Policy at the Crossroads of Policy Design, Implementation and Evaluation".

Samstag, 25. August 2018

Wie beeinflusst Technologie Politik?

in den USA stehen im November die Wahlen zum Repräsentantenhaus an, und nach zwei Jahren Donald Trump ist die ganze Welt gespannt, ob er nun einen Denkzettel bekommt oder ob die Republikaner ihre starke Stellung halten können. Und wie bereits anlässlich der Präsidentenwahlen richtet sich die Aufmerksamkeit auch darauf, ob Technologie einen Einfluss auf Politik haben könnte. Immer noch sind die Amerikaner damit beschäftigt, die Einzelheiten möglicher Einflussnahme auf die letzten Wahlen durch soziale Medien und Akteure wie Cambridge Analytics zu klären. Bereits jetzt schon werden besorgte Stimmen laut, die eine Einflussnahme auf Wähler oder gar ein Hacken der Wahlmaschinen bei der kommenden Wahl fürchten. Erste Anzeichen dafür gibt es ganz aktuell.

Die amerikanische Ausgabe Technology Review hat sich nun in ihrer neuen Ausgabe ganz und gar dem Thema Technologie und Politik gewidmet. Das Editorial schlägt noch einmal den ganz großen Bogen von seiner optimistischen Perspektive auf politisch genutzte Technologie aus dem Jahr 2013, als Barack Obama auch mit der Hilfe neuer Wahlkampftechniken die Präsidentschaftswahlen gewann und der arabische Frühling auch durch die Möglichkeiten sozialer Netzwerke seine durchschlagende Kraft entfaltete. Heute hingegen scheint Technik nur noch als Bedrohung demokratischer politischer Prozesse zu funktionieren. Nur ein einziger Artikel der neuen Ausgabe widmet sich neuen, technologisch ermöglichten partizipativen Formaten, die hier am Beispiel Taiwans demokratische Prozesse bereichern können.

Am Beispiel Kenias skizziert ein Artikel z. B., wie bestimmte demokratieschädliche Tendenzen neuer Technologien nicht wirklich neu sind, sondern auch manchen Technologien des Vor-Internetzeitalters eigen waren. Hate-speech z. B. wurde in Kenia bereits früher durch lokale Radiostationen befördert, das Internet hat nun diese unheilvolle Funktion übernommen. Dabei war die Hoffnung in Kenia nach den Unruhen des Jahres 2007 groß, das mit neuer Wahltechnik eine Befriedung des Landes gelingen könnte. Der Autor des Artikels schließt, dass Technik in der Regel keine sozialen Probleme löst.

Diee repressive Politik der chinesische Regierung gegenüber den Uiguren in der westlichen Provinz Xinjiang, die immer stärker auf entsprechenden Überwachungs- und Analysetechnologien basiert und als Art Testlabor zum Funktionieren des technologisch ausgerüsteten autoritären Staates gesehen werden kann, greift die Zeitschrift The Atlantic auf. Besonders beeindruckt hat die Autoren eine neue Überwachungsdrohne, die sich als Taube tarnte und flattert wie ein echter Vogel. Diese Drohne wird auch in einigen anderen Medien aufgegriffen.

Die Technologiepolitik der chinesischen Regierung wird übrigens auch in der oben beschriebenen Ausgabe der Technology Review aufgegriffen, unter der schönen Überschrift 'Warum Demokratie, wenn es Technologie" gibt. Tatsächlich kann Überwachungstechnologie wie Gesichtserkennung oder das berühmt-berüchtigte social credit System ein zentrales Problem chinesischer Politik lösen helfen, nämlich das Fehlen von Informationen, die von unten nach oben fließen. Dies ist ja eine der wesentlichen Funktionen von Demokratie, dass nämlich aus der Breite der Bevölkerung über den Wahlakt und die damit verbundene Kommunikation Meinungen und Einstellungen an die politische Führung kommuniziert werden. Wer diese Mechanismen nicht hat, der ist auf andere Kanäle angewiesen um das Problem zu lösen.

Allerdings ist Demokratie keine Einbahnstraßenkommunikation wie die beschriebenen Überwachungstechnik.

Samstag, 11. August 2018

Künstliche Politiker

Im vergangenen Jahr wurde eine Umfrage unter britischen Bürgern veröffentlicht, wonach sie sich einen Roboter mit künstlicher Intelligenz als Ersatz für ein Politiker gut vorstellen könnten. Angesichts des Chaos, mit dem im Moment die britische Politik versucht, den Brexit umzusetzen, könnte man das vielleicht wirklich für eine gute Idee halten. Etwas ernster hat sich jüngst ein Kommentator des Economist damit auseinandergesetzt und ist unterm Strich zu dem Ergebnis gekommen, dass ein KI-Politiker vielleicht doch keine so gute Idee wäre. Selbst wenn es zukünftig technisch machbar wäre.
Auch den aktuellen amerikanischen Präsidenten durch eine künstliche Intelligenz zu ersetzen halten manche Kommentatoren aus durchaus nachvollziehbaren Gründen für eine interessante Idee, die man zumindest einmal in Ruhe durchdenken sollte. Eine evidenzbasierte, rationale Politikentscheidung könnte auf jeden Fall durch einen solchen Austausch nur gewinnen.
Bereits Anfang letzten Jahres hatte sich die Zeit in einem längeren Artikel auf das Gedankenspiel eingelassen. In diesem wie auch in den anderen Artikeln wurde schnell deutlich, dass die Gründe für mehr KI in der Politik aus der Frustration resultiert, dass Politiker Menschen sind und manchmal ziemlich irrational. Möglicherweise läge die Lösung nicht darin, eine künstliche Intelligenz den Job machen zu lassen, sondern einfach bessere Politiker zu wählen.
Doch die eigentlich spannende Frage ist, ob die Nutzung künstliche Intelligenz, die Entscheidungsfindung aufgrund der Auswertung von vielen vielen Daten und Modell der Wirklichkeit, ob all dies nicht zu einer besseren Politikgestaltung führen könnte. Vermutlich nicht auf der Ebene des obersten Repräsentanten, des US-Präsidenten, der britischen Regierung oder der Bundeskanzlerin. Aber möglicherweise als Unterstützung für Ministerialverwaltungen oder zunächst auch nur Stadtverwaltungen.
Das Ergebnis wäre eine KI-gedopte Technokratie, die sich stark auf künstliche Intelligenz stützen könnte und rationale Entscheidungsfindung und Effizienz zu ihrem obersten Prinzip erheben würde. Im vergangenen Jahr hatte der amerikanische Autor Parag Khanna dazu ein Buch geschrieben und für einen solchen technokratischen Ansatz in den USA geworden.
Die französische Zeitschrift Usbek & Rica, die sich der Erforschung der Zukünfte verschrieben hat, beschreibt ein Szenario, in dem aus den Zwang zur moralisch Integrine regieren Stück für Stück die Kontrolle einer künstlichen Intelligenz über die französische Politik wird.
Tja, und die Chinesen, die Chinesen sind mal wieder schon einen Schritt weiter. Laut diesem Artikel sind sie schon jetzt intensiv dabei, für unterschiedliche Politikfelder die Kraft künstlicher Intelligenz zu nutzen und damit eine bessere, eine rationale Politik zu betreiben. da wird es kein Zufall sein, dass das chinesische Social Credit System so schön die Gesellschaft abbildet und ihre Simulation vereinfacht. Ist vielleicht die Gesellschaft nur noch dazu da, die Daten für die richtige Simulation zu liefern, ganz im Sinne der letzten Staffel von Westworld?
Auch in Deutschland wird das Thema KI in der Politik manchmal zaghaft angeschnitten. die hiesige politische Kultur scheint dem Thema gegenüber aber nicht besonders offen zu sein. Es gibt in Deutschland keine Tradition der Planungsbehörden, die über längere Zeiträume hinweg versuchen, alle Faktoren zu berücksichtigen und die Zukunft zu planen und zu steuern. Als im Zuge der Eurokrise die Bundesregierung wiederholt von Sachzwängen und von Alternativlosigkeit sprach, also letztlich auch davon, dass die einzig vernünftige Entscheidung diejenige wäre, die die Regierung trifft, brach ein Sturm der Entrüstung aus.
Und auch die europäische politische Ebene, in der die Kommission deutlicher als auf nationaler Ebene die Rolle einer technokratie, oder in diesem Fall der Euro Kratie spielt, ist in Deutschland nicht gerade mit großem Sympathien bedacht, auch wenn die Zustimmung zur EU grundsätzlich in Deutschland gottseidank noch hoch ist (wer mehr zu den längeren Linien dieses kritischen bzw polemischen Diskurses über Bürokratie lernen möchte, dem sei dieser Podcast empfohlen).
Man kann über Vor und Nachteile einer durch künstliche Intelligenz unterstützen Politik streiten, wie wir es beispielhaft in unserer kleinen Publikation hier vorgemacht haben.
Wer sich dem Thema künstlicher Intelligenz und Politik etwas entspannter zuwenden möchte, dem sei der hervorragende satirische SF Roman von Marc-Uwe Kling 'Qualityland" empfohlen wo John of Us den Roboter Präsidentschaftskandidaten gibt.
Oder aber man amüsiert sich mit Tracey Ullman und ihrer Vision, wie ein Roboter die amerikanische Präsidenten Familie aufmischt.

Samstag, 4. August 2018

Zombie-Gründer

Seit kurzem nutze ich verstärkte Twitter, um mich auf interessante Artikel, Studien oder Meinungen stoßen zu lassen. Jenseits der üblichen Newsletter ist dies manchmal eine wirkliche überraschende Quelle von spannenden Meldungen. Das Ganze steht und fällt natürlich mit den Personen, denen man folgt. Wenn diese alle selbst miteinander vernetzt sind, dann twittern sie nur immer wieder dieselben Beiträge. aber das macht das dann auch wieder spannend, zu sehen, welche Netzwerke sich hinter Twitter verbergen.

im Moment recht angetan bin ich z. B. von der Expertenkommission Forschung und Innovation EFI, die eine ziemlich bunte Mischung an Beiträgen mit einer relativ hohe Taktfrequenz twittert. Lustig fand ich da den Retweet zu einem Artikel in WIRED, der Studienergebnisse zitiert, die einen Zusammenhang zwischen der Infektion mit Toxoplasmose und Gründungsneigung behaupten. Wer eine Katze hat bzw. sich mit diesem Katzenparasiten identifiziert, ist wagemutiger und gründet häufiger ein Unternehmen, so die Autoren. Das wäre natürlich praktisch und eine ziemlich preiswerte Möglichkeit für die Bundesregierung, die Gründungsneigung in Deutschland zu erhöhen: einfach süße kleine Katzenbabys flächentechnik verschenken.

Die Geschichte erinnert mich auch an sogenannte Zombie-Pilze, die tropische Ameisen befallen (hier auch ein Artikel mit einem nett-gruseligen Film), sie zu einem selbstmörderischen Verhalten zwingen und dann töten, um an geeigneter Stelle weiter zu wachsen. Das ist aber nicht der einzige Parasit, der seinen Wirt geradezu unglaublich raffiniert manipuliert. Es gibt eine ganze Reihe sogenannter Neuroparasiten, die entsprechend vorgehen und diverse Tierarten zu höchst merkwürdigen und selbstschädigenden Verhalten bringen.

Beim Toxoplasma-Parasiten und dem Menschen war diese Art der Beziehung schon länger vermutet worden, aber wissenschaftlich nicht wirklich eindeutig nachgewiesen. Und wenn man bedenkt dass Toxoplasma in Deutschland ungefähr 60% der Bevölkerung infiziert hat, so scheinen sich die Auswirkungen doch sehr im Rahmen zu halten. Und leider sind insbesondere die Auswirkungen auf die Gründungswahrscheinlichkeit dann doch sehr beschränkt geblieben und die Idee mit der Katze als innovationspolitischler Wunderwaffen doch nicht so toll.

Aber Gründerinnen und Gründer sind ja sowieso recht eigenartige Wesen, deren Verhalten wohl auf sehr mannigfaltige Art und Weise beeinflusst wird und nicht einfach zu steuern ist. Breit ist die Literaturlage z. B. In Hinblick auf Geschlechterunterschiede. Schon länger in Studien beschrieben ist die Beobachtung, dass weibliche Gründerinnen vorsichtiger agieren und eher auf ein nachhaltiges, langsames Wachstum setzen. Neu ist die Beobachtung, dass Frauen dabei scheinbar sehr erfolgreich sind und höhere Renditen erwirtschaften als männliche Gründer.

Bislang immer wieder aufgegriffen wurden die Annahme, dass insbesondere jüngere Menschen eher ein Unternehmen gründen. Der demografische Wandel würde in diesem Fall ein nicht unerheblicher Einflussfaktor auf die sinkende Gründungsneigung in Deutschland sein. Neu sind dann die Studien, die zeigen, dass ältere Gründer deutlich erfolgreicher sind. Gründungsneigung und Gründungserfolg sind eben doch nicht ein und dasselbe.

Jetzt würde mich interessieren, welche Korrelation ist zwischen Alter und Vorlieben für Katzen gibt.

Samstag, 23. Juni 2018

Innovationsprotektionismus

Protektionistische Töne aus dem Weißen Haus sind in diesen Tagen nichts ungewöhnliches. Präsident Trump ist in vielen Bereichen der festen Auffassung, dass Amerikas Unternehmen unfair behandelt werden und amerikanische Verbraucher leiden. Während des meist um den Import ausländischer Waren in die USA geht, entzündet sich der neueste Streit am Export amerikanischer waren, genauer gesagt amerikanischer Medikamente. Diese unterliegen, wie alle Medikamente, in vielen Ländern einer Preisregulierung. Gesundheitsbehörden oder Krankenkassen schließen Verträge und legen fest Komma zu welchen Preisen bestimmte Medikamente zu haben sind. Diese Praxis ist nach Ansicht des Weißen Hauses dafür verantwortlich, dass die Preise für Medikamente in den USA im Vergleich deutlich höher sind. Amerikanische Pharmaunternehmen müssten ihre hohen Forschungs- und Entwicklungskosten über diese hohen Preise in den USA refinanzieren, weil sie zu billig im Ausland verkaufen müssten.

Natürlich liegt es durchaus nahe und wird auch in einigen Artikeln so beschrieben, dass die amerikanische PharmaBranche hier erhebliches Lobbying betreibt. Wirklich erstaunlich ist aber das eigentliche Argument: die Kosten für Forschung und Entwicklung eines neuen Produktes sollten gleichmäßig über alle Kunden verteilt werden, und andere Länder profitieren unverhältnismäßig von dem Forschungsanstrengungen in einem Land.

Viele Kommentatoren sind sich sicher, dass der Grund für unverhältnismäßig hohe Kosten für Medikamente in den USA aber an anderen Faktoren hängen. So ist es z.b. in den USA möglich, direkt für Medikamente zu werden, was in vielen anderen Ländern verboten ist. Auch ist das amerikanische Gesundheitssystem so strukturiert, dass es wenig Verhandlungsmacht gegenüber Pharmakonzernen besetzt.

Der europäische Gesundheitskommissar Andriukaitis hat jetzt die Vorwürfe aus den USA zurückgewiesen und unter anderem darauf hingewiesen, dass Pharmaforschung heute multinational funktioniert, dass die großen Pharmakonzerne ihre Forschungsabteilungen überall auf der Welt haben und in enger Kooperation mit unterschiedlichsten Forschungseinrichtungen an neuen Medikamenten arbeiten. Auch europäische Forschungsgelder fließen in großen Mengen in diese Anstrengungen. Es gibt nicht das eine Medikament, das in Amerika erforscht und entwickelt wurde.

Gesundheitsforschung wird auch deshalb mit hohen öffentlichen Mitteln unterstützt, weil sie am Ende in Produkte mündenden soll, die allen Menschen zur Verfügung stehen. Es geht nicht, oder zumindest nicht nur, um wirtschaftliche Ziele, sondern um übergreifende gesundheitspolitische Ziele, die mit der öffentlich finanzierten Pharmaforschung erreicht werden sollen.

Die NZZ übrigens hat in diesem Zusammenhang eine ganze Reihe von Daten veröffentlicht, die einmal deutlich machen, dass in den USA die Ausgaben für Medikamente tatsächlich am höchsten sind, die aber auch zeigen, dass auch in Deutschland deutlich mehr pro Kopf für Medikamente ausgegeben wird als z.b. in den Niederlanden. Und die NZZ weist auch darauf hin, dass natürlich amerikanische Konzerne und die amerikanische Volkswirtschaft erheblich davon profitieren, dass die globale Pharmaforschung in den USA konzentriert ist.

Es gibt auch ganz andere Vorschläge, zu hohe Arzneimittelpreise zu bekämpfen. Auf dem World Economic Forum wurde dieses Jahr z.b. einen Vorschlag vorgestellt, der eine zweigeteilte Finanzierung vorsieht. Die eigentliche Forschung wird separat finanziert, z.b. aus einem Fonds, der insbesondere den Mehrwert für Patienten als Grundlage für die Kostenerstattung der Forschung heranzieht. Und dann wird das eigentliche Medikament eher wie ein Generika bezahlt, da die hohen Forschungs- und Entwicklungskosten ja nicht mehr durch Patentabsicherungen und hohe Preise refinanziert werden müssen.

Samstag, 16. Juni 2018

Kunst und Zukunft


Heute war ich in einer wirklich amüsanten Ausstellung zur Zukunft des Essens (food revolution 5.0) im Kunstgewerbemuseum in Berlin. Eine Reihe von Architekten, Designern und anderen Kreativen hatte sich mit der Zukunft des Essens beschäftigt. Natürlich gab es dort die zu erwartenden Beispiele von urban farming, und auch der aktuelle Trend, Insekten zu essen, durfte nicht fehlen. Hier zeigte sich allerdings schon das Besondere der Ausstellung. Ein Beispiel präsentierte in einem Film und einigen Objekten und Modellen, wie aus Insekten ein eine Paste hergestellt wird, die im 3D Drucker dann zu interessanten essbaren Gegenständen gedruckt werden kann. Es ging also ganz klar nicht nur um realistische Entwürfe von Zukunft oder innovativen Produkten und Dienstleistungen, sondern auch um den etwas schrägen Blick auf diese Themen.
Drei Beispiele haben mir besonders gut gefallen: in einem Beispiel wurden angeblich psychologische Erkenntnisse zum Essverhalten genutzt, um durch die Gestaltung von Essenswerkzeugen und Zubehör die Nahrungsaufnahme zu steuern. So wurden Gabeln gezeigt die riesige oder winzig kleine Zinken haben. Wer mit den riesigen Zinken ist, der ist immer mehr, wer mit den kleinen Zinken ist der ist weniger als er sonst essen würde. Direkt daneben waren seltsame Objekte aus Ton zu sehen, die eine amorphe Gestalt und pastellfarbene Töne hatten und ins Essen auf den Teller gelegt werden sollten. Sie sollten dem Trend entgegenwirken, mit immer größeren Tellern die Esser zu größeren Portionen zu überreden. Wer ein solches Objekt nun auf seinem Teller vorfinde, der habe weniger Platz und sei abgelenkt von Gießen verwirrenden Gegenstandpunkt.
Ein zweiter Ausstellungsbeitrag sorgte sich um die Zukunft der mit der Fleischherstellung verknüpften, traditionellen Kulturen in Deutschland: den Fleischern, den Schlachthöfen und der Kunst des Fleischzubereiten. Wenn aber nun Algenmasse in Fleischform gebracht würde, so wie es in dem Ausstellungsbeitrag zu sehen war, so würden diese alten Traditionen fortleben dürfen.
Schließlich der lustigste, aber sehr sarkastische Beitrag zur Zukunft der Hühnerfleisch-Produktion. Die armen Tiere würden heute ja in sehr engen Käfig in den riesigen Massen gehalten, das sei alles nicht besonders artgerecht. Wenn nun aber eine neuartige virtual reality Brille zum Einsatz käme, die den Hühnern einen freien Auslauf suggerierten, würden sie sich deutlich wohler fühlen. Das Huhn mit Brille säße in einem kleinen Käfig auf einem in alle Richtungen beweglichen Laufband und hätte das Gefühl, fast in freier Wildbahn zu sein. Absurd, aber gerade deshalb große Klasse.
Kunst beschäftigt sich ja immer wieder mit der Zukunft, in Science-Fiction-Literatur und -Film. Dort aber ist sie gezwungen, in sich geschlossene Welten zu definieren und einer inneren Logik zu folgen. Die Ausstellung hingegen konnte ganz unterschiedliche Zugänge zum Thema "Zukunft des Essens" aufzeigen, von realistischen, heute schon in Pilotanlagen erprobten Verfahren bis hin zu Persiflagen einer so hoffentlich nicht eintretenden Zukunft.
Und die Gegenständlichkeit, die Möglichkeit, reale Dinge zu sehen, manchmal so inszeniert, als könne man sie im Museumsschop gleich kaufen, führte zu einer ganz anderen Beschäftigung mit den so aufbereiteten Themen. Nach einem ähnlichen Konzept arbeitet ja auch das Design Thinking.
Aber am besten hat mir wirklich gefallen, das die Zukunft des Essens trotz aller ernsthafter Beschäftigung mit ernsten Themen wie Massentierhaltung und Lebensmittelvernichtung auch immer wieder mit einem Augenzwinkern präsentiert wurde.
Die Ausstellung hat übrigens auch ein relativ breites Medienecho hervorgerufen (Deutschlandfunk, Spiegel, Welt, Tagesspiegel), sie wurde bereits in Hamburg gezeigt, wo sie auch entwickelt wurde.

Samstag, 9. Juni 2018

Startup Kill Zone

In der vergangenen Woche hat der Economist einen Beitrag über das Silicon Valley veröffentlicht, in dem den großen Tech-Konzernen schwere Vorwürfe gemacht werden. Sie würden jungen Startups kaum noch die Möglichkeit geben, auf eigenen Beinen groß zu werden. Wer eine Konkurrenz für die großen Konzerne sei, würde schnell vom Markt weggekauft. Nicht unbedingt, um die neuen Geschäftsideen in das eigene Geschäftsmodell zu integrieren, sondern insbesondere, um keine neuen Gegner entstehen zu lassen. Es entstehe eine regelrechte Todeszone oder "Kill Zone", durch die kaum ein Startup noch unbeschadet durchkomme, um zu einem größeren Unternehmen zu werden. Auch fegten die großen  Konzerne in ihrem Hunger nach gutem Personal die Arbeitsmärkte leer. Wer einigermaßen gut in seinem Fachgebiet sei, könne sich einen äußerst lukrativen Job sichern. Startups blieben dann bei ihrer Suche nach Personal auf der Strecke, und potentielle Gründerinnen und Gründer würden gleich in die Tech-Konzerne wechseln.

Die im Economist skizzierte Problemlage trifft in Teilen auch Deutschland. In manchen Themengebieten, z.b. der künstlichen Intelligenz, wandern die besten Uni-Absolventen oft ab in die USA. Mit den dort gebotenen Gehältern kann hierzulande kaum einer mithalten. Und gleichzeitig scheint nicht wenigen deutschen Gründerinnen und Gründern der Exit in Form eines Aufkaufs durch Google und Co. als das große Los. Das ist im Businessplan fast schon angelegt.

In eine ähnliche Richtung hatte schon im vergangenen Jahr ein Artikel des Guardian argumentiert, der anhand konkreter Beispiele beschreibt, wie Tech-Konzerne auch die Geschäftsmodelle und Gründungsideen junger Firmen kopieren und diesen damit das Wasser abgraben. Die finanziellen Ressourcen der großen Fünf scheinen schier unerschöpflich zu sein, damit wird der Wettbewerb für Startups nicht gerade ausgewogener. Der Guardian sieht hier durchaus einen der Faktoren dafür, dass die Gründungsrate auch in den USA seit vielen Jahren eher rückläufig ist. Dies wird in Deutschland, wo das Silicon Valley als großes Vorbild gilt, gerne auch einmal übersehen.

Andererseits ist eben diese Exit-Option für viele Gründerinnen und Gründer erst die Motivation, alle Energie auf die Gründung eines neuen Unternehmens zu konzentrieren und damit Neues zu schaffen. Und es gibt auch immer noch Beispiele für Newcomer, die ihre Nische gefunden und dann schnell selbst zu größeren Unternehmen herangewachsen sind - ohne dass sie gleich von Google, Facebook, Microsoft oder Amazon aufgekauft wurden. Und schließlich ist der Zyklus von Gründen, Exit und Neuinvestment des so gewonnenen Vermögens in neue, junge Startups der Motor, der die Innovationsmaschine Silicon Valley am Laufen hielt und auf den auch hierzulande viele setzen, wenn sich Startup-Ökosysteme erst einmal in deutschen Gründungsmetropolen wie Berlin etabliert haben. Eine kritische Menge an Risikokapital wird so akkumuliert und steht dann für die Finanzierung eines Ökosystems bereit.

Es kommt halt auf den Fokus an, ob es um Wettbewerbspolitik und Marktdominanz geht, oder darum, dass immer wieder neue Ideen geboren werden und einen Standort letztlich fit gegenüber der Weltkonkurrenz machen. Allerdings machen Guardian und Economist auch darauf aufmerksam, dass der Gründungselan erlahmen könnte, wenn die zugegebenermaßen nicht sehr wahrscheinliche Perspektive, selbst zum neuen Google zu werden, völlig unrealistisch wird, weil das echte Google jeden möglichen Konkurrenzen rausschießt.

In Deutschland besteht die Gefahr nicht, dass die großen deutschen Tech-Konzerne reihenweise den Startup-Markt leer kaufen. Dafür gibt es zu wenig große deutsche Tech-Konzerne. Im Gegenteil wäre es möglicherweise für die deutsche Volkswirtschaft ein Segen, wenn die kreativen Impulse der deutschen Startups ihren Weg in andere Unternehmen, in diesem Fall in die traditionelle Industrie finden würden - z.b. in den deutschen Mittelstand. Auch deshalb werden Kooperation zwischen diesen beiden Akteursgruppen mittlerweile gezielte auch in der Politik entdeckt. Aber hier geht es nicht darum, dass die Konkurrenz vom Markt genommen wird, sondern dass hier starke Partnerschaften entstehen und bestehende Strukturen stabilisiert und fit für den internationale Wettbewerb gemacht werden. Dafür müssen die deutschen Startups aber auch auf ihren nationalen Partner schauen und nicht damit liebäugeln, dem Exit im Silicon Valley zu finden.

Für das Startup-Land Deutschland ist nicht die Kill Zone das Problem, sondern eher die geringe Gründungsneigung. Und da tut sich, schaut man auf die letzten Studien zu diesem Thema wie den KfW-Gründungsmonitor oder die GEM-Studie zu Deutschland, nicht wirklich viel.