Seiten

Samstag, 15. Dezember 2018

Fakten und Innovationen

Vor kurzem traf sich die Welt in Kattowitz, um über die Rettung des Klimas zu verhandeln. Das ist immer auch ein Anlass, um neue wissenschaftliche Berichte zur Entwicklung des Klimawandels zu veröffentlichen und darauf hinzuweisen, dass schnelles Handeln nun wirklich Not tut.

Der Economist hat gerade in einem sehr lesenswerten kleinen Artikel eine Reihe neuerer Studien vorgestellt, die Zweifel daran aufkommen lassen, ob rationale Einsicht in die Problemlage tatsächlich zu vernünftigem Handeln führen kann.

Eine der zitierten  Studien zeigt: Faktenwissen über den Klimawandel und wissenschaftliches Denken (science literacy) hat keinerlei Einfluss auf die persönliche Haltung gegenüber Politikern, die sich für eine Klimapolitik einsetzen oder eben auch nicht. Überspitzt könnte man auch sagen, in der politischen Auseinandersetzung macht Wissen nicht klug.

Eine Erklärung könnte eine der anderen Quellen bieten, die der Economist zitiert. Ein neues Buch von Hugo Mercier und Dann Sperber, "The Enigma of reasoning". Die zentralen Gedanken und eine sehr persönliche Herleitung finden sich in diesem Artikel auf Edge.com. demnach hat rationales Denken und argumentieren vor allen Dingen einen sozialen Zweck: Sich selbst zu rechtfertigen und den anderen zu überzeugen. Am Ende geht es darum, eine gemeinsame Sicht auf die Welt zu gewinnen, um sozial handeln zu können. Es geht also weniger darum, objektiv ein Problem zu verstehen. Und es kann dann durchaus passieren, dass sehr abstruse Positionen sehr überzeugend in solchen Argumentationen vertreten werden. Auch das ist dann sozial rational.

In eine ähnliche Kerbe schlägt das dieses Jahr auf deutsch erschienene Buch von Steven Pinker "Aufklärung jetzt". Ich war beim Lesen ernsthaft irritiert, als ich zu diesen Kapiteln am Ende des Buches kam. Nachdem ich hunderte von Seiten Statistiken über die positive Entwicklung der Welt in allen möglichen Lebensbereichen (Bildung, Gesundheit, Gewalt...) und den segensreichen Einfluss von Aufklärung und Wissenschaft durchgeackert hatte, zitierte Pinker plötzlich reihenweise Studien, wie unfähig Menschen doch sind, vernünftig Probleme zu analysieren und rational zu entscheiden. Stattdessen scheinen politische Einstellungen und emotionale Grundhaltungen alles zu überlagern und zu manchmal bizarren Entscheidungen zu führen.

Pinker sieht die Auflösung dieses Dilemmas in einer breiteren Basierung von Entscheidungen auf Fakten und einem systematischen Vorgehen der Abwägung und Bewertung, was man durchaus auch lernen könne. Er zitiert als Beispiel die Arbeiten von Philip Tetlock zu sogenannten Superforecastern. Tetlock hatte die unglaublich schlechten Prognosefähigkeiten von sogenannten Experten an Börsen und im Geheimdienst untersucht und festgestellt, dass ein kleiner Prozentsatz an Menschen deutlich bessere Prognosen abgeben können. Das Geheimnis des Erfolges ist es dabei, emotional relativ wenig engagiert zu sein und seine Einschätzung auf einer sehr breiten Basis an Fakten zu stützen.

Nach dieser Auffassung können Fakten also durchaus nutzen, um zu sinnvollen Entscheidungen zu kommen, die Frage ist, wie man möglichst neutral und breit diese Fakten in Rechnung sieht. Was liegt nun näher, als künstliche Intelligenz für eine breite und neutrale Entscheidungsfindung zu nutzen? Tatsächlich gibt es solche Visionen oder Fantasien, gutes Regieren zukünftig auf KI zu stützen. Kann sein, dass das zu besseren Entscheidungen führt. Die soziale Funktion der menschlichen Diskussion bleibt damit aber außen vor. Akzeptanz in der Gesellschaft wird so nicht gefördert. Und das war ja gerade das Ausgangsproblem.

Der Gipfel in Kattowitz übrigens scheint kein Beispiel dafür zu sein, dass wissenschaftliche Erkenntnisse zu rationalem Handeln führen. Zumindest sind führende Klimaforscher ziemlich enttäuscht über die dürftigen Ergebnisse, obwohl doch die Notwendigkeit, schnell und massiv zu handeln, mehr als klar sei.

Samstag, 17. November 2018

KI Staatsfonds

Friedrich Merz hatte im Vorfeld seiner Kandidatur als CDU Parteichef den Vorschlag gemacht, das private Investment in Aktien doch steuerlich zu begünstigen, wenn dies der Altersvorsorge diene. Da die meisten von uns keine Aktienprofis sind, würde das Management vermutlich meist ein Investmentverwalter übernehmen, die Sparkasse z.B., oder andere institutionelle Anbieter (vielleicht auch indirekt der ehemalige Arbeitgeber von Herrn Merz). Der Vorschlag stieß auf ein unterschiedliches Echo. Während die einen ihn grundsätzlich interessant fanden, allerdings darauf hinwiesen, dass die meisten deutschen Haushalten gar kein Geld haben, um in Aktien zu investieren, lehnten die andern die Idee eher ab. Allerdings nicht, weil sie eine Stärkung des Aktieninvestments zur Alterssicherung nicht gut fänden, sondern weil es hierfür schon vielfältige Möglichkeiten gäbe, die aber alle nicht optimal funktionierten. Die deutsche Bevölkerung zu Aktienbesitzer zu machen, hat seit dem Fehlstart der T-Aktie vor mehr als 20 Jahren einen gewissen Beigeschmack. Ob mit Reform der bestehenden Systeme oder mit einem neuen Ansatz, leicht wird es nicht werden. Dabei klingt die Idee zunächst einmal sehr schön, dass die Deutschen selbst in Unternehmen investieren, die vom digitalen Wandel profitieren, und somit auch selbst Nutznießer desselben werden. Vielleicht muss doch Vater Staat helfen, der ja im Moment ganz begeistert ist von digitalen Umwälzungen aller Art.

An 15. November stellte die Bundesregierung z. B. ihre neue Strategie zur künstlichen Intelligenz vor. Deutschland soll zu einem führenden Standort für künstliche Intelligenz werden, damit soll ganz wesentlich auch der Wohlstand in Deutschland abgesichert werden. Die ersten Reaktionen waren wohlwollend bis skeptisch. Insbesondere die Besetzung von 100 Lehrstühlen mit hochkarätigem Personal wurdd als nicht kleine Herausforderung gesehen. Auch die Wirkung auf KI-Gründungen bleibt abzuwarten.

Überhaupt ist es mit Digitalisierung und künstlicher Intelligenz so eine Sache. Es gibt eine Reihe von Studien, die diesen Technologien ein erhebliches disruptives Potenzial nachsagen. Und die Disruption, also die verändernde und durcheinanderwirbelnde Wirkung, ist nicht immer für alle gleichermaßen positiv. Der Digitalisierung und dem Einsatz künstlicher Intelligenz wird z.B. auch zugeschrieben, dass sie möglicherweise sozialer Ungleichheit fördern.

Zum einen auf der individuellen Ebene, weil nicht alle Beschäftigten mithalten können mit den neu geforderten Kompetenzen. Weil viele Arbeitsplätze verschwinden und viele neue Arbeitsplätze geschaffen werden, aber vermutlich nicht unbedingt für die selben Personen.

Zum anderen auf Unternehmensebene, weil einige wenige Firmen vom Einsatz dieser Technologien profitieren, ihre Chefs reicher und reicher werden und auch ihre Mitarbeiter einen Teil vom wachsenden Gewinn abbekommen. Andere Firmen hingegen haben es immer schwerer, die Löhne in diesen Unternehmen sinken. Manche Branchen trifft es dabei besonders hart.

Es wird also vermutlich Gewinner und Verlierer geben. Aber wie kann es gelingen, dass die ganze Gesellschaft von diesem Technologiewandel profitiert? Vielleicht durch Investitionen der Bürgerinnen und Bürger in Aktien solcher Unternehmen? Wie oben beschrieben hat das so seine kleinen und großen Fallstricke. Vielleicht könnte auch der Staat einspringen.

Erik Brynjolfsson und Andrew McAfee schlugen schon vor ein paar Jahren in ihrem Buch "The second machine age", dass über eine staatliche Teilhabe an Unternehmen, die Gewinner der digitalen Revolution sind, ein Rückfluss für uns alle gewährleistet werden könnte.

Bereits anlässlich der Veröffentlichung des Eckpunktepapiers zur künstlichen Intelligenz im Sommer griffen einige Autoren die Idee eines Staatsfonds für künstliche Intelligenz auf und beriefen sich dabei auf Brynjolfsson und McAffee. Ein Staatsfonds investiert öffentliche Mittel in vielversprechende Unternehmen, um langfristig eine gute Rendite auch für spätere Generationen zu erwirtschaften. Und wenn KI so eine tolle Idee ist, warum nicht in Firmen investieren, die damit überdurchschnittlich wachsen?

Im Prinzip sind Staatsfonds keine neue Idee. Am bekanntesten sind die Staatsfonds der Ölstaaten wie Saudi-Arabien oder Norwegen, die mit dem Reichtum des heutigen Ölgeschäfts für die Zeit vorsorgen wollen, wenn diese Ressourcen erschöpft sind. Immer größere Summen werden von solchen Staatsfonds jetzt auch in Startups investiert, manche Experten fürchten hier schon eine Investitionsblase, da Staatsfonds anders als klassische Risikokapitalgeber agieren und den Markt überhitzen könnten.

Die Bertelsmann-Stiftung hat bereits 2017 im Rahmen einer kleinen Studie Überlegungen zu einem deutschen Staatsfonds in Anlehnung an das norwegische Vorbild skizziert, dabei aber ein unabhängiges Management, eine an ethischen Grundsätzen orientiere Anlagestrategie und eine internationale, an der Entwicklung der deutschen Volkswirtschaft abgekoppelte Investitionspolitik geforderten. Die Idee taucht immer wieder in deutschen Medien auf, so z. B. zuletzt in Spiegel oder Zeit.

Staatsfonds könnten eine schlaue Idee sein und möglicherweise auch in KI-Unternehmen investieren - vermutlich dann nicht nur in deutsche, sondern international. Damit ist die Idee des Staatsfonds erst einmal unabhängig von der Bemühung zu sehen, eine internatiinal wettbewerbsfähige nationale Industrie - z.B. in KI - aufzubauen.

Staatsfonds wurden jüngst aber auch ins Spiel gebracht, wenn es darum geht, heimische Industrien zu schützen. Im September diesen Jahres wurde angeblich Überlegungen der Bundesregierung berichtet, durch einen Staatsfonds den deutschen Mittelstand z.B. vor chinesischen Übernahmen zu schützen. Die Bundesregierung dementierte. Ob ein Staatsfonds dafür überhaupt ein geeignetes Instrument wäre, daran ließ ja schon die oben genannte Bertelsmann-Studie zweifeln. Andere Abwehrmittel sind die Prüfung von Übernahmen durch nationale Behörden oder künftig sogar durch ein Investment Screening der EU, beide vermutlich geeigneter zum Schutz deutscher Unternehmen (und einer deutschen KI-Unternehmenslandschaft).

Der deutsche KI-Staatsfonds ist im Augenblick kein ernstes Thema der politischen Diskussion. Im Moment scheint die Bundesregierung eine andere Strategie zu befolgen: Die heimische Industrie fit machen für den digitalen Wandel und den Einsatz künstlicher Intelligenz. Und damit Steuerrückflüsse zu garantieren, die man für das Gemeinwohl nutzen kann. Arbeitnehmer durch Weiterbildungsmaßnahmen so qualifizieren, dass sie möglichst wenig auf der Strecke bleiben.

Ob das reicht, werden wir sehen.

Bis dahin kann natürlich jede/r von uns in ihr/sein privates KI Aktienportfolio investieren - wenn sie/er das nötige Kleingeld und den richtigen Riecher hat.

Samstag, 29. September 2018

Rückblick auf die diesjährige Tagung der DeGEval

(dieser Blog-Beitrag erschien zuerst im Blog des Arbeitskreises FTI der DeGEval)

Manche Jahrestagungen von wissenschaftlichen Fachgesellschaften schaffen es ja durchaus in die überregionalen Medien, heute z.b. erschienen ein Beitrag in der Süddeutschen Zeitung zum Deutschen Historikertag. Diese Aufmerksamkeit ist der Jahrestagung der DeGEval bislang nicht vergönnt gewesen. Nun ist die DeGEval sicher nicht mit den deutschen Historikern zu vergleichen, sie ist ungleich weniger im Fächerkanon deutscher Universitäten verankert, auch der breiten Bevölkerung bis das Thema Evaluation vermutlich relativ unbekannt und auch egal. Andererseits ist die Tätigkeit von Evaluatorinnen und Evaluatoren möglicherweise deutlich praxisrelevante als die der deutschen Historikerinnen und Historiker. Grund genug, einen kurzen Rückblick auf die diesjährige Tagung unserer Fachgesellschaft zugeben und aus der Perspektive der Forschungs-, Technologie- und Innovationspolitik auf einigen der besonders relevanten Sessions zu schauen.

Das Motto der diesjährigen Jahrestagung der DeGEval war Wirkungsorientierung und Evaluation. Einerseits scheint dies fast schon eine überflüssige Differenzierung zu sein. Geht es nicht in allen Evaluation auch um Wirkung? Andererseits ist die Messung von Wirkung sicher eine der großen Herausforderungen der Evaluation. Gerade im Bereich von Technologie- und Innovationspolitik (aber nicht nur hier) ist die Wirkung nicht einfach zu messen. Zu viele unterschiedliche Faktoren beeinflussen, interne wie externe. Es geht also meist eher um die Zuschreibung als um die kausale Verknüpfung von Ursache und Wirkung, um Contribution statt Attribution. Auch ist der zeitliche Abstand zwischen Intervention und messbarer Wirkung meist zu lange für reale Evaluationen.
Wie auch in der Vergangenheit zahlten die Vorträge der Tagung allerdings auch dieses Jahr unterschiedlich klar auf das Oberthema ein. Natürlich ging es fast immer irgendwie um Wirkung, aber die spezifischen Herausforderung der Wirkungsanalyse wurden in den meisten Vorträgen nicht wirklich in den Mittelpunkt gerückt.

Hier nun einige Eindrücke von den Sessions, die ich selbst besucht habe:

Session A4 - Analyse komplexer Wirkungsketten von Gleichstellungsmaßnahmen im Innovationssystem
Die Session konzentrierte sich ausschließlich auf eine Zwischenbilanz des europäischen Projektes EFFORTI (“evaluation framework for promoting gender equality in Research and Innovation”). Ziel des Projektes ist es im Wesentlichen, eine Toolbox für Verantwortliche von genderorientierte Maßnahmen im Bereich FTI sowie für Evaluatorinnen und Evaluatoren in diesem Feld zu erarbeiten. Dabei stützt sich das Projekt auf das Konzept der Theorie-basierten Wirkungsanalyse, also die Modellierung von Wirkungsvermutungen und Einflussfaktoren und die Prüfung anhand geeigneter Indikatoren, inwieweit diese Wirkungsvermutung plausibel bzw. durch Daten bestätigt werden können.

Im zweiten Teil der Session wurden zwei Fallbeispiele präsentiert, die das Projektteam erarbeitet hat. Die eine Fallstudie richtete sich auf ein Programm zur Förderung von innovativen Unternehmensgründungen durch Frauen, die andere zielte auf FEMTech, ein Förderprogramm in Österreich, das Projekte fördert die Gender-Dimensionen in die Produkt- und Technologieentwicklung einbeziehen. Beide Fallstudien dienten vor allen Dingen als Trainingsmaterial, um Indikatoren und Zugänge für die Toolbox zusammenzutragen und auf ihre Nutzbarkeit zu prüfen. Einige der untersuchten Beispielen scheinen auch zuvor schon evaluiert worden zu sein, auch waren die Ressourcen für die Fallstudien selbst deutlich kleiner als die für “echte” Evaluation. Aufgrund der Präsentationen wurde nicht deutlich, ob in den Fallstudien tatsächlich neue Erhebungsinstrumente oder Indikatoren genutzt werden. Im Mittelpunkt stand der Zugang über das Wirkmodell. Dies ist für den Bereich FTI eine relativ verbreitete Praxis in Evaluationen. Grundsätzlich lässt sich fragen, ob der Ansatz der EU-Kommission, in solchen Projekten Toolboxen und Leitfäden zu erarbeiten, die dann hinterher in der Evaluationspraxis bzw Förderpraxis genutzt werden, tatsächlich Wirkung entfalten.

Session C1 - Wirkungsorientierte Instrumente im Kontext von Haushalten
In der Session wurden insgesamt drei Vorträge präsentiert. Zwei davon stellten deutsche bzw. österreichische Ansätze der wirkungsorientierten Haushaltssteuerung vor. Während der deutsche Vortrag, der sich auf sogenannte “Spending Reviews” konzentrierte (das BMF hat das Konzept auf seiner Internetseite sehr gut dokumentiert und sowohl Berichte der bisher schon durchgeführten spending reviews als auch Hintergrundartikel eingestellt), ein stark dialogorientiertes, sehr selektives Verfahren der Diskussion von Zielen, Zielerreichung und Konsequenzen für die Steuerung von Politikfeldern beschrieb, präsentierten die österreichischen Kollegen die Praxis der wirkungsorientierten Haushaltsführung und ihr Spannungsverhältnis zur langjährig gelebten Praxis der Evaluation von Einzelfördermaßnahmen.

In beiden Kontexten sind klassische Evaluationen eher eine von mehreren Quellen für die Bewertung von Zielerreichungen. Interessant ist die Betrachtung der Schnittstelle zwischen der Welt der Evaluation und und der Welt der politischen Bewertung von Politikfeldern, ihrer Ziele und der “Performanz”. Hier zeigten insbesondere die österreichischen Kollegen die manchmal doch größere Begriffsverwirrung, die zwischen Controlling, Monitoring und Evaluation, Wirkung und Zielerreichung aufscheint. Letztlich macht das österreichische Beispiel deutlich, wo die Grenzen eines stark auf KPI (key performance indicators) basierten Steuerungsansatzes liegen. Angesprochen wurde z.b. ein möglicherweise zu geringes Ambitionsniveau bei der Formulierung von Zielen. Ebenso thematisiert wurde, dass die Fokussierung auf wenige Indikatoren dazu führen kann, dass unterkomplexe Perspektiven gewählt werden, die wenig Raum für Lernerfahrung bieten. Der deutsche Vortrag zu den “Spending Reviews” veranschaulichte zwar sehr gut, wie der Prozess im Moment organisiert wird und wo auch die Vorteile eines stark diskursiven Ansatzes liegen. Allerdings konnte im Rahmen der Session nicht am konkreten Beispiel diskutiert werden, welche Indikatoren denn im Einzelfall für die Bewertung eines Politikfeldes herangezogen werden, wie mit unterschiedlichen Interpretationen und daraus resultierende konfligierenden Einschätzungen umgegangen wird und in welchem Verhältnis eine solche breitere Perspektive zu Einzelevaluation steht.

Der letzte der drei Vorträge kam aus dem Politikfeld Entwicklungszusammenarbeit. Die Vortragenden der GIZ stellten eine interne Studie vor, die die Nutzung von “experimental design” -Ansätzen untersuchte und dabei zu dem interessanten Schluss kam, dass auftraggeberseitig solche neuen Evaluationsansätze wenig nachgefragt werden, sondern dass die Initiative für diese Ansätze vielmehr bottom-up von einzelnen Verantwortlichen sowie Forschenden ausgeht.

D4: Wirkungszusammenhänge und Wirkungsmessungen in technologieaffinen Projekten und Maßnahmen
in dieser Session wurde zunächst eine kleine Studie für das BMWi aus dem letzten Jahr vorgestellt, in der es um die Analyse von Trends in der technologieoffenen Förderung ging. Der Fokus der Präsentation lag auf methodischen Fragen. In der Studie wurden zwei Ansätze gewählt, einerseits die Befragung von Gutachtern in den beiden untersuchten Programmen, andererseits eine auf "Text Mining"  angelegte quantitative Analyse von Projektbeschreibungen. Die beiden Programme, es handelt sich um das Zentrale Innovationsprogramm Mittelstand - ZIM sowie die industrielle Gemeinschaftsforschung - IGF, sind zusammengenommen die größten innovationspolitischen Fördermaßnahmen für den deutschen Mittelstand. Sie erreichen also in der Breite kleine und mittelständische Unternehmen und müssten geeignet sein, um Technologietrends in dieser Zielgruppe frühzeitig zu identifizieren. Tatsächlich war es über die Gutachterbefragung möglich, relativ differenziert Trends zu beschreiben, allerdings war die zeitliche Einordnung nicht einfach, außerdem bewegten sich die Trends auf sehr unterschiedlicher Ebene. Während einerseits übergreifende Paradigmen wie Industrie 4.0 benannt wurden, ging es andererseits um sehr konkrete Einzellösungen. Das "Text Mining" wiederum war in der Lage, die Gesamtmenge von 5.000 Projektbeschreibungen automatisiert in thematische Cluster zuordnen und lieferte darüber hinaus Hinweise auf die Entstehung neuer Trends. Es zeigte sich allerdings auch, dass hier methodisch  noch einiges zu entwickeln ist, bevor tatsächlich Trends und Trendverläufen gesichert beschrieben werden können.

Ein zweiter Vortrag bezog sich auf die Nutzung von sogenannten “technology readiness level” (TRL) -Skalen, um die standardisierte Einordnung von Projekten entlang des Forschungs- und Entwicklungszyklus vorzunehmen. Die Vortragenden beschrieben auf Grundlage mehrerer Evaluationsbeispiele die Herausforderungen, die sich dabei stellen. So ist es z.B. nicht immer eindeutig, ob in Verbundprojekten das TRL auf Teilvorhaben oder auf die Verbundebene selbst bezogen wird. Auch scheinen immer wieder Befragte Schwierigkeiten mit dem Verständnis von TRL allgemein zu haben. In manchen Branchen wie der Luftfahrtindustrie wird dieses System seit langem genutzt, in anderen Branchen ist es noch weitgehend unbekannt oder eignet sich auch nur sehr bedingt. Dies wäre z.b. für den Bereich Software anzunehmen. Auf der anderen Seite bietet ein standardisiertes Verfahren die Chance, über Programme hinweg Daten zu vergleichen und so zu einer querschnittliche Perspektive von Evaluationen beizutragen.

Ein dritter Vortrag aus Österreich stellte eine konkrete Evaluation in den Mittelpunkt, nämlich die Evaluation des Programms BRIDGE. Der Charme dieses Vortrags lag darin, dass aus Auftraggeber- wie Auftragnehmersicht die Entwicklung des Evaluationsdesigns und seine Umsetzung diskutiert wurde, und zwar in einem sehr lebendigen Dialog. So Bude rekonstruiert, wie die Erwartungen auf Auftraggeberseite, kausale Verbindungen von Ursache und Wirkung tatsächlich messbar zu machen, von Auftragnehmerseite zum Teil enttäuscht werden musste. Andere Absprachen betrafen die Machbarkeit konkreter methodischer Zugänge.

Insgesamt hat die DeGEval-Tagung wieder spannende Einblicke in die Evaluationspraxis des Politikfelds FTI ermöglicht. Die nächste Gelegenheit wird sich im November ergeben, wenn in Wien die Konferenz "Impact of Research and Innovation Policy at the Crossroads of Policy Design, Implementation and Evaluation".

Samstag, 25. August 2018

Wie beeinflusst Technologie Politik?

in den USA stehen im November die Wahlen zum Repräsentantenhaus an, und nach zwei Jahren Donald Trump ist die ganze Welt gespannt, ob er nun einen Denkzettel bekommt oder ob die Republikaner ihre starke Stellung halten können. Und wie bereits anlässlich der Präsidentenwahlen richtet sich die Aufmerksamkeit auch darauf, ob Technologie einen Einfluss auf Politik haben könnte. Immer noch sind die Amerikaner damit beschäftigt, die Einzelheiten möglicher Einflussnahme auf die letzten Wahlen durch soziale Medien und Akteure wie Cambridge Analytics zu klären. Bereits jetzt schon werden besorgte Stimmen laut, die eine Einflussnahme auf Wähler oder gar ein Hacken der Wahlmaschinen bei der kommenden Wahl fürchten. Erste Anzeichen dafür gibt es ganz aktuell.

Die amerikanische Ausgabe Technology Review hat sich nun in ihrer neuen Ausgabe ganz und gar dem Thema Technologie und Politik gewidmet. Das Editorial schlägt noch einmal den ganz großen Bogen von seiner optimistischen Perspektive auf politisch genutzte Technologie aus dem Jahr 2013, als Barack Obama auch mit der Hilfe neuer Wahlkampftechniken die Präsidentschaftswahlen gewann und der arabische Frühling auch durch die Möglichkeiten sozialer Netzwerke seine durchschlagende Kraft entfaltete. Heute hingegen scheint Technik nur noch als Bedrohung demokratischer politischer Prozesse zu funktionieren. Nur ein einziger Artikel der neuen Ausgabe widmet sich neuen, technologisch ermöglichten partizipativen Formaten, die hier am Beispiel Taiwans demokratische Prozesse bereichern können.

Am Beispiel Kenias skizziert ein Artikel z. B., wie bestimmte demokratieschädliche Tendenzen neuer Technologien nicht wirklich neu sind, sondern auch manchen Technologien des Vor-Internetzeitalters eigen waren. Hate-speech z. B. wurde in Kenia bereits früher durch lokale Radiostationen befördert, das Internet hat nun diese unheilvolle Funktion übernommen. Dabei war die Hoffnung in Kenia nach den Unruhen des Jahres 2007 groß, das mit neuer Wahltechnik eine Befriedung des Landes gelingen könnte. Der Autor des Artikels schließt, dass Technik in der Regel keine sozialen Probleme löst.

Diee repressive Politik der chinesische Regierung gegenüber den Uiguren in der westlichen Provinz Xinjiang, die immer stärker auf entsprechenden Überwachungs- und Analysetechnologien basiert und als Art Testlabor zum Funktionieren des technologisch ausgerüsteten autoritären Staates gesehen werden kann, greift die Zeitschrift The Atlantic auf. Besonders beeindruckt hat die Autoren eine neue Überwachungsdrohne, die sich als Taube tarnte und flattert wie ein echter Vogel. Diese Drohne wird auch in einigen anderen Medien aufgegriffen.

Die Technologiepolitik der chinesischen Regierung wird übrigens auch in der oben beschriebenen Ausgabe der Technology Review aufgegriffen, unter der schönen Überschrift 'Warum Demokratie, wenn es Technologie" gibt. Tatsächlich kann Überwachungstechnologie wie Gesichtserkennung oder das berühmt-berüchtigte social credit System ein zentrales Problem chinesischer Politik lösen helfen, nämlich das Fehlen von Informationen, die von unten nach oben fließen. Dies ist ja eine der wesentlichen Funktionen von Demokratie, dass nämlich aus der Breite der Bevölkerung über den Wahlakt und die damit verbundene Kommunikation Meinungen und Einstellungen an die politische Führung kommuniziert werden. Wer diese Mechanismen nicht hat, der ist auf andere Kanäle angewiesen um das Problem zu lösen.

Allerdings ist Demokratie keine Einbahnstraßenkommunikation wie die beschriebenen Überwachungstechnik.

Samstag, 11. August 2018

Künstliche Politiker

Im vergangenen Jahr wurde eine Umfrage unter britischen Bürgern veröffentlicht, wonach sie sich einen Roboter mit künstlicher Intelligenz als Ersatz für ein Politiker gut vorstellen könnten. Angesichts des Chaos, mit dem im Moment die britische Politik versucht, den Brexit umzusetzen, könnte man das vielleicht wirklich für eine gute Idee halten. Etwas ernster hat sich jüngst ein Kommentator des Economist damit auseinandergesetzt und ist unterm Strich zu dem Ergebnis gekommen, dass ein KI-Politiker vielleicht doch keine so gute Idee wäre. Selbst wenn es zukünftig technisch machbar wäre.
Auch den aktuellen amerikanischen Präsidenten durch eine künstliche Intelligenz zu ersetzen halten manche Kommentatoren aus durchaus nachvollziehbaren Gründen für eine interessante Idee, die man zumindest einmal in Ruhe durchdenken sollte. Eine evidenzbasierte, rationale Politikentscheidung könnte auf jeden Fall durch einen solchen Austausch nur gewinnen.
Bereits Anfang letzten Jahres hatte sich die Zeit in einem längeren Artikel auf das Gedankenspiel eingelassen. In diesem wie auch in den anderen Artikeln wurde schnell deutlich, dass die Gründe für mehr KI in der Politik aus der Frustration resultiert, dass Politiker Menschen sind und manchmal ziemlich irrational. Möglicherweise läge die Lösung nicht darin, eine künstliche Intelligenz den Job machen zu lassen, sondern einfach bessere Politiker zu wählen.
Doch die eigentlich spannende Frage ist, ob die Nutzung künstliche Intelligenz, die Entscheidungsfindung aufgrund der Auswertung von vielen vielen Daten und Modell der Wirklichkeit, ob all dies nicht zu einer besseren Politikgestaltung führen könnte. Vermutlich nicht auf der Ebene des obersten Repräsentanten, des US-Präsidenten, der britischen Regierung oder der Bundeskanzlerin. Aber möglicherweise als Unterstützung für Ministerialverwaltungen oder zunächst auch nur Stadtverwaltungen.
Das Ergebnis wäre eine KI-gedopte Technokratie, die sich stark auf künstliche Intelligenz stützen könnte und rationale Entscheidungsfindung und Effizienz zu ihrem obersten Prinzip erheben würde. Im vergangenen Jahr hatte der amerikanische Autor Parag Khanna dazu ein Buch geschrieben und für einen solchen technokratischen Ansatz in den USA geworden.
Die französische Zeitschrift Usbek & Rica, die sich der Erforschung der Zukünfte verschrieben hat, beschreibt ein Szenario, in dem aus den Zwang zur moralisch Integrine regieren Stück für Stück die Kontrolle einer künstlichen Intelligenz über die französische Politik wird.
Tja, und die Chinesen, die Chinesen sind mal wieder schon einen Schritt weiter. Laut diesem Artikel sind sie schon jetzt intensiv dabei, für unterschiedliche Politikfelder die Kraft künstlicher Intelligenz zu nutzen und damit eine bessere, eine rationale Politik zu betreiben. da wird es kein Zufall sein, dass das chinesische Social Credit System so schön die Gesellschaft abbildet und ihre Simulation vereinfacht. Ist vielleicht die Gesellschaft nur noch dazu da, die Daten für die richtige Simulation zu liefern, ganz im Sinne der letzten Staffel von Westworld?
Auch in Deutschland wird das Thema KI in der Politik manchmal zaghaft angeschnitten. die hiesige politische Kultur scheint dem Thema gegenüber aber nicht besonders offen zu sein. Es gibt in Deutschland keine Tradition der Planungsbehörden, die über längere Zeiträume hinweg versuchen, alle Faktoren zu berücksichtigen und die Zukunft zu planen und zu steuern. Als im Zuge der Eurokrise die Bundesregierung wiederholt von Sachzwängen und von Alternativlosigkeit sprach, also letztlich auch davon, dass die einzig vernünftige Entscheidung diejenige wäre, die die Regierung trifft, brach ein Sturm der Entrüstung aus.
Und auch die europäische politische Ebene, in der die Kommission deutlicher als auf nationaler Ebene die Rolle einer technokratie, oder in diesem Fall der Euro Kratie spielt, ist in Deutschland nicht gerade mit großem Sympathien bedacht, auch wenn die Zustimmung zur EU grundsätzlich in Deutschland gottseidank noch hoch ist (wer mehr zu den längeren Linien dieses kritischen bzw polemischen Diskurses über Bürokratie lernen möchte, dem sei dieser Podcast empfohlen).
Man kann über Vor und Nachteile einer durch künstliche Intelligenz unterstützen Politik streiten, wie wir es beispielhaft in unserer kleinen Publikation hier vorgemacht haben.
Wer sich dem Thema künstlicher Intelligenz und Politik etwas entspannter zuwenden möchte, dem sei der hervorragende satirische SF Roman von Marc-Uwe Kling 'Qualityland" empfohlen wo John of Us den Roboter Präsidentschaftskandidaten gibt.
Oder aber man amüsiert sich mit Tracey Ullman und ihrer Vision, wie ein Roboter die amerikanische Präsidenten Familie aufmischt.

Samstag, 4. August 2018

Zombie-Gründer

Seit kurzem nutze ich verstärkte Twitter, um mich auf interessante Artikel, Studien oder Meinungen stoßen zu lassen. Jenseits der üblichen Newsletter ist dies manchmal eine wirkliche überraschende Quelle von spannenden Meldungen. Das Ganze steht und fällt natürlich mit den Personen, denen man folgt. Wenn diese alle selbst miteinander vernetzt sind, dann twittern sie nur immer wieder dieselben Beiträge. aber das macht das dann auch wieder spannend, zu sehen, welche Netzwerke sich hinter Twitter verbergen.

im Moment recht angetan bin ich z. B. von der Expertenkommission Forschung und Innovation EFI, die eine ziemlich bunte Mischung an Beiträgen mit einer relativ hohe Taktfrequenz twittert. Lustig fand ich da den Retweet zu einem Artikel in WIRED, der Studienergebnisse zitiert, die einen Zusammenhang zwischen der Infektion mit Toxoplasmose und Gründungsneigung behaupten. Wer eine Katze hat bzw. sich mit diesem Katzenparasiten identifiziert, ist wagemutiger und gründet häufiger ein Unternehmen, so die Autoren. Das wäre natürlich praktisch und eine ziemlich preiswerte Möglichkeit für die Bundesregierung, die Gründungsneigung in Deutschland zu erhöhen: einfach süße kleine Katzenbabys flächentechnik verschenken.

Die Geschichte erinnert mich auch an sogenannte Zombie-Pilze, die tropische Ameisen befallen (hier auch ein Artikel mit einem nett-gruseligen Film), sie zu einem selbstmörderischen Verhalten zwingen und dann töten, um an geeigneter Stelle weiter zu wachsen. Das ist aber nicht der einzige Parasit, der seinen Wirt geradezu unglaublich raffiniert manipuliert. Es gibt eine ganze Reihe sogenannter Neuroparasiten, die entsprechend vorgehen und diverse Tierarten zu höchst merkwürdigen und selbstschädigenden Verhalten bringen.

Beim Toxoplasma-Parasiten und dem Menschen war diese Art der Beziehung schon länger vermutet worden, aber wissenschaftlich nicht wirklich eindeutig nachgewiesen. Und wenn man bedenkt dass Toxoplasma in Deutschland ungefähr 60% der Bevölkerung infiziert hat, so scheinen sich die Auswirkungen doch sehr im Rahmen zu halten. Und leider sind insbesondere die Auswirkungen auf die Gründungswahrscheinlichkeit dann doch sehr beschränkt geblieben und die Idee mit der Katze als innovationspolitischler Wunderwaffen doch nicht so toll.

Aber Gründerinnen und Gründer sind ja sowieso recht eigenartige Wesen, deren Verhalten wohl auf sehr mannigfaltige Art und Weise beeinflusst wird und nicht einfach zu steuern ist. Breit ist die Literaturlage z. B. In Hinblick auf Geschlechterunterschiede. Schon länger in Studien beschrieben ist die Beobachtung, dass weibliche Gründerinnen vorsichtiger agieren und eher auf ein nachhaltiges, langsames Wachstum setzen. Neu ist die Beobachtung, dass Frauen dabei scheinbar sehr erfolgreich sind und höhere Renditen erwirtschaften als männliche Gründer.

Bislang immer wieder aufgegriffen wurden die Annahme, dass insbesondere jüngere Menschen eher ein Unternehmen gründen. Der demografische Wandel würde in diesem Fall ein nicht unerheblicher Einflussfaktor auf die sinkende Gründungsneigung in Deutschland sein. Neu sind dann die Studien, die zeigen, dass ältere Gründer deutlich erfolgreicher sind. Gründungsneigung und Gründungserfolg sind eben doch nicht ein und dasselbe.

Jetzt würde mich interessieren, welche Korrelation ist zwischen Alter und Vorlieben für Katzen gibt.

Samstag, 23. Juni 2018

Innovationsprotektionismus

Protektionistische Töne aus dem Weißen Haus sind in diesen Tagen nichts ungewöhnliches. Präsident Trump ist in vielen Bereichen der festen Auffassung, dass Amerikas Unternehmen unfair behandelt werden und amerikanische Verbraucher leiden. Während des meist um den Import ausländischer Waren in die USA geht, entzündet sich der neueste Streit am Export amerikanischer waren, genauer gesagt amerikanischer Medikamente. Diese unterliegen, wie alle Medikamente, in vielen Ländern einer Preisregulierung. Gesundheitsbehörden oder Krankenkassen schließen Verträge und legen fest Komma zu welchen Preisen bestimmte Medikamente zu haben sind. Diese Praxis ist nach Ansicht des Weißen Hauses dafür verantwortlich, dass die Preise für Medikamente in den USA im Vergleich deutlich höher sind. Amerikanische Pharmaunternehmen müssten ihre hohen Forschungs- und Entwicklungskosten über diese hohen Preise in den USA refinanzieren, weil sie zu billig im Ausland verkaufen müssten.

Natürlich liegt es durchaus nahe und wird auch in einigen Artikeln so beschrieben, dass die amerikanische PharmaBranche hier erhebliches Lobbying betreibt. Wirklich erstaunlich ist aber das eigentliche Argument: die Kosten für Forschung und Entwicklung eines neuen Produktes sollten gleichmäßig über alle Kunden verteilt werden, und andere Länder profitieren unverhältnismäßig von dem Forschungsanstrengungen in einem Land.

Viele Kommentatoren sind sich sicher, dass der Grund für unverhältnismäßig hohe Kosten für Medikamente in den USA aber an anderen Faktoren hängen. So ist es z.b. in den USA möglich, direkt für Medikamente zu werden, was in vielen anderen Ländern verboten ist. Auch ist das amerikanische Gesundheitssystem so strukturiert, dass es wenig Verhandlungsmacht gegenüber Pharmakonzernen besetzt.

Der europäische Gesundheitskommissar Andriukaitis hat jetzt die Vorwürfe aus den USA zurückgewiesen und unter anderem darauf hingewiesen, dass Pharmaforschung heute multinational funktioniert, dass die großen Pharmakonzerne ihre Forschungsabteilungen überall auf der Welt haben und in enger Kooperation mit unterschiedlichsten Forschungseinrichtungen an neuen Medikamenten arbeiten. Auch europäische Forschungsgelder fließen in großen Mengen in diese Anstrengungen. Es gibt nicht das eine Medikament, das in Amerika erforscht und entwickelt wurde.

Gesundheitsforschung wird auch deshalb mit hohen öffentlichen Mitteln unterstützt, weil sie am Ende in Produkte mündenden soll, die allen Menschen zur Verfügung stehen. Es geht nicht, oder zumindest nicht nur, um wirtschaftliche Ziele, sondern um übergreifende gesundheitspolitische Ziele, die mit der öffentlich finanzierten Pharmaforschung erreicht werden sollen.

Die NZZ übrigens hat in diesem Zusammenhang eine ganze Reihe von Daten veröffentlicht, die einmal deutlich machen, dass in den USA die Ausgaben für Medikamente tatsächlich am höchsten sind, die aber auch zeigen, dass auch in Deutschland deutlich mehr pro Kopf für Medikamente ausgegeben wird als z.b. in den Niederlanden. Und die NZZ weist auch darauf hin, dass natürlich amerikanische Konzerne und die amerikanische Volkswirtschaft erheblich davon profitieren, dass die globale Pharmaforschung in den USA konzentriert ist.

Es gibt auch ganz andere Vorschläge, zu hohe Arzneimittelpreise zu bekämpfen. Auf dem World Economic Forum wurde dieses Jahr z.b. einen Vorschlag vorgestellt, der eine zweigeteilte Finanzierung vorsieht. Die eigentliche Forschung wird separat finanziert, z.b. aus einem Fonds, der insbesondere den Mehrwert für Patienten als Grundlage für die Kostenerstattung der Forschung heranzieht. Und dann wird das eigentliche Medikament eher wie ein Generika bezahlt, da die hohen Forschungs- und Entwicklungskosten ja nicht mehr durch Patentabsicherungen und hohe Preise refinanziert werden müssen.

Samstag, 16. Juni 2018

Kunst und Zukunft


Heute war ich in einer wirklich amüsanten Ausstellung zur Zukunft des Essens (food revolution 5.0) im Kunstgewerbemuseum in Berlin. Eine Reihe von Architekten, Designern und anderen Kreativen hatte sich mit der Zukunft des Essens beschäftigt. Natürlich gab es dort die zu erwartenden Beispiele von urban farming, und auch der aktuelle Trend, Insekten zu essen, durfte nicht fehlen. Hier zeigte sich allerdings schon das Besondere der Ausstellung. Ein Beispiel präsentierte in einem Film und einigen Objekten und Modellen, wie aus Insekten ein eine Paste hergestellt wird, die im 3D Drucker dann zu interessanten essbaren Gegenständen gedruckt werden kann. Es ging also ganz klar nicht nur um realistische Entwürfe von Zukunft oder innovativen Produkten und Dienstleistungen, sondern auch um den etwas schrägen Blick auf diese Themen.
Drei Beispiele haben mir besonders gut gefallen: in einem Beispiel wurden angeblich psychologische Erkenntnisse zum Essverhalten genutzt, um durch die Gestaltung von Essenswerkzeugen und Zubehör die Nahrungsaufnahme zu steuern. So wurden Gabeln gezeigt die riesige oder winzig kleine Zinken haben. Wer mit den riesigen Zinken ist, der ist immer mehr, wer mit den kleinen Zinken ist der ist weniger als er sonst essen würde. Direkt daneben waren seltsame Objekte aus Ton zu sehen, die eine amorphe Gestalt und pastellfarbene Töne hatten und ins Essen auf den Teller gelegt werden sollten. Sie sollten dem Trend entgegenwirken, mit immer größeren Tellern die Esser zu größeren Portionen zu überreden. Wer ein solches Objekt nun auf seinem Teller vorfinde, der habe weniger Platz und sei abgelenkt von Gießen verwirrenden Gegenstandpunkt.
Ein zweiter Ausstellungsbeitrag sorgte sich um die Zukunft der mit der Fleischherstellung verknüpften, traditionellen Kulturen in Deutschland: den Fleischern, den Schlachthöfen und der Kunst des Fleischzubereiten. Wenn aber nun Algenmasse in Fleischform gebracht würde, so wie es in dem Ausstellungsbeitrag zu sehen war, so würden diese alten Traditionen fortleben dürfen.
Schließlich der lustigste, aber sehr sarkastische Beitrag zur Zukunft der Hühnerfleisch-Produktion. Die armen Tiere würden heute ja in sehr engen Käfig in den riesigen Massen gehalten, das sei alles nicht besonders artgerecht. Wenn nun aber eine neuartige virtual reality Brille zum Einsatz käme, die den Hühnern einen freien Auslauf suggerierten, würden sie sich deutlich wohler fühlen. Das Huhn mit Brille säße in einem kleinen Käfig auf einem in alle Richtungen beweglichen Laufband und hätte das Gefühl, fast in freier Wildbahn zu sein. Absurd, aber gerade deshalb große Klasse.
Kunst beschäftigt sich ja immer wieder mit der Zukunft, in Science-Fiction-Literatur und -Film. Dort aber ist sie gezwungen, in sich geschlossene Welten zu definieren und einer inneren Logik zu folgen. Die Ausstellung hingegen konnte ganz unterschiedliche Zugänge zum Thema "Zukunft des Essens" aufzeigen, von realistischen, heute schon in Pilotanlagen erprobten Verfahren bis hin zu Persiflagen einer so hoffentlich nicht eintretenden Zukunft.
Und die Gegenständlichkeit, die Möglichkeit, reale Dinge zu sehen, manchmal so inszeniert, als könne man sie im Museumsschop gleich kaufen, führte zu einer ganz anderen Beschäftigung mit den so aufbereiteten Themen. Nach einem ähnlichen Konzept arbeitet ja auch das Design Thinking.
Aber am besten hat mir wirklich gefallen, das die Zukunft des Essens trotz aller ernsthafter Beschäftigung mit ernsten Themen wie Massentierhaltung und Lebensmittelvernichtung auch immer wieder mit einem Augenzwinkern präsentiert wurde.
Die Ausstellung hat übrigens auch ein relativ breites Medienecho hervorgerufen (Deutschlandfunk, Spiegel, Welt, Tagesspiegel), sie wurde bereits in Hamburg gezeigt, wo sie auch entwickelt wurde.

Samstag, 9. Juni 2018

Startup Kill Zone

In der vergangenen Woche hat der Economist einen Beitrag über das Silicon Valley veröffentlicht, in dem den großen Tech-Konzernen schwere Vorwürfe gemacht werden. Sie würden jungen Startups kaum noch die Möglichkeit geben, auf eigenen Beinen groß zu werden. Wer eine Konkurrenz für die großen Konzerne sei, würde schnell vom Markt weggekauft. Nicht unbedingt, um die neuen Geschäftsideen in das eigene Geschäftsmodell zu integrieren, sondern insbesondere, um keine neuen Gegner entstehen zu lassen. Es entstehe eine regelrechte Todeszone oder "Kill Zone", durch die kaum ein Startup noch unbeschadet durchkomme, um zu einem größeren Unternehmen zu werden. Auch fegten die großen  Konzerne in ihrem Hunger nach gutem Personal die Arbeitsmärkte leer. Wer einigermaßen gut in seinem Fachgebiet sei, könne sich einen äußerst lukrativen Job sichern. Startups blieben dann bei ihrer Suche nach Personal auf der Strecke, und potentielle Gründerinnen und Gründer würden gleich in die Tech-Konzerne wechseln.

Die im Economist skizzierte Problemlage trifft in Teilen auch Deutschland. In manchen Themengebieten, z.b. der künstlichen Intelligenz, wandern die besten Uni-Absolventen oft ab in die USA. Mit den dort gebotenen Gehältern kann hierzulande kaum einer mithalten. Und gleichzeitig scheint nicht wenigen deutschen Gründerinnen und Gründern der Exit in Form eines Aufkaufs durch Google und Co. als das große Los. Das ist im Businessplan fast schon angelegt.

In eine ähnliche Richtung hatte schon im vergangenen Jahr ein Artikel des Guardian argumentiert, der anhand konkreter Beispiele beschreibt, wie Tech-Konzerne auch die Geschäftsmodelle und Gründungsideen junger Firmen kopieren und diesen damit das Wasser abgraben. Die finanziellen Ressourcen der großen Fünf scheinen schier unerschöpflich zu sein, damit wird der Wettbewerb für Startups nicht gerade ausgewogener. Der Guardian sieht hier durchaus einen der Faktoren dafür, dass die Gründungsrate auch in den USA seit vielen Jahren eher rückläufig ist. Dies wird in Deutschland, wo das Silicon Valley als großes Vorbild gilt, gerne auch einmal übersehen.

Andererseits ist eben diese Exit-Option für viele Gründerinnen und Gründer erst die Motivation, alle Energie auf die Gründung eines neuen Unternehmens zu konzentrieren und damit Neues zu schaffen. Und es gibt auch immer noch Beispiele für Newcomer, die ihre Nische gefunden und dann schnell selbst zu größeren Unternehmen herangewachsen sind - ohne dass sie gleich von Google, Facebook, Microsoft oder Amazon aufgekauft wurden. Und schließlich ist der Zyklus von Gründen, Exit und Neuinvestment des so gewonnenen Vermögens in neue, junge Startups der Motor, der die Innovationsmaschine Silicon Valley am Laufen hielt und auf den auch hierzulande viele setzen, wenn sich Startup-Ökosysteme erst einmal in deutschen Gründungsmetropolen wie Berlin etabliert haben. Eine kritische Menge an Risikokapital wird so akkumuliert und steht dann für die Finanzierung eines Ökosystems bereit.

Es kommt halt auf den Fokus an, ob es um Wettbewerbspolitik und Marktdominanz geht, oder darum, dass immer wieder neue Ideen geboren werden und einen Standort letztlich fit gegenüber der Weltkonkurrenz machen. Allerdings machen Guardian und Economist auch darauf aufmerksam, dass der Gründungselan erlahmen könnte, wenn die zugegebenermaßen nicht sehr wahrscheinliche Perspektive, selbst zum neuen Google zu werden, völlig unrealistisch wird, weil das echte Google jeden möglichen Konkurrenzen rausschießt.

In Deutschland besteht die Gefahr nicht, dass die großen deutschen Tech-Konzerne reihenweise den Startup-Markt leer kaufen. Dafür gibt es zu wenig große deutsche Tech-Konzerne. Im Gegenteil wäre es möglicherweise für die deutsche Volkswirtschaft ein Segen, wenn die kreativen Impulse der deutschen Startups ihren Weg in andere Unternehmen, in diesem Fall in die traditionelle Industrie finden würden - z.b. in den deutschen Mittelstand. Auch deshalb werden Kooperation zwischen diesen beiden Akteursgruppen mittlerweile gezielte auch in der Politik entdeckt. Aber hier geht es nicht darum, dass die Konkurrenz vom Markt genommen wird, sondern dass hier starke Partnerschaften entstehen und bestehende Strukturen stabilisiert und fit für den internationale Wettbewerb gemacht werden. Dafür müssen die deutschen Startups aber auch auf ihren nationalen Partner schauen und nicht damit liebäugeln, dem Exit im Silicon Valley zu finden.

Für das Startup-Land Deutschland ist nicht die Kill Zone das Problem, sondern eher die geringe Gründungsneigung. Und da tut sich, schaut man auf die letzten Studien zu diesem Thema wie den KfW-Gründungsmonitor oder die GEM-Studie zu Deutschland, nicht wirklich viel.

Samstag, 26. Mai 2018

Chinesische Ambitionen

Die Bundeskanzlerin ist gerade in China. Und nicht zufällig werden passend dazu neue Studien zu Chinas Rolle in der Welt veröffentlicht. So z.b. eine Studie der Bertelsmann-Stiftung, die belegt, dass chinesische Investitionen in deutsche Unternehmen in den letzten Jahren immer stärker auf einige wenige Schlüsselsektoren zielten, die auch in der übergreifenden chinesischen Strategie "Made in China 2025" im Fokus stehen. Das ist nicht völlig überraschend, letztlich spiegelt die chinesische Strategie vor allem die bereits laufende Schwerpunktsetzung im Lande wieder, und da ist die Wahrscheinlichkeit dann besonders hoch, dass auch die Perlen der deutschen Industrie gerne in den Blick genommen werden, zumal private Investoren aus China oder staatliche Unternehmen mit einer wohlwollenden Reaktion des chinesischen Staates rechnen können.

Allerdings ist eine planvolle Umsetzung dieser Strategie des gezielten Aufkaufs aus deutscher und europäischer Sicht schon ein wenig beunruhigend, auch da hier zum Teil sehr konspirativ vorgegangen wird. Die heimlich vorgenommenen Investitionen bei Daimler zum Beispiel kamen in der deutschen Öffentlichkeit nicht besonders gut an, zumal es hier auch nicht nur um eine kleine Perle, sondern eher um die Kronjuwelen der deutschen Wirtschaft geht. Aber mittlerweile gibt es ja auch heftige Diskussionen auf europäischer Ebene, wie man solchen chinesische Einkaufsgelüsten bei strategisch relevanten Unternehmen einen Riegel vorschieben kann. In Deutschland bleibt die Diskussion weiterhin kontrovers: Während der Chef des Verfassungsschutzes mit den Worten zitiert wird, es gehe um aufkaufen und ausschlachten, spricht sich der BDI dafür aus, hier keine künstlichen Barrieren für Investitionen aufzubauen.

Völlig neu war mir die ganz aktuelle amerikanische Diskussion über das verstärkte Engagement chinesische Venture Capital Firmen im Silicon Valley. Auslöser die Diskussion waren wohl zwei Studien amerikanischer Behörden, die vor einem Ausverkauf von technologischem Know-how durch strategische Investitionen chinesischer Investoren warnten. Was den Deutschen ihre hidden champions, sind den Amerikanern ihre Silicon Valley Firmen. Zwar sind sich die Kommentatoren in den USA im Grundsatz weitgehend einig, dass eine Regulierung hier dringlich ist, und die amerikanische Regierung unter Trump scheint auch mehr als bereit zu sein, chinesischen Einfluss zurückzudrängen. Gleichzeitig gibt es aber auch kritische Stimmen, die davor warnen, das weltweite Innovationsnetzwerke, die mittlerweile dann doch auch chinesische Akteure intensiv miteinbeziehen, durch solche Regelungen beschädigt werden. Es ist also für die USA ebenso wie für Europa nicht mehr ganz so einfach, schlicht die chinesischen Akteure draußen zu halten und gleichzeitig weiter vorne im Innovationswettkampf zu bleiben. Innovativ bleiben geht in vielen Schlüsselbereichen in Zukunft nur noch gemeinsam mit den chinesischen Partnern, nicht mehr allein gegen sie. Zudem scheinen die Investitionen chinesischer VC Firmen im vergangenen Jahr zurück gegangen zu sein, da es eine verstärkte Regulierung von Seiten des chinesischen Staates gab, um den übermäßigen Transfer - man könnte auch Flucht von Kapital sagen - ins Ausland zu unterbinden.

Neben realen Veränderungen der Machtverhältnisse und der spürbaren Auswirkungen chinesischer Strategien einer technologischen Entwicklung sind hier also durchaus auch irrationale Ängste mit dem Spiel, die Macht- und Kontrollverlust befürchten und zu Überreaktion führen könnten. Die Frage wird dadurch noch komplexer, dass es nicht nur um scheinbar einfache Fälle kritischer Infrastrukturen geht, in denen man den ausländischen Einfluss aus naheliegenden Gründen möglichst gering halten möchte. Es geht um Innovationen und Zukunftstechnologien, deren Relevanz man heute noch gar nicht wirklich absehen kann.

Sind Investitionen in einem Hersteller von Industrierobotern entscheidend für Deutschland Sicherheit oder nicht? Oder ist es einfach nur ein Business Deal?

Ist es ein Vorteil, wenn deutsche, europäische oder amerikanische Startups schnell nach China gehen und dort Erfahrungen sammeln, oder sind sie dann schon im gegnerischen Einflussbereich? Brauchen wir chinesische Startups in Europa, die hier nachher bringen und Arbeitsplätze schaffen, oder sind das Konkurrenten?

Ob die verstärkte Interaktion mit China eher segensreich oder der Anfang vom Ende ist, hängt stark von den Entwicklungen in China selbst habe. Und die sind nur bedingt absehbar, das hat bereits vor zwei Jahren ganz schön eine Foresight-Studie der Bertelsmann-Stiftung auf den Punkt gebracht. Auf eine interaktive Website kann übrigens jeder selbst einmal in die Glaskugel schauen und seine Prognosen abgeben.

Samstag, 19. Mai 2018

Akzelerationisten und Innovation

Vor ein paar Tagen las ich in der neuen Ausgabe von brand eins ein interessantes Interview mit dem Berliner Philosophen Armen Avanessian. Entgegen dem Zeittrend zu Entschleunigung, wie ihn der (ebenfalls) Philosoph Hartmut Rosa oder auch der Wachstumskritiker Niko Paech propagieren, sprach sich Avanessian dort für einen Beschleunigung der Moderne aus. Die Probleme unserer Zeit seien nur mit mehr Technologie, mit schnelleren Entwicklungsprozessen und einer deutlich dynamischen Anpassung auch der Politik zu bewältigen, wo vieles noch zu langsam gehe. Es könne nicht sein, Entschleunigung zu predigen angesichts der Herausforderungen, vor denen wir heute ständen. Es geht Avanessian darum, die positiven Aspekte von Technologie und Wissenschaft im Blick zu behalten und hier aufs Tempo zu drücken. Avanessian ist nicht allein, und die Bewegung hat auch einen schönen Namen, die Akzelerationisten. Mir war der Begriff komplett neu, deshalb habe ich ein wenig in gegoogelt und bin auf eine wirklich interessante Geschichte gestoßen.

Die Kollegen von brand eins sind nicht die ersten, die auf die Akzelerationisten gestoßen sind. In Deutschland hatte diese "Bewegung" den Höhepunkt der medialen Aufmerksamkeit schon in den Jahren 2013 folgende, nachdem das Buch #Akzeleration veröffentlicht worden war. Für die Frankfurter Allgemeine kam dort eine neue Linke zur Sprache, die den Kapitalismus durch Beschleunigung zerstören möchte. Im Deutschlandfunk wurde unter anderem die enge Verbindung des Akzelerationismus zu Science-Fiction hervorgehoben. Die Bewegung, ursprünglich in den 90er Jahren in Großbritannien entstanden, lies sich stark durch Bücher wie "Neuromancer" oder Filme wie Terminator und Matrix beeinflussen. Sie kann auch als besondere Ausprägung einer Popkultur verstanden werden, in der Technik, Kunst und Philosophie zusammenfließen. Die Schriften der Akzelerationisten wirken in ihrem assoziativen Duktus literarisch, Musik spielt in der Bewegung eine große Rolle. Außerdem hat die Zukunft des Menschen in einer technisierten Welt eine besondere Faszination für die Akzelerationisten, der Transhumanismus, also die Überwindung des biologischen Menschlichen durch eine Verschmelzung mit Technik, durch den Cyborg ist eine Fantasie, die auch im Akzelerationismus mitschwinkt. Es gab allerdings auch sehr kritische Stimmen, die dem Akzelerationismus ein geradezu totalitäres Verständnis von Politik, Gesellschaft und Wirtschaft nahe legten. Einerseits propagiert der Akzelerationismus ein Zukunftsbild jenseits von links und rechts, andererseits ist er schon lange in eben solche rechte und linke Fraktionen gespalten.

Den besten Überblick über die Entwicklung der Bewegung, die ursprünglich Texte französischer Philosophen der 70er Jahre aufgriff und dann mit den Frustrationen der 80er Jahre und den Utopien neuer Technologien ein Amalgam schuf, dass bis heute lebhafte Diskussion hervorruft, gibt ein langer Artikel im Guardian. Er beschreibt auch sehr anschaulich die geradezu sektenhafte Gruppendynamik des Kreises um Nick Land, die Euphorie und enge Zusammenarbeit,  die geradezu an die Factory von Andy Warhol einnert, aber auch die Spaltungen, das Abdriften zentraler Akteure in rechtsextreme Fraktionen, während andere sehr linke Gesellschaftsmodelle entwickelten.

In der aktuellen deutschen Diskussion sind eher die linken Vertreter des Akzelerationismus präsent, die Themen wie ein generelles Grundeinkommen oder ein Ende der Arbeit durch eine flächendeckende Automatisierung thematisieren. Im Karl-Marx-Gedenkjahr darf zudem nicht der Hinweis fehlen, dass die Diskussion um den Akzelerationismus auch immer wieder Bezug auf Karl Max genommen hat, insbesondere auch sein "Maschinenfragment". Hat Max tatsächlich eine Beschleunigung des technologischen Fortschritts herbeigesehnt, um die Früchte der Automatisierung zu ernten und gleichzeitig dem Kapitalismus den Todesstoß zu versetzen? Oder ist das eine verkürzte Lesart von Marx, um eigenen Thesen eine gewisse Würde und Autorität zu verleihen. Die digitale Revolution und Karl Marx wären allerdings ein Thema, das einen eigenen Blog-Einntrag verdienen würde. Fast alle Artikel der letzten Wochen und Monate, die sich mit Marx beschäftigen, verweisen an der ein oder anderen Stelle auf das genannte Maschinenfragment und die dort formulierte Vision einer technologischen Beschleunigung.

Bleibt noch klarzustellen: Dass aktuelle brand eins -Heft hatte eigentlich Entschleunigung als Titelthema, der Akzelerationismus war hier nur der kleine provokante Kontrapunkt.

Donnerstag, 10. Mai 2018

Foresight und Innovationspolitik

Vor ein paar Tagen veröffentlichte die Stiftung Wissenschaft und Politik ihre neue Foresight-Studie. Seit ein paar Jahren bringt die Stiftung, die einer der wichtigsten Think Tanks Deutschlands im Bereich internationale Politik ist, solche Studien heraus. Es geht darum, Szenarien alternativer Entwicklung internationaler Politik zu skizzieren, die zunächst unerwartet und unwahrscheinlich klingen, aber erhebliche Konsequenzen haben könnten. Also hohe Unwahrscheinlichkeit, aber hohe Auswirkungen. Ein bisschen das Konzept des schwarzen Schwans.

Foresight ist ein methodischer Ansatz, der im Bereich der Innovationspolitik seit vielen Jahren gern genutzt wird. Dabei geht es vor allen Dingen darum zu überlegen, welche Technologieentwicklungen möglich und wahrscheinlich wären, oder auch zu analysieren, welche gesellschaftlichen Trends Auswirkungen auf Innovationspolitik haben könnten, weil sie z.b. neue Bedarfslagen schaffen oder ein verändertes Nutzerverhalten bewirken.

Was ich bislang nicht kenne, sind Foresight-Ansätze dazu, wie sich die Politikebene selbst verändern könnte, welche Ereignisse dazu führen könnten, dass hier eingetretene Pfade verlassen werden müssen. Dies liegt vielleicht auch darin begründet, dass sich Innovationspolitik und ihre Rahmenbedingungen nur sehr gemächlich zu verändern scheinen. Vergleichende Innovationsindikator-Studien wie das European Innovation Scoreboard oder der Innovationsindikator damit immer wieder zu kämpfen, dass sich in kurzen Zeiträumen relativ wenig ändert im Vergleich zwischen unterschiedlichen national innovationspolitiken und den ihnen zugrundeliegenden Strukturen. Es kommt halt meistens auf relativ fest gefügte Strukturen an, die Branchenstruktur eines Landes, das Universitätssystem, die Unternehmenskultur und so weiter. Wie langweilig.

Aber natürlich sind auch externe Schocks denkbar, die solche eingetretene Pfade nachhaltig beeinflussen könnten. Das liegt schon in der Natur des Innovationskonzept, dass ja auf das Neue, das Disruptive setzt. Der technologische Durchbruch, der alles auf den Kopf stellt und etablierte Branche und Unternehmen hinwegfegen. So wie die Digitalisierung die analoge Fotografie vernichtet hat. Das ist z.B. die große Angst der deutschen Automobilhersteller, dass ein schneller technologischer Wandel, z.B. in der Elektromobilität, alte Geschäftsmodelle komplett umkrempeln und neuen Player ziemlich viele Marktanteile schenken könnte. Die Automobilbranche ist für Deutschland eine zentrale Größe in der Innovationspolitik. Der Stifterverband für die Wissenschaft, der jährlich die Forschungsausgaben der Privatwirtschaft untersucht, ist in seinen letzten Berichten zu dem Ergebnis gekommen, dass die Konzentration auf die Automobilbranche in Deutschland in den letzten Jahren immer weiter zugenommen hat. Wenn hier eine Branche zusammenbrechen sollte, weil sie durch den technologischen Wandel nicht mehr wirtschaftlich arbeiten kann, dann würde das massiv auf das gesamte Innovationssystem wirken, da riesige Mittel nicht mehr zur Verfügung stünden. Natürlich könnte der Versuch der Autobauer, hier mitzuhalten beim Technologieumbruch, auch dazu führen, dass noch mehr Geld in Forschung und Innovation gepumpt wird. Und nicht unwahrscheinlich ist,  dass sie damit Erfolg haben könnten und alles so bliebe wie bisher. Im Moment ist der Wechsel vom klassischen Verbrennungsmotor zum Elektromotor auch eher eine Schnecke als ein Rennpferd. Also ein eher unwahrscheinliches Szenario mit enormen Auswirkungen.

Geld kommt aber nicht nur von den Unternehmen, sondern auch vom Staat. Hier haben wir in den letzten 10 Jahren erlebt, wie die Politik echte Prioritäten gesetzt und die Ausgaben für Forschung und Innovation kontinuierlich und ziemlich erheblich erhöht hat. Das hat private F&E Investitionen weiter stimuliert, der Anteil der F&E Ausgaben am Bruttoinlandsprodukt ist kontinuierlich gewachsen und Deutschland hat das selbst gesteckte Ziel von 3% hier praktisch erreicht. Die neue Bundesregierung hat sich darum das Ziel gesetzt, bis zum Jahr 2025 nun 3,5% anzustreben. Die F&E Ausgaben also weiter zu erhöhen. Aber wäre es auch denkbar, das hier schon früher das Ende der Fahnenstange erreicht ist, dass die Ausgaben nicht mehr so schnell wachsen, dass sie vielleicht sogar kaum noch wachsen oder gar schrumpfen? Der aktuelle Bundeshaushalt, die sich noch in der Beratung befindet und erst im Sommer verabschiedet wird, lässt schon erahnen, dass diese Ausgaben möglicherweise nun etwas langsamer wachsen. Verglichen mit den Vorjahren sind die Gelder, die für Forschung Innovation bereitgestellt werden sollen, nicht mehr ganz so üppig. Ja, es gibt vermutlich mehr Geld als im Vorjahr, aber andere Ministerien scheinen deutlich mehr rausgehandelt zu haben. Und das in Zeiten durchaus gut gefüllter öffentliche Kassen. Wie könnte die Situation erst aussehen, wenn die Mittel plötzlich knapp werden, weil z.b. eine Rezession droht, oder weil plötzlich in anderen Politikfeldern unerwartete Mehrausgaben anstehen. Da könnte der ein oder andere Finanzminister durchaus auf die Idee kommen, dass Forschung und Innovation in den vergangenen Jahren ja ganz gut bedient worden und das jetzt langsam mal Schluss ist. Das würde in einem System, das in den letzten Jahren an ein ständiges Wachstum gewöhnt wurde, ziemliche Schockwellen auslösen. Zumal in manchen Bereichen des Forschungs- und Innovationssystem schon quasi langfristig Mehrausgaben fest eingeplant wurden, so z.b. im Pakt für Forschung und Innovation, der die außeruniversitären Forschungseinrichtungen wie die Max-Planck-Institute finanziert. Das würde möglicherweise also zu noch heftigeren Rückgängen in anderen Teilbereichen führen müssen, um dies zu kompensieren.

Vielleicht ändert sich aber auch weniger die Höhe der Forschungs- und Innovationsausgaben, sondern die Art und Weise, wie dieser ausgegeben werden. Die Bundesregierung möchte ja in dieser Legislaturperiode endlich eine steuerliche Forschungsförderung einführen. Fast alle anderen Ländern haben ein solches Förderinstrument, nur Deutschland nicht. Die aktuell diskutierten Modelle sehen eine steuerliche Förderung allerdings nur als (kleinere) Ergänzung des bisherigen Fördersystems. Die direkte Förderung im Rahmen von Forschungsprojekten soll im Grundsatz nicht angetastet werden. Allerdings stehen für dieses Politikfeld insgesamt dann doch nur beschränkte Mittel zur Verfügung, was den einen gegeben wird, wird mittelfristig vielleicht den anderen genommen. Und der Blick über die nationalen Grenzen (z.B. auf die Niederlande) zeigt, dass in anderen Ländern die steuerliche Förderung sehr schnell zu einem erheblichen, ja gerade einem dominanten Instrument der Forschungs- und Innovationsförderung werden kann. Hier gebe es ganz klar Gewinner und Verlierer, das System würde ziemlich umgekrempelt werden.

Auch die internationale Landschaft, in der wir unsere Innovationspolitik betreiben, könnte sich unerwartet schnell ändern. Das zumindest legen auf den ersten Blick die Ereignisse in den USA seit dem Amtsantritt von Donald Trump nahe. Wissenschaft wird plötzlich zum Buhmann, Forschungsausgaben sollen massiv gekürzt werden, die Einwanderung von hochqualifizierten Fachkräften wird erschwert, der internationale Austausch behindert. Könnte dies zum Absturz des amerikanischen Wissenschafts- und Forschungsystems führen, würde das globale Powerhouse der Innovation in sich zusammenbrechen, und damit auch der beständige Strom an neuen Ideen, an exzellenten Forschungsergebnissen und Nobelpreisträgern? Würde das Deutschlands Wettbewerbsposition eher stärken oder schwächen? Möglicherweise stellt sich die Frage so bald nicht, denn der Blick auf die USA seit Trump zeigt auch, wie widerstandsfähig das Wissenschaftssystem ist. Der aktuelle Haushalt der amerikanischen Regierung sieht dann doch nicht die einschneidenden Kürzungen bei Forschungsausgaben vor wie zunächst befürchtet.

Und was sagt uns das alles nun? Sind das Indikatoren für Resilienz, für Widerstandsfähigkeit eines gut funktionierenden Systems, nicht nur in den USA, sondern auch in Deutschland? Oder sind dies Pfadbhängigkeiten, die aufgrund struktureller Veränderungen nur schwer verändert werden können und die dann umso anfälliger für unerwartete externe Schock sind. Müssen wir uns Sorgen machen, oder können wir uns entspannt zurücklehnen? Eine vertiefte Foresight-Analyse im Sinne der obigen Skizze könnte durchaus interessant sein. Was wäre, wenn ....?

Samstag, 14. April 2018

Science Fiction und March for Science

Dieses Wochenende findet wieder der March for Science statt, die Großdemonstration für die Wissenschaft und gegen alternative Fakten. Ausgelöst wurde die Bewegung letztes Jahr durch die als wissenschaftsfeindlich erlebte Politik des neuen US-Präsidenten. Seitdem sind die Sorgen nicht kleiner geworden. Zwar sind die angekündigten Haushaltskürzungen im Bereich Wissenschaft in den USA ausgeblieben, gleichwohl sind wichtige Posten mit Personen besetzt worden, die nicht gerade als wissenschaftsfreundlich zu bezeichnen sind - wenn überhaupt Posten besetzt wurden. Es ist also zu erwarten, dass auch dieses Jahr wieder viele viele Menschen für die Wissenschaft auf die Straße gehen, und das weltweit.

In Deutschland wird dieses Jahr nicht nur demonstriert, in einigen Städten wie Berlin auch der Dialog mit der Gesellschaft gesucht, in Kneipen und Cafés, überall dort, wo sich Menschen begegnen. Eigentlich ist die deutsche Gesellschaft ja sehr wissenschaftsfreundlich eingestellt, auch die Politik tut ihr Bestes, sodass man hierzulande kaum Sorgen haben muss das ähnliche Zustände wie in den USA drohen. Trotz aller Klagen um die angebliche Technikskepsis der Deutschen hat Wissenschaft einen sehr guten Ruf. Daran ändern auch kleine und laute Gruppen nichts, die sich skeptisch gegenüber Fakten zeigen.

Um die Wissenschafts - und Technikbegeisterung einer Gesellschaft zu befördern, kommen manche Regierungen übrigens auf ganz sonderbar Ideen. Die chinesische Regierung z.B. scheint verstärkt die Produktion von Science Fiction zu fördern, um die Technikbegeisterung in der chinesischen Gesellschaft zu stärken. Das zumindest behauptet die Zeit, die sich mit dem Hype über chinesische Science Fiction beschäftigt und dabei insbesondere Bezug auf die Trisolaris-Reihe des chinesischen Autors Cixin Liu nimmt. Dieser frönt tatsächlich einer gewissen Technikeuphorie, um die aktuellen und zukünftigen Probleme dieser Welt zu lösen und der Bedrohung durch Außerirdische zu begegnen.

Die segenbringende Wirkung von Science Fiction - dazu passt auch die folgende Quelle: Technology Review berichtete gerade von einer amerikanischen Studie, nach der Science Fiction messbaren Einfluss auf reale Wissenschaft hat. Da kann man den Amerikaner nur raten, mehr Science Fiction zu schreiben und zu lesen. Der Economist hat gerade eine aktuelle Grafik online gestellt, auf der zu sehen ist, wie die Anhänger der Theorie, die Erde sei eine Scheibe, neuerdings an Einfluss gewinnen, während die Gläubigen der Chemtrail-Theorie zurückbleiben. Zumindest für die Trisolaris-Angreifer aus dem Weltraum ist ja vielleicht eine flache Erde schlechter zu finden als der gewohnte runde Ball.

Update: und so lief der March for Science dann gestern in den USA

Samstag, 17. März 2018

Steven Pinker oder wie schön ist die Welt

Eine meiner Entdeckungen im vergangenen Jahr ist die Website Our World in Data, auf der in regelmäßigen Abständen neue Datensätze darüber veröffentlicht werden, wie weit wir tatsächlich eine Verbesserung in unterschiedlichsten Politikfeldern erleben. Es ist die Optimisten-Website par excellence. Rückgang der Kindersterblichkeit, weniger Verkehrstote, alles wird immer besser, so hat man den Eindruck.
In eine ähnliche Kerbe haut bald wieder Steven Pinker, ein amerikanischer Experimentalpsychologe und Kognitionswissenschaftler, der schon 2011 mit seinem Buch "Gewalt. Eine Geschichte der Menschheit" für großes Aufsehen gesorgt hatte. In diesem Buch trug Pinker eine Unzahl an Daten und Statistiken zusammen, um zu beweisen, dass unsere Welt immer weniger gewalttätig wird, dass die Zahl der Kriegstoten und derjenigen, die Gewaltverbrechen zum Opfer fallen, zumindest aus der Distanz betrachtet kontinuierlich zurückgeht.
Pinker ist damals vorgeworfen worden, es mit den Zahlen nicht ganz so genau zu nehmen. Herfried Münkler hat in einer Rezension damals hierauf hingewiesen, aber auch herausgearbeitet, dass es Pinker eigentlich nicht zentral und diese Daten geht, sondern auf die dahinter liegenden Prozesse, die er für den Rückgang der Gewalt verantwortlich macht. Es ist einerseits die befreiende Rolle des Staates und andererseits etwas, was Norbert Elias schon vor vielen Jahren als den Prozess der Zivilisation geschrieben hat.
Sein neues Buch, das in Deutschland den Titel "Aufklärung jetzt" tragen wird und erst im September erscheint, hat in den USA erneut für eine intensive Diskussionen gesorgt. Vorgeworfen wird Pinker unter anderem, einer fortschrittsgläubigen Argumentation zu folgen und die Rolle von Wissenschaft und Technik zu überhöhen, während normative Aspekte und Religion hinten runterfallen. Es sei naiv zu glauben, dass ich alle Probleme der Menschheit mit Wissenschaft und Technik lösen lassen.
Ich muss zugeben, noch habe ich Pinkers Buch nicht gelesen, aber die Rezessionen und die Diskussion, die damit ausgelöst werden, scheinen mir einige der Kernauseinandersetzungen der letzten Jahre um Wissenschaft und Technik zusammenzufassen.
Das Thema Technikgläubigkeit wird heute ja insbesondere mit dem Anspruch der großen Technologiekonzerne aus Silicon Valley verbunden, die mit ihren Innovationen die Welt beglücken und alle Probleme für immer lösen wollen. Das ist sicher ein wenig überzeichnet, aber möglicherweise ist es doch ganz gut, mal einen Schritt zurück zu treten und zu sehen, inwieweit Wissenschaft und Technik tatsächlich unser Leben besser gemacht haben. Und für viele Bereiche, von der Gesundheitsvorsorge bis zu den Arbeitsbedingungen der meisten Menschen, trifft dies ja auch zu. Sicher, Umweltprobleme haben sich in vielen Bereichen verschärft, und nachhaltig ist die aktuelle Entwicklung auch nicht. Wir wissen nicht, ob der Klimawandel, der durch viele Technologien von der Dampfmaschine bis zum Verbrennungsmotoren ausgelöst wurde, uns nicht in naher Zukunft in die Katastrophe führen wird.
Einen originellen Ansatz zur Diskussion von Sinnfragen, Religion und der Rolle von Technik hat Yuval Noah Harari 2015 vorgelegt. Wie die Zeit in einer Rezension schreibt, sieht Harari die Welt zunächst durchaus aus einer Perspektive des Kontrollgeewinns durch Wissenschaft und Technik, dir aber bald verloren gehen dürfte durch die Übernahme der Kontrolle durch mächtige Algorithmen und Systeme, die uns auf eine subtile Art und Weise manipulieren und beeinflussen werden, die wir uns heute noch gar nicht richtig auszumalen trauen. Das ist zwar manchmal  ein bisschen im Stile der Katastrophenszenarien, die von einer Machtübernahme durch Superintelligenz schwadronieren, gleichwohl ein interessanter Gedankengang um Kontrolle und Kontrollverlust durch Wissenschaft und Technik. Und eine Diskussion der Frage, inwieweit Sinnhaftigkeit so sehr notwendig ist, dass hier neue technologische Sinnstifter in die Rolle von Religion schlüpfen, um die aktuelle Leere zu füllen. Da ist sie dann wieder, die Diskussion um Sinn, um Religion und Vernunft, die auch Steven Pinker in seinem neuen Buch zu führen scheint.
Die Kritiker von Pinkers neuem Buch beschäftigen sich aber auch mit anderen Argumentationssträngen. So werfen sie ihm z.B. vor, das Thema Ungleichheit zu bagatellisieren, wenn er auf die Bekämpfung von Armut statt Ungleichheit hin argumentiert. Ungleichheit sei sehr wohl ein Problem, und außerdem hätten auch die Denker der Aufklärung, in deren Tradition sich Pinker sieht, den Finger in diese Wunde gelegt.
Andere wiederum werfen Pinker ein naives Verständnis der liberalen Weltordnung vor, die ein Ende der Geschichte suggeriere, das eher nicht zu erwarten sei.
Aber es gibt auch begeisterte Leser und Rezensionen, die Pinkers Versuch, die Wissenschaft vor den Zweiflern der Moderne zu retten, loben und preisen. Und vielleicht ist eine aufgeheizte, wissenschaftskritische Atmosphäre in den USA auch ein guter Grund, einmal dezidiert für rationales, wissenschaftliches Denken und Handeln zu plädieren.
Wer das Buch jetzt nicht auf Englisch lesen möchte und nicht bis September warten kann, dem sei diese Aufzeichnung eines öffentlichen Interviews von mehr als einer Stunde mit Pinker empfohlen:

Samstag, 10. März 2018

Künstliche Intelligenz, Zauberlehrling und Büchse der Pandora

Wer in den vergangenen Jahren von den Gefahren der künstlichen Intelligenz die Rede war, verengte sich die Diskussion in der Regel schnell auf das Thema Superintelligenz, ein Begriff, den Nick Bostrom geprägt hat. Dieser wiederum ließ sich vom Fermi-Paradox anregen, der Beobachtung des Physikers Fermi aus den 50er Jahren, dass es bislang keinen Kontakt zu einer außerirdischen Intelligenz gegeben habe, was angesichts der unermesslichen Zahl an Sternen, Planeten und damit auch möglichen Zivilisationen doch recht erstaunlich ist. Die These von Bostrum war nun, das vielleicht das Zeitfenster des Überlebens für jede dieser galaktischen Zivilisationen zu kurz sei, um den Kontakt mit anderen Zivilisationen weit draußen im Weltall zu suchen. Sie würden schlecht zu schnell zugrunde gehen. Die Frage war nun, warum dies so sei, und hier führte Bostrom sein Idee von der sich immer schneller entwickelnden künstlichen Intelligenz, die nach dem Zeitpunkt der Singularität die Intelligenz der Menschen überflügele, ein. Diese künstliche Intelligenz würde auf kurz oder lang die menschlichen oder andersartig natürlich gewachsene Zivilisationen beenden. Die Menschheit wäre also nicht besser als Goethes Zauberlehrling, der die Geister die er rief, nicht mehr beherrschen kann.

Irgendwie scheint diese Obsession von der allmächtigen künstlichen Intelligenz auch quasi-religiöse Züge zu tragen. In diesem Sinne ist es nicht weiter verwunderlich, das erste Kirchen zur Anbetung einer künstlichen Intelligenz ins Leben gerufen wurden. Da schüttelt man den Kopf und fragt sich, ist das nur geniale Satire oder ist das wirklich wahr.
Es gibt auch andere interessante Hypothesen dazu, wie man Fermis Paradox auflösen kann. Eine ist gerade besonders schön in Szene gesetzt worden von dem chinesischen Science Fiction Autor Cixin Liu, der mit den drei Sonnen einen echten weltweiten Erfolg gelandet hat. Wer die Trilogie noch nicht kennt, dem kann ich nur die Hörspielfassung des ersten Bandes empfehlen, der zweite Band ist jetzt gerade auf Deutsch erschienen. Ich habe ihn zwar noch nicht zu Ende gelesen, den Rezensionen aber entnommen, dass die Antwort von auf das Paradox folgende ist: jede Zivilisation strebt ab einem gewissen Reifegrad nach Expansion, besiedelt das All und versucht, alle rivalisierenden Zivilisationen auszulöschen. Weil aber dieses Verhalten auch von den anderen Zivilisationen antizipiert wird, versucht jede Zivilisation, zunächst ganz unscheinbar und unsichtbar für andere, potenziell gefährliche und bedrohliche Zivilisationen zu sein. Wir sehen also nichts von den anderen, weil sich jeder versteckt. Und zwar auch aus Angst vor uns, auch wenn wir bisher noch lieb und brav und nicht in der Lage sind, fremde Welten zu bereisen und neues Leben zu entdecken.
Das aber nur am Rande. Eigentlich wollte ich heute ja über künstliche Intelligenz und die Fantasie hin, die sie auslöst, schreiben. Soviel also zum Zauberlehrling-Syndrom.
Einen anderen Aspekt nach kürzlich Ende Februar eine Studie ins Visier, die sich vor allen Dingen mit dem Missbrauch künstlicher Intelligenz beschäftigt. Was ist, wenn Verbrecher, Schurkenstaaten oder Durchgeknallte sich der mächtigen Werkzeug der künstlichen Intelligenz zu ihren fiesen Zielen bedienen? Wer öffnet sozusagen die Büchse der Pandora? Sind es die großen Internetkonzerne, die seit einiger Zeit den Zugang zu künstlicher Intelligenz per Open Source bereitstellen? Ist der Skandal um DeepFake, der Anfang des Jahres die Leserinnen und Leser weltweit erschreckte oder amüsierte, erst der Anfang? Wenn mit Rückgriff auf ein Tool von Google beliebige Personen in beliebige Videos einfach rein geschnitten werden, ohne dass man noch unterscheiden kann, ob das jetzt wahr oder gefälscht ist. In der griechischen Ursprungsfassung gehört Pandora und ihre Büchse zur Strafe dafür, das Prometheus für die Menschen das göttliche Feuer stahl. Die Götter wollten nicht, dass die Menschen gottgleich werden, und was ist es anderes, als wenn der Mensch neues, künstliches Bewusstsein, neue künstliche Intelligenz schafft?
Eine letzte Metapher  sieht künstliche Intelligenz als ultimative Waffe im Wettrüsten der Supermächte. Sieht man nicht heute schon, dass die Manipulation der öffentlichen Meinungsbildung durch geschickte Fälschungen, durch die Nutzung intelligente Algorithmen im internationalen Kräftemessen gebraucht wird? Sind es nicht die autonomen Superwaffen der Zukunft, die durch künstliche Intelligenz aufgerüstet die Kriege der nächsten Jahrzehnte bestimmen werden? In diesem Sinne werden die erheblichen Investitionen Chinas in die Erforschung künstliche Intelligenz unter der Perspektive des internationalen Sicherheits Gleichgewichts gesehen. In den Vereinigten Staaten läuft eine intensive Diskussion darüber, ob verstärkte Forschung im Bereich künstliche Intelligenz nicht geradezu ein strategischer Imperativ ist. In diesem Sinne ist dann KI immer dual-use, nicht nur für zivile, sondern auch für militärische Zwecke interessant und potenziell geheimzuhalten.

Samstag, 3. März 2018

Produktivitätswachstum, das unbekannte Wesen

Donnerstag war ich bei der öffentlichen Vorstellung des Jahresgutachten der Expertenkommission Forschung und Innovation - EFI. Ein Tag zuvor hatten die Experten ihr Gutachten der Bundeskanzlerin übergeben, so wie jedes Jahr. Jetzt stellten sie sich der Diskussion mit dem Fachpublikum. Versammelt waren die üblichen Verdächtigen, Vertreter von Wirtschaftsforschungsinstitute, Projektträger, Ministerien und ähnlichen Einrichtungen. Im Zentrum der Diskussion mit der Expertenkommission standen die Themen steuerliche FuE-Förderung, die Förderung radikaler Innovationen oder auch das Verhältnis von Nachhaltigkeit und Innovationspolitik. Ein Thema des aktuellen Gutachtens wurde allerdings nicht angesprochen, der langsame, aber beständige Rückgang des Produktivitätswachstum all überall auf der Welt. Die Experten hatten ihr entsprechend des Kapitels war kurz vorgestellt, das Publikum aber biss nicht wirklich an.

Vielleicht lag dies auch an der etwas enttäuschenden Generalaussage. Alle möglichen Fakturen kämen dafür infrage, diesen Rückgang des Produktivitätswachstum zu erklären, aber so richtig genaues weiß man nicht. Und auch die Handlungsempfehlungen blieben ein bisschen im Allgemeinen. Nicht zuviel regulieren, den Wissenstransfer unterstützen, überhaupt eine aktive Innovationspolitik machen. Das sind alles schöne fromme Wünsche, aber ob sie tatsächlich spezifisch einen Beitrag dazu leisten könnten, den langfristigen Rückgang des Produktivitätswachstum zu beeinflussen, ist doch eher fraglich.

Die Expertenkommission hatte übrigens zur Beantwortung dieser Fragen auch ein- sehr lesenswertes - Gutachten beim Zentrum für europäische Wirtschaftsforschung ZEW in Auftrag gegeben, welches sich als Metastudie die breite Literatur zum Thema zu Gemüte führte.

Die Thesen zum Thema könnten unterschiedlicher nicht sein. Von der Annahme, dass einfach alle spannenden Innovationen jetzt schon verwirklicht sind, sozusagen die Idee vom Ende der Innovationsgeschichte, bis hin zur Hoffnung, dass die Produktivitätseffekte der digitalen Revolution einfach noch kommen und halt ein bisschen länger brauchen, also sozusagen das Prinzip Hoffnung, ist wirklich alles mit dabei. Auch Marktkonzentration und Plattformökonomie-Effekte könnten dafür verantwortlich sein, dass nur noch ein paar Top -Firmen schnelle Produktivitätszuwächse verwirklichen, während der Transfer und die Diffusion in die Breite der Unternehmenslandschaft ziemlich verwirrt und so der Abstand zwischen den sogenannten "frontier firms" und den sogenannten "laggarts" immer größer.

Man muss sagen, das Thema Produktivitätswachstumsrückgang ist im Moment ziemlich hip, so ziemlich jeder scheint sich damit zu beschäftigen. Letztes Jahr hatte das Bundeswirtschaftsministerium eine Studie in Auftrag gegeben, dabei lag der Fokus sehr spezifisch auf der deutschen Entwicklung, und die Studienehmer vom Institut für Weltwirtschaft haben ebenfalls ganz viele Hypothesen (etwas stärker als bei EFI hier die Untersuchung demographischer Effekte) getestet und sind zu dem etwas unbefriedigenden Schluss gekommen, das doch sehr unterschiedliche Faktoren in den letzten 20 Jahren für den Rückgang in Deutschland verantwortlich waren. Aber insgesamt sahen die Autoren keinen Grund zur Panik.

Unterm Strich scheint mir der Rückgang des Produktivitätswachstum kein Thema zu sein, mit dem man die Öffentlichkeit hinterm Ofen hervorlocken. Der Trend ist global, trifft auch die Wettbewerber, also kein Grund zur Panik? Und darüber hinaus bleibt ja immer noch die Hoffnung, dass die Digitalisierung alles regelt, dass künstliche Intelligenz den entsprechenden Schub gibt. Und das ist ja auch das Heilsversprechen der Digitalisierung, die der Angst vor Arbeitsplatzverlust entgegengesetzt wird. Wir brauchen Rationalisierungseffekte, um Produktivitätswachstum zu erreichen, sonst sind wir nicht wettbewerbsfähig. Und überhaupt droht ja eigentlich eher ein Mangel an qualifizierten Arbeitnehmern, die die ganze Arbeit machen können, angesichts des demografischen Wandels.

Das mag alles stimmen, unterm Strich sind es aber vermutlich eher nicht die Globalbetrachtungen, die uns weiterhelfen. Zur Herausforderung dürften vielmehr die Unterschiede zwischen einzelnen Sektoren, zwischen unterschiedlichen Qualifikationsprofil and, zwischen unterschiedlichen Regionen werden.

Und hier könnte es schon zum Problem werden, wenn die Produktivität in manchen Bereichen, in manchen Firmen, in manchen Regionen deutlich langsamer wächst als in anderen. Und hier könnte zudem die Digitalisierung und Künstliche Intelligenz eher noch die Unterschiede vergrößern als einebnen.