Montag, 2. März 2015

Cogs

Letztes Woche machte eine skurrile Meldung die Runde durch den digitalen Blätterwald (zum Beispiel hierhier, hier und hier). Ein Computerprogramm sei in der Lage, Computerspiele der 70er und 80er Jahre besser als ein Mensch zu spielen. Die etwas hämischeren Kommentare fragten sich, was denn daran so besonders sei, dass auch Computer nun alte Atari-Spiele beherrschten. Die anderen Kommentatoren - und das war die Mehrzahl - zeigte sich beeindruckt (zumal der ursprünglich Artikel auch in Nature erschien, nicht gerade ein Revolverblatt des Wissenschaftsjournalismus). Es war Googles DeepMind, eine der wirklich teuren Neuerwerbungen von Google im Bereich von Deep Learing, der sich die Spiele selbst beibrachte und durch eigenes Lernen Schritt für Schritt meisterte. Nicht nur Google investiert in dieses Deep Learning, auch andere Unternehmen wie Facebook oder Baidu haben entsprechende Unternehmen aufgekauft oder Forschungsabteilungen aufgebaut. Deep Learning scheint wohl besonders interessant für Gebiete wie Mustererkennung und Sprachtechnologie zu sein. 

Ein anderer Hype-Begriff, der mir in den letzten Tagen über den Bildschirm huschte, ist Cognitive Computing. In der Online-Zeit lass ich einen längeren Artikel zum Thema, der aus der neuen Ausgabe von Zeit Wissen stammt. Am bekanntesten wurde Cognitive Computing durch IBM und sein Programm Watson, dass menschliche Teilnehmer in einer bekannten amerikanischen Quiz-Show schlug. Hier geht es eher um die schnelle Verarbeitung ungeheurer Wissensbestände und Lösung konkreter Aufgaben. IBM hat Watson weiterentwickelt und für kommerzielle Zwecke zur Verfügung gestellt. Er hilft jetzt Ärzten bei der Krebsdiagnose oder beantwortet in Zukunft natürlichsprachliche Fragen zu Reisezielen. Mehr und mehr Apps werden erscheinen, die auf die Leistungsfähigkeit Cognitiver Computer wie Watson zurückgreifen (einige Beispiele für Apps finden sich hier). Und BITKOM, der deutsche Branchenverband der IT-Industrie, sieht einen riesigen Markt für Cognitive computing Anwendungen und hat sogar einen Leitfaden für deutsche Unternehmen veröffentlicht.

Der genannte Zeitartikel zur Cogitive Computing lässt aber ähnlich wie ein Guardian-Artikel zu DeepMind nicht die Gänsehaut unerwähnt, die angesichts lernfähiger, sich selbst weiter entwickelnder und in Inselbegabungen bereits "übermenschlicher" Computer entsteht. Der Guardian schreibt:
Last year, the American entrepreneur, Elon Musk, one of Deep Mind’s early investors, described AI as humanity’s greatest existential threat. “Unless you have direct exposure to groups like Deepmind, you have no idea how fast [AI] is growing,” he said. “The risk of something seriously dangerous happening is in the five year timeframe. Ten years at most.” However, the Google team played down the concerns. “We agree with him there are risks that need to be borne in mind, but we’re decades away from any sort of technology that we need to worry about,” Hassabis said.
Das ist das Szenario, dass ich in einem meiner früheren Blogbeiträge im Zusammenhang mit einer neuen Veröffentlichung von "the edge" angesprochen hatte. Und ein selbstlernendes und sich selbst verbesserndes Programm ist vermutlich so etwas wie die "Saat KI" von Nick Bostrom, der ebenfalls in diesem Blogbeitrag angesprochen wurde. Aber solange es nur um die Abwehr von "Space Invaders" geht, dollen mir solche Programme recht sein...

1 Kommentar:

  1. Lieber Jan,
    literarische Ergänzung zu Deiner wissenschaftlichen Annäherung: Die Romane von William Hertling oder Daniel Suarez haben mir Nicht-Wissenschaftler erstmals die Begriffe und Konzepte der Singularität oder der KI "vergegenwärtigt". Sicher keine hohe Literatur, eher unterhaltsame Annäherung ans Thema. Und eine schaurige Vision, was passiert wenn es eben doch schiefgeht. Beim Satz "we’re decades away from any sort of technology that we need to worry about" läuft es mir nun kalt den Rücken hinunter...

    Herzliche Grüße / Till
    (till.hahndorf@sourceconomy.com)

    AntwortenLöschen