maschinelle Analysten
David Talbot berichtet über eine Suchmaschine, die Enormes leistet. Das
von der DARPA finanzierte Raytheon BBN analysiert viele verschiedene
Quellen anhand von Suchkriterien und strukturiert und komprimiert die
Aussagegehalte. Das funktioniert nicht immer fehlerfrei und hat auch
einen gewissen Lachfaktor, wenn die Algorithmen klappern, die Auswertung
im Fadenscheinigem zerfleddert und die Quellen schlecht bewertet werden.
David Talbot, Der maschinelle Analyst, Technology
Review 29.06.2012
Schon seit etlichen Jahren wird über autonome Suchroboter spekuliert,
die in Datennetzen Informationen zusammen sammeln und ihrem Herrchen
schließlich präsentieren. Eine Spielart davon sind die Kompressoren, die
Textwüsten auf ihren wesentlichen Kern reduzieren sollen. Sie schaffen
kein intellektuell ausgefeiltes Summary, wohl aber eine Zusammenfassung,
die die Entscheidung erleichtern, ob eine Zuschrift gelöscht werden oder
doch genauer angeschaut werden sollte.
Die maschinellen Analysten sind anspruchsvoller. Sie sind Jäger und
Sammler in Datennetzen und sollen die gefundenen Informationen so
zusammen fassen, dass ein Dossier dabei heraus kommt. Das funktioniert
noch nicht. Ihre strukturierte Auswertung ist aber schon jetzt
erschreckend zielgerichtet.
Die geschulte intellektuelle Datenauswertung ist bislang noch
unangefochten. Dazu bedarf es gut ausgebildeter, über tiefes Allgemein-
und Fachwissen verfügener Analysten, die gleichzeitig soziale Kompetenz
und Feingefühl für Zusammenhänge und Prozesse haben. Maschinelle
Analysten können sie dabei unterstützen und optimieren.
Menschen müssen immer wieder bei Null beginnend ausgebildet werden.
Strenge Algorithmen, Fuzzy-Strategien und Analyseprogramme mit
ausgefeilten Datenbanken brauchen keinen Kindergarten und keine
Grundschule, sondern nur eine weitere Verfeinerung und Fortentwicklung.
Deshalb ist es nicht unmöglich, dass irgendwann künstliche
Intelligenzsysteme geschaffen werden, die das menschliche Vermögen
überflügeln werden, durch Erfahrung und Wissen gespeiste Intuition zu
nutzen.
Bislang sind die Bemühungen um die Schaffung künstlicher Intelligenzen
eher ernüchternd. Die kleinen Erfolge lehren aber, dass das nicht immer
bleiben muss. Die ersten Computersysteme sind in der Lage, auffälliges
Verhalten von Menschen in Gruppen zu erkennen, ihre Bewegungen über
verschiedene Kameras nachzuverfolgen und sie anhand ihrer optischen
Merkmale und Bewegungen zu individualisieren. Großräumige, also
gesellschaftliche Prozesse lassen sich noch erheblich einfacher
analysieren. Wenn die intuitive Kompression von Informationen hinzu
kommt, sind wir ganz nahe dran an der Künstlichen Intelligenz. Eine
geniale Suchmaschine wie Google priorisiert schon jetzt Informationen
auf eine fast perfekte Art und Weise.
Wo es noch hapert, ist die Robotik. Nur wenige Roboter können Treppen
steigen und sich wirklich in kompliziert verschachtelten und verstellten
Räumen bewegen. Sie werden aber immer besser und selbst fahrerlose Autos
können inzwischen zielgerecht Landstraßen entlang fahren und Wüsten
durchqueren, um an ein vorgegebenes Ziel zu gelangen.
Irgendwann wird es sie geben, die Roboter mit dem Plakat an der Stange,
auf dem steht: Ich bin 100.
Das spielt
auf Stanislaw Lem und seine Summa technologiae an. Der Weise aus Krakau
fragte schon 1964 danach, wann ein Roboter menschengleich ist und
verwendete dazu folgendes Gedankenmodell: Ein Forscher baut einen
Roboter mit dem Ziel, dass er menschengleich sein soll. Das erste Modell
scheitert und alle nächsten. Beim hundersten Modell ist des Forschers
Ziel erreicht: Sein künstliches Wesen ist von einem Menschen nicht zu
unterscheiden. Damit stellt sich die nächste Frage: Wann beginnt das
Mensch-Sein? Erst beim Hundersten Modell, das vom Menschen nicht mehr
unterschieden werden kann? Oder schon beim Fünfzigsten, sozusagen auf
halber Strecke, beim Zehnten, wo schon die ersten Anlagen stimmten, oder
erst beim Fünfundneunzigsten, das nur noch Feinschliff erforderte?
|