
Herr Dr. Beck, die künstliche Intelligenz ist perfekt in der Mustererkennung: Sie wertet Texte und Bilder aus, findet Fehler und Übereinstimmungen, liefert aus gigantischen Datenmengen Entscheidungsvorlagen. Bei aller vermeintlichen Genialität: Was fehlt ihr, was wir Menschen haben?
Sie erkennt nicht Ursache-Wirkung-Beziehungen, kann Regeln nur befolgen, nicht proaktiv und gestaltend ändern, sie passt sich oft zu sehr an einen Datensatz an und abstrahiert nicht, sie bildet keine Denkkonzepte aus, die sich auf völlig fremde Sachverhalte übertragen lassen. Kurz gesagt: Sie versteht nicht, was sie tut. Im Grunde existiert künstliche Intelligenz überhaupt nicht, bloß gute Mustererkennung und mathematische Modelle.

Dr. Henning Beck ist Neurowissenschaftler und Deutscher Science-Slam-Meister. Der Autor mehrerer Bücher (u. a. „Das neue Lernen heißt Verstehen“) beschäftigt sich intensiv mit der biologischen Intelligenz – und wo ihre Stärken im Vergleich zur künstlichen Intelligenz liegen.
Foto: Hans ScherhauferIn welchen konkreten Situationen ist menschliches Denken der Algorithmik überlegen?
Immer dann, wenn wenige Daten vorliegen und Entscheidungen in einem nicht messbaren oder unsicheren Umfeld getroffen werden müssen, sind Menschen besser. Ein tolles Beispiel ist die Partnerwahl: Sie können nicht zwei Millionen potenzielle Partnerinnen und Partner „testen“, bevor sie die richtige oder den richtigen auswählen. Ihre Datenlage ist also immer schlecht. Und selbst wenn sie heiraten: Wann ist eine Heirat erfolgreich? Das können sie nicht objektiv messen. Doch wenn es nichts zu messen gibt, gibt es auch nichts zu optimieren. Genau dann stößt eine Optimierungsmaschine – und nichts anderes ist KI – ans Limit.
Eine Stärke der künstlichen Intelligenz ist ihre Schnelligkeit: Lange bevor die Weltgesundheitsorganisation WHO am 9. Januar 2020 erstmals vom Ausbruch einer grippeähnlichen Erkrankung berichtete, hatte die kanadische Gesundheitsplattform BlueDot vor Viren unbekannter Herkunft gewarnt. Dafür verwendete sie einen Algorithmus auf der Basis von künstlicher Intelligenz. Hätte man in diesem Fall besser auf die KI hören sollen?
Anstatt auf eine KI hätte man auch auf den chinesischen Arzt Li Wenliang hören können, der schon Ende Dezember 2019 vor Covid-19 warnte – und zwar ganz ohne KI, sondern bloß mit gesundem Menschenverstand. Dann wäre man noch ein paar Wochen schneller gewesen. BlueDot ist eine clevere Kombination von Datenanalyse und menschlicher Interpretation. Erst die menschliche Begutachtung von Software-Output ermöglicht es, sinnvolle Entscheidungen zu treffen. So kann ein Computersystem durchaus die mögliche Ausbreitungsroute eines Virus prognostizieren – doch ob das plausibel ist und welche Maßnahmen man ergreifen könnte, müssen Menschen entscheiden. Wenn sie das nicht tun, funktioniert das Computersystem nicht.
Immer dann, wenn wenige Daten vorliegen und Entscheidungen in einem nicht messbaren oder unsicheren Umfeld getroffen werden müssen, sind Menschen besser.
In Zeiten der Coronavirus-Krise suchen Medizin und Forschung weltweit nach raschen Lösungen – sei es durch KI-unterstützte bildgebende Verfahren, um die Erkrankung der Lunge festzustellen, oder durch das KI-basierte Testen der Wirksamkeit von Medikamenten, die sonst bei anderen schweren Erkrankungen zum Einsatz kommen. Bloß fehlen dafür Big Data. Ein Kernproblem der KI, wenn die Zeit der größte Feind ist?
Eigentlich ist dies die große Stärke von KI: per Computersimulation mögliche Wirkstoffe screenen, mit selbstlernenden Computersystemen die Erkennung von Covid-19-Erkrankten verbessern, mögliche Seuchenverläufe computeroptimiert modellieren. Doch selbstlernende Computersysteme haben den Nachteil, dass sie auf Daten angewiesen sind, die mitunter noch gar nicht vorliegen. Dann schlägt die Stunde des Menschen: anhand von wenigen Daten schwerwiegende Entscheidungen zu treffen und dafür die Verantwortung zu übernehmen.
In kontrollierten Studien etwa zur Wirkung von Medikamenten lässt sich die enorme Hilfe durch KI gut bemessen. Ein Einsatz im Livebetrieb, wie er jetzt nötig wäre, ist dagegen neu. Die Grenzen der glorreichen Algorithmik scheinen aktuell so sichtbar wie nie …
Viele vermeintliche KI-Systeme sind in der Medizin erst mit großem Getöse ausgerollt und dann still und heimlich wieder eingestellt worden, weil die Maschine doch nicht so gut war wie erhofft. Gerade bei medizinischen Fragen kommt das Problem der Nachvollziehbarkeit hinzu: Ein Analysetool gibt einen Output und bewertet eine CT-Aufnahme, doch man erfährt nie, wie und warum sie das tat. Soll man trotzdem ohne plausible Begründung der Maschine darüber entscheiden, ob man eine Chemotherapie einleitet? Wer übernimmt am Ende die Verantwortung dafür? Will man sich wirklich nur auf die Statistik verlassen? Das fällt Menschen sehr schwer.
Stichwort „Predictive Analytics“ – also die Verwendung von Daten, um zukünftige Ereignisse vorherzusagen – und Mustererkennung: Ein Großteil des menschlichen Konsums wird von KI-Systemen ausgewertet. Wie hilfreich ist dies in der jetzigen Situation, in der Menschen bedingt durch die Coronavirus-Pandemie anders handeln als gewohnt?
„Predictive Analytics“ schaut immer nur zurück, doch wirklich „vorhersagend“, wie es der Name nahelegt, war diese Technik nie. Beispiel: Weil ein Großteil des menschlichen Konsums von Computersystemen ausgewertet wird und die Lieferketten entsprechend optimiert werden, fehlte zu Beginn des ersten Lockdowns das Klopapier. Hätte man sich proaktiv überlegt, wie sich Menschen in Krisensituationen verhalten, hätte man das schon weitaus früher antizipieren können – und dann viel Geld gemacht. Dazu muss man aber als Mensch denken, nicht als Maschine. Ein Discounter hat das übrigens mal getan, als er sich überlegte, dass eine Grippesaison auf dem Höhepunkt vermutlich ein guter Zeitpunkt für Desinfektionsmittel sei. Timing ist alles, gerade in der Wirtschaft.
Sie meinen also: Jetzt zählen Small-Data- und nicht Big-Data-Entscheidungen?
Definitiv. Denn zum einen gibt es in vielen Bereichen nicht genügend Datenmaterial. Zum anderen steigt mit zunehmender Datenmenge auch der Energiebedarf exponentiell an. In den letzten Jahren verdoppelte sich der Energieumsatz der besten KI-Systeme alle vier Monate. So frisst künstliche Intelligenz ihre eigene Entwicklung auf und wird in dieser Form bald in einer Sackgasse enden. Statt unseren Hunger auf Datenmengen zu vergrößern, sollten wir erkennen, wie wir auch in unsicherem Umfeld clever entscheiden. Wir erleben in dieser epochalen Zeit das Ende vieler Regeln, wie wir sie kannten. Noch vor einem Jahr war dieses Land ein anderes. Jetzt schlägt die Stunde menschlichen Handelns und Entscheidens. Es entscheidet über Erfolg oder Niedergang einer ganzen Gesellschaft. In solchen Momenten brauchen wir mutige, visionäre, proaktive, unternehmerische Entscheidungen. Wir ändern die Regeln, stellen neue auf, erkennen, was sinnvolles Handeln ist, passen uns schnell an. All das kann KI in einer wandelbaren Zeit wie jetzt nicht, sie ist in vielerlei Hinsicht praktisch nutzlos.
Veröffentlicht am