Ambivalente Intelligenz

Juli 2020 | Handelsblatt | Innovation 4.0

Ambivalente Intelligenz

KI ist eine Technologie, die wir zugleich über- und unterschätzen. Ein Gespräch mit dem Wissenschaftler und Publizisten Dr. Thomas Ramge.

Illustration: Magda Wilk
Interview: Klaus Lüber / Redaktion

Dr. Thomas Ramge ist Technologie-Korrespondent des Magazins „brand eins“ und aktueller Research Fellow des Weizenbaum Instituts in Berlin. Anfang April 2020 erschien „postdigital. Wie wir Künstliche Intelligenz schlauer machen, ohne uns von ihr bevormunden zu lassen“.

 

Herr Ramge, Künstliche Intelligenz gilt als Wunderwaffe gegen so ziemlich alle großen Herausforderungen unserer Zeit. Nun stecken wir inmitten einer globalen Pandemie, aber KI-Systeme scheinen so gut wie keine Rolle zu spielen. Warum eigentlich?
Das ist eine spannende Frage, denn eigentlich galt lange Zeit ausgerechnet der Pandemiefall, also der Ausbruch eines Virus, als so etwas wie der best-anzunehmende Anwendungsfall einer KI. Und es gab ja auch mindestens ein System, das sehr gut funktioniert hat. Das kanadische Start-up Bluedot hatte eine Art intelligenten Pandemie-Alarmmelder im Einsatz, der permanent Wissenschafts- und Ärzteforen sowie soziale Medien und regionale Zeitungen nach Hinweisen durchforstet, die Indikatoren sein können, dass es irgendwo einen Outbreak gab. Im Falle der Coronapandemie schlug die Software bereits an Silvester 2019 Alarm.

 

Also deutlich früher als die WHO.
Richtig, aber offenbar hielt man es in diesem Fall nicht für angebracht, auf eine KI zu hören. Wobei man dazusagen muss, dass die Bluedot-Software ja lediglich Datenspuren eingesammelt hatte, die Menschen hinterlassen. Also Informationen, die den Behörden in Wuhan natürlich auch zur Verfügung standen. Im Grunde hätte es an dieser Stelle gar keine KI gebraucht, sondern menschliche Ehrlichkeit und Intelligenz, um das Virus im Keim zu ersticken.

 

Aber die Ausbreitungswege des Virus, hätte man die nicht perfekt durch KI abbilden können?
Im spezifischen Fall von COVID-19 eben leider nicht. Was vor allem daran liegt, dass dieses Virus so etwas wie ein Worst-Case-Szenario für den Umgang mit Daten ist. KI kann immer dann gut wirken, wenn die Datengrundlage gut ist, wenn es Muster gibt, die zu erkennen sind und idealerweise Erfahrung vorliegen, die bereits gemacht wurden. Wenn man also in der Vergangenheit Situationen hatte, die mit Daten abgebildet wurden und diese Muster sich in die Zukunft fortschreiben lassen. Genau das aber war und ist hier nicht der Fall.

 

Überschätzen wir also die Fähigkeiten von KI?
Die Lage ist komplizierter. Ich würde sagen, wir über- und unterschätzen solche Systeme gleichermaßen. Was auch am Begriff Künstliche Intelligenz liegt, der irreführend ist. Auf der einen Seite wird das, was die Maschine kann, viel zu stark überhöht, auf der anderen Seite tut man so, als ob die Maschine eine ähnliche Begrenzung hätte wie das menschliche Gehirn. Vereinfacht gesagt: KI schlägt uns in bestimmten, eng gefassten Entscheidungssituationen. Zum Beispiel, wenn es darum geht, vorherzusagen, ob ein Leberfleck zu Hautkrebs wird. Da kann sich die Maschine einen gigantischen Erfahrungsschatz antrainieren und hat jetzt schon Möglichkeiten, die die Fähigkeiten des Menschen weit übersteigen.

 

Und trotzdem gibt es immer noch Bereiche, in denen der Mensch zu besseren Entscheidung kommt?
Was Menschen sehr gut können, und zwar viel besser als Maschinen, ist sich zurechtzufinden, wenn man aus der Vergangenheit nicht weiß, was zu tun ist. Man könnte auch sagen: Menschliche Intelligenz ist die Fähigkeit zu wissen, was zu tun ist, wenn man nicht weiß, was zu tun ist. Also die Kompetenz, Wissen, das man sich in ganz anderen Situationen angeeignet hat, zu übertragen auf Situationen, die es noch nie gab.

 

Sie meinen große, komplexe Herausforderungen?
Auch, aber nicht unbedingt. Wenn man einmal genauer darüber nachdenkt, ist ja bereits eine Entscheidung, sich ein neues Fahrrad zu kaufen, eine sehr ungewöhnliche Situation. Erstens hat man das noch gar nicht so oft gemacht. Zweitens sind die Umstände heute vielleicht ganz anders als beim letzten Kauf vor 10 Jahren. Die Präferenzen, die zum Kauf führen, sind also nicht aus schon vorhandenen Daten berechenbar, weil es diese Informationen gar nicht gibt. Und dennoch sind sie uns ja sehr wohl bewusst und wir können sie alle abrufen, wenn wir im Fahrradladen stehen. Eine KI wäre hier völlig überfordert.

 

Was bedeutet das für unseren Umgang mit solchen Systemen?
Wir sollten sie bewusst nutzen. Also kompetent und selbstbestimmt entscheiden, wann wir Technologie einsetzen, weil wir wissen, dass sie uns nützt. Und sie abzuschalten, wenn wir merken, dass sie uns nichts nützt oder sogar schadet. Das hört sich banal an, aber natürlich ist der suchtartige Umgang mit unseren Smartphones schon ein Beispiel dafür, wie sehr wir die Kontrolle darüber verloren haben, zu entscheiden, was uns nützt und was nicht. Im Augenblick sind die Kosten, die durch zeitraubenden Blödsinn entstehen, ja oftmals viel höher, als der Nutzen, den uns die Geräte bringen.

 

Fällt uns das Abschalten nicht auch deshalb so schwer, weil die Systeme grundsätzlich immer besser werden?
Sie haben recht, maschinelles Lernen ist natürlich auch deshalb so faszinierend, weil Maschinen plötzlich ganz ähnlich zu lernen scheinen wie wir Menschen. Im Augenblick ist es sogar so, dass viele Systeme, wie oftmals auch Menschen, gar nicht mehr erklären können, wie sie zu bestimmten Entscheidungen gelangt sind. Blackbox-KIs sind freilich ein großes Problem. Die Forschung arbeitet daran, mithilfe eines zweiten KI-Systems die Entscheidungen des ersten erklärbar zu machen, Explainable AI heißt dieser Ansatz. Im Zweifelsfall hätte man es dann mit Entscheidungen zu tun, die transparenter wären als die von Menschen.

 

Aber wird nicht gerade ständig darüber berichtet, wie unfair und voreingenommen Maschinen entscheiden?
Ja, es stimmt, KI-Systeme bergen das Risiko, systematisch ungleiche Entscheidungen zu treffen. Bei dieser Debatte wird nur immer wieder vergessen:  Auch Menschen treffen ständig unfaire Entscheidungen. Explainable AI bietet grundsätzlich die Chance, künstliche Entscheidungsfindung transparenter und nachvollziehbarer zu machen als menschliche Entscheidungsfindung – und damit fairer. Ein rassistischer Richter trifft mitunter sein ganzes Leben lang rassistische Urteile. Und ist sich vielleicht noch nicht einmal selbst bewusst, dass er rassistisch ist.

 

Die sich selbst erklärende KI – wäre das die Zukunft?
Zumindest ein Schritt in die richtige Richtung. Eigentlich sollte es die Aufgabe eines jeden guten KI-Assistenten sein, sagen zu können: Hier kann ich Dir nicht wirklich helfen. Also schalte mich besser ab.