Smarte Technik braucht smarte Menschen

In seinem neuen Buch „Klick. Wie wir in einer digitalen Welt die Kontrolle behalten und die richtigen Entscheidungen treffen“ blickt der Psychologe und Risikoforscher Gerd Gigerenzer hinter Marketing-Hypes.
Illustration: Sophia Hummler
Illustration: Sophia Hummler
Interview: Klaus Lüber Redaktion

Er plädiert für den Einsatz des gesunden Menschenverstands.

Herr Gigerenzer, schätzen wir die Chancen und Risiken der digitalen Welt für uns richtig ein?

Ich fürchte nein.

Warum ist das so?

Weil digitale Bildung im Augenblick kaum vorhanden ist. Weder in der Politik, unter Journalisten noch in der breiten Öffentlichkeit.

Immerhin debattieren wir schon seit einiger Zeit intensiv über den Nutzen und die Gefahren sozialer Medien.

Ja, nur die Frage sollte nicht sein, ob soziale Medien nun gut oder böse sind. Darum geht es nicht. Man sollte eher hinter die Kulissen blicken und sich bewusst machen, wer eigentlich mit welchen Interessen hinter welchem digitalen Produkt steht. Das wäre der erste Schritt, um beurteilen zu können, was all diese KI-Tools wirklich leisten.

Was meinen Sie?

Nehmen wir das Hype-Thema einer zukünftigen Superintelligenz. Man hört seit einiger Zeit diese Geschichte: Weil künstliche Intelligenz die besten Schach- und Go-Spieler geschlagen hat und die Rechengeschwindigkeit exponentiell wächst, werden Maschinen demnächst alles besser können als Menschen. Aber so einfach ist es nicht. Computer sind für bestimmte Probleme hervorragend geeignet, für andere nicht. Menschen werden in bestimmten Feldern Maschinen noch lange überlegen sein.

Warum sind Sie da so sicher?

Wenn sogenannte tiefe neuronale Netzwerke anhand Millionen von Bildern lernen, Katzen von Hunden oder Zebras zu unterscheiden, ist das nichts anderes als angewandte Statistik. Das hat mit der Art und Weise, wie wir Menschen lernen, wenig zu tun. Neuronale Netze operieren korrelativ, Menschen denken kausal.

Was heißt das?

Wenn man einem Kind eine Katze oder ein paar Katzen zeigt, hat es das Konzept Katze verstanden. Es schafft es mühelos, das Bild einer Katze als eine Repräsentation der Wirklichkeit zu begreifen. Wir haben diese und andere Fähigkeiten durch unsere biologische Ausstattung mitbekommen. Und im Augenblick weiß niemand, wie man dies einem neuronalen Netzwerk beibringen könnte.

Sind solche Systeme also auch ein Sicherheitsrisiko?

Genau dann, wenn man menschliche mit maschineller Intelligenz verwechselt. Denn die Fehler, die wir bei Menschen erwarten, sind ganz anderer Art als jene, die neuronale Netze machen. Bei der Bilderkennung muss man nur ein paar Pixel ändern und plötzlich hält das neuronale Netzwerk einen Schulbus für einen Vogel Strauß. Wenn die KI in einem selbstfahrenden Auto eingesetzt wird, ist das ein Problem.

Das klingt nicht sehr optimistisch, was selbstfahrende Autos angeht. Dabei wird uns doch suggeriert, in ein paar Jahren stehen die Robotaxis vor der Tür.

Der ungenaue Gebrauch der Begriffe „selbstfahrende“, „fahrerlose“ oder „autonome“ Fahrzeuge nährt unrealistische Hoffnungen. Selbstfahrende Autos können überall und unter allen Verkehrsbedingungen ohne Back-up-Fahrer sicher fahren (sogenannte Stufe 5 der Automatisierung). Ein solches Auto gibt es derzeit nicht und wird es auch in naher Zukunft nicht geben. Die Herausforderung ist nicht die Hardware, also autonome Brems- und Beschleunigungstechnik, sondern die Software.

Weil diese im Augenblick noch nicht leistungsfähig genug ist?

Genau. Wir bräuchten hier eine wirkliche technische Revolution, aber die ist, jedenfalls im Augenblick, nicht in Sicht. Statt selbstfahrenden Autos wird etwas anderes und viel Grundlegenderes passieren: Wir werden uns der Technik anpassen. Autonomes Fahren wird kommen, aber nur in speziellen Zonen, die rigoros von anderen Verkehrsteilnehmern abgeschottet werden und wo es Menschen verboten sein wird, sich ans Steuer zu setzen. Die Behauptung, dass selbstfahrende Autos in den nächsten Jahren auf unseren Straßen flitzen, ist Marketing-Hype.

Gilt das auch für den Einsatz von KI im Sicherheitskontext, etwa bei der Gesichtserkennung? Die Identifikation per Gesichtserkennung funktioniert doch schon ausgezeichnet.

Das stimmt, wenn Sie damit etwa das Entsperren von Smartphones meinen oder den Abgleich einer Videoaufnahme aus einer U-Bahn mit einer Bilddatenbank zur Ermittlung eines Straftäters. Wenn wir allerdings von Massenüberwachung sprechen, etwa um aus einer Menge von Menschen bestimmte Gefährder herauszupicken, funktioniert das weit weniger gut.

Als ein solches System 2019 am Berliner Bahnhof Südkreuz getestet wurde, sprach man von einem großen Erfolg. Lediglich bei einer von 1.000 Personen gab es einen falschen Alarm. Der Bundesinnenminister war begeistert.

Hätte er nachgedacht, dann wäre ihm klar geworden, warum eine flächendeckende Überwachung nicht funktionieren wird. Bei zwölf Millionen Menschen, die sich laut Bundesbahn jeden Tag an deutschen Bahnhöfen bewegen, würde das zu 12.000 Menschen führen, die man jeden Tag fälschlicherweise als verdächtig identifiziert – also festhalten, nach Waffen und Drogen untersuchen und in Verwahrung nehmen muss, bis die Identität festgestellt ist. Dafür müssten Sie eine Masse an Polizeikräften einsetzen, die anderswo dringender gebraucht würden. Am Ende schafft ein solches System nicht mehr, sondern weniger Sicherheit.

Das alles hört sich sehr negativ an. Sie lehnen neue technologische Entwicklungen aber nicht grundsätzlich ab, oder?

Nein, das wäre ein Missverständnis. Meine Kritik gilt den Personen und Organisationen, die hinter der Technologie stehen und uns falsche Versprechungen machen. Unser Problem ist, dass wir Technologie oft als gegeben ansehen, als würden hier keine Interessen dahinterstehen. Stattdessen ist es an der Zeit, unseren gesunden Menschenverstand einzusetzen und selbst darüber nachzudenken, was wir eigentlich wollen. Wenn Häuser, Fabriken und Städte smart werden, warum dann nicht auch die Menschen?

Nächster Artikel