Lange hat der Begriff der „Künstlichen Intelligenz“ ein Schattendasein geführt, bevor er zum Schlagwort Nummer Eins in der IT-Welt aufstieg. Geprägt wurde er in den 1950er-Jahren durch die US-amerikanischen Computerwissenschaftler John McCarthy und Marvin Minsky. Sie brauchten einen schmissigen Slogan, um Fördergelder für ihre Forschung einzuwerben. „Artificial Intelligence“ – das weckte Fantasien von selbstständig agierenden und lernenden Maschinen. Außerhalb der Welten von Literatur und Computerfreaks spielte der Begriff aber kaum eine Rolle.
Die Digitalisierung machte seitdem eine enorme Entwicklung durch – von der Anwendung in Militär, Raumfahrt und Spezialbranchen bis hin zum „Personal Computer“, der auf Schreibtischen und als Laptop seinen Siegeszug antrat. Und den inzwischen fast jede und jeder in Form eines Smartphones am Körper trägt. Die kleinen Powergeräte sind Millionen Mal schneller als etwa der Rechner, der in den 60er- und 70er-Jahren die Apollo-Raumfahrzeuge zum Mond navigierte.
Für einen Großteil der Menschen sind Computer erst mit dem Aufkommen des Internets wirklich bedeutsam geworden. Das World Wide Web hat neue Formen der Kommunikation und die Vernetzung der Dinge ermöglicht. Es hat den Begriff von der Industrie 4.0 geprägt, einer weitgehend automatisierten, individualisierten und digital steuerbaren Fertigung. In modernen Automobilwerken erledigen Roboter zahlreiche Arbeitsprozesse, versorgt von fahrerlosen Transportplattformen, die selbstständig Bauteile laden, durch die Werkshallen befördern und sie dorthin bringen, wo sie gebraucht werden.
Mit Künstlicher Intelligenz hat das wenig zu tun. Der Begriff wurde erst in der Fläche eingeführt, als die ersten generativen Sprachmodelle aufkamen – generativ, weil sie in der Lage sind, aus Unmengen von Daten komplett neue Inhalte zu generieren. Markiert hat den Sprung in die neue Zeit das Sprachmodell ChatGPT, das sein Erschaffer, das gemeinnützige US-Unternehmen Open AI, Ende 2019 der Öffentlichkeit vorstellte. Es war die Geburtsstunde einer Software, die kommuniziert, als sei sie ein Mensch.
»KI ist Chefsache. Vorgesetzte müssen die volle Verantwortung für ihren Einsatz übernehmen können.«
In den fünf Jahren sind seither zahllose andere Sprachmodelle entwickelt worden. „Gen AI“ hat eine atemberaubende Entwicklung genommen. Sie kann mit Menschen chatten, sprechen, dabei Stimmen täuschend echt imitieren, simultan in beinahe alle Sprachen der Welt übersetzen und neue Musik oder Bilder erzeugen. Sie kann Sprachbefehle in Aktionen umsetzen, autonome Fahrzeuge und Systeme steuern. Sie kann Entscheidungen treffen. Und sie kann, indem sie immer mehr Daten sammelt und damit trainiert, immer besser werden in dem, was sie tun soll. Sie kann „lernen“.
Für die Wirtschaft birgt das ungeahntes Potenzial. KI kann repetitive Arbeiten selbstständig erledigen, etwa in der Qualitätskontrolle von Produkten. Dabei kann sie Rückmeldung an die IT-Plattform geben, die auf Basis dieser Daten die Fertigungsplanung verändert, so dass die Qualität der Produkte stetig steigt. Sie kann auf Basis von Daten Verkehrs- und Logistikströme optimieren und dabei vorausschauend agieren. Sie kann Ausfälle von Maschinen voraussagen, das Entstehen von Pandemien oder das Verhalten von Menschen. Mit der Zeit wird sie darin immer präziser, was etwa die medizinische Diagnostik revolutionieren könnte. In der Krebsforschung könnte sie wahre Wunder bewirken. Sie könnte aber auch – und erst das zeigt die ganze Dimension – zu falschen Schlüssen kommen. Etwa, weil ihre Datenbasis nicht ihrem Zweck optimal entspricht. Oder, weil die „Bias“ genannte Abweichung von den Normdaten für eine Verstärkung bestimmter Aspekte im Algorithmus führen könnte. Diese könnten dann in der Schlussfolgerung der Maschine überbetont werden. Die KI könnte auf diese Weise Vorurteile entwickeln. Ähnlich wie Menschen. Aber da Menschen zwar anderen Menschen Vorurteile zutrauen, der KI aber Objektivität zusprechen, könnte dieser Bias leicht unentdeckt bleiben.
„KI-Systeme sind darauf trainiert, die Antworten plausibel erscheinen zu lassen und nicht, dass sie wahr oder richtig sind“, erklärt Rainer Rehak, wissenschaftlicher Mitarbeiter am Weizenbaum Institut für die vernetzte Gesellschaft. Auf welcher Datenbasis sie zu ihren Ergebnissen kommt, ist häufig unklar. Ein einfaches Beispiel dafür seien Programmier-Hilfe-KIs, die Programmierer:innen beim Software schreiben unterstützen. „Sie erzeugen Code, der auf den ersten Blick gut aussieht und der ausführbar ist, aber wo nicht ganz klar ist, ob der wirklich das tut, was er tun soll.“ Menschen, die diese Werkzeuge nutzen und sich aber noch nicht so gut mit Programmieren auskennen, machen demnach Fehler. Die aber fallen erst viel später auf.
Dies zeige: Ein Risiko beim Einsatz von KI sei, dass menschliche Akteure KI einsetzen, ohne vollends zu verstehen, wie sie funktionieren. Es gehe nicht nur um die unreflektierte Übernahme von Ergebnissen, so Rehak. Sondern auch um das „Schulterzucken“. Darüber, ob in Bewerbungsverfahren Diskriminierung vorliege. Ob die KI Urheberrechte verletze. Im Ergebnis tragen die Anwender:innen stets die volle Verantwortung. Denn sie sind es, die die Systeme für ihre Zwecke einsetzen – gleich, ob sie das System selbst verstehen oder nicht.
Der Einsatz von KI ist Chefsache. Sie muss den Verantwortlichen so erklärt werden, dass sie die Funktionsweise der eingesetzten KI verstehen und die volle Verantwortung dafür übernehmen können. Das bedeutet wiederum auch für Entwickler:innen und Administrator:innen eine hohe Verantwortung, außerdem Investitionen in Dokumentation und Wissensvermittlung. Und für die Gesellschaft eine neue Bildungsoffensive. Umso wichtiger ist es – in Institutionen, Unternehmen, aber auch für Privatpersonen – dass sie ein gesundes Misstrauen gegenüber der Künstlichen Intelligenz entwickeln. Dazu gehört: Kontrollinstanzen schaffen. Von der KI angegebene Quellen prüfen. Ergebnisse der KI und deren Entscheidungen auf Basis gesunden Menschenverstandes hinterfragen. KI verstehen lernen.