Als die ersten PC, die Personal Computer, die Zeitungsredaktionen eroberten, teilten sie die Belegschaft in zwei Fraktionen: Die einen lehnten die Kästen mit den flimmernden grünen Buchstaben auf dem Bildschirm rundweg ab. Zur Zeitungsbranche gehöre das Klappern von Schreibmaschinen und der Geruch von Papier, sagten sie. Die anderen sahen die Vorteile: Man musste Sätze nicht mehr vorformulieren, sondern konnte sie während der Eingabe wieder verändern. Welche Erleichterung. Bald folgten die ungeheuren Möglichkeiten des Internets. E-Mails zu verschicken, deren Inhalte nicht mehr wie beim Fax abgeschrieben wurden, sondern die einfach kopiert und weiterverarbeitet werden konnten. Das World Wide Web hat neue Formen der Kommunikation ermöglicht. Es hat Arbeit unglaublich effizient gemacht, die Automatisierung vorangetrieben, die gesamte Wertschöpfungskette erobert. Moderne Plattformen wie Teams und vernetzte Redaktionssysteme ermöglichen die Zusammenarbeit von Projektmanager:innen, Grafiker:innen oder Redakteur:innen, gleich ob sie sich im Büro, zu Hause oder am Mittelmeerstrand befinden.
VERNETZTE SYSTEME SIND NOCH KEINE KI
Mit Künstlicher Intelligenz hat das alles wenig zu tun. Der Begriff wurde erst in der Fläche eingeführt, als die ersten generativen Sprachmodelle aufkamen – generativ, weil sie in der Lage sind, aus Unmengen von Daten komplett neue Inhalte zu generieren. Markiert hat den Sprung in die neue Zeit das Sprachmodel ChatGPT, das sein Erschaffer, das gemeinnützige US-Unternehmen Open AI, Ende 2019 der Öffentlichkeit vorstellte. Es war die Geburtsstunde einer Software, die kommuniziert, als sei sie ein Mensch.
In den fünf Jahren seither sind zahllose andere Sprachmodelle entwickelt worden. „Gen AI“ hat eine atemberaubende Entwicklung genommen. Sie kann mit Menschen chatten, sprechen, dabei Stimmen täuschend echt imitieren, simultan in beinahe alle Sprachen der Welt übersetzen und neue Musik oder Bilder erzeugen. Sie kann Sprachbefehle in Aktionen umsetzen, autonome Fahrzeuge und Systeme steuern. Sie kann Entscheidungen treffen. Und sie kann, indem sie immer mehr Daten sammelt und damit trainiert, immer besser werden in dem, was sie tun soll. Sie kann „lernen“.
Für Industrie und Wirtschaft birgt das ungeahntes Potenzial. KI kann Arbeiten selbstständig erledigen und Prozesse verbessern, etwa in der Qualitätskontrolle von Produkten. Sie kann Verkehrs- und Logistikströme optimieren und dabei vorausschauend agieren. Sie kann Ausfälle von Fahrzeugen, Anlagen, Aufzügen, Maschinen vorhersagen, das Entstehen von Pandemien oder das Verhalten von Menschen. Mit der Zeit wird sie darin immer besser. KI wird ziemlich sicher die medizinische Diagnostik revolutionieren. In der Krebsforschung könnte sie wahre Wunder bewirken.
KI KANN VORURTEILE ENTWICKELN, ÄHNLICH WIE MENSCHEN
Sie könnte aber auch – das entspricht ihrer Natur – zu falschen Schlüssen kommen. Etwa, weil ihre Datenbasis nicht ihrem Zweck optimal entspricht. Oder weil die „Bias“ genannte Abweichung von den Normdaten für eine Verstärkung bestimmter Aspekte im Algorithmus führen könnte. Diese könnten dann in der Schlussfolgerung der Maschine überbetont werden. Die KI könnte auf diese Weise Vorurteile entwickeln. Ähnlich wie Menschen. Aber da Menschen zwar anderen Menschen Vorurteile zutrauen, der KI aber Objektivität zusprechen, könnte dieser Bias leicht unentdeckt bleiben. „KI-Systeme sind darauf trainiert, die Antworten plausibel erscheinen zu lassen und nicht, dass sie wahr oder richtig sind“, erklärt Rainer Rehak, wissenschaftlicher Mitarbeiter am Weizenbaum-Institut für die vernetzte Gesellschaft. Auf welcher Datenbasis sie zu ihren Ergebnissen kommen, ist häufig unklar. Ein Bespiel dafür seien Programmier-Hilfe-KIs, die Programmierer:innen beim Software schreiben unterstützen. „Sie erzeugen Code, der auf den ersten Blick gut aussieht und der ausführbar ist, aber wo nicht ganz klar ist, ob der wirklich das tut, was er tun soll“, so Rehak. Menschen, die diese Werkzeuge nutzen und sich aber noch nicht so gut mit Programmieren auskennen, machen demnach Fehler. Diese aber fallen erst viel später erst auf.
Das zeigt, wie wichtig ist es ist, dass menschliche Akteure verstehen, wie KI funktioniert und sie hinterfragen. Es gehe nicht nur um unreflektierte Übernahme von Ergebnissen, so Rehak. Sondern auch um das „Schulterzucken“. Darüber, ob in Bewerbungsverfahren Diskriminierung vorliege. Ob die KI Urheberrechte verletze. Umso wichtiger ist es – in Institutionen, Unternehmen, aber auch für Privatpersonen – dass sie ein gesundes Misstrauen gegenüber der Künstlichen Intelligenz entwickeln. Dazu gehört: Von der KI angegebene Quellen prüfen, Ergebnisse der KI und deren Entscheidungen auf Basis gesunden Menschenverstandes hinterfragen.
KI-SKILLS – MEHR WERT ALS EIN MASTER
Wissen schaffen – ohne das geht es nicht. Und, vor allem: geht es nicht weiter im Job. Immer mehr Institutionen bieten Lehrgänge in diesem Bereich an. Die sollte man wohlweislich nutzen. „KI-Skills bringen so viel wie ein Doktortitel“, sagte kürzlich Fabian Stephany in einem Interview dem Handelsblatt. Der Arbeitsmarktforscher und Oxford-Dozent zählt KI-Fähigkeiten aktuell zu den wertvollsten am Arbeitsmarkt. Überall würden Menschen künftig mit smarten Maschinen zusammenarbeiten und dafür entsprechende neue Fähigkeiten brauchen, so Stephany. „Unsere Auswertungen zeigen, dass sich KI-Skills umso mehr auszahlen, wenn sie komplementäre Fähigkeiten im Marketing, Management oder Vertrieb sinnvoll ergänzen und so bessere Ergebnisse oder effizientere Prozesse ermöglichen.“
Dabei sei derzeit sogar ein Studienabschluss nicht unbedingt mehr wert als reine KI-Skills: Zwar brächten Studienabschlüsse, insbesondere im MINT-Bereich, nach wie vor eine „solide Prämie beim Gehalt“, so Stephany. „Unsere Daten zeigen aber, dass KI-Kompetenzen gehaltstechnisch mithalten können.“ Im Gehaltsgespräch könnten KI-Skills demnach mehr bringen als ein Master und so viel wie ein Doktortitel.