Lernende Systeme

Seit November 2022 ist die Debatte um die Chancen und Risiken Künstlicher Intelligenz in eine neue Phase eingetreten. Die Die US-Firma OpenAI veröffentlichte ihren Chatbot ChatGPT. Eine (vorläufige) Bestandsaufnahme.

Illustration: Anke Schäfer
Illustration: Anke Schäfer
Klaus Lüber Redaktion

Vor kurzem hatte der ZDF-Wissenschaftsjournalist Gerd Scobel drei renommierte Expertinnen und Experten für Künstliche Intelligenz bei sich zu Gast. Titel der Sendung: „Kulturschock durch KI?“ Allesamt Kenner der Materie, schon seit Jahren mit den Herausforderungen und Potenzialen der Technik für Wirtschaft und Gesellschaft vertraut, jederzeit auf dem aktuellen Stand der Forschung. Und dennoch, so stellte sich bereits nach den ersten Fragen heraus, gab es nicht eine oder einen, die bzw.der nicht verblüfft oder fast geschockt gewesen wäre darüber, was Ende November 2022 passierte.

Damals veröffentlichte das US-amerikanische Softwareunternehmen OpenAI die erste Version seines für die breite Nutzung gedachten, KI-gesteuerten Chatbots ChatGPT. Doris Weßels, Wirtschaftsinformatikerin an der Fachhochschule Kiel, konnte sich in der Sendung noch gut an die Mail eines jungen KI-Spezialisten erinnern, die sie am 30. November mit der Aufforderung erhielt: „Das musst Du Dir unbedingt anschauen!“ Da passieren unglaubliche Dinge. Nicht nur habe der Textbot einen Fehler in einem Programmcode aufgespürt, so berichtet es ihr junger Kollege. Die Maschine habe sich sogar dafür entschuldigt!

So wie den Experten im ZDF-Talk dürfte es vielen Menschen ergangen sein oder immer noch ergehen, die in den letzten Monaten mit der neuen Technik experimentierten. Selbst auf komplexe Fragen findet die Maschine in Sekundenbruchteilen extrem plausible Antworten. Man habe es mit einem sogenannten Large Language Model zu tun, erklärte der Informatikprofessor Kristian Kersting, auch er Gast in der Sendung. Es ziele darauf ab, menschliche Sprache auf eine Art und Weise zu analysieren, die es dem System ermögliche, selbst Inhalte zu generieren. Und wie genau ist das möglich? Man könne sich das mithilfe eines Lückentextes vorstellen, so Kersting weiter. „Die KI-Software setzt so lange selbst Worte ein, bis sie der ursprünglichen Version immer näher komme. Daraus werden dann Wahrscheinlichkeiten für mögliche Wortfolgen errechnet.“


Große Potenziale

 

Für Experten wie Kersting ist diese Lernmethode alledings gar nicht neu, das sei „der Stand von vor zwei, drei Jahren“. „Neu hinzugekommen ist, dass man die von der Maschine generierten Texte Menschen vorgelegt hat, die dann beurteilen, wie plausible das Resultat klingt.“ Das habe noch einmal einen deutlichen Qualitätssprung bedeutet. Und natürlich: ChatGPT macht es möglich, sich sehr einfach und direkt, über eine Texteingabe, mit dem System zu unterhalten. Die Interaktion funktioniert kinderleicht – was mit der Grund gewesen sein durfte, dass die weltweiten Nutzerzahlen der Software explodierten. Nur zwei Monate nach dem Start hatte ChatGPT schätzungsweise 100 Millionen aktive Nutzer monatlich erreicht. Keine Internet-App ist jemals schneller gewachsen.

Seither wird heftig debattiert: Wie ist das enorme Potenzial solcher Systeme einzuschätzen? Erleben wir eine KI, die kurz davor steht, so mächtig zu werden, dass sie außer Kontrolle gerät? In einem kürzlich veröffentlichten Schreiben fordern ausgerechnet viele Tech-Vordenker aus dem Silicon Valley, die sonst eher nicht für die Forderung nach regulatorischen Eingriffen in Innovationsprozesse bekannt sind, genau ein solches Vorgehen für die neu entwickelten KI-Systeme. Man solle, so heißt es, die Entwicklung an allen Systemen, die leistungsstärker als ChatGPT 4
sind, das heißt die aktuelle Version des Textgenerators, sechs Monate lang pausieren, um ein „tiefgreifendes Risiko für die Gesellschaft und die Menschen“ abzuwenden.

»Hat die KI zu wenige Informationen über einen abfragten Sachverhalt, werden Fakten häufig einfach erfunden.«

Oder ist es umgekehrt und es ist eigentlich keine Zeit zu verlieren, um die Technologie mit Nachdruck auf ein immer höheres Niveau zu heben? Denn so leistungsfähig der Bot daherkommt, noch ist das System fehleranfällig. Hat die KI zu wenige Informationen über einen abfragten Sachverhalt, werden Fakten häufig einfach erfunden. „Halluzinieren“ nennen Expertinnen und Experten dieses Fabulieren. Das macht den Output hochproblematisch. Denn oft werden Fakten und Fiktionen in einem äußerst überzeugend klingenden Stil auf eine Weise miteinander vermischt, die sie für vielen mögliche Anwendungsfälle größtenteils unbrauchbar machen. Etwa in allen Bereichen, die von automatisch genierten Inhalten profitieren könnten, wie der Bereich Kundenservice oder Marketing – wenn man sich denn auf die erzeugten Inhalten auch verlassen könnte.

Illustration: Anke Schäfer
Illustration: Anke Schäfer

Europäische Lösungen

 

Der KI-Bundesverband jedenfalls ist sich sicher: Die Relevanz der KI-Chatbots und der dahinterliegenden Sprachmodelle für die Wirtschaft sind groß. Das stellt etwa die Machbarkeitsstudie „Große KI-Modelle für Deutschland“ fest, die der Verband in Zusammenarbeit mit eco – Verband der Internetwirtschaft kürzlich veröffentlichte. Allerdings sei es dabei entscheidend, nicht den bisherigen Technologieführern USA und China das Feld zu überlassen. 88 Prozent der seit 2017 entwickelten KI-Foundation-Modelle, so werden Systeme wie ChatGPT auch genannt, stammen aus diesen beiden Ländern.

In den USA werde die Entwicklung vor allem von den großen Technologieunternehmen mit Milliarden-Investitionen vorangetrieben, so die Studie. Um sich eine digitale Souveränität in Sachen Künstlicher Intelligenz zu bewahren, müsse in Deutschland deshalb auf internationalem Niveau geforscht, Daten gesammelt und verarbeitet werden. Und genau dies ist das Ziel der Initiative LEAM (Large European AI Models) des KI-Bundesverbands. Es gehe dabei vor allem darum, entsprechende Rechenkapazitäten aufzubauen – denn genau daran fehle es Deutschland und Europa aktuell, wie Verbandspräsident Jörg Bienert gegenüber der F.A.Z. betont. Konkret heißt das für ihn: Aufbau und Betrieb eines Hochleistungsrechenzentrums, an dem KI-Start-ups und Industrieunternehmen gleichermaßen fortgeschrittene KI-Modelle entwickeln, testen und anpassen können. Unterstützt wird LEAM unter anderem von E.ON, Bayer und Continental sowie der TU Darmstadt und dem Deutschen Forschungszentrum für Künstliche Intelligenz.

Ein weiterer wichtiger Punkt der Machbarkeitsstudie: Viele Unternehmen befänden sich schon in den Startlöchern, experimentierten bereits mit verschiedenen Anwendungen und evaluierten den Einsatz in bestimmten Unternehmensbereichen. Da es aber kaum europäischen Modelle gebe, scheiterten die Ambitionen im Augenblick noch an den hohen Datenschutzstandards hierzulande. Hinzu komme: Die US-Modelle seien nicht offen und damit auch nicht individuell anpassbar. „Wenn wir Sprachmodelle für Anwendungen in und aus Europa nutzen wollen, brauchen wir europäische Sprachmodelle, die die hiesigen Sprachen beherrschen, die Bedürfnisse unserer Unternehmen und ethische Anforderungen unserer Gesellschaft berücksichtigen“, erklärt auch Volker Tresp, Professor für maschinelles Lernen an der Ludwig-Maximilians-Universität München, in einem aktuellen Dossier der Plattform Lernende Systeme.

Wie wichtig es ist, die Bedingungen für europäische KI-Firmen dringend zu verbessern, zeigt auch eine Aussage des Unternehmers Jonas Andrulis, der mit Aleph Alpha einen der wenigen ernstzunehmenden europäischen Konkurrenten zu OpenAI gegründet hat. Die Entscheidung, seine Firma in Deutschland zu gründen, habe einzig mit Idealismus zu tun, berichtete er kürzlich gegenüber der F.A.Z. Die Rahmenbedingungen in den USA seien aktuell deutlich attraktiver.
 

Enormer Stromverbrauch

 

Ob und inwiefern es wünschenswert ist, dass große KI-Modelle sich in Zukunft in der Breite durchsetzen, wird auch daran zu bemessen sein, wie viel Energie diese Systeme verbrauchen. Denn das ist im Augenblick noch eine ganze Menge. Für den Betrieb von ChatGPT fallen Schätzungen zufolge  Kosten in Höhe von 100.000 bis 700.000 US-Dollar pro Tag an. Ein Großteil davon entfällt auf die verwendete Hardware und die verbrauchte Energie. Jede Frage an ChatGPT benötigt dabei bis zu 1.000 Mal so viel Strom wie eine Suchanfrage bei Google, wie die Süddeutsche Zeitung berichtet und dafür einen recht eindrücklichen Vergleich findet: Für jede Antwort, die man von dem Chatbot erhält, könne man ein Smartphone bis zu 60-mal aufladen.

»Die Relevanz der KI-Chatbots und der dahinterliegenden Sprachmodelle für die Wirtschaft sind groß.«

Das Training von ChatGPT verbrauchte einem 2021 veröffentlichen Forschungspapier zufolge 1.287 Gigawattstunden Strom, was dem durchschnittlichen Jahresverbrauch von 120 US-Haushalten entspricht. Dabei entstehen 502 Tonnen CO2, so viel wie 110 US-Pkw im Jahr ausstoßen. Im Falle von Google sieht es nicht besser aus. Deren KI-Anwendungen  verbrauchen 10 bis 15 Prozent des gesamten Stromverbrauchs des Unternehmens, wie das Branchenmagazin Golem.de berichtet. Das entspreche für 2021 einem Verbrauch von circa 2,3 Terawattstunden, dem jährlichen Stromverbrauch aller Haushalte einer Stadt von der Größe Atlantas.

Noch unklar ist bislang, wie viel Energie die Unmengen an Grafikprozessoren benötigen, ohne die KI-Anwendungen nicht funktionieren würden. Die Komponenten gehören zu den stromhungrigsten, welche die Chipindustrie herstellt. Große Modelle benötigen Zehntausende dieser Bauteile, ein Trainingsprogramm kann sich über Wochen oder Monate strecken. Würden Daten zu all den direkten und indirekten Emissionen in diesem Zusammenhang bereitstehen, könnte man laut Expertinnen und Experten eine Überraschung erleben. Die in Kanada forschende KI-Wissenschaftlerin Sasha Luccioni jedenfalls ist sich sicher: Es handelt sich um einen CO2-Ausstoß in der Größenordnung eines kleineren Landes.
 

Nächster Artikel
Technologie
Dezember 2023
Illustration: Chiara Lanzieri
Redaktion

Kleine Baustoffkunde

Woraus bestehen gängige Baumaterialien und Dämmstoffe, und wie werden sie hergestellt? Wie schneiden sie in Sachen Ökobilanz ab?