Wir brauchen Zugang zu leistungsfähigen Computer-Infrastrukturen«
In den vergangenen Monaten hat die KI-Forschung eine neue Dimension erreicht. Extrem große KI-Modelle stoßen die Tür auf zu neuen Anwendungen im Bereich der künstlichen Intelligenz. Begonnen hat diese Entwicklung mit der Vorstellung des Modells GPT-3 im Sommer 2020. Die Firma OpenAI hatte ein Sprachmodell entwickelt, das mit einer Größe von 175 Milliarden Parametern auf einer gigantischen Datenmenge trainiert wurde. GPT-3 war in der Lage, eigenständig Artikel zu verfassen, Texte zu übersetzen, Dialoge zu führen und sogar Programmcode in verschiedenen Sprachen auf Basis einer natürlich-sprachigen Eingabe zu generieren.
Mittlerweile hat ein regelrechtes Wettrennen um große Modelle eingesetzt. Nvidia, Google, die Universität von Peking und Weitere präsentierten KI-Modelle, die sogar bis zu zehnmal komplexer sind als GPT-3.
Problematisch bei dieser Entwicklung ist, dass diese hauptsächlich in den USA und in China stattfindet. Für die Erstellung von großen Modellen ist nämlich enorme Rechenkapazität erforderlich. So wurde GPT-3 auf dem weltweit fünftschnellsten Hochleistungscomputer trainiert. Wenn wir in Europa also nicht den Anschluss in der KI-Entwicklung verlieren wollen, benötigen Universitäten und Unternehmen den Zugang zu ähnlich leistungsfähigen Computer-Infrastrukturen.
Vor diesem Hintergrund hat der KI Bundesverband die Initiative LEAM (Large European AI Models) ins Leben gerufen. Ziel ist der Aufbau eines dedizierten KI-Hochleistungs-rechenzentrums in Deutschland, auf dem große Modelle entwickelt und Anwendern aus Industrie und Start-ups zur Weiterentwicklung und Nutzung bereitgestellt werden können. Nur durch die Befähigung, im Bereich großer KI-Modelle eigene Forschung und Entwicklung zu betreiben, können wir in diesem Bereich die digitale Souveränität sicherstellen.