Künstliche Intelligenz optimiert TeilchenbeschleunigerChatGPT als smarter Co-Pilot
9. April 2025

Foto: Jan Kaiser, DESY
Forscher am DESY und der Universität Hamburg haben gezeigt, dass große Sprachmodelle wie ChatGPT zur Optimierung der Leistung von Teilchenbeschleunigern eingesetzt werden können, indem sie in natürlicher Sprache einfache Anpassungen vornehmen.
"Kann ChatGPT das?": Jan Kaiser und Annika Eichler, Forschende am DESY, haben sich in Zusammenarbeit mit Prof. Dr. Anne Lauscher von der Universität Hamburg genau mit dieser Frage beschäftigt – im Hinblick auf den Betrieb eines Teilchenbeschleunigers. Und die Antwort lautet: Ja. Ihre neueste Studie, veröffentlicht in „Science Advances“, zeigt, dass große Sprachmodelle (LLMs) wie das hinter ChatGPT, bei der Optimierung der Leistung von Beschleunigern helfen können.
Maschinelles Lernen wird bereits eingesetzt, um viele Aufgaben in der Physik zu automatisieren, aber das Echtzeit-Tuning von Teilchenbeschleunigern ist besonders herausfordernd. Das Team testete 14 LLMs am ARES-Beschleuniger des DESY und bat sie in natürlicher Sprache, fünf Magneten anzupassen, die den Elektronenstrahl formen. Anstelle von Code verwendeten sie einfache Eingabeaufforderungen – und die Modelle lieferten präzise Abstimmparameter sowie Erklärungen zu den jeweiligen Effekten.
Einige Modelle erzielten überraschend gute Ergebnisse, obwohl sie kein eingebautes Wissen über Beschleuniger hatten – was darauf hindeutet, dass LLMs eine Vielzahl von Optimierungsproblemen bewältigen können. Tatsächlich zeigt diese Arbeit, dass LLMs nicht nur Teilchenbeschleuniger abstimmen, sondern auch allgemeine Optimierungsprobleme lösen können. Es bleiben jedoch Herausforderungen: Gute Antworten hängen stark von der Formulierung der Eingabeaufforderung ab, und spezialisierte Werkzeuge schneiden in vielen Fällen nach wie vor besser ab. Darüber hinaus erfordert das Rechenmodell einen erheblichen Energieaufwand; das LLM-basierte Tuning einer einfachen Benchmark-Aufgabe verbraucht so viel Energie wie ein Kühlschrank über 11 Stunden. Im Kontext des Energieverbrauchs von Teilchenbeschleunigern ist dies jedoch eine lohnenswerte Investition, da es nur 0,003 % des jährlichen Energieverbrauchs einer großen Beschleunigungseinrichtung ausmachen würde, wenn das LLM-basierte Tuning ausschließlich verwendet würde. Die Autoren kommen zu dem Schluss, dass LLMs vorerst am besten als intelligente Co-Piloten in Kontrollräumen funktionieren.
Dennoch weisen die Ergebnisse auf eine Zukunft hin, in der sogar komplexe wissenschaftliche Systeme einfach durch das Ausdrücken des gewünschten Ergebnisses – in klarer Sprache – geleitet werden könnten.
Wer mehr über die Forschungsergebnisse erfahren möchte, findet den ganzen Text hier:
Large language models for human-machine collaborative particle accelerator tuning through natural language. Jan Kaiser, Anne Lauscher and Annika Eichler. Science Advances. 2025. DOI: 10.1126/sciadv.adr4173