Interview KI in der Wissenschaft: Ethische und praktische Herausforderungen
Immer häufiger werden Large Language Models in wissenschaftliche Arbeitsprozesse integriert.
Forschende aus verschiedenen Forschungsrichtungen reflektierten und diskutierten über die Frage: Wie verändern LLMs die wissenschaftliche Praxis? Von Helmholtz Munich, haben Dr. Eric Schulz, Dr. Marcel Binz, Prof. Zeynep Akata und Prof. Stephan Alaniz (alle am Computational Health Center) an diesem Meinungsbeitrag mitgewirkt.
Immer häufiger werden Large Language Models in wissenschaftliche Arbeitsprozesse integriert. Obwohl man die vollständigen Auswirkungen noch nicht kennt. Die Helmholtz-München-Experten Dr. Eric Schulz und Dr. Marcel Binz beschreiben, wie LLMs die Wissenschaft beeinflussen könnten.
In diesem Interview spricht Dr. Marcel Binz, Postdoctoral Researcher am HCA, über seine Vorstellung, wie LLMs die Wissenschaft beeinflussen könnten.
"Es braucht einen Wandel in der Denkweise: Wir werden weniger Zeit für die Informationsbeschaffung brauchen, mehr mit ihrer Überprüfung."
Dr. Marcel Binz
Wie können Forschende KI für das Schreiben von Artikeln oder die Dateninterpretation nutzen und dabei ethische und praktische Herausforderungen meistern?
MB: Es braucht einen unvermeidlichen Wandel in der Denkweise. Wir werden möglicherweise weniger Zeit mit der Informationsbeschaffung verbringen, dafür aber mehr mit ihrer Überprüfung.
Welche Maßnahmen oder Richtlinien sollten eingeführt werden, um Open-Source-Modelle in der akademischen Forschung stärker zu etablieren?
MB: Wir können uns nicht darauf verlassen, dass große Unternehmen diese Modelle entwickeln. Stattdessen müssen wir die richtige Infrastruktur aufbauen, um sie selbst zu erstellen. Es wurden bereits einige gute Schritte in diese Richtung unternommen. Für die Wissenschaft besteht die größte Herausforderung meiner Meinung nach darin, die Talente zu gewinnen - und zu halten - die in der Lage sind, solche Systeme zu entwickeln.
„Vertrauliche und sensible Informationen erfordern äußerste Sorgfalt: Sie sollten auf lokal gehostete Open-Source-Modelle zurückgreifen, bei denen wir die vollständige Kontrolle über die Daten haben.“
Dr. Marcel Binz (links), Helmholtz Munich, mit PI Dr. Eric Schulz, Helmholtz Munich
Wie können wir KI-gestützte Reviews effizienter gestalten und dabei Datensicherheit gewährleisten?
MB: Vertrauliche und sensible Informationen müssen mit lokal gehostete Open-Source-Modelle eingesetzt werden, bei denen wir die vollständige Kontrolle über die Daten haben.
Large Language Models verändern sich stetig: Wie bleibt diese KI dennoch ein vertrauenswürdiges Werkzeug?
MB: Es ist wichtig, dass Large Language Models bereits Studierenden die Funktionsweise und auch ein verantwortungsvoller Umgang mit dieser Technologie beigebracht wird: Jeder Nutzer benötigt Know-how, um diese Modelle effizient und ethisch korrekt einzusetzen.
Mehr zu Dr. Marcel Binz
Über Marcel Binz
Kontakt: marcel.binz@helmholtz-munich.de
Forschung & News
ArXiv: How should the advent of large language models affect the practice of science?
Letzte Aktualisierung: April 2025