Detailseite
Hochleistungs-Computersystem für maschinelle Lernmodelle
Fachliche Zuordnung
Informatik
Förderung
Förderung in 2026
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 577348670
Die Menschheit erzeugt riesige Mengen unstrukturierter Daten (z. B. Websites, Blogs, Bücher, Fotos, Videos usw.). Moderne Algorithmen des Machine Learning (ML) und des Natural Language Processing (NLP) können diese Informationen konsolidieren, um nachvollziehbare, vollständige und robuste Wissensrepräsentationen zu erhalten. Auf diese Weise erhalten Menschen die relevanten Informationen, um evidenzbasierte Entscheidungen zu treffen und Fehler zu vermeiden (z. B. in Bereichen wie Journalismus, klinischer Medizin oder Finanzen). Spitzenforschung, Innovation und Translation in diesem kritischen Bereich werden von Bemühungen aus dem anglo-amerikanischen oder asiatischen Raum dominiert. Wir verlassen uns fast ausschließlich auf englischsprachige Modelle (teils mit mehrsprachigen Kapazitäten) und Daten, die, wenn sie auf den deutschen Kontext angewendet werden, zu einem erheblichen Verlust an Akkuranz führen. Ziel dieses Antrags ist es, Hochleistungs-ML-Fähigkeiten an der Universität Tübingen zu etablieren. Wir werden damit kritische Infrastruktur im deutschen Sprachraum schaffen, eine einzigartige Ressource für zahlreiche Forschergruppen (einschließlich des DFG-geförderten Exzellenzclusters "Maschinelles Lernen in der Wissenschaft") bereitstellen, die Position der Universität Tübingen als Exzellenz-Universität im Bereich der Künstlichen Intelligenz (KI) stärken und die digitale Souveränität Deutschlands festigen. Die wichtigsten Forschungsziele dieser Hardware sind (1) die Entwicklung von deutschsprachigen Sprachmodellen im Bereich der Lebenswissenschaften; (2) die Etablierung von Lernoptimierern für neuartige Sichtweisen in Vision-Modellen; (3) die Erhöhung der Robustheit von Sprachmodellen gegenüber Angriffen; (4) die Entwicklung skalierbarer Simulationsumgebungen und Reinforcement-Learning-Frameworks für das Training und die Bewertung von Sprach- und Vision-Modellen in dynamischen, interaktiven Szenarien. Der vorliegende Vorschlag skizziert hochspezialisierte Computersysteme, die zur Erreichung dieser Ziele erforderlich sind. Moderne ML-Ansätze beruhen in hohem Maße auf sehr großen neuronalen Netzen, die spezialisierte Grafikprozessorkarten (GPU) mit größtmöglichem Arbeitsspeicher (d. h. ≥ 80 GB pro Karte) und Multiknoten-Zusammenschlüsse von Karten über nahtlose Interknotenverbindungen (z. B. über Infiniband-Technologie) erfordern. Solche Hardware-Architekturen sind derzeit in wissenschaftlichen Rechenzentren in Deutschland nicht in genügendem Umfang verfügbar. Um diese Probleme zu lösen, schlagen wir vor, die bestehende DFG- und EU-geförderte ML-Cloud-Umgebung in Tübingen um zusätzliche Rechenknoten und Speichereinheiten zu erweitern, die speziell für ML- und NLP-Anwendungen im großen Maßstab geeignet sind. Diese Hardware wird für alle Mitglieder des Exzellenzclusters zugänglich sein.
DFG-Verfahren
Forschungsgroßgeräte
Großgeräte
Hochleistungs-Computersystem für maschinelle Lernmodelle
Gerätegruppe
7040 Vektorrechner
Antragstellende Institution
Eberhard Karls Universität Tübingen
