Detailseite
Projekt Druckansicht

Hochleistungs-Computersystem für maschinelle Lernmodelle

Fachliche Zuordnung Informatik
Förderung Förderung in 2026
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 577348670
 
Die Menschheit erzeugt riesige Mengen unstrukturierter Daten (z. B. Websites, Blogs, Bücher, Fotos, Videos usw.). Moderne Algorithmen des Machine Learning (ML) und des Natural Language Processing (NLP) können diese Informationen konsolidieren, um nachvollziehbare, vollständige und robuste Wissensrepräsentationen zu erhalten. Auf diese Weise erhalten Menschen die relevanten Informationen, um evidenzbasierte Entscheidungen zu treffen und Fehler zu vermeiden (z. B. in Bereichen wie Journalismus, klinischer Medizin oder Finanzen). Spitzenforschung, Innovation und Translation in diesem kritischen Bereich werden von Bemühungen aus dem anglo-amerikanischen oder asiatischen Raum dominiert. Wir verlassen uns fast ausschließlich auf englischsprachige Modelle (teils mit mehrsprachigen Kapazitäten) und Daten, die, wenn sie auf den deutschen Kontext angewendet werden, zu einem erheblichen Verlust an Akkuranz führen. Ziel dieses Antrags ist es, Hochleistungs-ML-Fähigkeiten an der Universität Tübingen zu etablieren. Wir werden damit kritische Infrastruktur im deutschen Sprachraum schaffen, eine einzigartige Ressource für zahlreiche Forschergruppen (einschließlich des DFG-geförderten Exzellenzclusters "Maschinelles Lernen in der Wissenschaft") bereitstellen, die Position der Universität Tübingen als Exzellenz-Universität im Bereich der Künstlichen Intelligenz (KI) stärken und die digitale Souveränität Deutschlands festigen. Die wichtigsten Forschungsziele dieser Hardware sind (1) die Entwicklung von deutschsprachigen Sprachmodellen im Bereich der Lebenswissenschaften; (2) die Etablierung von Lernoptimierern für neuartige Sichtweisen in Vision-Modellen; (3) die Erhöhung der Robustheit von Sprachmodellen gegenüber Angriffen; (4) die Entwicklung skalierbarer Simulationsumgebungen und Reinforcement-Learning-Frameworks für das Training und die Bewertung von Sprach- und Vision-Modellen in dynamischen, interaktiven Szenarien. Der vorliegende Vorschlag skizziert hochspezialisierte Computersysteme, die zur Erreichung dieser Ziele erforderlich sind. Moderne ML-Ansätze beruhen in hohem Maße auf sehr großen neuronalen Netzen, die spezialisierte Grafikprozessorkarten (GPU) mit größtmöglichem Arbeitsspeicher (d. h. ≥ 80 GB pro Karte) und Multiknoten-Zusammenschlüsse von Karten über nahtlose Interknotenverbindungen (z. B. über Infiniband-Technologie) erfordern. Solche Hardware-Architekturen sind derzeit in wissenschaftlichen Rechenzentren in Deutschland nicht in genügendem Umfang verfügbar. Um diese Probleme zu lösen, schlagen wir vor, die bestehende DFG- und EU-geförderte ML-Cloud-Umgebung in Tübingen um zusätzliche Rechenknoten und Speichereinheiten zu erweitern, die speziell für ML- und NLP-Anwendungen im großen Maßstab geeignet sind. Diese Hardware wird für alle Mitglieder des Exzellenzclusters zugänglich sein.
DFG-Verfahren Forschungsgroßgeräte
Großgeräte Hochleistungs-Computersystem für maschinelle Lernmodelle
Gerätegruppe 7040 Vektorrechner
Antragstellende Institution Eberhard Karls Universität Tübingen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung