Search

Akademische*r Mitarbeiter*in - Forschungsprojekt Lab2Device

Hochschule Offenburg
locationOffenburg, Deutschland
VeröffentlichtVeröffentlicht: 29.1.2026

An der Hochschule Offenburg studieren 4.000 Studierende aus 40 Nationen. Mit vier Fakultäten bieten wir ein breites interdisziplinäres und praxisorientiertes Fächerspektrum: von Betriebswirtschaft und Wirtschaftspsychologie über Mechatronik, Medien und Medizintechnik bis hin zur Biotechnologie und Künstlichen Intelligenz. Die Hochschule Offenburg ist ein Ort der Innovation und sie zählt zu den forschungsstarken Hochschulen für Angewandte Wissenschaften in Baden-Württemberg. Wir pflegen intensive Kontakte zu Unternehmen und Partnereinrichtungen aus der Region und sind gleichzeitig stark international ausgerichtet. Insgesamt sind an der Hochschule Offenburg über 500 Personen beschäftigt.

Die Hochschule Offenburg sucht zum 1. April 2026 eine*n

Akademische*n Mitarbeiter*in

in Vollzeit | 100 % | Vergütung nach E 13 TV-L | befristet auf auf 3 1/2 Jahre | Kennziffer 1127

für das Forschungsprojekt Lab2Device.


Aufgaben
  • Selbstständige Bearbeitung von Forschungsaufgaben im Projekt Lab2Device
  • Selbstständige Publikation von Forschungsergebnissen aus dem Projekt Lab2Device
  • Anleitung von Studierenden (z. B. Hiwis)
  • Selbstständiger Transfer der Forschungsergebnisse in funktionierende Anwendungen

Moderne Deep-Learning-Modelle sind leistungsstark, aber ressourcenintensiv. Dies verhindert ihren lokalen Einsatz auf eingebetteten Systemen und führt zu ineffizienten, unsicheren und datenschutzkritischen Cloud-basierten Inferenz­ansätzen. Model Compression (z. B. Quantisierung, Pruning und Knowledge Distillation) und Neural Architecture Search (NAS) Ansätze ermöglichen den lokalen Einsatz von Deep-Learning-Modellen, führen jedoch häufig zu einer Verringerung der Modell Performance und sind mit mehreren anderen Einschränkungen verbunden (z. B. hoher Rechenaufwand und damit hohe Energiekosten für Neural Architecture Search Ansätze).
Das Ziel dieser Doktorarbeit ist die Erforschung neuer Model Compression Techniken, die die relevanten Kosten für den Einsatz auf eingebetteten Systemen (wie Speicherverbrauch, Latenz und Energieverbrauch) bei minimaler Einbuße von Modell Performance reduzieren. Sie arbeiten in einem interdisziplinären Team (drei Forschungsinstitute der Universität Offenburg sind beteiligt: IMLA, INES, ivESK) mit einem weiteren Doktoranden (Schwerpunkt Neural Architecture Search) und zwei Postdocs zusammen, um ressourceneffiziente Deep-Learning-Modelle für die lokale Inferenz auf eingebetteter Hardware zu ermöglichen und zu benchmarken.


Profil
  • Abgeschlossene wissenschaftliche Hochschulausbildung (Master oder vergleichbar) im Bereich Informatik, Statistik, Elektrotechnik oder Informationstechnik
  • Erfahrung:
    • Nachweisbare Programmierkenntnisse (Python, C/C++)
    • Sehr gute Kenntnis und praktische Erfahrung mit modernen Machine Learning Methoden und Frameworks (PyTorch und/oder JAX)
    • Zumindest grundlegende Kenntnisse von Eingebetteten Systemen
    • Grundlegende Deutschkenntnisse von Vorteil, gute Englischkenntnisse sinnvoll
  • Persönlichkeit:
    • Eigeninitiative und strukturierte Arbeitsweise
    • Interesse an kreativer Problemlösung
    • Freude an interdisziplinärer Teamarbeit

Wir bieten
  • attraktive Fortbildungen, die Sie in Ihrem Job weiterbringen
  • einen modern ausgestatteten Arbeitsplatz
  • Jahressonderzahlung
  • flexible Arbeitszeiten
  • Zugang zu Corporate Benefits
  • die Möglichkeit der Kinder-Ferienbetreuung in der hochschuleigenen Kita Sommersprosse
  • attraktive Angebote im Rahmen des betrieblichen Gesundheitsmanagements und bei der Vereinbarkeit von Beruf, Familie und Pflege

STBL1_DE