Parallelisierung mit Deep-Learning-Bibliotheken

Viele Hände, schnelles Ende. So könnte man auch das Ziel von Parallelisierung von Programmen zusammen fassen. Aber stimmt das wirklich und wieviel schneller kommt das Ende, wenn man verschiedene Hände ausprobiert? Wir suchen eine Masterstudentin oder einen Masterstudenten, der uns diese Fragen in ihrer/seinem Abschlussprojekt beantworten kann.

Unser Problem: Simulation von Entscheidungsmodellen schneller machen.
Unsere Lösung: Verschiedene Formen der Parallelisierung.
Unsere Frage: Welche Form der Parallelisierung hat das beste Verhältnis von Aufwand und Nutzen?

Deine Aufgaben:

  • Python-basierte Parallelisierungsumgebungen identifizieren und auf deren Eignung für unser Problem hin untersuchen. (Vorauswahl von uns: Theano, und Google's Tensor Flow)
  • Modell(e) für die entsprechende Umgebung erweitern bzw. reimplementieren
  • Entwicklungsaufwand dokumentieren
  • Effizienz der verschiedenen Lösungen analysieren

Was wir von dir erwarten:

  • Grundkenntnisse von Parallelisierungsansätzen
  • Bereitschaft dich in einfache probabilistische Modelle hinein zu denken
  • systematisches Vorgehen (Versionskontrolle, Tests, Dokumentation)

Darüber hinaus wünschen wir uns von dir Erfahrung mit:

  • Python, C, C++, Matlab
  • CUDA
  • HPC

Was du aus dem Projekt mitnehmen kannst:

  • Erfahrung mit der Administration und Nutzung von Deep-Learning-Bibliotheken für flexible und automatisierte Parallelisierung von Berechnungen
  • Einführung in probabilistische Modelle
  • Python-Programmiererfahrung

Bewerben:
Schicke eine Email zusammen mit deinem Lebenslauf an ed.nedserd-ut|reztib.naitsabes#ed.nedserd-ut|reztib.naitsabes, Betreff: "Abschlussarbeit Parallelisierung". Aus der Email sollte hervor gehen warum dich das Projekt interessiert und welche relevanten Erfahrungen du mitbringst.