Lehrveranstaltungen in Stud.IP

aktuelles Semester
zur Veranstaltung in Stud.IP Studip_icon
Advanced Machine Learning (VL)
Untertitel:
Diese Lehrveranstaltung ist Teil des Moduls: Fortgeschrittenes maschinelles Lernen, Mathematik neuronaler Netzwerke
Semester:
WiSe 23/24
Veranstaltungstyp:
Vorlesung (Lehre)
Veranstaltungsnummer:
lv2322_w23
DozentIn:
Dr. Jens Zemke
Beschreibung:
  1. Grundlagen: Analogie, Aufbau neuronaler Netze, universelle Approximationseigenschaft, NP-Vollständigkeit
  2. Feedforward-Netze: Backpropagation, Varianten des stochastischen Gradientenverfahrens
  3. Deep Learning: Probleme und Lösungsstrategien
  4. Deep Belief Networks: Energie-basierte Modelle, Contrastive Divergence
  5. Faltungsnetze: Idee, Aufbau, FFT und Algorithmen von Winograd, Implementationsdetails
  6. Rekurrente Netze: Idee, dynamische Systeme, Training, LSTM
  7. Residuale Netze: Idee, Verbindung zu neuronalen ODEs
  8. Standardbibliotheken: Tensorflow, Keras, PyTorch
  9. Neue Trends
Leistungsnachweis:
650 - Mathematik neuronaler Netzwerke<ul><li>650 - Mathematik neuronaler Netzwerke: mündlich</li></ul><br>m1552-2022 - Fortgeschrittenes maschinelles Lernen<ul><li>p1480-2022 - Fortgeschrittenes maschinelles Lernen: mündlich</li></ul>
ECTS-Kreditpunkte:
3
Weitere Informationen aus Stud.IP zu dieser Veranstaltung
Heimatinstitut: Institut für Mathematik (E-10)
In Stud.IP angemeldete Teilnehmer: 273
Anzahl der Postings im Stud.IP-Forum: 5
Anzahl der Dokumente im Stud.IP-Downloadbereich: 31
voriges Semester
zur Veranstaltung in Stud.IP Studip_icon
Advanced Machine Learning (VL)
Untertitel:
Diese Lehrveranstaltung ist Teil des Moduls: Fortgeschrittenes maschinelles Lernen, Mathematik neuronaler Netzwerke
Semester:
WiSe 23/24
Veranstaltungstyp:
Vorlesung (Lehre)
Veranstaltungsnummer:
lv2322_w23
DozentIn:
Dr. Jens Zemke
Beschreibung:
  1. Grundlagen: Analogie, Aufbau neuronaler Netze, universelle Approximationseigenschaft, NP-Vollständigkeit
  2. Feedforward-Netze: Backpropagation, Varianten des stochastischen Gradientenverfahrens
  3. Deep Learning: Probleme und Lösungsstrategien
  4. Deep Belief Networks: Energie-basierte Modelle, Contrastive Divergence
  5. Faltungsnetze: Idee, Aufbau, FFT und Algorithmen von Winograd, Implementationsdetails
  6. Rekurrente Netze: Idee, dynamische Systeme, Training, LSTM
  7. Residuale Netze: Idee, Verbindung zu neuronalen ODEs
  8. Standardbibliotheken: Tensorflow, Keras, PyTorch
  9. Neue Trends
Leistungsnachweis:
650 - Mathematik neuronaler Netzwerke<ul><li>650 - Mathematik neuronaler Netzwerke: mündlich</li></ul><br>m1552-2022 - Fortgeschrittenes maschinelles Lernen<ul><li>p1480-2022 - Fortgeschrittenes maschinelles Lernen: mündlich</li></ul>
ECTS-Kreditpunkte:
3
Weitere Informationen aus Stud.IP zu dieser Veranstaltung
Heimatinstitut: Institut für Mathematik (E-10)
In Stud.IP angemeldete Teilnehmer: 273
Anzahl der Postings im Stud.IP-Forum: 5
Anzahl der Dokumente im Stud.IP-Downloadbereich: 31

Lehrveranstaltungen

Informationen zu den Lehrveranstaltungen und Modulen entnehmen Sie bitte dem aktuellen Vorlesungsverzeichnis und dem Modulhandbuch Ihres Studienganges.

Modul / Lehrveranstaltung Zeitraum ECTS Leistungspunkte
Modul: Elektrische Energiesysteme I: Einführung in elektrische Energiesysteme WiSe 6
Modul: Elektrische Energiesysteme II: Betrieb und Informationssysteme elektrischer Energienetze WiSe 6
Modul: Elektrische Energiesysteme III: Dynamik und Stabilität elektrischer Energiesysteme SoSe 6
Modul: Elektrotechnik II: Wechselstromnetzwerke und grundlegende Bauelemente SoSe 6
Modul: Elektrotechnisches Projektpraktikum SoSe 6
Modul: Prozessmesstechnik SoSe 4
Modul: Smart-Grid-Technologien WiSe, SoSe 6

Lehrveranstaltung: Seminar zu Elektromagnetischer Verträglichkeit und Elektrischer Energiesystemtechnik

weitere Information

WiSe, SoSe 2

SoSe: Sommersemester
WiSe: Wintersemester