Lehrveranstaltungen in Stud.IP

aktuelles Semester
zur Veranstaltung in Stud.IP Studip_icon
Advanced Machine Learning (GÜ)
Untertitel:
Diese Lehrveranstaltung ist Teil des Moduls: Fortgeschrittenes maschinelles Lernen, Mathematik neuronaler Netzwerke
Semester:
WiSe 23/24
Veranstaltungstyp:
Übung (Lehre)
Veranstaltungsnummer:
lv2323_w23
DozentIn:
Dr. Jens Zemke
Beschreibung:

Grundlagen: Analogie, Aufbau neuronaler Netze, universelle Approximationseigenschaft, NP-Vollständigkeit

Feedforward-Netze: Backpropagation, Varianten des stochastischen Gradientenverfahrens

Deep Learning: Probleme und Lösungsstrategien

Deep Belief Networks: Energie-basierte Modelle, Contrastive Divergence

Faltungsnetze: Idee, Aufbau, FFT und Algorithmen von Winograd, Implementationsdetails

Rekurrente Netze: Idee, dynamische Systeme, Training, LSTM

Residuale Netze: Idee, Verbindung zu neuronalen ODEs

Standardbibliotheken: Tensorflow, Keras, PyTorch

Leistungsnachweis:
650 - Mathematik neuronaler Netzwerke<ul><li>650 - Mathematik neuronaler Netzwerke: mündlich</li></ul><br>m1552-2022 - Fortgeschrittenes maschinelles Lernen<ul><li>p1480-2022 - Fortgeschrittenes maschinelles Lernen: mündlich</li></ul>
ECTS-Kreditpunkte:
3
Weitere Informationen aus Stud.IP zu dieser Veranstaltung
Heimatinstitut: Institut für Mathematik (E-10)
In Stud.IP angemeldete Teilnehmer: 236
Anzahl der Dokumente im Stud.IP-Downloadbereich: 31
voriges Semester
zur Veranstaltung in Stud.IP Studip_icon
Advanced Machine Learning (GÜ)
Untertitel:
Diese Lehrveranstaltung ist Teil des Moduls: Fortgeschrittenes maschinelles Lernen, Mathematik neuronaler Netzwerke
Semester:
WiSe 23/24
Veranstaltungstyp:
Übung (Lehre)
Veranstaltungsnummer:
lv2323_w23
DozentIn:
Dr. Jens Zemke
Beschreibung:

Grundlagen: Analogie, Aufbau neuronaler Netze, universelle Approximationseigenschaft, NP-Vollständigkeit

Feedforward-Netze: Backpropagation, Varianten des stochastischen Gradientenverfahrens

Deep Learning: Probleme und Lösungsstrategien

Deep Belief Networks: Energie-basierte Modelle, Contrastive Divergence

Faltungsnetze: Idee, Aufbau, FFT und Algorithmen von Winograd, Implementationsdetails

Rekurrente Netze: Idee, dynamische Systeme, Training, LSTM

Residuale Netze: Idee, Verbindung zu neuronalen ODEs

Standardbibliotheken: Tensorflow, Keras, PyTorch

Leistungsnachweis:
650 - Mathematik neuronaler Netzwerke<ul><li>650 - Mathematik neuronaler Netzwerke: mündlich</li></ul><br>m1552-2022 - Fortgeschrittenes maschinelles Lernen<ul><li>p1480-2022 - Fortgeschrittenes maschinelles Lernen: mündlich</li></ul>
ECTS-Kreditpunkte:
3
Weitere Informationen aus Stud.IP zu dieser Veranstaltung
Heimatinstitut: Institut für Mathematik (E-10)
In Stud.IP angemeldete Teilnehmer: 236
Anzahl der Dokumente im Stud.IP-Downloadbereich: 31

Lehrveranstaltungen

Informationen zu den Lehrveranstaltungen und Modulen entnehmen Sie bitte dem aktuellen Vorlesungsverzeichnis und dem Modulhandbuch Ihres Studienganges.

Modul / Lehrveranstaltung Zeitraum ECTS Leistungspunkte
Modul: Elektrische Energiesysteme I: Einführung in elektrische Energiesysteme WiSe 6
Modul: Elektrische Energiesysteme II: Betrieb und Informationssysteme elektrischer Energienetze WiSe 6
Modul: Elektrische Energiesysteme III: Dynamik und Stabilität elektrischer Energiesysteme SoSe 6
Modul: Elektrotechnik II: Wechselstromnetzwerke und grundlegende Bauelemente SoSe 6
Modul: Elektrotechnisches Projektpraktikum SoSe 6
Modul: Prozessmesstechnik SoSe 4
Modul: Smart-Grid-Technologien WiSe, SoSe 6

Lehrveranstaltung: Seminar zu Elektromagnetischer Verträglichkeit und Elektrischer Energiesystemtechnik

weitere Information

WiSe, SoSe 2

SoSe: Sommersemester
WiSe: Wintersemester