Maschinelles Lernen I (VL) |
Untertitel:Diese Lehrveranstaltung ist Teil des Moduls: Maschinelles Lernen, Maschinelles Lernen I |
DozentIn:Nihat Ay, Dr. Manfred Eppe, Ruslan Maktaew, Seyedhojat Naghavi |
Veranstaltungstyp:Vorlesung (Lehre) |
Beschreibung:- Geschichte der Neurowissenschaften und des maschinellen Lernens (insbesondere des tiefen Lernens)
- McCulloch-Pitts-Neuronen und binäre neuronale Netze
- Boolesche Funktionen und Schellwert-Funktionen
- Universalität von neuronalen McCulloch-Pitts-Netzwerken
- Lernen und das Perzeptron-Konvergenz-Theorem
- Support-Vektor-Maschinen
- Harmonische Analyse von Booleschen Funktionen
- Kontinuierliche künstliche neuronale Netze
- Kolmogorovsches Superpositions-Theorem
- Universelle Approximation mit kontinuierlichen neuronalen Netzen
- Approximationsfehler und die Gradienten-Abstiegs-Methode: die allgemeine Idee
- Die stochastische Gradienten-Abstiegs-Methode (Robbins-Monro- und Kiefer-Wolfowitz-Fälle)
- Mehrschichtige Netzwerke und der Backpropagation-Algorithmus
- Statistische Lerntheorie
|
Ort:(N-0009): Mo. 09:45 - 11:15 (13x),
(N-0007): Mo. 11:30 - 13:00 (13x),
(D-1.023): Di. 09:45 - 11:15 (14x)
Di. 11:30 - 13:00 (14x),
(K-0506): Mi. 09:45 - 11:15 (13x) |
Semester:SoSe 24 |
Zeiten:Mo. 09:45 - 11:15 (wöchentlich) - Tutorial Group 1,
Mo. 11:30 - 13:00 (wöchentlich) - Tutorial Group 2,
Di. 09:45 - 11:15 (wöchentlich) - Tutorial Group 3,
Di. 11:30 - 13:00 (wöchentlich) - Tutorial Group 4,
Mi. 09:45 - 11:15 (wöchentlich) - Lecture Erster Termin:Dienstag, 02.04.2024 09:45 - 11:15, Ort: (D-1.023) |
Veranstaltungsnummer:lv2432_s24 |
ECTS-Kreditpunkte:3 |
Weitere Informationen: |
Heimatinstitut: Institut für Data Science Foundations (E-21)
In Stud.IP angemeldete Teilnehmer: 126
Anzahl der Postings im Stud.IP-Forum: 11
Anzahl der Dokumente im Stud.IP-Downloadbereich: 31
|