Maschinelles Lernen I (GÜ) |
Untertitel:Diese Lehrveranstaltung ist Teil des Moduls: Maschinelles Lernen, Maschinelles Lernen I |
DozentIn:Nihat Ay |
Veranstaltungstyp:Übung (Lehre) |
Beschreibung:- Geschichte der Neurowissenschaften und des maschinellen Lernens (insbesondere des tiefen Lernens)
- McCulloch-Pitts-Neuronen und binäre neuronale Netze
- Boolesche Funktionen und Schellwert-Funktionen
- Universalität von neuronalen McCulloch-Pitts-Netzwerken
- Lernen und das Perzeptron-Konvergenz-Theorem
- Support-Vektor-Maschinen
- Harmonische Analyse von Booleschen Funktionen
- Kontinuierliche künstliche neuronale Netze
- Kolmogorovsches Superpositions-Theorem
- Universelle Approximation mit kontinuierlichen neuronalen Netzen
- Approximationsfehler und die Gradienten-Abstiegs-Methode: die allgemeine Idee
- Die stochastische Gradienten-Abstiegs-Methode (Robbins-Monro- und Kiefer-Wolfowitz-Fälle)
- Mehrschichtige Netzwerke und der Backpropagation-Algorithmus
- Statistische Lerntheorie
|
Ort:nicht angegeben |
Semester:SoSe 24 |
Veranstaltungsnummer:lv2433_s24 |
ECTS-Kreditpunkte:3 |
Weitere Informationen: |
Heimatinstitut: Institut für Data Science Foundations (E-21)
In Stud.IP angemeldete Teilnehmer: 1
|