Lectures

Maschinelles Lernen I (VL)
Untertitel:Diese Lehrveranstaltung ist Teil des Moduls: Maschinelles Lernen, Maschinelles Lernen I
DozentIn:Nihat Ay, Dr. Manfred Eppe, Ruslan Maktaew, Seyedhojat Naghavi
Veranstaltungstyp:Vorlesung (Lehre)
Beschreibung:
  • Geschichte der Neurowissenschaften und des maschinellen Lernens (insbesondere des tiefen Lernens) 
  • McCulloch-Pitts-Neuronen und binäre neuronale Netze
  • Boolesche Funktionen und Schellwert-Funktionen 
  • Universalität von neuronalen McCulloch-Pitts-Netzwerken
  • Lernen und das Perzeptron-Konvergenz-Theorem
  • Support-Vektor-Maschinen
  • Harmonische Analyse von Booleschen Funktionen
  • Kontinuierliche künstliche neuronale Netze 
  • Kolmogorovsches Superpositions-Theorem
  • Universelle Approximation mit kontinuierlichen neuronalen Netzen
  • Approximationsfehler und die Gradienten-Abstiegs-Methode: die allgemeine Idee
  • Die stochastische Gradienten-Abstiegs-Methode (Robbins-Monro- und Kiefer-Wolfowitz-Fälle)
  • Mehrschichtige Netzwerke und der Backpropagation-Algorithmus
  • Statistische Lerntheorie
Ort:(N-0009): Mo. 09:45 - 11:15 (13x), (N-0007): Mo. 11:30 - 13:00 (13x), (D-1.023): Di. 09:45 - 11:15 (14x) Di. 11:30 - 13:00 (14x), (K-0506): Mi. 09:45 - 11:15 (13x)
Semester:SoSe 24
Zeiten:Mo. 09:45 - 11:15 (wöchentlich) - Tutorial Group 1, Mo. 11:30 - 13:00 (wöchentlich) - Tutorial Group 2, Di. 09:45 - 11:15 (wöchentlich) - Tutorial Group 3, Di. 11:30 - 13:00 (wöchentlich) - Tutorial Group 4, Mi. 09:45 - 11:15 (wöchentlich) - Lecture
Erster Termin:Dienstag, 02.04.2024 09:45 - 11:15, Ort: (D-1.023)
Veranstaltungsnummer:lv2432_s24
ECTS-Kreditpunkte:3
Weitere Informationen:
Heimatinstitut: Institut für Data Science Foundations (E-21)
In Stud.IP angemeldete Teilnehmer: 126
Anzahl der Postings im Stud.IP-Forum: 11
Anzahl der Dokumente im Stud.IP-Downloadbereich: 31
Anmelden in Stud.IP