Lehrveranstaltungen am Institut

Maschinelles Lernen I (GÜ)
Untertitel:Diese Lehrveranstaltung ist Teil des Moduls: Maschinelles Lernen, Maschinelles Lernen I
DozentIn:Nihat Ay
Veranstaltungstyp:Übung (Lehre)
Beschreibung:
  • Geschichte der Neurowissenschaften und des maschinellen Lernens (insbesondere des tiefen Lernens) 
  • McCulloch-Pitts-Neuronen und binäre neuronale Netze
  • Boolesche Funktionen und Schellwert-Funktionen 
  • Universalität von neuronalen McCulloch-Pitts-Netzwerken
  • Lernen und das Perzeptron-Konvergenz-Theorem
  • Support-Vektor-Maschinen
  • Harmonische Analyse von Booleschen Funktionen
  • Kontinuierliche künstliche neuronale Netze 
  • Kolmogorovsches Superpositions-Theorem
  • Universelle Approximation mit kontinuierlichen neuronalen Netzen
  • Approximationsfehler und die Gradienten-Abstiegs-Methode: die allgemeine Idee
  • Die stochastische Gradienten-Abstiegs-Methode (Robbins-Monro- und Kiefer-Wolfowitz-Fälle)
  • Mehrschichtige Netzwerke und der Backpropagation-Algorithmus
  • Statistische Lerntheorie
Ort:nicht angegeben
Semester:SoSe 24
Veranstaltungsnummer:lv2433_s24
ECTS-Kreditpunkte:3
Weitere Informationen:
Heimatinstitut: Institut für Data Science Foundations (E-21)
In Stud.IP angemeldete Teilnehmer: 1
Anmelden in Stud.IP