Grundlagen: Analogie, Aufbau neuronaler Netze, universelle Approximationseigenschaft, NP-Vollständigkeit Feedforward-Netze: Backpropagation, Varianten des stochastischen Gradientenverfahrens Deep Learning: Probleme und Lösungsstrategien Deep Belief Networks: Energie-basierte Modelle, Contrastive Divergence Faltungsnetze: Idee, Aufbau, FFT und Algorithmen von Winograd, Implementationsdetails Rekurrente Netze: Idee, dynamische Systeme, Training, LSTM Residuale Netze: Idee, Verbindung zu neuronalen ODEs Standardbibliotheken: Tensorflow, Keras, PyTorch |