Grundlagen des Deep Learning I: Basiswissen
Der erste Teil des Kurses Grundlagen des Deep Learning

Übersicht
Der Kurs bietet eine Einführung in die grundlegenden Bausteine des Deep Learning. Er beginnt mit motivierenden Beispielen und einer kurzen Geschichte darüber, wie sich Modelle von der logistischen Regression zu MLPs entwickelt haben. Anschließend werden MLPs detailliert vorgestellt, einschließlich Aktivierungsfunktionen und deren effektive Schulung mithilfe des Backpropagation-Algorithmus. Die letzten Kapitel stellen einige der am häufigsten verwendeten Optimierungsalgorithmen im Deep Learning vor (SGD, Adam) sowie einige der gängigsten Regularisierungstechniken, die bei Deep-Learning-Modellen zur Verbesserung der Generalisierung angewendet werden (z. B. L2-Regularisierung, Dropout).
Welche Themen werden behandelt?
- Einführung in MLPs
- Einführung in den Backpropagation-Algorithmus
- Einführung in die Optimierung von Gewichten in neuronalen Netzen
- Einführung in Regularisierungstechniken im Deep Learning
Was werde ich erreichen?
Nach Abschluss des Kurses werden Sie in der Lage sein:
- zu erklären, wie die Hauptkomponenten von neuronalen Netzen und deren Trainingsabläufe funktionieren (MLPs, Aktivierungsfunktionen, Verlustfunktionen, Backpropagation).
- zu beschreiben, wie sich Lernen von Optimierung unterscheidet und wie die Gewichte von neuronalen Netzen optimiert werden.
- zu erklären, wie die gängigsten Optimierungsalgorithmen funktionieren (z. B. SGD, Adam, AdamW).
- verschiedene Regularisierungstechniken zu beschreiben und einige für das Deep Learning spezifische Regularisierungsmethoden zu erklären (z. B. Early Stopping, Datenaugmentation, Dropout).
Welche Voraussetzungen muss ich erfüllen?
- Gute Kenntnisse in linearer Algebra
- Gute Kenntnisse in Wahrscheinlichkeitstheorie
- Gute Kenntnisse im maschinellen Lernen