Transformer-basierte Large Language Models verstehen
Dieser Kurs vermittelt ein konzeptionelles Verständnis moderner Large Language Models. Im Zentrum steht die Transformer-Architektur mit ihren wichtigsten Bausteinen wie Attention und Positional Encoding. Mit diesem Wissen blickst du hinter die Kulissen aktueller Modelle von OpenAI und DeepSeek und verstehst, wie sie funktionieren.
Überblick
Large Language Models prägen heute viele KI-Anwendungen, von integrierten Chatbots bis zu KI-Agenten. Doch wie funktionieren diese Systeme eigentlich?
In diesem Onlinekurs erhältst du eine verständliche Einführung in die Grundlagen moderner Sprachmodelle. Im Mittelpunkt steht die Transformer-Architektur, die die Basis heutiger Large Language Models bildet. Du lernst zentrale Konzepte wie Attention, Positional Encoding und den modularen Aufbau der Architektur kennen.
Der Kurs legt den Schwerpunkt auf ein klares konzeptionelles Verständnis und verzichtet bewusst auf Programmierung und komplexe mathematische Herleitungen. Die wichtigsten Ideen werden Schritt für Schritt und anhand anschaulicher Beispiele erklärt.
Auf dieser Grundlage schauen wir uns anschließend aktuelle Modelle von OpenAI und DeepSeek an und betrachten, wie sie aufgebaut sind, wie sie sich in den letzten Jahren entwickelt haben und wodurch sie sich unterscheiden.
Welche Inhalte erwarten mich?
- Grundlagen moderner Large Language Models und ihre Rolle in aktuellen KI-Anwendungen
- Aufbau und Funktionsweise der Transformer-Architektur
- Aufbau und Entwicklung moderner Modellfamilien wie GPT und DeepSeek
Was werde ich erreichen?
Am Ende des Kurses werden die Teilnehmenden in der Lage sein:
- zu erklären, wie Large Language Models funktionieren und wofür sie eingesetzt werden.
- die zentralen Bausteine der Transformer-Architektur zu beschreiben.
- die Entwicklung und den Aufbau aktueller Modellfamilien wie GPT oder DeepSeek nachzuvollziehen.
- verschiedene LLM-Architekturen anhand grundlegender Kriterien zu vergleichen.
Welche Voraussetzungen benötige ich?
Ein grundlegendes Verständnis von neuronalen Netzen oder ein Einstiegskurs zu Themen wie Tokenisierung, Embeddings oder Chatbots ist hilfreich, aber nicht erforderlich.
Das zugrunde liegende Vorhaben wurde mit Mitteln des Bundesministeriums für Forschung, Technologie und Raumfahrt unter dem Förderkennzeichen »KI-Servicezentrum Berlin-Brandenburg« 16IS22092 gefördert. Die Verantwortung für den Inhalt dieser Seite liegt beim Autor.