LLM (Large Language Model) — Große Sprachmodelle erklärt
Ein LLM ist ein KI-Modell mit Milliarden Parametern, das menschliche Sprache versteht und generiert.
Was ist ein Large Language Model?
Ein Large Language Model (LLM) — auf Deutsch großes Sprachmodell — ist ein KI-System, das auf riesigen Mengen an Textdaten trainiert wurde und dadurch menschliche Sprache verstehen und generieren kann. Es kann Texte schreiben, Fragen beantworten, Code erstellen, übersetzen und vieles mehr.
Warum heißt es „Large"?
Das „Large" bezieht sich auf die Anzahl der Parameter — das sind die einstellbaren Werte im neuronalen Netzwerk, die beim Training gelernt werden. Moderne LLMs haben Milliarden davon. GPT-3 hatte 175 Milliarden Parameter, neuere Modelle wie GPT-4 oder Claude vermutlich noch deutlich mehr. Je mehr Parameter, desto mehr Muster und Zusammenhänge kann das Modell aus den Trainingsdaten lernen.
Wie wird ein LLM trainiert?
Das Training läuft vereinfacht in zwei Phasen ab. Beim Pre-Training liest das Modell riesige Textmengen aus dem Internet, Büchern und anderen Quellen. Es lernt dabei Sprachmuster, Fakten und logische Zusammenhänge. Beim anschließenden Fine-Tuning wird das Modell mit menschlichem Feedback verfeinert, damit es hilfreiche, sichere und genaue Antworten gibt. Diesen Prozess nennt man RLHF (Reinforcement Learning from Human Feedback).
Bekannte LLMs im Überblick
- Claude (Anthropic) — bekannt für lange Kontextfenster und sorgfältige Antworten
- GPT-4 / GPT-4o (OpenAI) — weit verbreitet, multimodal (Text und Bild)
- Gemini (Google) — tief in Google-Produkte integriert
- Llama (Meta) — Open-Source-Modell, das jeder herunterladen und anpassen kann
Was bedeutet das für Vibe Coding?
LLMs sind das Herzstück von Vibe Coding. Wenn du in Claude Code oder Cursor einen Prompt eingibst, verarbeitet ein LLM deine Anweisung und generiert den Code. Je besser du verstehst, wie LLMs funktionieren — und wo ihre Grenzen liegen —, desto effektiver kannst du mit ihnen arbeiten. Sie sind keine allwissenden Systeme, sondern statistische Modelle, die sehr gute Vorhersagen treffen.
Verwandte Artikel
Token — Die kleinste Einheit der KI-Textverarbeitung
Ein Token ist das kleinste Textstück, das ein LLM verarbeitet. API-Kosten werden in Tokens berechnet.
Context Window — Das Gedächtnis eines KI-Modells
Das Context Window bestimmt, wie viel Text ein LLM gleichzeitig verarbeiten kann, gemessen in Tokens.
Halluzination — Wenn KI überzeugende Falschinformationen erzeugt
Eine KI-Halluzination entsteht, wenn ein LLM überzeugend klingende aber faktisch falsche Informationen generiert.