AI Agent — Autonome KI-Systeme die selbstständig handeln
Ein AI Agent ist ein KI-System, das eigenständig Aufgaben plant, Tools nutzt und Entscheidungen trifft.
Die wichtigsten Begriffe rund um Vibe Coding und KI-gestütztes Programmieren — einfach erklärt.
Ein AI Agent ist ein KI-System, das eigenständig Aufgaben plant, Tools nutzt und Entscheidungen trifft.
Ein API Key ist ein geheimer Schlüssel, mit dem du dich bei KI-Diensten wie OpenAI oder Anthropic authentifizierst.
Chain of Thought ist eine Prompting-Technik, bei der das LLM Schritt für Schritt denkt, bevor es eine Antwort gibt.
Claude Code ist Anthropics CLI-Tool, mit dem du direkt im Terminal KI-gestützt programmieren, Befehle ausführen und Code erstellen kannst.
Das Context Window bestimmt, wie viel Text ein LLM gleichzeitig verarbeiten kann, gemessen in Tokens.
Cursor ist ein KI-gestützter Code-Editor auf VS-Code-Basis mit integriertem Chat, Autocomplete und Agent Mode.
Ein Embedding wandelt Text in einen Zahlenvektor um, sodass ähnliche Bedeutungen mathematisch nahe beieinander liegen.
Few-Shot Prompting ist eine Technik, bei der du dem LLM Beispiele im Prompt gibst, damit es das gewünschte Muster erkennt.
Fine-Tuning bedeutet, ein vortrainiertes LLM mit eigenen Daten weiterzutrainieren, um es für spezielle Aufgaben zu optimieren.
Eine KI-Halluzination entsteht, wenn ein LLM überzeugend klingende aber faktisch falsche Informationen generiert.
Inference ist der Prozess, bei dem ein trainiertes LLM eine Eingabe verarbeitet und eine Antwort generiert.
Ein LLM ist ein KI-Modell mit Milliarden Parametern, das menschliche Sprache versteht und generiert.
MCP ist ein offener Standard von Anthropic, der KI-Modellen standardisierten Zugriff auf externe Tools und Daten gibt.
Open-Source-Modelle sind LLMs mit öffentlich verfügbaren Gewichten, die du lokal betreiben und frei nutzen kannst.
Prompt Engineering ist die Technik, Anweisungen so zu formulieren, dass KI-Modelle das gewünschte Ergebnis liefern.
RAG ist eine Technik, bei der ein LLM eigene Dokumente durchsucht, bevor es antwortet, um Halluzinationen zu reduzieren.
Ein System Prompt ist eine versteckte Anweisung, die das Verhalten, die Rolle und die Regeln eines LLMs definiert.
Temperature ist ein Parameter, der steuert, wie kreativ oder vorhersagbar die Antworten eines LLMs ausfallen.
Ein Token ist das kleinste Textstück, das ein LLM verarbeitet. API-Kosten werden in Tokens berechnet.
Vibe Coding ist ein Programmieransatz, bei dem du der KI beschreibst, was du willst, und sie den Code schreibt.