KI Wissensdatenbank 2026

KI Glossar 2026

Präzise Definitionen für die Ära von Agentic AI und Spatial Intelligence.

Agentic Business

AI Coding Agents (KI-Codieragenten)

AI Coding Agents sind autonome oder semi-autonome KI-Systeme, die Softwareentwicklungsaufgaben eigenständig oder in Zusammenarbeit mit menschlichen Entwicklern durchführen. Im Gegensatz zu herkömmlichen Code-Completion-Tools wie IntelliSense agieren diese Agenten auf höherer Abstraktionsebene: Sie analysieren Anforderungen, planen Implementierungsschritte, schreiben Code, führen Tests durch und iterieren basierend auf Feedback. Beispiele umfassen Claude Code von Anthropic, Cursor mit integriertem KI-Assistenten, und OpenAIs Codex. Diese Systeme kombinieren große Sprachmodelle mit Werkzeugaufrufen (Tool Calling), Dateizugriff, Terminal-Befehlen und manchmal Browser-Automatisierung, um komplexe Entwicklungsaufgaben zu bewältigen. Der entscheidende Unterschied zu passiven Assistenzsystemen liegt in der Agenten-Architektur: Sie führen eine eigene Schleife aus (Agent Loop), in der sie planen, handeln, Ergebnisse beobachten und ihre Strategie anpassen – ähnlich einem menschlichen Entwickler im Miniaturformat.

Konzept entdecken
Reasoning & Verlässlichkeit

Foundation Model (Basismodell)

Ein Foundation Model ist ein großes KI-Modell, das auf enormen Mengen unstrukturierter Daten vortrainiert wurde und als universelle Basis für eine Vielzahl von Downstream-Aufgaben dient. Der Begriff wurde 2021 von der Stanford University geprägt und beschreibt Modelle wie GPT-4, Claude oder Gemini, die durch ihre schiere Größe und das breite Vortraining emergente Fähigkeiten entwickeln – also Kompetenzen, die nicht explizit trainiert wurden, sondern aus der Skalierung entstehen. Foundation Models werden typischerweise einmal mit enormem Rechenaufwand trainiert und können anschließend durch Fine-Tuning, Prompt Engineering oder Retrieval-Augmented Generation (RAG) für spezifische Anwendungsfälle angepasst werden. Sie bilden heute die Grundlage für KI-Assistenten, Code-Generatoren, Bilderkennungssysteme und multimodale Anwendungen. Die Stärke liegt in der Übertragbarkeit: Ein einziges Basismodell kann mit vergleichsweise geringem Aufwand für Kundenservice, Dokumentenanalyse, Softwareentwicklung oder medizinische Diagnose eingesetzt werden.

Konzept entdecken
Reasoning & Verlässlichkeit

Frontier Model (KI-Grenzmodell)

Ein Frontier Model bezeichnet ein KI-Modell, das an der absoluten Leistungsgrenze des technisch Machbaren operiert – also die fortschrittlichsten und leistungsstärksten Systeme, die derzeit entwickelt werden. Zu den bekanntesten Frontier Models zählen GPT-5, Claude Opus 4.6, Gemini Ultra und vergleichbare Großmodelle, die von führenden KI-Laboren wie Anthropic, OpenAI oder Google DeepMind trainiert werden. Im Gegensatz zu spezialisierten oder kleineren Modellen zeichnen sich Frontier Models durch ihre außergewöhnliche Breite und Tiefe aus: Sie können komplexe Textanalysen, Codeentwicklung, wissenschaftliche Argumentation und multimodale Aufgaben auf menschlichem oder übermenschlichem Niveau bewältigen. Diese Modelle werden typischerweise mit enormen Rechenressourcen trainiert und schieben die Grenze des KI-Möglichen kontinuierlich vor – daher der Begriff 'Frontier'. Für Unternehmen sind Frontier Models besonders relevant, weil sie die Basis für agentenbasierte Anwendungen, autonome Coding-Assistenten und komplexe Entscheidungssysteme bilden. Der Zugang erfolgt in der Regel über APIs oder Cloud-Dienste, da das Training solcher Modelle Milliarden von Dollar erfordert. Regulatorische Rahmwerke wie der EU AI Act stufen Frontier Models oft als Hochrisikomodelle ein und verlangen entsprechende Transparenz- und Sicherheitsnachweise.

Konzept entdecken
Reasoning & Verlässlichkeit

Large Language Model (LLM)

Ein Large Language Model (LLM) ist ein neuronales Netzwerk mit Milliarden von Parametern, das auf riesigen Textmengen trainiert wurde, um menschliche Sprache zu verstehen und zu generieren. LLMs bilden die Grundlage moderner KI-Anwendungen — von Chatbots und Code-Assistenten bis hin zu komplexen Analysewerkzeugen. Die Architektur basiert auf dem Transformer-Modell, das 2017 von Google Research vorgestellt wurde. Durch Self-Attention-Mechanismen können LLMs Zusammenhänge über lange Textpassagen hinweg erfassen und kontextbezogene Antworten generieren. Bekannte Beispiele sind GPT-4 von OpenAI, Claude von Anthropic und Gemini von Google. Der Trainingsprozess umfasst zwei Hauptphasen: Pre-Training auf großen, unstrukturierten Datensätzen (Bücher, Webseiten, Code) und anschließendes Fine-Tuning für spezifische Aufgaben. Techniken wie Reinforcement Learning from Human Feedback (RLHF) verbessern die Qualität und Sicherheit der Ausgaben zusätzlich. Für Unternehmen sind LLMs relevant, weil sie Aufgaben automatisieren können, die bisher menschliche Sprachkompetenz erforderten: Texterstellung, Zusammenfassungen, Übersetzungen, Code-Generierung und Datenanalyse. Die Wahl des richtigen Modells hängt von Faktoren wie Kontextfenstergröße, Latenz, Kosten und Datenschutzanforderungen ab. Wichtig zu verstehen: LLMs sind probabilistische Systeme. Sie generieren statistisch wahrscheinliche Textfortsetzungen, nicht faktisch verifizierte Aussagen. Dies macht Strategien wie Retrieval Augmented Generation (RAG) und robuste Evaluierungsprozesse unverzichtbar für den produktiven Einsatz.

Konzept entdecken
Inference & Engineering

LLM Orchestration

LLM Orchestration bezeichnet die koordinierte Verwaltung und Steuerung mehrerer großer Sprachmodelle (Large Language Models, LLMs) innerhalb eines KI-Systems. Dabei werden verschiedene Modelle für spezifische Aufgaben ausgewählt, ihre Ausführung sequenziert oder parallelisiert und deren Outputs intelligent kombiniert. Orchestration umfasst auch das Management von Modellwechseln basierend auf Kosten, Latenz oder Spezialisierung, das Handling von Fallbacks bei Modellausfällen sowie die Kontextverwaltung zwischen verschiedenen Modellaufrufen. Moderne LLM-Orchestration-Plattformen ermöglichen es Entwicklern, komplexe KI-Workflows zu bauen, die unterschiedliche Modelle für Reasoning, Code-Generierung, Translation oder spezialisierte Fachdomäne nutzen, während sie konsistente Qualität und Performance sicherstellen.

Konzept entdecken
Agentic Infrastructure

Observability (KI-Systeme)

LLM-Observability bezeichnet die systematische Überwachung, Nachverfolgung und Analyse von KI-Systemen und Sprachmodellen in der Produktion. Im Gegensatz zur klassischen Software-Observability (Logs, Metriken, Traces) adressiert LLM-Observability die spezifischen Herausforderungen von generativer KI: nichtdeterministisches Verhalten, komplexe Prompt-Ketten, Tool-Calls und Kosten pro Anfrage. Zu den Kernkomponenten gehören: LLM-Tracing (vollständige Nachverfolgung von Prompts, Antworten und Metadaten je Request mit Tokens, Latenz und Modell), Tool-Monitoring (bei Agentensystemen wie Model Context Protocol wird jeder Tool-Call mit Ein- und Ausgabe protokolliert), Kostenverfolgung (Token-Verbrauch und API-Kosten werden pro Request, User oder Feature aggregiert), Qualitätsbewertung (automatische oder manuelle Bewertung von Antwortqualität, Halluzinationsrate und Prompt-Adherence) sowie Alerting (Schwellenwerte für Latenz, Fehlerrate oder Kostenspitzen lösen Benachrichtigungen aus). Tools wie Langfuse aus Berlin oder Honeycomb haben sich als Standard für produktive LLM-Observability etabliert. Ohne Observability ist es unmöglich, Qualitätsprobleme, Sicherheitsvorfälle wie Prompt-Injection-Angriffe oder Kostentreiber in KI-Systemen zu identifizieren und zu beheben.

Konzept entdecken
Vertrauen & Souveränität

SQL-Injection

SQL-Injection ist eine Code-Injection-Angriffstechnik, bei der ein Angreifer bösartigen SQL-Code in Eingabefelder oder Query-Parameter einer Anwendung einschleust oder manipuliert, sodass die Datenbank der Anwendung unbeabsichtigte Befehle ausführt. SQL-Injection zählt zu den häufigsten und gefährlichsten Web-Anwendungsschwachstellen und erscheint regelmäßig in den OWASP Top 10 Sicherheitsrisiken. Ein erfolgreicher SQL-Injection-Angriff kann unautorisiertes Datenabruf, Umgehung der Authentifizierung, Datenänderung oder -löschung und in schwerwiegenden Fällen vollständige Kompromittierung des Datenbankservers ermöglichen. Der Angriff nutzt Anwendungen aus, die SQL-Abfragen durch Verkettung benutzerseitig eingegebener Daten ohne ordnungsgemäße Bereinigung oder parametrisierte Abfragen erstellen. Das Einschleusen von ' OR '1'='1 in ein Login-Feld kann beispielsweise die Passwortprüfung umgehen, wenn die Abfrage per String-Verkettung aufgebaut wird. SQL-Injection-Schwachstellen betreffen Anwendungen, die auf MySQL, PostgreSQL, Microsoft SQL Server, SQLite und Oracle basieren. Gegenmaßnahmen umfassen vorbereitete Statements mit parametrisierten Abfragen, Eingabevalidierung, gespeicherte Prozeduren, das Prinzip des minimalen Datenbankprivilegs und Web Application Firewalls (WAF). Moderne KI-gestützte Code-Review-Tools auf Basis von Anthropics Claude und OpenAIs GPT-4 können SQL-Injection-Muster automatisch während des Code-Reviews erkennen. Bei Context Studios wenden wir KI-gestützte Sicherheitsscans — einschließlich Claude Code Sicherheitsanalyse — an, um SQL-Injection-Schwachstellen in Kunden-Codebasen als Teil unseres KI-Sicherheitsreview-Services zu identifizieren und zu beheben.

Konzept entdecken
Inference & Engineering

SWE-bench

SWE-bench ist ein standardisierter Benchmark zur Bewertung der Fähigkeit von KI-Systemen, reale Software-Engineering-Aufgaben zu lösen. Der Benchmark besteht aus über 2.000 echten GitHub-Issues aus populären Open-Source-Projekten wie Django, Flask und scikit-learn. Jede Aufgabe enthält eine Problembeschreibung, den zugehörigen Quellcode und automatisierte Tests zur Überprüfung der Lösung. KI-Modelle müssen den Code analysieren, die Ursache des Problems identifizieren und einen funktionierenden Patch generieren — genau wie ein menschlicher Entwickler. SWE-bench hat sich als der wichtigste Maßstab für KI-Coding-Agenten etabliert. Aktuelle Spitzenwerte liegen bei über 80 Prozent (Claude Opus 4.6 erreicht 80,8%), was zeigt, dass KI-Agenten zunehmend in der Lage sind, komplexe Softwareprobleme eigenständig zu lösen. Varianten wie SWE-bench Verified verwenden menschlich validierte Teilmengen für noch zuverlässigere Ergebnisse.

Konzept entdecken
Agentic Infrastructure

Third-party Harness (Drittanbieter-Harness)

Ein Third-party Harness (Drittanbieter-Harness) ist eine Softwarearchitektur, die es externen Entwicklern ermöglicht, KI-Modelle über offizielle APIs oder autorisierte Schnittstellen hinaus zu nutzen und zu erweitern. Der Begriff bezeichnet Frameworks, die als Vermittler zwischen KI-Modellen (wie Claude, GPT oder Gemini) und Endanwendern agieren und dabei zusätzliche Funktionen wie Multi-Modell-Orchestrierung, erweiterte Tool-Integration oder benutzerdefinierte Workflows bereitstellen. Ein bekanntes Beispiel ist OpenClaw, ein Open-Source-Harness, der Anthropics Claude-Modell mit erweiterten Funktionen ausstattet, darunter Hintergrundprozesse, Cron-Jobs und Integration mit externen Tools. Harnesses unterscheiden sich von offiziellen APIs dadurch, dass sie oft Abonnement-basierten Zugang (nicht API-basiert) nutzen und damit kostengünstigere Alternativen für Entwickler bieten, die experimentelle oder produktionsreife KI-Anwendungen bauen möchten. Die Nutzung von Third-party Harnesses wirft wichtige Fragen zur langfristigen Stabilität auf: Anbieter wie Anthropic können den Zugang zu Abonnements jederzeit einschränken, was zu plötzlichen Betriebsunterbrechungen führt. Unternehmen sollten daher Harnesses nur für nicht-kritische Workflows einsetzen oder auf offizielle API-Verträge mit SLA-Garantien migrieren, sobald sie Produktionsreife erreichen.

Konzept entdecken
Agentic Business

Tool Calling (Werkzeugaufruf)

Tool Calling bezeichnet die Fähigkeit von KI-Sprachmodellen, externe Funktionen, APIs oder Dienste gezielt aufzurufen, um Aufgaben zu erfüllen, die über reine Textgenerierung hinausgehen. Statt nur auf trainierten Wissen zu antworten, kann ein Modell mit Tool Calling aktiv auf Echtzeitdaten zugreifen, Code ausführen, Berechnungen durchführen oder externe Systeme steuern. Der Mechanismus funktioniert so: Das Modell empfängt eine Liste verfügbarer Tools mit Beschreibung und Parameter-Schema. Bei Bedarf gibt es einen strukturierten Aufruf zurück, den das Host-System ausführt und dessen Ergebnis an das Modell zurücksendet. Das Modell verarbeitet die Antwort und kann weitere Tools aufrufen oder die finale Antwort generieren. Tool Calling ist eine Grundvoraussetzung für echte KI-Agenten: Erst durch diese Fähigkeit können Modelle mit der Außenwelt interagieren, Workflows automatisieren und komplexe Multi-Step-Aufgaben eigenständig lösen. Moderne Frameworks wie Model Context Protocol (MCP) standardisieren, wie Tools registriert und aufgerufen werden, und machen es einfacher, KI-Systeme mit bestehender Unternehmensinfrastruktur zu verbinden.

Konzept entdecken
Reasoning & Verlässlichkeit

Xcode

Xcode ist Apples offizielle integrierte Entwicklungsumgebung (IDE) für die Softwareentwicklung auf Apple-Plattformen, einschließlich iOS, macOS, watchOS, tvOS und visionOS. Erstmals 2003 veröffentlicht, bietet Xcode eine umfassende Sammlung von Entwicklungswerkzeugen: einen Code-Editor mit Syntax-Highlighting und Autovervollständigung, einen visuellen Interface-Designer (Interface Builder), ein Build-System, einen Debugger, Performance-Profiling-Tools (Instruments) und einen Simulator zum Testen von Apps auf verschiedenen Apple-Gerätetypen ohne physische Hardware. Xcode verwendet Swift als primäre Programmiersprache – Apples moderne, typsichere Sprache, die 2014 eingeführt wurde – und unterstützt weiterhin Objective-C für Legacy-Codebasen. Entwickler verteilen iOS- und macOS-Anwendungen ausschließlich über Xcodes Integration mit Apples App-Store-Signierung und -Einreichungspipeline. Im Jahr 2025 erweiterte Apple Xcodes KI-Fähigkeiten erheblich und führte agentische Coding-Funktionen ein, die von Large Language Models angetrieben werden und es Xcode ermöglichen, Code autonom zu schreiben, zu refaktorieren und zu testen – vergleichbar mit Anthropics Claude Code und dem Agent-Modus von GitHub Copilot. Dies machte Xcode zu einem wettbewerbsfähigen Akteur im agentischen Coding-Bereich. Xcodes enge Integration mit Apple-Silicon-Optimierung, SwiftUI und dem Apple Developer Program macht es für jedes Team, das native Apple-Plattform-Anwendungen entwickelt, unverzichtbar. Bei Context Studios nutzen wir Xcode mit seinen KI-Funktionen für iOS-Anwendungsentwicklung und haben seine agentischen Fähigkeiten gegenüber GitHub Copilot und Claude Code für mobile Kundenprojekte bewertet.

Konzept entdecken
Ökonomie & Skalierung

Claude Partner Network

Das Claude Partner Network ist Anthropics offizielles Partnerprogramm fuer Unternehmen und Agenturen, die Claude-basierte KI-Loesungen entwickeln, implementieren und vermarkten. Partner erhalten Zugang zu exklusiven Ressourcen, technischem Support, Go-to-Market-Unterstuetzung und in einigen Faellen bevorzugten API-Konditionen. Das Netzwerk ist in Tiers organisiert, die typischerweise nach Umsatz, Kompetenz und strategischer Ausrichtung differenziert werden: Technologie-Partner (die Claude in ihre eigenen Produkte integrieren), Service-Partner (die Claude-Implementierungen fuer Endkunden durchfuehren), und strategische Partner (tiefe technische Integration und gemeinsame Go-to-Market-Aktivitaeten). Vorteile der Partnerschaft umfassen: fruehzeitigen Zugang zu neuen Modellversionen und Beta-Features, Co-Marketing-Moeglichkeiten auf Anthropics Website und Events, technische Unterstuetzung fuer Implementierungsfragen, und in manchen Faellen guenstigere API-Preiskonditionen ab bestimmten Volumensschwellen. Das Claude Partner Network spiegelt Anthropics Strategie wider, ein Oekosystem von spezialisierten Implementierungspartnern aufzubauen, aehnlich wie Salesforce, Workday oder SAP ihre Partner-Oekosysteme entwickelt haben. Fuer AI-native Agenturen wie Context Studios sind solche Partnerschaften wichtige strategische Positionierungen.

Konzept entdecken