Zum Inhalt springen
AI Agent Security
Kontakt
Menü
Maximilian Stock

Autorenprofil

Maximilian Stock

Experte für AI Agents

Fokus auf agentische Systemarchitektur, Trust Boundaries, Policy Enforcement und sichere Laufzeitkontrollen für produktive KI-Agenten.

Maximilian Stock analysiert AI Agent Security mit Schwerpunkt auf Architektur, Delegation, Tool-Sicherheit und operativer Kontrollierbarkeit von KI-Agenten. Auf ai-agent-security.com verantwortet er einen Großteil der tiefgehenden Threat-Analysen und Insights.

Agentische SystemarchitekturPolicy EnforcementTrust BoundariesTool- und IntegrationssicherheitRuntime Controls

Beiträge

Beiträge von Maximilian Stock auf AI Agent Security

Diese Inhalte zeigen, welche Themen die fachliche Perspektive der Autorenseite auf der Plattform konkret prägen.

Threats

Threat-Analysen

Aktualisiert 08.04.2026

Prompt Injection

Prompt Injection bei KI-Agenten beschreibt direkte und indirekte Manipulation über Prompts, Dokumente, Webseiten oder Tool-Outputs und zeigt Risiken, Detection und konkrete Schutzmaßnahmen.

Aktualisiert 29.03.2026

Agentic Supply Chain Vulnerabilities

Agentic Supply Chain Vulnerabilities beschreiben Supply-Chain-Schwachstellen bei KI-Agenten, wenn Plugins, Connectoren, MCP-Server, Tool-Schemas oder andere Drittkomponenten den vertrauenswürdigen Ausführungspfad manipulieren.

29.03.2026

Cascading Failures

Cascading Failures bei KI-Agenten entstehen, wenn ein lokaler Fehler, manipulierte Kontextdaten oder ein falscher Handoff über Agenten, Tools und Workflows hinweg zu systemischem Schaden eskalieren.

Aktualisiert 29.03.2026

Identity and Privilege Abuse

Identity and Privilege Abuse bei KI-Agenten beschreibt den Missbrauch von Agentenidentitäten, Tokens, Delegation und Berechtigungen. Die Seite erklärt, wie Privilegmissbrauch in agentischen Systemen entsteht, wie du ihn erkennst und welche Kontrollen ihn wirksam begrenzen.

Aktualisiert 29.03.2026

Insecure Inter-Agent Communication

Insecure Inter-Agent Communication beschreibt unsichere Kommunikation zwischen KI-Agenten, wenn Nachrichten, Agent Cards, Artefakte oder delegierte Aufgaben ohne belastbare Prüfung von Identität, Integrität und Autorisierung akzeptiert werden. Die Seite erklärt Risiken, Detection und konkrete Gegenmassnahmen für Multi-Agent-Systeme.

29.03.2026

Tool Misuse und Exploitation

Tool Misuse und Exploitation bei KI-Agenten bedeutet, dass legitime Tools, APIs oder MCP-Integrationen für unsichere, unautorisierte oder fachlich falsche Aktionen genutzt werden. Die Seite erklärt Ursachen, typische Angriffspfade, Detection und konkrete Schutzmassnahmen.

Insights

Insights und Einordnungen

Aktualisiert 31.03.2026

Agent Identity und Delegation

Agent Identity und Delegation definieren, mit welcher Non-Human Identity ein KI-Agent handelt, wie Nutzerkontext gebunden bleibt und wie Delegationsketten über Tools, MCP-Server und Multi-Agent-Systeme kontrollierbar bleiben.

Aktualisiert 31.03.2026

Agent Memory Architecture

Agent Memory Architecture trennt Prompt, Session State, Retrieval und Long-Term Memory sauber nach Vertrauen, Autorisierung und Lebensdauer. Das reduziert Memory Poisoning, Context Drift und unsichere Wiederverwendung bei KI-Agenten.

Aktualisiert 31.03.2026

AI Agent Security Architecture

Eine AI Agent Security Architecture ordnet Modelle, Prompts, Memory, Tool-Calls, Identitäten, Guardrails, Policy Enforcement und Observability zu einem belastbaren Sicherheitsstack für agentische Systeme.

Aktualisiert 31.03.2026

MCP Security und Tool Trust Boundaries

MCP Security beschreibt, wie KI-Agenten externe MCP-Server, APIs und Tools nur innerhalb klarer Vertrauensgrenzen nutzen. Entscheidend sind Consent, Scopes, Provenance, Isolation, Revocation und Observability.

29.03.2026

Agent Security Ownership Model

Das Agent Security Ownership Model verteilt Verantwortung für Architektur, Freigaben, Betrieb und Incident Response in agentischen Systemen klar über mehrere Teams.

29.03.2026

Runtime Guardrails vs. Policy Enforcement

Runtime Guardrails und Policy Enforcement erfüllen unterschiedliche Aufgaben: Die einen steuern Verhalten zur Laufzeit, die anderen erzwingen verbindliche Sicherheitsgrenzen.

Best Practices

Best-Practice-Leitfäden

Aktualisiert 29.03.2026

Supply-Chain- und Third-Party-Tool-Security für KI-Agenten

Supply-Chain- und Third-Party-Tool-Security für KI-Agenten schützt externe Tools, MCP-Server, Plugins, APIs und Dependencies über Inventar, Provenance, minimale Scopes, Isolation und Revocation. So reduzierst du Datenabfluss, kompromittierte Integrationen und unsichere Laufzeitpfade.