Zum Inhalt springen
AI Agent Security
Kontakt
Menü
Mika Schmidt

Autorenprofil

Mika Schmidt

Experte für AI Agent Security

Pragmatische Security für AI-Agenten und wachsende Teams, mit Fokus auf Identitäten, Tool-Zugriffe, Incident Response und belastbare Sicherheitsprozesse.

Mika Schmidt ist IT-Security Experte und Gründer von Six Eight Consulting. Er unterstützt Startups und KMU dabei, Sicherheitsstrukturen für moderne IT- und AI-Agent-Umgebungen aufzubauen, die das Geschäft schützen, ohne operative Geschwindigkeit unnötig zu bremsen.

AI Agent SecurityIdentity & Access ManagementTool- und BerechtigungsgrenzenSIEM & Detection

Beiträge

Beiträge von Mika Schmidt auf AI Agent Security

Diese Inhalte zeigen, welche Themen die fachliche Perspektive der Autorenseite auf der Plattform konkret prägen.

Threats

Threat-Analysen

Aktualisiert 08.04.2026

Agent Goal Hijacking

Agent Goal Hijacking beschreibt einen Angriff auf die Zielintegrität eines KI-Agenten. Dabei wird nicht nur eine einzelne Antwort manipuliert. Stattdessen verschieben sich Ziele, Prioritäten oder Erfolgskriterien des Agenten so, dass er zwar weiterhin plausibel wirkt, aber bereits auf ein fremdes oder unerlaubtes Ziel hinarbeitet. In der OWASP Top 10 for Agentic Applications wird dieses Risiko als <a href='https://genai.owasp.org/resource/owasp-top-10-for-agentic-applications-for-2026/'>ASI01: Agent Goal Hijack</a> geführt.

Aktualisiert 29.03.2026

Human-Agent Trust Exploitation

Human-Agent Trust Exploitation beschreibt, wie KI-Agenten durch Autorität, plausible Erklärungen oder anthropomorphe Interaktion Menschen zu riskanten Freigaben, Offenlegungen oder Fehlentscheidungen verleiten. Die Seite erklärt Abgrenzung, Detection und konkrete Gegenmassnahmen.

29.03.2026

Memory and Context Poisoning

Memory and Context Poisoning bei KI-Agenten beschreibt, wie falsche oder manipulative Inhalte in Arbeitskontext, Session-Summaries oder Langzeit-Memory gelangen und spätere Antworten, Entscheidungen und Tool-Aktionen beeinflussen. Die Seite erklärt Definition, Abgrenzung, Detection und konkrete Gegenmassnahmen.

Aktualisiert 29.03.2026

Rogue Agents

Rogue Agents bei KI-Agenten sind Agenten, die ausserhalb ihres autorisierten Ziels, ihrer Rolle oder ihres Berechtigungsrahmens handeln. Die Seite erklärt, wie rogue Verhalten entsteht, woran Unternehmen es erkennen und welche Kontrollen den Schaden wirksam begrenzen.

29.03.2026

Unexpected Code Execution

Unexpected Code Execution bei KI-Agenten bedeutet, dass ein Agent unerwartet Shell-Befehle, Skripte oder generierten Code ausführt. Die Seite erklärt Ursachen, Unterschiede zu Prompt Injection und Tool Misuse sowie konkrete Prevention- und Detection-Massnahmen.

News

News und Updates

08.04.2026

Anthropic Claude Mythos: Zero-Days und AI Agent Security

Anthropic startet Project Glasswing mit Claude Mythos Preview. Wir ordnen Zero-Day-Funde, Threats und Best Practices für AI Agent Security ein.

07.04.2026

Flowise unter aktiver Ausnutzung: Kritische RCE-Lücke CVE-2025-59528 bedroht über 12.000 Instanzen

Die Flowise-Schwachstelle CVE-2025-59528 wird aktiv ausgenutzt. Warum die kritische RCE-Lücke im CustomMCP-Node für AI-Agent-Umgebungen besonders riskant ist.