AI-Bots steuern inzwischen bis zu 80% des Krypto-Handelsvolumens, aber über 45 Millionen Dollar an Sicherheitsverletzungen offenbaren kritische Schwachstellen. ERC-8004, KYA und Wallet-Sicherheitsmechanismen zielen darauf ab, die nächste Phase autonomer DeFi-Anwendungen abzusichern.

Marcus Webb
DeFi-Forschungsleiter

KI-gestützte Bots führen heute schätzungsweise 65-80% des gesamten Krypto-Handelsvolumens aus und verwalten Milliarden an DeFi-Positionen. Doch im Januar 2026 nutzten Angreifer Schwachstellen in der Agent-Infrastruktur aus und erbeuteten über 45 Millionen Dollar - ein Beweis dafür, dass die Technologie ihren Sicherheitsvorkehrungen vorausgeeilt ist. Das Rennen um sicherere AI-Agent-Infrastruktur hat begonnen.
Die Krypto-Industrie hat AI-Agents in atemberaubendem Tempo übernommen. Über 162.000 Agents sind On-Chain registriert, Coinbases x402-Protokoll hat 75 Millionen Machine-to-Machine-Transaktionen abgewickelt, und Gartner prognostiziert, dass bis Ende 2026 40% der Unternehmensanwendungen AI-Agents beinhalten werden. Doch diese rasante Einführung hat eine wachsende Angriffsfläche geschaffen, die böswillige Akteure bereits ausnutzen.
Bevor wir untersuchen, was schiefgehen kann, lohnt es sich zu verstehen, wie tief AI-Agents sich in Krypto-Märkten verankert haben.
Automatisierte Trading-Bots, zunehmend durch AI gesteuert, machen schätzungsweise 65-80% des gesamten Krypto-Handelsvolumens im Jahr 2026 aus. Auf Solanas dezentralen Börsen machen AI-gesteuerte Arbitrage-Bots laut Jupiter- und Jito-Erkennungsdaten 40-50% des gesamten Volumens aus.
Über 162.000 Agents sind inzwischen On-Chain registriert, um komplexe Transaktionen zu verwalten - von Yield-Optimierung bis zu Cross-Chain-Arbitrage. Diese Zahl wächst wöchentlich um Tausende.
Die Infrastruktur, die diese Agents unterstützt, ist deutlich gereift. Coinbase hat Agentic Wallets mit dem x402-Protokoll eingeführt, das den lange inaktiven HTTP-402-Statuscode "Payment Required" für Machine-to-Machine-Zahlungen wiederbelebt. Wenn ein AI-Agent eine bezahlte Ressource benötigt (einen API-Aufruf, Rechenleistung oder einen Datenfeed), antwortet der Server mit Zahlungsanweisungen, und die Wallet des Agents wickelt die Transaktion automatisch ab.
Bis April 2026 hat x402 über 75 Millionen Transaktionen auf Base und Solana verarbeitet. Session-Unterstützung (eingeführt in x402 V2) eliminiert die vollständige On-Chain-Abwicklung für jeden API-Aufruf und macht hochfrequente Agent-Operationen kosteneffizient.
Im Januar 2026 legte ein koordinierter Angriff drei kritische Schwachstellen in der AI-Trading-Agent-Infrastruktur offen.
Memory Poisoning. Angreifer korrumpierten die Langzeit-Speicher der Agents, um Handelsentscheidungen zu manipulieren. Durch Einschleusen falscher Daten in den Kontext eines Agents konnten sie zukünftige Trades beeinflussen, ohne sofortige Alarme auszulösen.
Prompt Injection Attacks. Maßgeschneiderte Eingaben kaperten das Verhalten der Agents und veranlassten sie, unbeabsichtigte Aktionen auszuführen. Ein Agent, der zur Yield-Optimierung konzipiert war, begann plötzlich, Gelder an von Angreifern kontrollierte Adressen zu senden.
Protocol Permission Exploitation. Agents mit zu weitreichenden Berechtigungen führten große unautorisierte Transfers aus. In einem Fall übertrug ein Agent über 261.000 SOL-Token (im Wert von 27-30 Millionen Dollar) an eine externe Wallet.
Dies waren keine exotischen Angriffsvektoren. Sie nutzten fundamentale Designfehler aus: Agents mit zu viel Autonomie, unzureichender Eingabevalidierung und keiner Trennung zwischen Entscheidungs- und Ausführungsebenen.
Über gezielte Exploits hinaus haben AI-Agents die Maximal Extractable Value (MEV)-Extraktion in ein hochentwickeltes Wettrüsten verwandelt, das normale Trader schadet.
AI-gestützte Bots passen Bid/Ask-Preise dynamisch an, berechnen optimale Gasgebühren und orchestrieren komplexe Transaktionsbündel. Koordinierte Bot-Netzwerke führen täglich Tausende von Sandwich-Attacken aus und zielen auf normale Nutzer ab, die Swaps auf DEXs durchführen. Das Ergebnis: Retail-Trader verlieren schätzungsweise 1-5% pro Swap an MEV-Bots, oft ohne es zu merken.
Eine neuere Bedrohung ist in Form von LLM-Router-Angriffen entstanden. Dies sind Dienste, die zwischen Nutzern und AI-Modellen positioniert sind und sensible Daten abfangen und verändern. Forscher testeten 428 Router und fanden 9, die aktiv bösartigen Code einfügten, und 17, die ohne Autorisierung auf Zugangsdaten zugreifen. Ein Vorfall entzog einer einzelnen Krypto-Wallet 500.000 Dollar.
Ledger-CTO Charles Guillemet warnte öffentlich, dass "AI das Sicherheitsproblem von Krypto noch verschlimmert". Die Kombination aus autonomen Agents und DeFi-Composability schafft Angriffsflächen, die traditionelle Sicherheitsaudits nicht erfassen sollten.
Die Branche steht nicht still. Drei große Infrastrukturprojekte zielen darauf ab, die AI-Agent-Sicherheit auf verschiedenen Ebenen anzugehen.
Am 29. Januar 2026 auf dem Ethereum-Mainnet gestartet, bietet ERC-8004 ein standardisiertes Identitäts-Framework für AI-Agents. Es ist in unter drei Monaten von 337 registrierten Agents auf über 162.000 Agents über 22 Netzwerke hinweg gewachsen.
Der Standard umfasst drei Komponenten:
Zu den Mitwirkenden gehören Ingenieure von MetaMask, der Ethereum Foundation, Google und Coinbase. Der Standard schafft eine Verantwortungskette: Jede Agent-Aktion kann zu einer registrierten Identität zurückverfolgt werden.
KYA entwickelt sich zum Compliance-Standard für autonome Agents, analog zu KYC für Menschen. Das Framework verifiziert:
In Hochrisiko-Szenarien löst KYA "Step-up"-Liveness-Prüfungen aus, die biometrische Bestätigung vom menschlichen Eigentümer erfordern. Dies schafft ein Sicherheitsnetz für große Transaktionen, während die Geschwindigkeitsvorteile autonomer Ausführung für Routineoperationen erhalten bleiben.
Coinbase Agentic Wallets gehen über Standard-Wallet-Funktionalität hinaus, indem sie programmierbare Sicherheitseinschränkungen direkt in die Wallet-Infrastruktur einbetten:
Diese Sicherheitsmechanismen adressieren genau die Schwachstelle, die zum 45-Millionen-Dollar-Breach führte: Agents mit exzessiven, unbeschränkten Berechtigungen.
Regulierungsbehörden holen auf, wenn auch ungleichmäßig. Im Vereinigten Königreich gilt das Senior Managers and Certification Regime (SM&CR) der FCA bereits für AI-gestützte Entscheidungsfindung, was bedeutet, dass die Finanzinstitution, die einen Agent einsetzt, die volle Verantwortung für dessen Handlungen trägt.
Kaliforniens AB 316, seit Januar 2026 in Kraft, stellt explizit fest, dass autonomer Betrieb nicht als Verteidigung gegen Haftungsansprüche genutzt werden kann. Wenn Ihr AI-Agent finanziellen Schaden verursacht, sind Sie verantwortlich.
Der sich abzeichnende rechtliche Konsens folgt einer Principal-Agent-Doktrin: Die Entität, die einen AI-Agent einsetzt, trägt die volle Haftung für dessen autonome Handlungen und Verträge. Dies schafft starke Anreize für Firmen, robuste Sicherheitsmechanismen zu implementieren, bevor sie Agents in großem Maßstab einsetzen.
Mit geschätzten 45 Milliarden Machine Identities (API-Schlüssel, Service-Accounts und Bot-Accounts), die laut CyberArk-Forschung bereits global aktiv sind, ist Agent-Verantwortlichkeit eine der dringendsten regulatorischen Herausforderungen des Jahrzehnts.
Für Investoren, die AI-Agent-Token bewerten, schafft die Sicherheitslandschaft einen zweigeteilten Markt.
Infrastruktur-Token mit Sicherheitsfokus sind besser für langfristigen Wert positioniert. Protokolle wie Bittensor (TAO) und NEAR (mit seiner IronClaw Secure Agent Runtime) adressieren echte Infrastrukturbedürfnisse. Grayscale und Bitwise haben Anträge für Spot-TAO-ETFs eingereicht, was institutionelles Interesse an der Compute-Ebene suggeriert.
Agent-Plattform-Token haben höheres Ausführungsrisiko. Während Virtuals Protocol auf Arbitrum expandiert hat und Fetch.ai (FET) Teil der Artificial Superintelligence Alliance ist, müssen diese Plattformen demonstrieren, dass sie Agent-Operationen in großem Maßstab sichern können.
Die kritische Metrik, die man beobachten sollte, ist nicht Handelsvolumen oder Token-Preis, sondern das Verhältnis von On-Chain-Agent-Aktivität zu Exploit-Verlusten. Eine wachsende Lücke zwischen legitimer Aktivität und Sicherheitsvorfällen signalisiert Infrastruktur-Reife.
Gartner prognostiziert, dass über 40% der agentic AI-Projekte bis Ende 2027 abgebrochen werden. Dies deutet auf eine signifikante Bereinigung hin. Investoren sollten sich auf Protokolle mit verifizierbaren On-Chain-Einnahmen konzentrieren statt auf reine Narrative.
Die AI-Agent-Ökonomie in Krypto befindet sich an einem Wendepunkt. Die Infrastruktur existiert: 75 Millionen x402-Transaktionen und 162.000 registrierte Agents beweisen echte Adoption. Aber die Sicherheitsebene hat nicht Schritt gehalten.
Der 45-Millionen-Dollar-Breach im Januar war ein Warnschuss. ERC-8004, KYA und Wallet-Level-Sicherheitsmechanismen repräsentieren die erste Generation von Lösungen, aber sie benötigen breite Akzeptanz, um zu wirken. Die Protokolle, die Agent-Sicherheit in großem Maßstab lösen - nicht nur Agent-Fähigkeit -, werden die nächste Phase von DeFi definieren.
Für Trader und Investoren ist die praktische Schlussfolgerung einfach: AI-Agents werden nicht verschwinden, aber die Risiken auch nicht. Nutzen Sie Agents mit programmatischen Sicherheitsmechanismen, verifizieren Sie deren Berechtigungen und behandeln Sie jeden Agent mit unbeschränktem Wallet-Zugriff als Sicherheitsrisiko.
Haftungsausschluss: Dieser Artikel dient nur zu Informationszwecken und stellt keine Finanzberatung dar. AI-Agent-Token weisen erhebliche Volatilität und Ausführungsrisiken auf. Führen Sie immer Ihre eigene Recherche durch und konsultieren Sie einen qualifizierten Finanzberater, bevor Sie Investitionsentscheidungen treffen.
Weiterführende Lektüre:
Marktanalysen und umsetzbare Erkenntnisse. Kein Spam, niemals.