Hallo, Kryptogemeinschaft. Lassen Sie uns über ein unangenehmes, aber von entscheidender Bedeutung Thema sprechen. Der technologische Durchbruch, der unsere Welt verändert, wird nun aktiv gegen uns eingesetzt. Ich spreche von künstlicher Intelligenz.
Neue Daten von Chainalysis sind erschreckend: 2025 ist zum schlimmsten Jahr in der Geschichte des Volumens an Kryptobetrug geworden. Die Gesamtverluste haben bereits 17 Milliarden Dollar überschritten, und dieser Betrag wird voraussichtlich um etwa 24 % steigen, da weitere Betrugsversuche aufgedeckt werden.
Aber die Zahlen sind nicht das Schrecklichste.
Schlimmer noch ist der Anstieg persönlicher Tragödien. Der durchschnittliche Schaden pro Opfer ist von 782 Dollar auf 2.764 Dollar gestiegen. Das ist eine Steigerung um 253 Prozent. Die Betrüger sind nicht nur viel größer, sondern auch gezielter, wobei sie pro Angriff weit mehr Geld erbeuten.
Warum passiert das? Die Antwort ist ein Wort: KI.
Die Forschung zeichnet ein klares Bild:
Betrüger, die KI nutzen, erzielen mehr als 3,2 Millionen Dollar pro Operation. Ohne KI sind es nur etwa 719.000 Dollar.
Ihr durchschnittliches täglicher Verdienst beträgt 4.838 Dollar gegenüber 518 Dollar für „traditionelle“ Betrüger.
KI in Aktion: Von Deepfakes bis hin zu Insider-Informationen
Deepfakes sind zur Norm geworden. Wie JPMorgan bereits im Juli 2025 feststellte, nutzen Diebe realistische gefälschte Sprache und Videos bei „Pig Butchering“- und Romancescams. Ein Opfer sieht einen „Investor“ oder „Partner“ in einem Videoanruf und vertraut ihm bedingungslos.
Automatisierung und Personalisierung. KI ermöglicht die gleichzeitige Bearbeitung von Tausenden potenzieller Opfer und passt die Vorgehensweise an jedes einzelne an. Geschwindigkeit und Skalierung sind gegenüber der Vergangenheit unerreicht.
Hybride Methoden. Ein prominentes Beispiel ist der Fall aus Brooklyn (Dezember 2025), bei dem der 23-jährige Ronald Spector angeklagt wurde, 16 Millionen Dollar von Coinbase-Nutzern zu stehlen. Die Betrüger erwarben vertrauliche Informationen von einem Support-Mitarbeiter (250.000 Dollar für Daten zu 70.000 Kunden) und gaben sich dann als Support-Agenten aus, wobei sie professionell gestaltete Texte (potenziell KI-gestützt) verwendeten, um Menschen dazu zu überreden, Gelder auf „sichere Wallets“ unter ihrer Kontrolle zu überweisen.
Was tun die Behörden?
Die Strafverfolgung kämpft zurück. Will Lyne, Leiter der Cybercrime-Einheit der Metropolitan Police in London, räumt ein, dass organisierte Kriminalität auf einem bisher ungekannten „Tempo und Umfang“ operiert. Er weist jedoch darauf hin, dass internationale Zusammenarbeit und digitale Intelligenz langsam Erfolge bringen: „Wir sind in einer viel stärkeren Position, kriminelle Netzwerke zu identifizieren, illegale Vermögenswerte zu beschlagnahmen und Aktivitäten zu stören, die unsere Gemeinschaften schädigen.“
Die zentrale Herausforderung für 2025 und darüber hinaus: KI verwischt die Grenze zwischen legalem Service und hochentwickeltem Betrug. Phishing-Websites, Sprachnachrichten, Video-Anrufe – alles sieht jetzt makellos aus.
Diskussion für unsere Community:
Welche Tools und Gewohnheiten halten Sie für jetzt entscheidend für die Sicherheit? (Hardware-Wallets, Adressen-Überprüfung, Ignorieren von „Support“ auf sozialen Medien?)
Haben Sie Beispiele für KI-gestützte Betrugsmuster in Ihren Kreisen gesehen?
Sollten Börsen und Projekte obligatorische „Sinnesschecks“ für große Überweisungen einführen?
Teilen Sie Ihre Gedanken in den Kommentaren. Vorsicht ist besser als Nachsicht. Lasst uns gemeinsam unsere Community schützen.
