Am derulat prin feed-ul meu noaptea trecută când am observat un tipar ciudat. Câțiva comercianți veterani pe care îi urmăresc menționau toți "apeluri de suport" care păreau puțin prea rafinate. De obicei, poți identifica un escroc prin engleza stricată sau energia frenetică, dar acesta a fost diferit. A fost liniște. A fost constant. Și atunci mi-am dat seama că jocul nu s-a schimbat doar; a fost reconstruit de la zero.

Numerele care ies acum sunt uluitoare. Ne uităm la peste $17 miliarde pierdute din cauza fraudei cripto doar în 2025, un record care marchează o schimbare masivă în modul în care operează aceste grupuri. Ceea ce m-a impresionat cel mai mult nu a fost totalul, ci precizia. Pierderea medie per victimă a sărit de la $782 la peste $2,764 într-un singur an. Aceasta este o creștere de 253% care spune o poveste foarte specifică: escrocii nu doar că își aruncă plase mai largi; ei folosesc sulițe mai ascuțite.

Fundamentul acestei creșteri este inteligența artificială. Sub suprafața a ceea ce pare a fi o tentativă standard de phishing se află un motor sofisticat care poate gestiona mii de victime simultan, făcându-le pe fiecare să simtă că vorbesc cu un om real. Vedem escrocheriile de impersonare explodând cu 1.400%. Când m-am uitat prima dată la asta, am crezut că sunt doar scripturi mai bune, dar este de fapt „fraudă industrializată” unde operațiunile activate de AI extrag de 4,5 ori mai multe venituri decât metodele tradiționale.

Gândește-te la deepfakes pentru o secundă. În iulie 2025, rapoartele au subliniat cum clonarea vocilor și a videoclipurilor realiste sunt folosite în "tăierea porcului" și escrocheriile romantice. Nu primești doar un text; primești un apel video de la cineva care arată și sună exact ca un executiv de schimb de încredere sau un fondator de proiect. Aceasta creează o textură de legitimitate care este aproape imposibil de văzut prin ea în intensitatea unei tranzacții.

Între timp, momentumul acestor atacuri este alimentat de metode hibride. Ia cazul Brooklyn din sfârșitul anului 2025, unde escrocii au cumpărat date interne despre 70.000 de clienți și apoi au folosit scripturi alimentate de AI pentru a drena sistematic 16 milioane de dolari din „portofele sigure”. Înțelegerea acestui lucru ajută la explicarea de ce vechiul sfat—„nu da clic pe linkuri”—nu mai este suficient. Riscul se mută în instrumentele pe care le folosim pentru a rămâne în siguranță.

Dacă această tendință se menține, ne îndreptăm spre un viitor în care fiecare escrocherie va avea un component AI. Semnele timpurii sugerează că, deși autoritățile de aplicare a legii devin mai bune în urmărirea urmelor pe blockchain, „ritmul și scala” ofensivei AI încă depășesc apărarea. Rămâne de văzut dacă „verificările de sănătate” obligatorii de către schimburi pot opri valul, dar pentru moment, povara este pe noi.

O realizare liniștită pe care am câștigat-o în 15 ani este că în crypto, cea mai periculoasă armă nu este un hack; este sentimentul de certitudine. Escrocii folosesc acum AI pentru a-ți vinde această certitudine la un preț record. Rămâi sceptic, verifică fiecare voce și nu uita niciodată că în această nouă eră, ochii tăi pot fi la fel de ușor înșelați ca cheile tale private.

Care este „regula strictă” pentru a rămâne în siguranță într-o lume AI? Ai văzut vreodată un deepfake în sălbăticie? Hai să discutăm mai jos. 👇

$BTC $BNB $ETH

#ScamAlert #BinanceSafety #AIinCrypto #Crypto2026 #SecurityFirst