Banca Națională a României (BNR) a emis o avertisment în legătură cu apariția recentă a unor imagini de tip deepfake pe diverse platforme de socializare, în care sunt manipulate atât imaginea, cât și vocea guvernatorului Mugur Isărescu, conform informațiilor furnizate luni de Agerpres. Șeful băncii centrale nu este primul oficial aflat în această situație, imaginea lui Sebastian Burduja fiind folosită într-o manieră similară recent, ministru depunând chiar și o plângere penală în acest sens.
Imaginea lui Mugur Isărescu a fost utilizată în postări tip deepfake care au apărut pe mai multe platforme și rețele de socializare în ultima perioadă, avertizează BNR într-un comunicat emis luni. Oamenii sunt îndemnați să facă investiții financiare pe baza acestor videoclipuri false.
„În ultima perioadă, pe mai multe platforme şi reţele de socializare, au apărut postări tip deepfake care îl implică pe guvernatorul Băncii Naţionale a României, Mugur Isărescu. Videoclipurile folosesc fraudulos imaginea şi vocea guvernatorului BNR pentru a convinge publicul să facă investiţii financiare pe o platformă inexistentă” se arată într-un comunicat al BNR.
Reprezentanții instituției subliniază ferm că Banca Națională a României (BNR) nu emite recomandări și nici nu face propuneri de investiții. Această clarificare vine în contextul apariției postărilor de tip deepfake pe diverse platforme și rețele de socializare, în care imaginea diferitelor persoane publice este manipulată pentru a atrage investiții reale către proiecte fictive .BNR subliniază că nu are nicio legătură cu astfel de inițiative și că informațiile false ar putea induce în eroare potențialii investitori.
Tehnologia deepfake este o formă avansată de inteligență artificială (IA) care permite crearea de conținut fals, de obicei sub formă de video sau audio, în care imaginea sau vocea unei persoane sunt manipulate pentru a crea un conținut extrem de realist și greu de detectat ca fiind fals.
Această tehnologie se bazează pe algoritmi de învățare (deep learning), care analizează și imită modelele de comportament ale unei persoane în imagini sau înregistrări audio pentru a le recrea în mod credibil. Deepfake-urile pot implica înlocuirea feței unei persoane într-un videoclip, modificarea conținutului vorbirii sau chiar crearea de conținut complet fictiv în care o persoană pare să facă sau să spună lucruri pe care nu le-a făcut sau spus niciodată.
Te-ar putea interesa și: Avertisment îngrijorător al experților. Escrocii vor folosi inteligența artificială generativă pentru a lansa atacuri mult mai periculoase