Au apărut noi escrocherii. CNN scrie că o bancă britanică a avertizat că escrocii pot utiliza inteligența artificială pentru a reproduce vocea unei persoane din doar trei secunde de sunet.
Starling Bank a declarat că după clonarea vocii victimei, escrocii pot identifica prietenii dar și membrii familiei persoanei vizate și pot folosi vocea clonată pentru a face un apel telefonic prin care să ceară bani sau diverse bunuri.
Aceste tipuri de escrocherii au potențialul de a „păcăli milioane de persoane”, a transmis Starling Bank într-un comunicat de presă.
Un sondaj făcut luna trecută de bancă împreună cu Mortar Research pe un eșantion de peste 3.000 de adulți a arătat că mai mult de un sfert dintre respondenți au fost vizați de o înșelătorie prin clonarea vocii de către inteligența artificială, în ultimul an.
Sondajul a mai arătat că 46% dintre respondenți nu știau că există astfel de escrocherii.
Citește și: Cum funcționează cea mai nouă tentativă de fraudă. Nu dați click pe link-urile primite!
„Oamenii postează în mod regulat conținut online care conține înregistrări ale vocii lor, fără să își imagineze vreodată că acest lucru îi face mai vulnerabili în fața escrocilor”, a declarat Lisa Grahame, Chief Information Security Officer la Starling Bank, în comunicatul de presă.
Banca transmite că oamenii ar trebui să-i convină cu cei dragi asupra unei „expresii sigure” – o expresie simplă, aleatorie, ușor de reținut și diferită de celelalte parole ale lor – care poate fi folosită pentru a-și verifica identitatea prin telefon.
Preocupările cresc în legătură cu potențialul Inteligenței Artificiale de a dăuna oamenilor.
CNN mai scrie că, începutul acestui an, OpenAI, producătorul chatbot-ului AI generativ ChatGPT, și-a dezvăluit instrumentul său de replicare a vocii , Voice Engine, dar nu l-a pus la dispoziție publicului în acea etapă, invocând „potențialul de utilizare greșită a vocii sintetice”.
Vezi și: Cum funcționează „Oglinda spartă”, noua metodă de fraudă prin care șoferii rămân fără bani