- 
English
 - 
en
Romanian
 - 
ro
Diverse

Tipurile de escrocherii care au potențialul de a păcăli milioane de persoane. La ce trebuie să fiți atenți

18 Sep, 21:40 • Preda Silvia
Reprezentanții unei bănci au avertizat că milioane de persoane ar putea deveni victimele unor escrocherii prin clonarea vocii cu ajutorul AI.
Tipurile de escrocherii care au potențialul de a păcăli milioane de persoane. La ce trebuie să fiți atenți

Au apărut noi escrocherii. CNN scrie că o bancă britanică a avertizat că escrocii pot utiliza inteligența artificială pentru a reproduce vocea unei persoane din doar trei secunde de sunet.

Starling Bank a declarat că după clonarea vocii victimei, escrocii pot identifica prietenii dar și membrii familiei persoanei vizate și pot folosi vocea clonată pentru a face un apel telefonic prin care să ceară bani sau diverse bunuri.

Aceste tipuri de escrocherii au potențialul de a „păcăli milioane de persoane”, a transmis Starling Bank într-un comunicat de presă.

Un sondaj făcut luna trecută de bancă împreună cu Mortar Research pe un eșantion de peste 3.000 de adulți a arătat că mai mult de un sfert dintre respondenți au fost vizați de o înșelătorie prin clonarea vocii de către inteligența artificială, în ultimul an.

Sondajul a mai arătat că 46% dintre respondenți nu știau că există astfel de escrocherii.

Citește și: Cum funcționează cea mai nouă tentativă de fraudă. Nu dați click pe link-urile primite!

„Oamenii postează în mod regulat conținut online care conține înregistrări ale vocii lor, fără să își imagineze vreodată că acest lucru îi face mai vulnerabili în fața escrocilor”, a declarat Lisa Grahame, Chief Information Security Officer la Starling Bank, în comunicatul de presă.

Milioane de persoane ar putea deveni victimele unor escrocherii

Au apărut noi escrocherii
Au apărut noi escrocherii

Banca transmite că oamenii ar trebui să-i convină cu cei dragi asupra unei „expresii sigure” – o expresie simplă, aleatorie, ușor de reținut și diferită de celelalte parole ale lor – care poate fi folosită pentru a-și verifica identitatea prin telefon.

Preocupările cresc în legătură cu potențialul Inteligenței Artificiale de a dăuna oamenilor.

CNN mai scrie că, începutul acestui an, OpenAI, producătorul chatbot-ului AI generativ ChatGPT, și-a dezvăluit instrumentul său de replicare a vocii , Voice Engine, dar nu l-a pus la dispoziție publicului în acea etapă, invocând „potențialul de utilizare greșită a vocii sintetice”.

Clasificarea sistemelor de Inteligență Artificială

  • Sisteme de IA interzise: Sisteme care recunosc persoane și creează scoruri sociale, deduc emoții la locul de muncă sau în instituțiile de învățământ și alte sisteme care afectează drepturile fundamentale ale cetățenilor UE
  • Sisteme de IA cu grad ridicat de risc: Sisteme utilizate în infrastructura critică, angajare și prestare de servicii publice
  • Sisteme de IA cu grad limitat de risc: Chatbot-uri și sisteme generatoare de text, conținut audio-video
  • Sisteme de IA cu grad minim sau fără risc

Vezi și: Cum funcționează „Oglinda spartă”, noua metodă de fraudă prin care șoferii rămân fără bani