O lege inedită în lume, privind inteligenţa artificială, a fost adoptată astăzi de Parlamentul European. Noua lege aduce noi interdicţii, unele chiar şi pentru autorităţile din domeniul ordinii publice, conform Antena 3 CNN.
Parlamentul European a adoptat, astăzi, legea privind inteligenţa artificială, cu 523 de voturi pentru, 46 împotrivă şi 49 de abţineri.
Noua lege privind inteligenţa artificială vrea să protejeze drepturile fundamentale, democraţia, statul de drept şi sustenabilitatea mediului î nfaţa sistemelor de Inteligenţă Artificială cu grad ridicat de risc.
Actul legislativ european vizează și să încurajeze inovația și să asigure un rol de lider în domeniu pentru Europa. Regulamentul impune obligații în cazul inteligenței artificiale, în funcție de riscurile sale potențiale și de impactul preconizat.
„Noile norme interzic anumite utilizări ale inteligenței artificiale care amenință drepturile cetățenilor, inclusiv sistemele biometrice de clasificare bazate pe caracteristicile sensibile ale persoanelor.
Extragerea fără scop precis a imaginilor faciale de pe internet ori din înregistrările camerelor video cu circuit închis pentru a crea baze de date de recunoaștere facială se numără și ea printre utilizările interzise.
Nu vor fi permise nici recunoașterea emoțiilor la locul de muncă și în școli, atribuirea unui punctaj social, sistemele de poliție predictivă (când acestea se bazează doar pe stabilirea profilului unei persoane sau pe analizarea caracteristicilor sale) și IA care manipulează comportamentul uman sau exploatează vulnerabilitățile oamenilor”, se arată într-o informare a Parlamentului European.
Folosirea sistemelor de identificare biometrică de către organele de aplicare a legii este în principiu interzisă, cu excepția unor situații enumerate în mod exhaustiv și definite în mod strict. Sistemele de identificare biometrică „în timp real” pot fi instalate doar în condițiile în care respectă garanții stricte, de exemplu, dacă folosirea lor este limitată în timp și geografic și este aprobată în prealabil de o autoritate judiciară sau de un organ administrativ.
Acestea pot fi folosite, de exemplu, pentru a căuta o persoană dispărută sau pentru a preveni un atac terorist. Folosirea acestor sisteme post-facto (sistemele de identificare biometrică „ulterioară”) este considerată un caz de utilizare cu grad ridicat de risc și este posibilă doar în virtutea emiterii unei autorizații judiciare legate de o infracțiune penală.
Citește și: Cutremur în sectorul IT! Concedieri în masă la doi dintre marii jucători, NTT Data și Cognizant
Textul noii legi privind inteligența artificială include și obligații clare pentru alte sisteme de IA cu grad ridicat de risc, din cauza potențialului lor ridicat de a afecta negativ sănătatea, siguranța, drepturile fundamentale, mediul, democrația și statul de drept.
Exemple de utilizări legate de inteligență artificială care prezintă un grad ridicat de risc: infrastructura critică, educația și formarea profesională, serviciile publice și private esențiale (sănătatea, serviciile bancare etc.), unele sisteme folosite de organele de aplicare a legii, migrația și gestionarea frontierelor, justiția și procesele democratice (de exemplu, pentru a preveni influențarea alegerilor).
Aceste sisteme trebuie să evalueze și să reducă riscurile, să mențină așa-numite „fișiere de jurnalizare” care permit înregistrarea automată a evenimentelor, să fie transparente și precise și să facă obiectul supravegherii umane. Cetățenii vor avea dreptul să depună plângeri în legătură cu sistemele de IA și să primească explicații despre deciziile bazate pe sisteme de IA cu grad ridicat de risc care le afectează drepturile.
Sistemele de inteligență artificială de uz general și modelele de IA de uz general pe care se bazează acestea trebuie să respecte anumite cerințe în materie de transparență, inclusiv legislația UE în domeniul drepturilor de autor și publicarea unor rezumate detaliate ale conținutului utilizat la antrenarea modelelor de IA. Modelele mai puternice pentru sistemele IA de uz general care ar putea prezenta riscuri sistemice vor trebui să respecte cerințe suplimentare, inclusiv privind evaluarea modelelor, evaluarea și reducerea riscurilor sistemice și raportarea incidentelor.
În plus, imaginile și conținuturile audio și video artificiale sau manipulate, de tip „deepfake”, trebuie să fie etichetate ca atare.