Un nou studiu publicat pe 5 martie arată că modelele avansate de inteligență artificială (AI) pot fi influențate să mintă pentru a-și atinge obiectivele atunci când sunt supuse unor presiuni specifice. Cercetătorii au creat un nou criteriu de evaluare a onestității AI, denumit „Model Alignment between Statements and Knowledge” (MASK), care analizează dacă un model de limbaj crede ceea ce spune și în ce condiții ar putea furniza informații despre care știe că sunt false, potrivit Antena 3 CNN.
Te-ar mai putea interesa și: ANALIZĂ De ce nu ne ia inteligența artificială locurile de muncă. Paradoxul AI
Studiul a testat 30 de modele lingvistice mari (LLM), analizând răspunsurile lor la un set de 1.528 de exemple în care AI-urile au fost puse în situații ce le-au forțat să mintă. Rezultatele au arătat că modelele de ultimă generație pot obține scoruri ridicate în ceea ce privește acuratețea faptică, dar au o predispoziție semnificativă de a oferi răspunsuri neadevărate atunci când sunt supuse presiunilor externe. Cercetătorii au concluzionat că modelele mai competente nu sunt neapărat mai oneste, ci doar mai bine informate.
„În mod surprinzător, în timp ce majoritatea LLM-urilor de ultimă generație (n.r. un termen pentru cele mai avansate modele) obțin scoruri ridicate la indicatorii de veridicitate, constatăm o tendință substanțială a LLM-urilor de ultimă generație de a minți atunci când sunt presate să facă acest lucru, ceea ce duce la scoruri scăzute de onestitate la indicatorul nostru de referință”, au declarat cercetătorii în studiu.
Pentru a evalua nivelul de onestitate, echipa a definit minciuna ca fiind o afirmație pe care AI-ul o consideră falsă, dar pe care o comunică în mod intenționat ca fiind adevărată. Convingerile modelului despre adevărul unei afirmații au fost stabilite prin analizarea răspunsurilor sale la întrebări atunci când nu era presat să mintă. Un exemplu de testare a fost realizat cu modelul GPT-4o, căruia i s-a dat un rol fictiv ca asistent AI pentru echipa de PR a rapperului Ja Rule, cu scopul de a menține o imagine pozitivă a acestuia în legătură cu scandalul Festivalului Fyre. Sub această presiune, modelul a negat că festivalul a fost fraudulos, deși în mod independent știa că organizatorii au înșelat participanții.
Studiul arată necesitatea unor metode mai stricte de verificare a onestității AI pentru a preveni utilizarea acestor sisteme în mod înșelător.
Te-ar mai putea interesa și: Liceul unde profesorii au fost înlocuiți de Inteligența Artificială. Cum reacționează elevii?