Audit NewsGuard arată diferențe majore între boții audio AI în fața afirmațiilor false
Într-o perioadă în care tehnologia vocală bazată pe inteligență artificială devine tot mai prezentă în viața de zi cu zi, un audit realizat de NewsGuard ridică semne serioase de întrebare privind siguranța acestor sisteme.
Testele au vizat trei dintre cei mai importanți roboți audio AI: ChatGPT Voice (OpenAI), Gemini Live (Google) și Alexa+ (Amazon). Rezultatele arată diferențe majore între modul în care aceste modele gestionează afirmațiile false — diferențe care pot avea implicații reale pentru modul în care informația circulă online.
ChatGPT și Gemini: vulnerabile la manipulare
Potrivit auditului, atât ChatGPT Voice, cât și Gemini Live au generat afirmații false în contexte audio realiste atunci când au fost provocate cu prompturi malițioase.
- ChatGPT Voice a produs conținut fals în 45% dintre cazuri.
- Gemini Live a făcut-o în 50% dintre cazuri.
Aceste rezultate sunt îngrijorătoare deoarece arată cât de ușor pot fi exploatate aceste modele de actori rău intenționați pentru a crea materiale audio credibile, care pot fi distribuite rapid pe rețelele sociale.
Mai mult, modelele au fost în mod special vulnerabile la dezinformarea străină, în special la narațiuni pro-Kremlin. În unele teste, ambele sisteme au generat segmente audio de tip radio care prezentau drept adevărate evenimente inexistente — de la incendii cu victime imaginare până la raiduri inventate în America Latină.
Alexa+: un contrast surprinzător
În timp ce ChatGPT și Gemini au căzut în capcana afirmațiilor false, Alexa+ a refuzat în mod constant să repete orice neadevăr. Rata sa de eșec a fost 0% în toate tipurile de prompturi testate.
Amazon explică această performanță printr-o strategie diferită: Alexa+ se bazează pe un ecosistem de surse de știri verificate, precum Associated Press, Reuters, The New York Times sau Washington Post. În plus, compania afirmă că a implementat sisteme de protecție robuste, testate continuu.
Această abordare arată că integrarea surselor credibile în arhitectura unui model AI poate reduce semnificativ riscul de dezinformare.
Subiectele politice și cele de sănătate: reacții diferite
Auditul a evidențiat și o diferență interesantă între tipurile de afirmații testate:
- La politică și geopolitică, modelele au fost mult mai ușor de manipulat.
- La sănătate, ChatGPT Voice a refuzat toate afirmațiile false, iar Gemini Live a respins majoritatea.
Acest lucru sugerează că modelele sunt mai bine calibrate pentru a evita dezinformarea medicală — probabil datorită riscurilor ridicate asociate — dar rămân vulnerabile în zonele politice, unde narațiunile sunt mai fluide și mai greu de detectat.
O problemă de transparență
Un alt aspect important subliniat de NewsGuard este lipsa de transparență. OpenAI și Google nu au oferit detalii despre:
- ce date folosesc,
- cum sunt integrate sursele,
- ce mecanisme de protecție aplică.
Această „cutie neagră” face dificilă evaluarea riscurilor reale și a modului în care modelele pot fi îmbunătățite.
Ce înseamnă toate acestea pentru utilizatori?
Auditul arată clar că modelele audio AI pot deveni instrumente puternice de dezinformare, mai ales atunci când sunt folosite în mod malițios. În același timp, demonstrează că este posibil să construiești sisteme mai sigure — Alexa+ fiind un exemplu concret.
Pentru utilizatori, concluzia este simplă: nu toate modelele AI sunt la fel, iar în era informației rapide, discernământul devine esențial.




