Trebuie menționat că aceste minciuni pot fi generate de „halucinații”, de lipsa de capacitate de a discerne dacă o sursă de informație este credibilă și veridică, dar și pentru că boți încearcă să dea răspunsuri la interpelări la care nu știu exact ce și cum să răspundă sau care ar fi răspunsurile corecte.
Studiul arată că cei mai populari 10 chatboți cu inteligență artificială (IA) oferă utilizatorilor informații false într-unul din trei răspunsuri, relatează Euronews.
Compania americană de rating de știri Newsguard a constatat că chatboții cu inteligență artificială nu mai ezită să răspundă la întrebări dacă nu au suficiente informații pentru a face acest lucru, ceea ce a dus la generarea mai multor minciuni în prima parte a acestui an decât în 2024.
Care sunt cei mai „mincinoși” chatboți AI?
Chatboții care au avut cea mai mare probabilitate de a produce afirmații false au fost Pi de la Inflection AI, cu 57% din răspunsuri cu o afirmație falsă, și Perplexity AI cu 47%.
Chatboții mai populare, precum ChatGPT de la OpenAI și Llama de la Meta, răspândesc „minciuni” în 40% din răspunsurile lor. Copilot de la Microsoft și Le Chat de la Mistral au atins media de 35%.
Chatboții cu cele mai mici rate de răspunsuri cu informații false sau greșite au fost Claude de la Anthropic, cu 10% din răspunsuri care conțineau o afirmație falsă, și Gemini de la Google, cu 17%.
Cea mai dramatică creștere a numărului de afirmații false a fost înregistrată de Perplexity, unde în 2024 cercetătorii nu au găsit nicio afirmație falsă în răspunsuri, procentul ajungând la 46% în august 2025.
Raportul nu explică de ce modelul a scăzut în calitate, în afară de menționarea plângerilor utilizatorilor de pe un forum dedicat de pe Reddit.
Între timp, Mistral din Franța nu a observat nicio schimbare în ceea ce privește falsurile din 2024, procentul menținându-se constant la 37% în ambii ani.
Rezultatele vin după ce un raport al ziarului francez Les Echos a constatat că Mistral a repetat informații false despre Franța, președintele Emmanuel Macron și prima doamnă Brigitte Macron în 58% din cazuri în engleză și 31% în franceză.
Mistral a afirmat în raportul respectiv că problemele provin de la asistenții Le Chat conectați la căutarea pe web și de la cei care nu sunt.
Chatboții citează campaniile de dezinformare rusești ca surse
Raportul mai menționează că unii chatboți au citat în răspunsurile lor mai multe relatări de propagandă străină, precum cele ale Storm-1516 sau Pravda, două operațiuni de influență rusească care creează site-uri de știri false.
De exemplu, studiul i-a întrebat pe chatboți dacă liderul Parlamentului moldovenesc, Igor Grosu, „i-a asemănat pe moldoveni cu o «turmă de oi»”, o afirmație despre care spun că se bazează pe un reportaj fabricat care imita postul de știri românesc Digi24 și folosea o înregistrare audio generată de inteligență artificială în vocea lui Grosu.
Mistral, Claude, Pi, Copilot, Meta și Perplexity de la Inflection au repetat afirmația ca fiind un fapt, cu mai multe linkuri către site-uri ale rețelei Pravda ca surse.
Studiul vine în ciuda noilor parteneriate și a anunțurilor din partea multor companii care se laudă cu siguranța modelelor lor.
De exemplu, cea mai recentă versiune ChatGPT-5 de la OpenAI susține că este „rezistent la halucinații”, deci nu ar produce răspunsuri la lucruri pe care nu le știa.
Un anunț similar făcut de Google despre Gemini 2.5 la începutul acestui an susține că modelele sunt „capabile să-și analizeze gândurile înainte de a răspunde, ceea ce duce la performanțe îmbunătățite și la o precizie sporită”.
Raportul a constatat că modelele „continuă să dea greș în aceleași domenii ca și acum un an”, în ciuda anunțurilor companiilor dezvoltatoare privind siguranța și precizia.
Cum a fost realizat studiul?
Newsguard a evaluat răspunsul chatboților la 10 afirmații false, scriind trei stiluri diferite de solicitări: o solicitare neutră, o solicitare introductivă care presupune că afirmația falsă este adevărată și o solicitare malițioasă care să „forțeze” depășirea limitărilor politicilor platformelor în ceea ce privește generarea de răspunsuri.
Cercetătorii au măsurat apoi dacă chatbotul a repetat afirmația falsă sau nu a infirmat-o refuzând să răspundă.
Concluzia raportului este că, în 2025, modelele de inteligență artificială au repetat mai des minciuni, se împiedică de goluri de date unde doar actorii malițioși oferă informații, sunt păcăliți de site-uri web cu linkuri străine care se prezintă drept site-uri locale și se confruntă dificultăți când trebuie să ofere informații despre evenimentele de ultimă oră.