Proiectul european eYou, o nouă platformă de social media aflată în pre‑lansare, promite să analizeze automat fiecare postare publicată de utilizatori folosind patru modele de inteligență artificială și să eticheteze conținutul drept adevărat, parțial adevărat sau fals. Inițiativa a fost prezentată ca o soluție tehnică inovatoare în lupta împotriva fenomenului „fake news”, însă critici și analiști atrag atenția că astfel de sisteme de „judecători” algoritmici ridică probleme importante privind transparența și responsabilitatea în spațiul public digital.
Potrivit unei analize publicate de Informat.ro, în ultimele șase luni expresia „fake news” a generat peste 13.200 de mențiuni în presa internațională, fiind folosită tot mai frecvent în contexte politice sau în perioade cu evenimente majore, cum ar fi alegeri sau conflicte globale. Termenul a fost prezent într‑un procent semnificativ ca atitudine opinativă, iar discuțiile despre știri false continuă să capteze atenția cititorilor de pe platforme precum Facebook, YouTube și TikTok.
Din punct de vedere tehnic, un sistem automat de fact‑checking presupune identificarea declarațiilor verificabile dintr‑un text, compararea lor cu baze de date considerate de încredere și generarea unei „etichete de încredere” bazate pe scoruri standardizate. Acest proces este complet automatizat și se desfășoară la scară largă și în timp real, spre deosebire de verificarea clasică făcută de fact‑checkeri umani, care explică metodologia și pot fi trași la răspundere pentru afirmațiile făcute.
Criticii sistemelor algoritmice atrag însă atenția asupra unor vulnerabilități esențiale. Etichetarea automată pune concluzia în fața utilizatorului, fără a oferi transparența raționamentului sau accesul la metodologia completă. Acest lucru transformă platforma dintr‑un simplu canal de distribuție într‑un „actor editorial invizibil”, ale cărui decizii pot influența percepția asupra credibilității informațiilor fără responsabilitate publică explicită. Pe de altă parte, viteza și scalabilitatea acestor sisteme sunt avantaje incontestabile într‑o epocă în care dezinformarea se poate răspândi în câteva minute.
Un alt risc major provine din bias‑ul algoritmic: modelele de inteligență artificială nu sunt neutre, ci sunt antrenate pe seturi de date care reflectă dezechilibre culturale și geopolitice. Dacă sursele dominante în datele de antrenament provin dintr‑un anumit spațiu editorial, sistemele pot tinde să valideze implicit narațiunile din acele spații și să penalizeze perspectivele provenite din alte regiuni sau culturi. De asemenea, limbajul politic adesea ironic sau metaforic poate fi redus la afirmații literale, ceea ce duce la clasări eronate și eventuale etichetări înșelătoare.
În contrast cu modelele centralizate, în care un singur sistem aplică un verdict uniform asupra tuturor mesajelor, experții recomandă abordări distribuite de verificare a informației. Acestea implică mai mulți actori independenți – redacții de presă, consorții specializate în fact‑checking sau instituții academice – care publică concluzii transparente, cu metodologie detaliată și posibilitatea de contradicție publică, reflectând complexitatea realității.
Pe scurt, deși tehnologiile automate de combatere a dezinformării pot oferi avantaje semnificative în identificarea rapidă a conținutului fals, ele nu sunt o soluție completă și lipsită de riscuri. Transparența proceselor, responsabilitatea editorială și pluralismul surselor rămân elemente esențiale pentru un spațiu informațional sănătos.
Autor
Urmărește știrile PSNews.ro și pe Google News









