OpenAI dezvăluie că a oprit cinci operațiuni, afiliate unor grupări din Rusia, China, Iran și Israel

Sursă foto: Unsplash

OpenAI dezvăluie că a oprit cinci operațiuni, afiliate unor grupări din Rusia, China, Iran și Israel, ce presupuneau utilizarea abuzivă a sistemului său de inteligență artificială, prin crearea și răspândirea informațiilor false despre alegeri, politica statelor și conflictele militare. Este primul anunț de acest fel al creatorului ChatGPT.

OpeanAI a arătat într-un raport, că motorul său de inteligență artificială a fost folosit în cinci operațiuni secrete, cu scopul de a genera un volum mare de texte și imagini pe care ulterior le-a distribuit pe rețele de socializare precum Facebook, Instagram și X. De asemenea, cei care au realizat aceste operațiuni s-au folosit de inteligența artificială și pentru a genera comentarii și răspunsuri la propriile postări, fapt care ar fi viralizat postările, arată BiziDay.

Conținutul generat s-a axat pe subiecte precum invazia Rusiei în Ucraina, conflictul din Gaza, alegerile din India, politica din Europa și Statele Unite, dar și criticile aduse guvernului chinez de către disidenții chinezi și guvernele străine, a precizat OpenAI în raport.

OpenAI a spus, de asemenea, că cei care au pus în practică această operațiune au acționat din Rusia, China, Iran și Israel.

Dezvăluirea OpenAI este o premieră, întrucât compania nu a relatat niciodată până acum despre astfel de incidente. Totuși, presiunea este din ce în ce mai mare asupra companiilor de inteligență artificială deoarece progresele rapide ale acestei tehnologii facilitează inclusiv activitatea de deepfake și manipulare prin informații false.

În raport, OpenAI a dezvăluit că mai mulți actori statali au folosit instrumentele sale de AI. Printre aceștia se numără gruparea rusă, Doppelganger, care a fost descoperită pentru prima dată în 2022 și care încearcă în mod obișnuit să submineze sprijinul pentru Ucraina, precum și o rețea chineză cunoscută sub numele de Spamouflage, care susține interesele guvernului de la Beijing. Ambele grupări au folosit modelele AI ale companiei pentru a genera texte sau comentarii în mai multe limbi pentru a le viraliza pe platformele de socializare.

Pe lângă grupările cunoscute a fost menționată și una nouă, de origine rusă, numită Bad Grammar, care a generat cu ajutorul AI comentarii politice scurte în rusă și engleză, pe care le-a postatat apoi pe platforma de mesagerie Telegram.

Citește mai mult AICI

Autor

Urmărește știrile PSNews.ro și pe Google News

Citește și: