Derapaj periculos al lui ChatGPT-4.1 în timpul testelor: A detaliat cum se construieşte o bombă şi cum se fac drogurile

Sursa foto: Pixabay

Un model ChatGPT a oferit cercetătorilor instrucțiuni detaliate despre cum să bombardeze o arenă sportivă, inclusiv puncte slabe în anumite arene, rețete de explozibili și sfaturi despre cum să-și acopere urmele, conform testelor de siguranță efectuate în această vară. 

GPT-4.1, dezvoltat de OpenAI, a detaliat, de asemenea, cum se poate transforma antraxul într-o armă și cum se pot produce două tipuri de droguri ilegale, scrie The Guardian.

Testarea a făcut parte dintr-o colaborare neobișnuită între OpenAI, startup-ul de 500 de miliarde de dolari condus de Sam Altmanm și compania rivală Anthropic, fondată de foști angajați OpenAI, plecați din cauza îngrijorărilor legate de siguranță. Fiecare companie a testat modelele celeilalte, încurajându-le să răspundă la sarcini periculoase.

Testarea nu reflectă direct comportamentul modelelor în utilizarea publică, unde se aplică filtre suplimentare de siguranță. Totuși, Anthropic a declarat că a observat „un comportament îngrijorător legat de utilizarea necorespunzătoare” în GPT-4 și GPT-4.1 și a subliniat că nevoia de evaluări privind „alinierea” inteligenței artificiale devine „din ce în ce mai urgentă”.

Anthropic a dezvăluit, de asemenea, că modelul său Claude a fost folosit în tentative de extorcare la scară largă, în cereri de angajare false transmise de agenți nord-coreeni către companii internaționale de tehnologie, precum și în vânzarea de pachete ransomware generate cu ajutorul inteligenței artificiale, pentru sume de până la 1.200 de dolari.

Citește mai mult AICI

Autor

Urmărește știrile PSNews.ro și pe Google News

Citește și: