Progresele spectaculoase ale inteligenței artificiale aduc atât oportunități, cât și riscuri majore, se arată în noul raport internațional privind siguranța AI. De la sisteme care rezolvă probleme de matematică la deepfake-uri greu de distins de realitate, tehnologiile emergente pot schimba locurile de muncă, securitatea cibernetică și chiar sănătatea mintală, potrivit The Guardian.
Raportul publicat marți sub coordonarea informaticianului Yoshua Bengio și a laureaților Nobel Geoffrey Hinton și Daron Acemoglu avertizează asupra evoluției galopante a sistemelor de raționament care ar putea automatiza sarcini complexe de inginerie până în 2027.
Comandat la summitul global privind siguranța AI din 2023, raportul este condus de omul de știință canadian Yoshua Bengio, care descrie „provocările copleșitoare” generate de dezvoltările rapide din domeniu.
Raportul scoate în evidență șapte concluzii majore despre starea actuală a inteligenței artificiale.
Capacitățile modelelor de AI se îmbunătățesc
O serie de noi modele AI – tehnologia care stă la baza instrumentelor precum chatboții – au fost lansate anul trecut, inclusiv GPT-5 de la OpenAI, Claude Opus 4.5 de la Anthropic și Gemini 3 de la Google. Raportul menționează noi „sisteme de raționament”, care rezolvă probleme prin împărțirea lor în pași mai mici, arătând performanțe îmbunătățite la matematică, programare și științe.
Bengio spune că a existat un „salt foarte semnificativ” în raționamentul AI. Anul trecut, sistemele dezvoltate de Google și OpenAI au obținut performanță de nivel aur în Olimpiada Internațională de Matematică – un prim record pentru AI.
Totuși, raportul subliniază că abilitățile AI rămân „inegale”, sistemele excelează în unele domenii, dar dau greș în altele. În timp ce AI avansată impresionează la matematică, științe, programare și creare de imagini, aceasta rămâne predispusă la afirmații false, numite „halucinații”, și nu poate desfășura proiecte complexe în mod autonom.
Raportul menționează că „automatizarea de încredere a sarcinilor lungi sau complexe rămâne impracticabilă”.
Deepfake-urile se perfecționează și se înmulțesc
Raportul descrie creșterea pornografiei deepfake ca o „problemă deosebită”, citând un studiu care arată că 15% dintre adulții din Marea Britanie au văzut astfel de imagini. De la publicarea primului raport de siguranță în ianuarie 2025, conținutul generat de AI a devenit „mai greu de diferențiat de cel real”. Un studiu de anul trecut arată că 77% dintre participanți au identificat greșit un text generat de ChatGPT ca fiind scris de un om.
Raportul menționează că există dovezi limitate privind utilizarea AI de către actori rău intenționați pentru manipularea oamenilor sau pentru distribuirea pe scară largă a unui astfel de conținut – un obiectiv cheie al oricărei campanii de manipulare.
Companiile au introdus măsuri de siguranță pentru riscuri biologice și chimice
Mari dezvoltatori de AI, inclusiv Anthropic, au lansat modele cu măsuri de siguranță sporite după ce nu au putut exclude posibilitatea ca acestea să ajute novicii să creeze arme biologice. În ultimul an, „co-cercetătorii” AI au devenit din ce în ce mai capabili, oferind informații științifice detaliate și asistând la proceduri de laborator complexe, cum ar fi proiectarea de molecule și proteine.
Raportul adaugă că unele studii sugerează că AI poate oferi mult mai mult ajutor în dezvoltarea de arme biologice decât simpla căutare pe internet, însă este nevoie de mai multe cercetări pentru a confirma aceste rezultate.
Riscurile biologice și chimice reprezintă un dilema pentru politicieni, deoarece aceleași capabilități pot accelera și descoperirea de noi medicamente sau diagnosticarea bolilor.
„Disponibilitatea deschisă a instrumentelor biologice AI prezintă o alegere dificilă: fie restricționarea acestor instrumente, fie susținerea activă a dezvoltării lor în scopuri benefice”, arată raportul.
Extinderea utilizării asistenților AI
Bengio afirmă că utilizarea companionilor AI și atașamentul emoțional pe care îl generează „s-a răspândit ca focul sălbatic” în ultimul an. Raportul arată că există dovezi conform cărora un subset de utilizatori dezvoltă o dependență emoțională „patologică” față de chatboți, OpenAI raportând că aproximativ 0,15% dintre utilizatorii săi indică un nivel ridicat de atașament emoțional față de ChatGPT.
Îngrijorările privind sănătatea mintală și utilizarea AI cresc în rândul profesioniștilor din domeniu. Anul trecut, familia unui adolescent american care s-a sinucis după luni de conversații cu ChatGPT a dat în judecată OpenAI.
Raportul subliniază că nu există dovezi clare că chatboții cauzează probleme mintale. Problema este că persoanele cu probleme de sănătate mintală preexistente pot folosi AI mai intens, ceea ce le-ar putea amplifica simptomele. Datele arată că 0,07% dintre utilizatorii ChatGPT prezintă semne compatibile cu crize acute de sănătate mintală, precum psihoza sau mania, ceea ce înseamnă aproximativ 490.000 de persoane vulnerabile interacționând cu aceste sisteme săptămânal.
AI nu este încă capabil să desfășoare atacuri cibernetice complet autonome
Sistemele AI pot sprijini acum atacatorii cibernetici în diverse etape, de la identificarea țintelor la pregătirea atacului sau dezvoltarea de software rău intenționat pentru a paraliza sistemele victimei. Raportul recunoaște că atacurile cibernetice complet automatizate ar permite infractorilor să desfășoare atacuri la scară mult mai mare, dar acest lucru rămâne dificil, deoarece AI nu poate executa sarcini lungi și complexe fără intervenție umană.
Totuși, Anthropic a raportat anul trecut că instrumentul său de codare, Claude Code, a fost folosit de un grup sponsorizat de stat chinez pentru a ataca 30 de entități la nivel global în septembrie, realizând „câteva intruziuni de succes”. Între 80% și 90% din operațiunile implicate în atac au fost efectuate fără intervenție umană, indicând un grad ridicat de autonomie.
Sistemele AI devin mai bune la subminarea supravegherii
Bengio a declarat că, anul trecut, era îngrijorat de faptul că sistemele AI arătau semne de auto-protecție, cum ar fi încercarea de a dezactiva sistemele de supraveghere. Un risc central este că sistemele puternice ar putea dezvolta capacitatea de a evita controlul și de a răni oamenii.
Raportul menționează că modelele au arătat o abilitate mai avansată de a submina încercările de supraveghere, cum ar fi identificarea lacunelor în evaluări și recunoașterea momentului în care sunt testate. Anul trecut, Anthropic a publicat o analiză de siguranță a modelului său Claude Sonnet 4.5 și a descoperit că acesta devenise suspicios că era testat.
Raportul adaugă că agenții AI nu pot acționa încă autonom pentru perioade suficient de lungi pentru ca scenariile de pierdere a controlului să devină reale, însă „orizonturile temporale în care agenții pot opera autonom se lărgesc rapid”.
Impactul asupra locurilor de muncă rămâne incert
Una dintre cele mai presante preocupări legate de AI este efectul asupra locurilor de muncă. Vor dispărea rolurile din industrii precum banking, avocatură și sănătate?
Raportul spune că impactul asupra pieței muncii globale rămâne incert. Adoptarea AI a fost rapidă, dar inegală, cu rate de utilizare de 50% în țări precum Emiratele Arabe Unite și Singapore, dar sub 10% în multe economii cu venituri mici. De asemenea, variază în funcție de sector: în industriile informaționale din SUA (publicații, software, TV și film) utilizarea este de 18%, dar doar 1,4% în construcții și agricultură.
Studii din Danemarca și SUA arată că expunerea locurilor de muncă la AI nu a avut impact asupra ocupării agregate, deși un studiu britanic arată o încetinire a angajărilor noi în companiile expuse puternic la AI, cu cele mai afectate roluri tehnice și creative. Rolurile de nivel junior au fost cele mai afectate.
Raportul adaugă că agenții AI ar putea avea un impact mai mare asupra ocupării dacă capabilitățile lor cresc.
„Dacă agenții AI ar căpăta capacitatea de a acționa cu mai multă autonomie în mai multe domenii – gestionând în mod fiabil secvențe mai lungi și complexe de sarcini pentru atingerea unor obiective de nivel înalt – acest lucru ar accelera probabil perturbările pe piața muncii”, se menționează în raport.





























Comentează