Un document al Pentagonului arată că SUA vor să manipuleze opinia publică din alte țări cu ajutorul propagandei create de AI, la fel ca Rusia și China
Postat de Gold FM Radio pe 29 august 2025
Statele Unite speră să folosească învățarea automată („machine learning”) pentru a crea și distribui propagandă peste hotare, în încercarea de a „influența publicul-țintă străin” și de a „suprima argumentele disidente”, potrivit unui document al Comandamentului pentru Operațiuni Speciale al SUA (SOCOM), analizat de site-ul de investigații The Intercept.
Documentul, pe care jurnaliștii de la The Intercept îl descriu drept „un fel de listă de dorințe” a Pentagonului privind tehnologia militară în viitorul apropiat, dezvăluie noi detalii despre o gamă largă de capabilități pe care SOCOM speră să le obțină în următorii cinci până la șapte ani.
Printre acestea se numără camere de supraveghere de ultimă generație, senzori, arme cu energie dirijată și alte gadgeturi, pentru a-i ajuta pe operatori să-și localizeze și elimine țintele. Însă printre tehnologiile pe care comandamentul american vrea să le procure se numără și software bazat pe învățare automată, care poate fi utilizat în războiul informațional.
Pentru a-și consolida „Suplimentările Tehnologice Avansate pentru Operațiunile Militare de Sprijin Informațional”, comandamentul caută un contractant care să poată „oferi o capabilitate ce valorifică agenți AI sau sisteme multi-LLM cu roluri specializate pentru a crește amploarea operațiunilor de influență”.
Așa-numiții „agenți AI” sunt sisteme de inteligență artificială ce folosesc modele de învățare automată care operează cu instrucțiuni sau supraveghere umană minimă. Aceste sisteme pot fi utilizate împreună cu modele lingvistice de mari dimensiuni (LLM), precum ChatGPT, care generează text pe baza comenzilor utilizatorului.
Comandamentul pentru Operațiuni Speciale al SUA consideră că tehnicile ar putea fi potrivite pentru gestionarea unei operațiuni autonome de propagandă:
„Mediul informațional se mișcă prea rapid pentru ca militarii să se implice adecvat și să influențeze o audiență pe internet. Un program construit pentru a sprijini obiectivele noastre ne poate permite să controlăm narațiunile și să influențăm audiențele în timp real”, notează documentul.
Documentul mai arată că SOCOM consideră că are nevoie de tehnologie care să se apropie foarte mult de capabilitățile raportate ale Chinei, cu boți software care să scaneze și să absoarbă volume mari de discuții online pentru a convinge mai bine o populație-țintă sau un individ asupra oricărui subiect dat.
SOCOM afirmă că dorește în mod specific „sisteme automatizate care să extragă informații din mediul online, să analizeze situația și să răspundă cu mesaje conforme obiectivelor sale. Această tehnologie „ar trebui să fie capabilă să răspundă la postări, să suprime argumentele disidente și să producă materiale de referință care să sprijine argumentele și mesajele favorabile.”
Pentagonul acordă o atenție deosebită celor care ar putea denunța eforturile sale de propagandă.
„Acest program ar trebui, de asemenea, să poată accesa profilurile, rețelele și sistemele indivizilor sau grupurilor care încearcă să contracareze sau să discrediteze mesajele noastre. Capabilitatea ar trebui să utilizeze informațiile obținute pentru a crea un mesaj mai țintit, capabil să influențeze acel individ sau grup specific”, notează documentul.
Acesta mai arată că SOCOM anticipează folosirea sistemelor generative atât pentru a concepe mesaje de propagandă, cât și pentru a simula modul în care această propagandă va fi recepționată odată lansată în spațiul public.
Lista de dorințe a SOCOM continuă prin a enumera o nevoie pentru „capabilități ofensive” bazate pe imagini „deepfake”, raportată prima dată de jurnaliștii de la The Intercept în 2023.
„Perspectiva ca LLM-urile să creeze un flux infinit de propagandă rafinată cu expertiză a fost întâmpinată cu alarmă – dar, în general, în contextul în care Statele Unite ar fi ținta, nu autorul”, notează acum The Intercept.
Legile care guvernează Pentagonul, dar și propriile sale politici, interzic în general campaniile de propagandă militară care vizează publicul american, dar natura anonimă a internetului face dificilă aplicarea acestei reguli.
Purtătorul de cuvânt al SOCOM, Dan Lessard, a afirmat într-o declarație transmisă jurnaliștilor de la The Intercept că prin acest program al comandamentului sunt vizate „capabilități de vârf, bazate pe inteligență artificială”.
„Toate capabilitățile bazate pe AI sunt dezvoltate și utilizate sub cadrul de Inteligență Artificială Responsabilă al Departamentului Apărării, care asigură responsabilitate și transparență prin solicitarea supravegherii și deciziilor umane”, a declarat el pentru The Intercept. „Eforturile (…) sunt aliniate la legislația și politica SUA. Aceste operațiuni nu vizează publicul american și sunt concepute pentru a sprijini obiectivele de securitate națională în fața provocărilor globale din ce în ce mai complexe”, a subliniat acesta.
Instrumente precum ChatGPT de la OpenAI sau Gemini creat de Google au crescut în popularitate, în ciuda tendinței lor spre erori factuale și rezultate imprevizibile. Dar abilitatea lor de a genera imediat text pe aproape orice subiect, scris în tonul cerut de utilizatori, ar putea marca un salt major pentru propagandiștii online. Aceste instrumente le oferă utilizatorilor posibilitatea de a rafina mesajele pentru un număr nelimitat de audiențe, fără costurile și timpul necesar muncii umane.
Practica a fost deja documentată pe scară largă. În mai 2024, OpenAI a publicat un raport care dezvăluia încercări ale unor actori iranieni, chinezi și ruși de a folosi instrumentele companiei în campanii de influență clandestine, dar niciuna nu s-a dovedit deosebit de reușită.
Un raport din 2023 al organizației Freedom House, finanțată de Departamentul de Stat de la Washington, avertiza asupra „Puterii represive a inteligenței artificiale”, prezicând că „campaniile de dezinformare asistate de AI vor exploda pe măsură ce actorii rău-intenționați dezvoltă noi modalități de a ocoli protecțiile și de a exploata modelele open-source”.
Avertizând că „AI generativă atrage atenția regimurilor autoritare”, raportul Freedom House menționa potențialul de utilizare de către China și Rusia. La folosirea internă a tehnologiei în SUA a făcut referire doar într-o scurtă secțiune despre campaniile prezidențiale ale lui Ron DeSantis și Donald Trump, precum și despre un videoclip „deepfake” cu Joe Biden, manipulat pentru a-l prezenta pe fostul președinte făcând comentarii transfobe.
Andrew Lohn, fost director pentru tehnologie emergentă în cadrul Consiliului Național de Securitate de la Washington, afirmă că măsura în care publicul ar trebui să fie îngrijorat de o mașină de propagandă automatizată, capabilă să aibă impact global, depinde de amploarea utilizării sale.
William Marcellino, specialist în științe comportamentale la think tank-ul RAND Corporation a declarat pentru The Intercept că asemenea sisteme sunt construite din necesitate. „Regimuri precum cele din China și Rusia sunt angajate în eforturi de influență malignă, la scară, sprijinite de AI”, afirmă acesta, adăugând că grupuri afiliate statului chinez „au proiectat explicit sisteme AI la scară pentru războiul pentru opinia publică”.
„Contracararea acestor campanii necesită, probabil, răspunsuri AI la scară”, consideră acesta.
Jessica Brandt, o fostă directoare pentru inteligență artificială și tehnologii emergente la think tank-ul Brookings Institution, a avertizat încă din 2023, într-un discurs susținut în fața senatorilor americani, că „LLM-urile ar putea crește personalizarea și, prin urmare, forța de persuasiune a campaniilor informaționale”.
Într-un ecosistem online plin de campanii de război informațional bazate pe AI, „este probabil să crească scepticismul privind existența adevărului obiectiv”, sublinia ea la momentul respectiv.
Un studiu din 2024 publicat în revista PNAS Nexus a constatat că „modelele lingvistice pot genera texte aproape la fel de persuasive pentru publicul american ca materialele provenite din campanii reale de propagandă clandestină străină”.
„Era propagandei bazate pe AI a sosit, iar America trebuie să acționeze”, nota un editorial de opinie publicat recent de The New York Times cu privire la GoLaxy, un software creat de firma chineză Beijing Thinker care a fost folosit inițial pentru jocul de Go. Autorii editorialului, Brett Benson, profesor de științe politice la Universitatea Vanderbilt, și Brett Goldstein, fost oficial al Departamentului Apărării de la Washington, au creionat o imagine sumbră, prezentând GoLaxy drept un lider emergent al campaniilor de influență aliniate statului chinez.
GoLaxy, avertizează ei, poate scana conținutul public de pe rețelele de socializare și poate produce campanii de propagandă personalizate. „Compania susține în privat că poate folosi o tehnologie nouă pentru a remodela și influența opinia publică în numele guvernului chinez”, indică un articol separat semnat de specialistul în securitate națională al NYT, Julian Barnes, intitulat „China recurge la AI în războiul informațional”.
Benson și Goldstein susțin că este necesar un „răspuns coordonat” la nivel guvernamental, academic și privat în fața acestor amenințări. Ei descriu acest răspuns ca fiind unul defensiv: cartografiere și contracarare a propagandei străine bazate pe AI.
Dar acesta nu este lucrul sugerat de documentul provenit de la Pentagon, după cum arată informațiile obținute de The Intercept.
sursă: ziuanews.ro