O imagine falsă cu o explozie la Pentagon a devenit virală şi a provocat un scurt moment de prăbuşire a pieţelor bursiere

0

Fotografia falsă, aparent realizată cu ajutorul unui program de inteligenţă artificială generativă (capabil să producă texte şi imagini pornind de la o simplă întrebare), a obligat Departamentul american al Apărării să reacţioneze. „Putem confirma că este vorba de o informaţie falsă şi că Pentagonul nu a fost atacat astăzi”, a declarat un purtător de cuvânt.

Pompierii din zona în care se află clădirea (în Arlington, în apropiere de Washington D.C.) au intervenit, de asemenea, pe Twitter pentru a spune că nu au avut loc explozii sau incidente, nici în Pentagon, nici în apropiere de acesta.

Imaginea a părut să trimită însă pieţele într-o degringoladă pentru câteva minute, S&P 500 pierzând 0,29% din valoare faţă de vineri, înainte de a-şi reveni. „A existat o scădere legată de această informaţie falsă depistată de programe”, a confirmat Pat O’Hare de la Briefing.com, referindu-se la softurile automate de tranzacţionare care sunt programate să reacţioneze la postările de pe reţelele sociale. „Dar faptul că a rămas la o reacţie limitată faţă de conţinutul ştirilor false sugerează că şi alţii au considerat că acestea sunt înşelătoare”, a declarat el pentru AFP.

Un cont al mişcării conspiraţioniste QAnon a fost printre primele care a transmis imaginea falsă, a cărei sursă nu este cunoscută.

Earlier today an apparent AI-generated photo showed a fake explosion near the US Pentagon. The news was shared by Russian state-media RT on Twitter, which helped it go viral.

It was also tweeted by a verified Twitter account called “BloombegFeed” which has now been suspended.…

— Ed Krassenstein (@EdKrassen)

Incidentul survine după ce mai multe fotografii false produse cu ajutorul inteligenţei artificiale generative au fost difuzate pe scară largă pentru a arăta capacităţile acestei tehnologii, cum ar fi cea a arestării fostului preşedinte american Donald Trump sau cea a Papei cu o geacă de puf. Programe precum DALL-E 2, Midjourney şi Stable Diffusion permit amatorilor să creeze imagini false convingătoare fără a fi nevoie să stăpânească programe de editare precum Photoshop. Dar, în timp ce inteligenţa artificială generativă facilitează crearea de conţinuturi false, problema difuzării şi a viralizării acestora – cele mai periculoase componente ale dezinformării – ţine de platforme, reamintesc experţii. „Utilizatorii folosesc aceste instrumente pentru a genera conţinuturi mai eficient decât înainte (…), dar acestea se răspândesc în continuare prin intermediul reţelelor sociale”, a subliniat Sam Altman, şeful OpenAI (DALL-E, ChatGPT), în cadrul unei audieri în Congres la jumătatea lunii mai.