O fotografie care pretinde că arată o explozie în apropierea Pentagonului ridică îngrijorări cu privire la capacitatea inteligenței artificiale de a produce dezinformări.
O imagine falsă care părea să arate o explozie de proporții în apropierea Pentagonului a fost distribuită luni pe rețelele de socializare, provocând o scurtă scădere a bursei. În câteva minute, un val de conturi de pe rețelele de socializare, inclusiv unele conturi verificate, au distribuit imaginea falsă, amplificând și mai mult confuzia. Oficialii au confirmat ulterior că nu a avut loc un astfel de incident.
Detectivii din rețelele sociale, inclusiv Nick Waters de la Bellingcat, un grup de verificare a știrilor online, s-au grăbit să evidențieze câteva probleme notabile ale imaginii, printre care:
– faptul că nu au existat alți martori de prima mână care să confirme evenimentul, mai ales într-o zonă aglomerată precum Pentagonul. “Acesta este motivul pentru care este atât de dificil (aș spune că este efectiv imposibil) să creezi un fals credibil al unui astfel de eveniment”, a scris Waters pe Twitter.
– clădirea în sine arată vizibil diferit de Pentagon. Acest lucru poate fi verificat cu ușurință prin utilizarea unor instrumente precum Google Street View pentru a compara cele două imagini.
– alte detalii, inclusiv stâlpul de iluminat plutitor cu aspect ciudat și stâlpul negru care iese din trotuar, au fost un alt indiciu că imaginea nu era ceea ce părea. Inteligența artificială are încă dificultăți în re-crearea locurilor fără a introduce artefacte aleatorii.
Există multe instrumente de inteligență artificială generativă, cum ar fi Midjourney, Dall-e 2 și Stable Diffusion, care pot crea imagini realiste cu foarte puțin efort. Aceste instrumente sunt antrenate prin analizarea unor volume mari de imagini reale, dar completează golurile cu propria interpretare atunci când lipsesc datele de antrenament. Acest lucru poate avea ca rezultat persoane care au membre suplimentare și obiecte care se transformă cu mediul înconjurător.
Atunci când vedeți imagini online care se presupune că arată un eveniment de ultimă oră, merită să țineți cont de următoarele:
– Știrile nu apar în neant – în cazul unei explozii sau al unui eveniment de amploare, așteptați-vă să vedeți un aflux de rapoarte de la fața locului de la diferite persoane și din diferite unghiuri.
– Cine încarcă conținutul – Uitați-vă la istoricul de postări al contului de utilizator. Se potrivește locația lor și locația evenimentului? Uitați-vă pe cine urmăresc și cine îi urmărește. Puteți să luați legătura cu ei sau să vorbiți cu ei?
– Utilizați instrumente de informații din surse deschise – Instrumentele de căutare inversă a imaginilor, cum ar fi Google Images și TinEye, vă pot permite să încărcați o imagine și să determinați unde și când a fost folosită pentru prima dată. Există mai multe alte instrumente pe care le puteți utiliza, cum ar fi să vă uitați la înregistrările în direct ale camerelor publice de trafic pentru a verifica dacă are loc un eveniment.
– Analizați imaginea și împrejurimile acesteia – Căutați indicii în imagine, cum ar fi reperele din apropiere, semnele rutiere și chiar condițiile meteorologice, pentru a vă ajuta să stabiliți unde sau când ar fi putut avea loc presupusul eveniment.
– Mâini, ochi și postură – Atunci când aveți de-a face cu imagini de oameni, acordați o atenție deosebită ochilor, mâinilor și posturii generale a acestora. Videoclipurile generate de AI care imită oamenii, cunoscute sub numele de deep fakes, tind să aibă probleme cu clipitul, deoarece majoritatea seturilor de date de antrenament nu conțin fețe cu ochii închiși. Mâinile care nu apucă corect obiectele sau membrele care par nefiresc de răsucite pot ajuta, de asemenea, la depistarea falsului.
AlJazeera