Ce este DeepFake?
Calculatoarele au devenit din ce în ce mai bune la simularea realității. Cinematografia modernă, de exemplu, se bazează în mare măsură pe decoruri, peisaje și personaje generate de computer, în locul locațiilor practice și recuzitei care au fost cândva obișnuite, iar de cele mai multe ori aceste scene sunt în mare măsură imposibil de distins de realitate.
Recent, tehnologia deepfake a fost în centrul atenției. Cea mai recentă iterație în imaginile computerizate, deepfake-urile sunt create atunci când inteligența artificială (AI) este programată pentru a înlocui asemănarea unei persoane cu alta în videoclipurile înregistrate.
Ce este mai exact tehnologia DeepFake?
Termenul „deepfake” provine de la tehnologia de bază „deep learning”, care este o formă de AI. Algoritmii de învățare profundă, care învață ei înșiși cum să rezolve problemele atunci când li se oferă seturi mari de date, sunt utilizați pentru a schimba fețele în conținut video și digital pentru a crea medii false cu aspect realist.
Există mai multe metode pentru crearea deepfake-urilor, dar cea mai comună se bazează pe utilizarea rețelelor neuronale profunde care implică autoencodere care utilizează o tehnică de schimbare a feței. Mai întâi aveți nevoie de un videoclip țintă pe care să îl utilizați ca bază pentru deepfake și apoi de o colecție de clipuri video ale persoanei pe care doriți să o introduceți în țintă.
Videoclipurile pot fi complet fără legătură; ținta ar putea fi un clip dintr-un film de la Hollywood, de exemplu, iar videoclipurile persoanei pe care doriți să o introduceți în film ar putea fi clipuri aleatorii descărcate de pe YouTube.
Codificatorul automat este un program AI de învățare profundă, însărcinat să studieze clipurile video pentru a înțelege cum arată persoana dintr-o varietate de unghiuri și condiții de mediu și apoi să cartografieze persoana respectivă pe individul din videoclipul țintă prin găsirea de caracteristici comune.
La combinație se adaugă un alt tip de învățare automată, cunoscut sub numele de rețele generative adverse (GAN), care detectează și îmbunătățește orice defecte ale deepfake-ului în mai multe runde, făcând mai dificilă decodificarea detectorilor de deepfake.
GAN-urile sunt, de asemenea, folosite ca o metodă populară pentru crearea deepfake-urilor, bazându-se pe studiul unor cantități mari de date pentru a „învăța” cum să dezvolte noi exemple care imită lucrul real, cu rezultate dureros de precise.
Mulți experți consideră că, în viitor, deepfake-urile vor deveni mult mai sofisticate pe măsură ce tehnologia se dezvoltă în continuare și ar putea introduce amenințări mai grave la adresa publicului, legate de interferența electorală, tensiunea politică și activități criminale suplimentare.
Sursă foto: Forbes
La ce este folosită tehnologia?
Răspândirea deepfake-ului a început cu videoclipuri pornografice false. Multe celebrități de sex feminin au căzut victime ale pornografiei deepfake. Printre aceștia s-au numărat Daisy Ridley, Jennifer Lawrence, Emma Watson și Gal Gadot.
Subiectul a afectat și femei asociate cu liderii diferitelor țări, precum Michelle Obama, Ivanka Trump și Kate Middleton. În 2019, a fost lansată o aplicație desktop numită DeepNude. Era capabil să îndepărteze îmbrăcămintea femeilor. Ceva mai târziu, a fost eliminat, dar puteți găsi în continuare copii ale aplicației care plutesc în spațiul cibernetic.
Următorul grup de oameni afectați de deepfake sunt politicienii. Au fost videoclipuri cu președintele Obama insultându-l pe președintele Trump. Într-un alt videoclip, discursul lui Nancy Pelosi a fost procesat pentru a face publicul să creadă că era beată. Într-un alt videoclip, s-a arătat că președintele Trump își bate joc de Belgia pentru apartenența sa la Acordul de la Paris privind clima.
De menționat că există și cazuri de utilizare legală. Puteți găsi o mulțime de aplicații pentru schimbarea feței în fotografii și videoclipuri în App Store și Play Market. Există o părere că deepfake este viitorul creării de conținut. Canalul sud-coreean MBN a folosit deepfake pentru a-și înlocui prezentatorul de știri.
Deepfake este un instrument foarte sinistru în mâinile celor care caută să șantajeze sau să denigreze pe alții. Societatea noastră, în special generația mai în vârstă, nu este încă pe deplin conștientă de existența unei tehnologii care poate înlocui o față dintr-un videoclip.
Raffaela Spone din Pennsylvania a împărtășit videoclipuri deepfake cu membrii unui grup de majorete, goi, bând și fumând pentru a elimina rivalii competitivi ai fiicei sale. Din fericire, familiile victimelor au contactat poliția, iar planul ei a fost zădărnicit.
O utilizare populară a deepfake-ului în artă este de a face portretele celebre să vorbească. Cercetătorii ruși au făcut asta cu Mona Lisa a lui Da Vinci. Muzeul Dali din Florida și-a recreat omonimul din imagini video de arhivă pentru a atrage vizitatori.
Disney Research Studios lucrează la propria sa tehnologie de efecte vizuale deepfake. Va reduce semnificativ timpul și costurile financiare petrecute în obținerea individului dorit. Problema este că produce doar calitate înaltă la rezoluții scăzute. Pentru a obține un rezultat satisfăcător de înaltă calitate necesită mult mai mult efort. Aceasta este aceeași tehnologie folosită în filmul Star Wars menționat mai sus.
În timp ce unele site-uri de socializare precum Facebook și Twitter luptă împotriva deepfake-ului și interzic mediile sintetice actualizându-și politicile, altele o adoptă. Snapchat a prezentat funcții de schimbare a feței din 2016. TikTok a adoptat o tehnică care le permite utilizatorilor săi schimbe fețele în videoclipuri.
Cum identificăm un DeepFake?
Tehnologia AI poate fi dificil de recunoscut doar cu ochii, așa că tehnologia emergentă poate ajuta la concentrarea asupra caracteristicilor care sunt mai greu de văzut.
Cercetătorii se uită la biometria soft, cum ar fi modul în care o persoană vorbește, împreună cu alte calități din videoclipuri pentru a ajuta la stimularea detectării deepfake. Această concentrare pe biometria soft este importantă, deoarece puteți urmări aceste caracteristici revelatoare și pe cont propriu.
Sursă foto: TechJuice
Iată 10 lucruri pe care trebuie să le căutați atunci când determinați dacă un videoclip este real sau fals.
- Mișcarea nenaturală a ochilor. Mișcările ochilor care nu par naturale – sau lipsa mișcării ochilor, cum ar fi absența clipirii – sunt semnale roșii. Este o provocare să reproduci actul de a clipi într-un mod care să pară natural.
- Expresii faciale nenaturale. Când ceva nu arată corect la o față, ar putea semnala transformarea feței. Acest lucru se întâmplă atunci când o simplă cusătură a unei imagini a fost făcută peste alta.
- Poziționare incomodă a caracteristicilor faciale. Dacă fața cuiva este îndreptată într-o direcție și nasul îndreptat spre alta, ar trebui să fii sceptic cu privire la autenticitatea videoclipului.
- O lipsă de emoție. De asemenea, puteți observa transformarea feței sau cusăturile de imagine dacă fața cuiva nu pare să prezinte emoția care ar trebui să vină împreună cu ceea ce se presupune că spune.
- Corp sau postură cu aspect incomodă. Un alt semn este dacă forma corpului unei persoane nu arată naturală sau există o poziție incomodă sau inconsecventă a capului și a corpului. Aceasta poate fi una dintre inconsecvențele mai ușor de detectat, deoarece tehnologia deepfake se concentrează de obicei pe trăsăturile feței, mai degrabă decât pe întregul corp.
- Mișcarea nenaturală a corpului. Dacă cineva pare distorsionat sau dezactivat când se întoarce în lateral sau își mișcă capul sau dacă mișcările sale sunt sacadate și dezarticulate de la un cadru la altul, ar trebui să bănuiești că videoclipul este fals.
- Colorare nenaturală. Tonul anormal al pielii, decolorarea, iluminarea ciudată și umbrele deplasate sunt toate semne că ceea ce vezi este probabil fals.
- Păr care nu arată real. Nu veți vedea părul încrețit sau zburător, deoarece imaginile false nu vor putea genera aceste caracteristici individuale.
- Dinți care nu arată reali. Este posibil ca algoritmii să nu poată genera dinți individuali, așa că absența contururilor dinților individuali ar putea fi un indiciu.
- Încețoșare sau nealiniere. Dacă marginile imaginilor sunt neclare sau imaginile sunt nealiniate – de exemplu, acolo unde fața și gâtul cuiva se întâlnesc cu corpul său – veți ști că ceva nu este în regulă.
Pentru mai multe analize True Story Project puteți accesa: În Ucraina, ape tot mai tulburi și Acum ori niciodată – Deblocarea investițiilor din Marea Neagră.
Sursă foto: CNN