In ultimele doua luni au aparut tot mai multe video-uri trucate in care mai ales fețele unor actrite porno erau inlocuite intr-un mod extrem de convingator din punct de vedere tehnic de cele ale unor actrite celebre de la Hollywood. Fenomenul a fost denumit Deepfake si ingrijoreaza tot mai multa lume, fiindca acum exista aplicatii care, ajutandu-se de tehnici de machine learning le permit si celor fara cunostiinte tehnice sa puna pe internet montaje video extrem de bine realizate. Scenariul cel mai grav tine de momentul in care vor fi trucate atat video cat si audio declaratiile unor lideri politici, ceea ce ar putea duce la conflicte diplomatice reale.
Fenomenul a pornit la final de 2017 cand un utilizator cu nickname-ul Deepfakes a pus pe Reddit, pentru divertisment, video-uri in care fețele erau inlocuite foarte convingator de cele ale unor actori celebri. Este practic vorba de trucaje realizate prin montaj, dar (in unele cazuri) extrem de reusite si de convingatoare,
O aplicatie lansata acum o luna a fost descarcata de peste 100.000 de ori si, daca ai cat mai multe poze si filmulete cu persoana a carei față vrei sa o inserezi intr-un clip, algoritmii de machine-learning pot suprapune fața peste cea unei persoane dintr-un clip ales.
Care este rezultatul? In multe cazuri se vede foarte clar ca este vorba de un fals, insa in altele rezultatele sunt foarte bune si ne putem imagina ca cei cu resurse vor lucra pentru a crea falsuri aproape fara cusur.
The Outline relateaza scenariul cel mai pesimist: un fals extrem de bine facut poate duce la conflicte sau poate duce la panica in randul populatiei, exemplul prezumtiv fiind un clip cu Donald Trump care declara ca a lansat un atac impotriva Coreei de Nord.
Intrebarea care se pune este daca se va ajunge intr-un punct in care montajele sunt atat de bine facute incat nu iti vei mai putea da seama ca este un fals. Multi sunt sceptici si dau ca exemplu industria filmului care lucreaza cu efecte speciale de zeci de ani si nu a atins perfectiunea.
Cert este ca in viitor trebuie acordata mult mai mare atentie acestor farse video-audio pentru ca numarul lor, dar mai ales complexitatea lor va creste.