Root NationČlanciTehnologijeŠto je deepfake, koliko je opasan i kako ga prepoznati

Što je deepfake, koliko je opasan i kako ga prepoznati

-

Danas ćemo govoriti o deepfakeu, koji je sada postao raširen i prilično uobičajen fenomen. Zahvaljujući ovoj tehnologiji, manipulacija informacijama je dosegla novu razinu.

Jeste li vidjeli kraljicu Elizabetu kako pleše na stolu tijekom emitiranja novogodišnje poruke? Ili slušao Kim Jong-unov govor o demokraciji, ili se divio Salvadoru Daliju koji je govorio o njegovoj smrti (zašto ne vjeruje u to)?

Svi ovi nevjerojatni videi imaju jednu zajedničku stvar - oni su lažni. Deepfake je tehnika stvaranja i objavljivanja lažnih informacija u obliku videa, zvuka i fotografija. Sve je lakše naići na takve materijale, stoga smo za vas pripremili upute o izradi, prepoznavanju i traženju deepfake videa na internetu.

Pročitajte također: Blockchains budućnosti: Budućnost industrije kriptovaluta jednostavnim riječima

Deepfake - što je to?

Deepfake (Deepfake) je, zapravo, foto, video ili audio materijal koji nije stvaran, fejk, odnosno lažnjak. Deepfake (kombinacija dviju riječi - duboko učenje "duboko učenje" i lažno "lažnjak") koristi umjetnu inteligenciju (AI) za duboko učenje za stvaranje sličnosti jedne osobe s drugom u videozapisima i drugim digitalnim medijskim materijalima. Stvaraju ga algoritmi koji se temelje na stvarnim glasovnim, zvučnim, video ili foto uzorcima koji su spojeni zajedno. Algoritam uzima odabrane informacije s mnogo različitih mjesta i zatim ih kombinira u jedan materijal. Kao rezultat, nastaje nešto novo (lažno), što se temelji na kombinaciji različitih stvarnih podataka.

Deepfake

Ali to nije sve. Deepfake također može "naslikati" fotografiju od nule, primjerice kreiranjem lica likova koji nikada nisu postojali.

Koja je svrha takvih akcija? Između ostalog, Deepfake se koristi za širenje netočnih informacija na internetu (primjerice o političkim osobama ili događajima), krađu (primjerice krivotvorenje glasovnih naredbi) i stvaranje pornografije (filmovi sa slavnim osobama - deepfake pornografija). Također se može koristiti u obrazovne i zabavne svrhe.

Pročitajte također: O kvantnim računalima jednostavnim riječima

Deepfake - Kako to radi?

Općenito, postoje dva načina za stvaranje deepfake materijala. Prva metoda koristi dva algoritma. Prvo, prvi (koder) traži zajedničke značajke dviju slika (one koje treba spojiti u jednu), zatim ih drugi (dekoder) može prenijeti na novostvorenu sliku. Na primjer, ako želimo napraviti video u kojem bi se glumac kretao poput nas, koder preuzima pokret iz videa u kojem plešemo, a dekoder će već zamijeniti naše lice licem glumca i natjerati ga da reproducira naše pokrete . Ovdje su ključne odabrane radnje koje se kopiraju na novu sliku (na primjer, pokreti, geste, izrazi lica).

- Oglašavanje -

Drugi način je kroz generativne kontradiktorne mreže (GANs), gdje dva algoritma rade zajedno. Prvi se naziva generator jer, koristeći opće informacije, stvara slike (na primjer, sliku osobe) koje kombiniraju njezine razlikovne značajke (osoba ima tijelo, lice, oči). Drugi algoritam je diskriminator koji procjenjuje jesu li slike koje mu daje generator istinite ili ne.

Deepfake

S vremenom oba algoritma postaju sve naprednija, pa sami uče i usavršavaju se. Ako je generator istreniran na način da diskriminator ne prepoznaje lažnu fotografiju (smatra je stvarnom), proces je završen.

Velika količina krivotvorenog softvera može se pronaći na GitHubu, zajednici otvorenog koda za skripte, programe i kod. Neki od tih programa koriste se isključivo u zabavne svrhe, tako da stvaranje deepfakea nije zabranjeno, no mnogi od njih mogu se koristiti i u kriminalne svrhe.

Mnogi stručnjaci vjeruju da će u budućnosti, s razvojem tehnologije, deepfakeovi postati puno složeniji i mogu stvoriti ozbiljnije prijetnje društvu, vezane uz uplitanje u izbore, stvaranje političkih napetosti i kriminalne aktivnosti.

Pročitajte također:

Prijetnja Deepfakea - od kada postoji?

Prvi put su se takve lažne informacije pojavile 2017. godine. Tada je korisnik alias deepfake objavio je na Redditu nekoliko pornografskih filmova u kojima su sudjelovale poznate osobe, uključujući Scarlett Johansson, Gal Gadot i Taylor Swift. Od tada se ova industrija ubrzano razvija, jer gotovo svatko može snimati deepfake filmove.

https://youtu.be/IvY-Abd2FfM

Posljednjih godina tehnologija deepfakinga toliko se razvila da je sada sve teže utvrditi radi li se o izmišljenom videu ili o autentičnoj snimci stvarnih ljudi. Primjer može biti video s porukom Elizabete II. ili govorom Baracka Obame, koji je vrlo brzo objavljen na raznim stranicama. Video s izjavom bivšeg američkog predsjednika bavio se globalnim prijetnjama koje mogu izazvati dezinformacije i lažne vijesti objavljene na internetu. U materijalu koji je objavio kanal BuzzFeedVideos, američki redatelj i glumac Jordan Peele postao je glas 44. predsjednika Sjedinjenih Država. No, trenutačno je umjetna inteligencija već sposobna generirati glas na temelju arhivskih snimki osobe koja bi se trebala pojaviti u lažnom filmu.

Takve napredne tehnologije mogu u budućnosti postati opasno oruđe u rukama kibernetičkih kriminalaca i internetskih prevaranata. Objava lažnih video zapisa govora važnih političara može izazvati stvarnu štetu na međunarodnoj razini. Takvi filmovi, temeljeni na deepfake tehnologiji, mogu izazvati diplomatske sukobe i skandale, a time i utjecati na javno mnijenje i ponašanje ljudi.

Još jedna potencijalna prijetnja je sadržaj za odrasle, koji je uvijek generirao najviše prometa u virtualnom prostoru. Nije ni čudo što je deepfake tehnologija tako brzo stigla na internet. Prema izvješću nizozemske tvrtke za kibernetičku sigurnost Deeptrace, 96% izmišljenih videa stvorenih pomoću tehnologije deepfake sadržaj je o takvim temama. Najčešće se za izradu takvih materijala koriste slike filmskih zvijezda, sportaša, pa čak i političara i predstavnika vlasti.

Pročitajte također: Zašto svemirska misija ne može letjeti u bilo kojem trenutku: Što je prozor za lansiranje?

- Oglašavanje -

Kako napraviti deepfake?

Ako itko može napraviti deepfake videozapise, mogu li se oni također napraviti kod kuće? Definitivno da, ali njihova kvaliteta, naravno, neće biti savršena. Stvaranje takvih videozapisa zahtijeva velike računalne resurse i snažne video kartice. Oni koje inače imamo u kućnim računalima nisu dovoljni, a sam proces razvoja može trajati tjednima. Kvaliteta filmova također će ostaviti mnogo toga za željeti - bit će vidljive pogreške, pokreti usta možda neće odgovarati zvuku, bit će vidljiva mjesta gdje se "stari" sadržaj preklapa s "novim".

No, ako želimo malo "dotjerati" fotografiju ili napraviti kratki deepfake video, program za to možemo preuzeti izravno na pametni telefon. Program koji je vrlo jednostavan za korištenje će u nekoliko minuta otkloniti nedostatke vašeg izgleda, pretvoriti vas u odabranu slavnu osobu ili omogućiti vašem psu da govori ljudskim glasom.

Pročitajte također:

Kako prepoznati deepfake?

Profesionalne deepfake videozapise sve je teže uočiti. U početku su algoritmi imali problema s osnovnim ponašanjem (poput treptanja očima) i odmah je bilo jasno da je film lažnjak. Ova greška je sada ispravljena. Lažni likovi trepću, kreću se prirodno i govore tečno. Međutim, ponekad ipak imaju problema s prirodnim pokretima očiju.

Deepfake

Dakle, kako prepoznati deepfake? Evo na što trebate obratiti pozornost prilikom gledanja videa:

  • Prati li zvuk pokrete usta? Ponekad se ne poklapaju sasvim, a osoba u videu pomiče usne sa zakašnjenjem u odnosu na zvuk ili netočno artikulira riječi.
  • Sve vrste pojava koje izgledaju neprirodno. Ovdje je riječ, između ostalog, o položaju cijelog tijela ili glave u odnosu na torzo, nepravilnoj refleksiji svjetla na predmetima, nepravilnoj refleksiji svjetlosti u nakitu itd. Neprirodna boja kože također može biti znak da je film lažan.
  • Audio i video kvaliteta. Razlika između njih pomoći će otkriti deepfake. Obično je zvučni zapis lošije kvalitete.
  • Nepravilnosti slike. Najčešće se pojavljuju na spoju tijela i glave. Kada je glava slavne osobe "zalijepljena" za drugo tijelo, može se pojaviti mrlja u predjelu vrata. Ponekad dolazi do preskakanja okvira (isprekidanost) i pogrešaka okvira (različiti kut, vrsta ili smjer svjetla).
  • Promjena hashtaga tijekom videa također može značiti da imamo deepfake video.

Kada pregledavate materijale sa stajališta deepfakea, trebali biste se osloniti i na vlastite osjećaje. Ponekad imamo dojam da nešto "ne štima". To se događa, između ostalog, kada emocije osobe prikazane na ekranu ne odgovaraju onome što nam pokazuje izraz lica ili ton glasa. To također sugerira da je video lažiran.

Također zanimljivo:

Kako se zaštititi od deepfakea?

Kako biste izbjegli duboku lažnu prijevaru, stručnjaci savjetuju sljedeće korake:

  • Osmislite tajnu riječ ili slogan s dragim osobama, poput članova obitelji ili kolega, koji će videom ili snimkom dokazati realnost situacije. To će vam omogućiti da brzo provjerite lažnost situacije i izbjegnete, na primjer, iznuđivanje novca.
  • Dogovorite s rođacima ili kolegama popis informacija o kojima se nikada neće pitati putem poruka, na primjer, na društvenim mrežama ili SMS-om. Nužno je sve zainteresirane strane upoznati s pravim razmjerima opasnosti.
  • Implementacija kanala autentifikacije s više faktora za provjeru svakog zahtjeva. Ako komunikacija započne SMS porukom, tada je najsigurniji način potvrde informacija kontaktiranje pošiljatelja poruke u obliku razgovora putem unaprijed dogovorenog i sigurnog kanala komunikacije.
  • Kontinuirano poboljšanje sigurnosnih kompetencija, na primjer u obliku obuke osoblja o sigurnosti i kibernetičkom kriminalu. Podizanje svijesti o tome što je deepfake i kako se suprotstaviti ovoj prijetnji.
  • Podrška i razvoj sigurnosnih sustava u informacijsko-komunikacijskim (ICT) okruženjima.

Gdje možete naići na deepfake?

Lažni materijal može se pronaći gdje god može doći do velike publike, tj. potencijalne deepfake publike. Facebook, Instagram, TikTok i druge društvene mreže pune su ovakvih stvari.

Ne radi se samo o nevjerojatnim videima, već i o "dotjeranim" fotografijama i audio zapisima. Neki od autentičnih profila slavnih ponekad su potpuno ispunjeni lažnim sadržajima!

Ovo nije jedino mjesto gdje možete pronaći deepfake. Na ovoj tehnologiji temelji se i aplikacija za pametni telefon koja omogućuje dodavanje brkova i brade ili drugih specijalnih efekata na fotografiju (primjerice, starenje za nekoliko desetljeća). Tako može ispasti da je posljednja fotografija koju ste dobili od prijatelja malo "podvučena".

Također zanimljivo:

Deepfake filmovi nisu samo pornografski

Korištenje deepfakea može biti i pozitivno i negativno. Deepfake filmovi mogu biti razigrani ili zabavni. Ovdje treba spomenuti video kraljice Elizabete koja pleše na stolu tijekom novogodišnje poruke. To je također svrha većine modifikacija fotografija koje radimo s aplikacijom deepfake na našim pametnim telefonima. Trebalo bi biti smiješno i zabavno.

Deepfake materijali mogu imati i obrazovnu ulogu, primjerice, "uskrsnuti" već mrtve umjetnike, pjevače ili glazbenike. Neki muzeji, posebice Muzej Salvadora Dalija na Floridi, koriste ovu tehnologiju, gdje posjetiteljima svoja djela "predstavlja" sam umjetnik, s kojim možete razgovarati, pa čak i slikati se.

Tehnologija Deepfake koristi se u generatorima glasa – uređajima namijenjenim osobama koje su izgubile sposobnost govora. Zahvaljujući njima, takvi nam se još uvijek mogu obratiti svojim glasom. Val Kilmerov glas, koji je izgubio zbog raka grkljana, modeliran je u Top Gunu: Maverick.

Nažalost, imamo i mnogo primjera negativne upotrebe deepfakinga. Politika je primjer gdje ova vrsta lažnih informacija može imati dalekosežne, globalne posljedice, poput diskreditacije javnih osoba, utjecaja na burzu, gospodarstvo ili izborne rezultate, pa čak i vođenje rata u ratu. Dobro pripremljen zapisnik olakšava manipulaciju javnim mnijenjem. Progresivni razvoj tehnologije dodatno će otežati razlikovanje pravih materijala od krivotvorina. Dakle, ovo je korak prema padu društvenog povjerenja i informacijskom kaosu.

Deepfake videi, kao što smo već spomenuli, rašireni su u porno industriji. Promjene se najčešće sastoje u zamjeni lica porno glumice/glumca licima slavnih ili filmskih zvijezda, naravno, bez njihovog pristanka.

Pročitajte također: Svemirske misije s posadom: Zašto je povratak na Zemlju još uvijek problem?

Deepfake je stvarna prijetnja svima nama

Deepfake nije problem samo za glumce i političare. Svatko može biti pogođen lažnim sadržajem. Element ucjene i iznude može biti montirana snimka u kojoj činimo kazneno djelo ili dolazimo u dvosmislenu situaciju – ili vi platite ili mi otkrijemo. Ako radite u poslu, morate razumjeti da postoji opasnost od korištenja deepfakea za diskreditiranje tvrtke među njezinim partnerima.

Deepfake

Povećanje količine manipulativnog materijala također može utjecati na društveno povjerenje i povjerenje u pružene informacije. Kako vjerovati ičemu kad film koji je dokaz na sudu može biti lažan, a vijesti izvještavati o nepostojećim događajima?

Deepfake

Tehnologija koja vam omogućuje stvaranje zlonamjerne slike, audio zapisa ili filma čiji likovi vrlo nalikuju drugim ljudima nova je razina prijetnje kibernetičkih kriminalaca. Pogotovo s obzirom na činjenicu da u društvenim mrežama mogu izvući gotovo neograničene resurse izvornog materijala za stvaranje deepfakeova.

Softver za strojno učenje može pretraživati Facebook ABO Instagram, primjerice, i uhvatiti zanimljive fotografije ili videa potencijalnih "glumaca". Na temelju toga može se stvoriti vrlo jasan glas, slika i video osobe, ali s posebno kreiranim lažnim apelom koji simulira, primjerice, da se nalazi u ozbiljnoj nevolji - kao žrtva otmice ili nesreće. U sljedećoj fazi generira se lažni zahtjev za pomoć, na primjer financijsku, upućen rodbini "žrtve".

Pročitajte također: Svemirski teleskop James Webb: 10 ciljeva za promatranje

Borba protiv deepfakea

Protok lažnih informacija je toliki da su se mnoge društvene mreže odlučile boriti protiv deepfakea. Facebook і Twitter pokušajte otkriti lažne videozapise i automatski ih izbrisati. Velike korporacije (uključujući Microsoft ili Amazon) ulažu u softver koji će otkriti lažni sadržaj. Znanstvenici također rade na rješenju ovog problema.

Međutim, u situaciji kada je aplikacija na pametnom telefonu dovoljna za stvaranje lažnog filma, borba protiv deepfakea je kao borba protiv vjetrenjača. Također ne postoje pravne norme koje bi određivale posljedice manipulacije informacijama ili korištenja tuđeg imidža na ovakav način.

Deepfake

Deepfake je sve popularniji i sve ga je teže razlikovati od istine. To je zbog poboljšanja tehnologija koje mogu bolje oponašati ljudske pokrete i geste. Deepfakeovi se mogu koristiti u dobre svrhe, poput izrade edukativnih materijala ili pomoći ljudima koji su izgubili glas nakon operacije grkljana, ali su i alat za hakere, ucjenjivače i internetske trolove.

Dakle, ako ponovno naiđete na nevjerojatan video na internetu, prvo provjerite je li ponekad modificiran ili lažan. Možda ono što gledate nikada nije bilo u stvarnosti!

Pročitajte također:

Međutim, ne zaboravite da se u Ukrajini vodi rat. Ako želite pomoći Ukrajini u borbi protiv ruskih okupatora, najbolji način da to učinite je da donirate Oružanim snagama Ukrajine putem Savelife ili putem službene stranice NBU.

Yuri Svitlyk
Yuri Svitlyk
Sin Karpata, nepriznati genij matematike, "pravnik"Microsoft, praktični altruist, lijevo-desno
- Oglašavanje -
Prijavite se
Obavijesti o
gost

0 Komentari
Ugrađene recenzije
Pogledaj sve komentare