Root NationČlanciTehnologijeŠta je deepfake, koliko je opasan i kako ga prepoznati

Šta je deepfake, koliko je opasan i kako ga prepoznati

-

Danas ćemo govoriti o deepfake-u, koji je sada postao široko rasprostranjen i prilično čest fenomen. Zahvaljujući ovoj tehnologiji, manipulacija informacijama dostigla je novi nivo.

Jeste li vidjeli kraljicu Elizabetu kako pleše na stolu tokom emitovanja novogodišnje poruke? Ili slušao govor Kim Jong-una o demokratiji, ili se divio Salvadoru Daliju, koji je govorio o njegovoj smrti (zašto ne vjeruje u to)?

Svi ovi neverovatni video snimci imaju jednu zajedničku stvar - lažni su. Deepfake je tehnika kreiranja i objavljivanja lažnih informacija u obliku video zapisa, zvuka i fotografija. Sve je lakše naići na takve materijale, pa smo za vas pripremili uputstvo za kreiranje, prepoznavanje i traženje deepfake videa na internetu.

Pročitajte također: Blockchains sutrašnjice: Budućnost industrije kriptovaluta jednostavnim riječima

Deepfake - šta je to?

Deepfake (Deepfake) je, u stvari, foto, video ili audio materijal koji nije stvaran, lažan, odnosno lažan. Deepfake (kombinacija dvije riječi - duboko učenje "duboko učenje" i lažno "lažno") koristi umjetnu inteligenciju (AI) za duboko učenje kako bi stvorio sličnost jedne osobe s drugom u video zapisima i drugim digitalnim medijskim materijalima. Kreiraju ga algoritmi zasnovani na stvarnim uzorcima glasa, zvuka, videa ili fotografija koji su spojeni zajedno. Algoritam uzima odabrane informacije sa mnogo različitih mjesta i zatim ih kombinuje u jedan materijal. Kao rezultat, stvara se nešto novo (lažno), što se zasniva na kombinaciji različitih stvarnih podataka.

Deepfake

Ali to nije sve. Deepfake također može "obojiti" fotografiju od nule, na primjer kreiranjem lica likova koji nikada nisu postojali.

Koja je svrha takvih akcija? Između ostalog, Deepfake se koristi za širenje netačnih informacija na Internetu (na primjer, o političkim ličnostima ili događajima), krađu (na primjer, krivotvorenje glasovnih komandi) i kreiranje pornografije (filmovi sa poznatim ličnostima - deepfake pornografija). Može se koristiti i u obrazovne i zabavne svrhe.

Pročitajte također: O kvantnim kompjuterima jednostavnim riječima

Deepfake - Kako to funkcionira?

Općenito, postoje dva načina za stvaranje deepfake materijala. Prva metoda koristi dva algoritma. Prvo, prvi (koder) traži zajedničke karakteristike dvije slike (one koje treba spojiti u jednu), zatim ih drugi (dekoder) može prenijeti na novonastalu sliku. Na primjer, ako želimo napraviti video u kojem bi se glumac kretao poput nas, enkoder preuzima pokret iz videa gdje plešemo, a dekoder će već zamijeniti naše lice licem glumca i natjerati ga da reproducira naše pokrete . Ovdje su ključ odabrane radnje koje se kopiraju na novu sliku (na primjer, pokreti, gestovi, izrazi lica).

- Advertisement -

Drugi način je kroz generativne adversarijske mreže (GAN), gdje dva algoritma rade zajedno. Prvi se naziva generator jer, koristeći opće informacije, stvara slike (na primjer, sliku osobe) koje kombinuju njene karakteristike (osoba ima tijelo, lice, oči). Drugi algoritam je diskriminator koji procjenjuje da li su slike koje mu je dao generator istinite ili ne.

Deepfake

Vremenom, oba algoritma postaju naprednija, tako da sami uče i usavršavaju se. Ako je generator osposobljen na takav način da diskriminator ne prepozna lažnu fotografiju (smatra je stvarnom), proces je završen.

Velika količina krivotvorenog softvera može se naći na GitHubu, zajednici otvorenog koda za skripte, programe i kod. Neki od ovih programa se koriste isključivo u zabavne svrhe, tako da kreiranje deepfake-a nije zabranjeno, međutim, mnogi od njih se mogu koristiti i u kriminalne svrhe.

Mnogi stručnjaci smatraju da će u budućnosti, razvojem tehnologija, deepfakes postati mnogo složeniji i mogu stvoriti ozbiljnije prijetnje društvu, koje se odnose na miješanje u izbore, stvaranje političkih tenzija i kriminalne aktivnosti.

Pročitajte također:

Prijetnja Deepfakea - od kada postoji?

Prvi put su se takve lažne informacije pojavile 2017. Tada je korisnik pseudonim deepfake objavio je na Redditu nekoliko pornografskih filmova u kojima su bile uključene poznate ličnosti, uključujući Scarlett Johansson, Gal Gadot i Taylor Swift. Od tada se ova industrija ubrzano razvija, jer gotovo svako može snimati deepfake filmove.

https://youtu.be/IvY-Abd2FfM

Poslednjih godina tehnologija deepfakinga se toliko razvila da je sada sve teže utvrditi da li se radi o izmišljenom videu ili o autentičnom snimku stvarnih ljudi. Primjer može biti video s porukom Elizabete II ili govor Baracka Obame, koji je brzo objavljen na mnogo različitih stranica. Video s izjavom bivšeg američkog predsjednika osvrnuo se na globalne prijetnje koje mogu izazvati dezinformacije i lažne vijesti objavljene na internetu. U materijalu koji je objavio kanal BuzzFeedVideos, američki reditelj i glumac Jordan Peele postao je glas 44. predsjednika Sjedinjenih Država. Međutim, trenutno je umjetna inteligencija već sposobna generirati glas na osnovu arhivskih snimaka osobe koja bi se trebala pojaviti u lažnom filmu.

Takve napredne tehnologije mogu u budućnosti postati opasno oruđe u rukama sajber kriminalaca i internet prevaranata. Objavljivanje lažnih video zapisa govora važnih političara može nanijeti pravu štetu na međunarodnom nivou. Takvi filmovi, bazirani na deepfake tehnologiji, mogu izazvati diplomatske sukobe i skandale, a samim tim i utjecati na javno mnijenje i ponašanje ljudi.

Još jedna potencijalna prijetnja je sadržaj za odrasle, koji je uvijek stvarao najviše prometa u virtuelnom prostoru. Nije ni čudo da je deepfake tehnologija tako brzo došla na internet. Prema izvještaju holandske kompanije za kibernetičku sigurnost Deeptrace, 96% fabrikovanih video zapisa napravljenih korištenjem deepfake tehnologije sadrži takve teme. Najčešće se za proizvodnju takvih materijala koriste slike filmskih zvijezda, sportaša, pa čak i političara i predstavnika vlasti.

Pročitajte također: Zašto svemirska misija ne može poletjeti ni u jednom trenutku: Šta je prozor za lansiranje?

- Advertisement -

Kako napraviti deepfake?

Ako neko može da pravi deepfake video zapise, da li ih može napraviti i kod kuće? Definitivno da, ali njihov kvalitet, naravno, neće biti savršen. Stvaranje takvih video zapisa zahtijeva velike računarske resurse i moćne video kartice. Oni koje inače imamo u kućnim računarima nisu dovoljni, a sam proces razvoja može trajati nedeljama. Kvalitet filmova će takođe ostaviti mnogo da se poželi - biće vidljivih grešaka, pokreti usta možda neće odgovarati zvuku, biće vidljiva mesta gde se "stari" sadržaji preklapaju sa "novim".

Međutim, ako želimo malo da "popravimo" fotografiju ili snimimo kratak deepfake video, program za to možete preuzeti direktno na pametni telefon. Program koji je vrlo jednostavan za korištenje će za nekoliko minuta ukloniti nedostatke izgleda, pretvoriti vas u odabranu slavnu ličnost ili omogućiti vašem psu da govori ljudskim glasom.

Pročitajte također:

Kako prepoznati deepfake?

Profesionalne deepfake videozapise je sve teže i teže uočiti. U početku su algoritmi imali problema sa osnovnim ponašanjem (kao što je treptanje oka), i odmah je bilo jasno da je film lažan. Ova greška je sada ispravljena. Lažni likovi trepću, kreću se prirodno i govore tečno. Međutim, ponekad i dalje imaju problema s prirodnim pokretima očiju.

Deepfake

Dakle, kako uočiti deepfake? Evo na šta treba obratiti pažnju prilikom gledanja videa:

  • Da li zvuk prati pokrete usta? Ponekad se ne poklapaju sasvim, a osoba na videu pomiče usne sa zakašnjenjem u odnosu na zvuk ili pogrešno artikulira riječi.
  • Sve vrste pojava koje deluju neprirodno. Ovdje je riječ, između ostalog, o položaju cijelog tijela ili glave u odnosu na torzo, nepravilnom odrazu svjetlosti na predmetima, nepravilnom odrazu svjetlosti u nakitu itd. Neprirodna boja kože takođe može biti znak da je film lažan.
  • Kvalitet zvuka i videa. Razlika između njih pomoći će otkriti deepfake. Obično je zvučni zapis lošijeg kvaliteta.
  • Nepravilnosti slike. Najčešće se pojavljuju na spoju tijela i glave. Kada je glava slavne osobe "zalijepljena" za drugo tijelo, može se pojaviti zamućenje u predjelu vrata. Ponekad postoje preskakanja kadrova (isprekidanost) i greške kadrova (različiti ugao svjetlosti, tip ili smjer).
  • Promjena hashtaga tokom videa također može značiti da imamo deepfake video.

Kada gledate materijale sa stanovišta deepfake-a, vrijedi se osloniti i na vlastita osjećanja. Ponekad imamo utisak da nešto nije u redu. To se dešava, između ostalog, kada se emocije osobe prikazane na ekranu ne poklapaju sa onim što nam pokazuje izraz lica ili ton glasa. Ovo također sugerira da je video možda lažiran.

Također zanimljivo:

Kako se zaštititi od deepfake-a?

Kako biste izbjegli duboku lažnu prevaru, stručnjaci savjetuju sljedeće korake:

  • Napravite tajnu riječ ili slogan sa voljenim osobama, poput članova porodice ili kolega, koji će videom ili snimkom dokazati realnost situacije. To će vam omogućiti da brzo provjerite lažnost situacije i izbjegnete, na primjer, iznudu novca.
  • Dogovorite s rođacima ili kolegama listu informacija o kojima se nikada neće pitati putem poruka, na primjer, na društvenim mrežama ili SMS-om. Neophodno je da svi zainteresovani budu obavešteni o stvarnom obimu opasnosti.
  • Implementacija kanala višefaktorske autentifikacije za provjeru svakog zahtjeva. Ako komunikacija počinje tekstualnom porukom, tada je najsigurniji način da potvrdite informaciju kontaktiranje pošiljatelja poruke u obliku razgovora putem unaprijed dogovorenog i sigurnog kanala komunikacije.
  • Kontinuirano unapređenje bezbednosnih kompetencija, na primer u vidu obuke osoblja o bezbednosti i sajber kriminalu. Podizanje svijesti o tome šta je deepfake i kako se suprotstaviti ovoj prijetnji.
  • Podrška i razvoj sigurnosnih sistema u okruženjima informaciono-komunikacionih tehnologija (ICT).

Gdje možete naići na deepfake?

Lažni materijal se može naći svuda gdje može doći do velike publike, odnosno potencijalne deepfake publike. Facebook, Instagram, TikTok i druge društvene mreže pune su ovakvih stvari.

Ovo nisu samo zadivljujući video zapisi, već i "pročišćene" fotografije i audio snimci. Neki od autentičnih profila slavnih ponekad su bili potpuno ispunjeni deepfake stvarima!

Ovo nije jedino mjesto gdje možete pronaći deepfake. Na ovoj tehnologiji se zasniva i aplikacija za pametni telefon, koja vam omogućava da fotografiji dodate brkove i bradu ili druge specijalne efekte (na primjer, starenje za nekoliko decenija). Tako da se može ispostaviti da je posljednja fotografija koju ste dobili od svojih prijatelja malo "podvučena".

Također zanimljivo:

Deepfake filmovi nisu samo pornografski

Upotreba deepfake-a može biti i pozitivna i negativna. Deepfake filmovi mogu biti razigrani ili zabavni. Ovdje treba spomenuti snimak kraljice Elizabete kako pleše na stolu tokom novogodišnje poruke. To je i svrha većine modifikacija fotografija koje radimo s aplikacijom deepfake na našim pametnim telefonima. Trebalo bi biti smiješno i zabavno.

Deepfake materijali mogu imati i edukativnu ulogu, na primjer, "uskrsnuti" već mrtve umjetnike, pjevače ili muzičare. Neki muzeji, posebno Muzej Salvadora Dalija na Floridi, koriste ovu tehnologiju, gdje posjetiteljima svoje radove "prezentuje" sam umjetnik, s kojim se može razgovarati, pa čak i slikati.

Deepfake tehnologija se koristi u glasovnim generatorima - uređajima dizajniranim za ljude koji su izgubili sposobnost govora. Zahvaljujući njima, takvi ljudi i dalje mogu da nam govore svojim glasom. Glas Vala Kilmera, koji je izgubio od raka larinksa, modeliran je u Top Gun: Maverick.

Nažalost, imamo i mnogo primjera negativne upotrebe deepfakinga. Politika je primjer gdje ova vrsta lažnih informacija može imati dalekosežne, globalne posljedice, kao što su diskreditacija javnih ličnosti, utjecaj na berzu, ekonomiju ili izborne rezultate, pa čak i vođenje ratovanja u ratu. Dobro pripremljen zapis olakšava manipulisanje javnim mnijenjem. Progresivni razvoj tehnologija dodatno će otežati razlikovanje pravih materijala od lažnih. Dakle, ovo je korak ka padu društvenog povjerenja i informatičkog haosa.

Deepfake video snimci, kao što smo već spomenuli, široko su rasprostranjeni u porno industriji. Najčešće se promjene sastoje od zamjene lica porno glumice/glumca licem poznatih ili filmskih zvijezda, naravno, bez njihovog pristanka.

Pročitajte također: Svemirske misije s ljudskom posadom: Zašto je povratak na Zemlju i dalje problem?

Deepfake je prava prijetnja za sve nas

Deepfake nije problem samo za glumce i političare. Lažni sadržaji mogu biti pogođeni svima. Element ucjene i iznude može biti i izmišljeni video u kojem počinimo krivično djelo ili dođemo u dvosmislenu situaciju – ili vi plaćate ili mi otkrivamo. Ako radite u poslu, morate shvatiti da postoji opasnost od korištenja deepfake-a za diskreditaciju kompanije među njenim partnerima.

Deepfake

Povećanje količine manipulativnog materijala također može utjecati na društveno povjerenje i povjerenje u date informacije. Kako možete vjerovati bilo čemu kada film koji je dokaz na sudu može biti lažan, a vijesti izvještavaju o nepostojećim događajima?

Deepfake

Tehnologija koja vam omogućava da kreirate zlonamernu sliku, audio snimak ili film čiji likovi veoma podsećaju na druge ljude predstavlja novi nivo pretnje od strane sajber kriminalaca. Pogotovo s obzirom na činjenicu da na društvenim mrežama mogu izvući gotovo neograničene resurse izvornog materijala za kreiranje deepfakesa.

Softver za strojno učenje može pretraživati Facebook abo Instagram, na primjer, i uhvatite zanimljive fotografije ili video zapise potencijalnih "glumaca". Na osnovu toga može se stvoriti vrlo jasan glas, slika i video osobe, ali sa posebno kreiranim lažnim apelom koji simulira, na primjer, da se nalazi u ozbiljnoj nevolji - kao žrtva otmice ili nesreće. U sljedećoj fazi generiše se lažni zahtjev za pomoć, na primjer finansijsku, upućen rođacima "žrtve".

Pročitajte također: Svemirski teleskop James Webb: 10 ciljeva za promatranje

Borba protiv deepfake-a

Protok lažnih informacija je toliki da su se mnoge društvene mreže odlučile boriti protiv deepfakesa. Facebook і Twitter pokušajte otkriti lažne videozapise i automatski ih izbrisati. Velike korporacije (uključujući Microsoft ili Amazon) ulažu u softver koji će otkriti lažni sadržaj. Naučnici takođe rade na rješenju ovog problema.

Međutim, u situaciji u kojoj je aplikacija za pametni telefon dovoljna za stvaranje lažnog filma, borba protiv deepfake-a je kao borba protiv vjetrenjača. Ne postoje ni zakonske norme koje bi određivale posljedice manipuliranja informacijama ili korištenja tuđeg imidža na ovaj način.

Deepfake

Deepfake postaje sve popularniji i sve ga je teže razlikovati od istine. To je zbog poboljšanja tehnologija koje mogu bolje imitirati ljudske pokrete i geste. Deepfakes se može koristiti u dobre svrhe, poput kreiranja edukativnih materijala ili pomoći ljudima koji su izgubili glas nakon operacije larinksa, ali su i alat za hakere, ucjenjivače i internet trolove.

Dakle, ako ponovo naiđete na nevjerovatan video na internetu, prvo provjerite da li je ponekad izmijenjen ili lažan. Možda ovo što gledate nikada nije bilo u stvarnosti!

Pročitajte također:

Međutim, ne zaboravite da se u Ukrajini vodi rat. Ako želite pomoći Ukrajini u borbi protiv ruskih okupatora, najbolji način da to učinite je da donirate Oružanim snagama Ukrajine putem Savelife ili preko službene stranice NBU.

Yuri Svitlyk
Yuri Svitlyk
Sin Karpata, nepriznati genije matematike, "advokat"Microsoft, praktični altruista, lijevo-desno
- Advertisement -
Prijaviti se
Obavijesti o
gost

0 Komentari
Embedded Reviews
Pogledaj sve komentare