Root NationRakstiTehnoloģijasKas ir deepfake, cik tas ir bīstams un kā to atpazīt

Kas ir deepfake, cik tas ir bīstams un kā to atpazīt

-

Šodien mēs runāsim par deepfake, kas tagad ir kļuvusi plaši izplatīta un diezgan izplatīta parādība. Pateicoties šai tehnoloģijai, informācijas manipulācijas ir sasniegušas jaunu līmeni.

Vai redzējāt karalieni Elizabeti dejojam uz galda Jaungada vēstījuma pārraides laikā? Vai klausījies Kima Čenuna runu par demokrātiju, vai apbrīnojis Salvadoru Dalī, kurš runāja par viņa nāvi (kāpēc viņš tai netic)?

Visiem šiem pārsteidzošajiem videoklipiem ir viena kopīga iezīme – tie ir viltoti. Deepfake ir nepatiesas informācijas radīšanas un publicēšanas paņēmiens video, audio un fotoattēlu veidā. Ar šādiem materiāliem kļūst arvien vieglāk saskarties, tāpēc esam sagatavojuši jums instrukciju par deepfake video veidošanu, atpazīšanu un meklēšanu internetā.

Lasi arī: Rītdienas blokķēdes: kriptovalūtu nozares nākotne vienkāršos vārdos

Deepfake - kas tas ir?

Deepfake (Deepfake) patiesībā ir foto, video vai audio materiāls, kas nav īsts, viltots, tas ir, viltots. Deepfake (divu vārdu kombinācija — dziļa mācīšanās "dziļa mācīšanās" un viltota "viltus") dziļai mācīšanai izmanto mākslīgo intelektu (AI), lai videoklipos un citos digitālo mediju materiālos radītu viena cilvēka līdzību ar otru. To veido algoritmi, kuru pamatā ir reālas balss, skaņas, video vai fotoattēlu paraugi, kas ir sašūti kopā. Algoritms ņem atlasīto informāciju no daudzām dažādām vietām un pēc tam apvieno to vienā materiālā. Rezultātā tiek izveidots kaut kas jauns (nepatiess), kura pamatā ir dažādu reālu datu kombinācija.

Deepfake

Bet tas vēl nav viss. Deepfake var arī "uzgleznot" fotoattēlu no nulles, piemēram, izveidojot varoņu sejas, kuras nekad nav pastāvējušas.

Kāds ir šādu darbību mērķis? Cita starpā Deepfake tiek izmantots, lai internetā izplatītu nepareizu informāciju (piemēram, par politiskām personām vai notikumiem), zādzībām (piemēram, balss komandu viltošanai) un pornogrāfijas veidošanai (filmas ar slavenībām – deepfake porn). To var izmantot arī izglītības un izklaides nolūkos.

Lasi arī: Par kvantu datoriem vienkāršos vārdos

Deepfake — ​​kā tas darbojas?

Kopumā ir divi veidi, kā izveidot deepfake materiālu. Pirmajā metodē tiek izmantoti divi algoritmi. Pirmkārt, pirmais (kodētājs) meklē divu attēlu kopīgās iezīmes (tos, kuras jāapvieno vienā), tad otrais (dekodētājs) var tās pārsūtīt uz jaunizveidoto attēlu. Piemēram, ja mēs vēlamies izveidot video, kurā aktieris kustētos tāpat kā mēs, kodētājs ņem kustību no video, kurā mēs dejojam, un dekodētājs jau aizstās mūsu seju ar aktiera seju un liks viņam reproducēt mūsu kustības. . Šeit galvenais ir atlasītās darbības, kas tiek kopētas jaunajā attēlā (piemēram, kustības, žesti, sejas izteiksmes).

- Reklāma -

Otrs veids ir ģeneratīvie pretrunīgie tīkli (GAN), kur divi algoritmi darbojas kopā. Pirmo sauc par ģeneratoru, jo, izmantojot vispārīgu informāciju, tas rada attēlus (piemēram, cilvēka tēlu), kas apvieno tā atšķirīgās iezīmes (cilvēkam ir ķermenis, seja, acis). Otrs algoritms ir diskriminators, kas novērtē, vai ģeneratora sniegtie attēli ir patiesi vai nē.

Deepfake

Laika gaitā abi algoritmi kļūst arvien progresīvāki, tāpēc viņi mācās un pilnveido sevi. Ja ģenerators ir apmācīts tā, ka diskriminētājs neatpazīst viltotu fotoattēlu (uzskata to par īstu), process ir pabeigts.

Lielu daudzumu viltotas programmatūras var atrast vietnē GitHub — atklātā pirmkoda kopienā skriptiem, programmām un kodiem. Dažas no šīm programmām tiek izmantotas tīri izklaides nolūkos, tāpēc deepfake veidošana nav aizliegta, tomēr daudzas no tām var tikt izmantotas arī krimināliem nolūkiem.

Daudzi eksperti uzskata, ka nākotnē, attīstoties tehnoloģijām, dziļi viltojumi kļūs daudz sarežģītāki un var radīt nopietnākus draudus sabiedrībai, kas saistīti ar iejaukšanos vēlēšanās, politiskās spriedzes radīšanu un noziedzīgām darbībām.

Lasi arī:

Deepfake draudi – kopš kura laika tie pastāv?

Pirmo reizi šāda viltus informācija parādījās 2017. gadā. Tad lietotājs ir aizstājvārds deepfake Reddit publicēja vairākas pornogrāfiskas filmas, kurās bija iesaistītas slavenības, tostarp Skārleta Johansone, Gala Gadota un Teilore Svifta. Kopš tā laika šī nozare ir strauji attīstījusies, jo gandrīz ikviens var uzņemt deepfake filmas.

https://youtu.be/IvY-Abd2FfM

Pēdējos gados dziļās viltošanas tehnoloģija ir tik ļoti attīstījusies, ka tagad ir arvien grūtāk noteikt, vai tas ir safabricēts video vai īsts reālu cilvēku ieraksts. Piemērs var būt video ar Elizabetes II vēstījumu vai Baraka Obamas runu, kas ātri tika publicēta daudzās dažādās vietnēs. Video ar bijušā ASV prezidenta paziņojumu pievērsās globālajiem draudiem, ko var radīt internetā publicētā dezinformācija un viltus ziņas. Kanāla BuzzFeedVideos publicētajā materiālā par ASV 44. prezidenta balsi kļuva amerikāņu režisors un aktieris Džordans Pīls. Taču šobrīd mākslīgais intelekts jau spēj ģenerēt balsi, balstoties uz arhīva ierakstiem par cilvēku, kuram it kā vajadzētu parādīties viltus filmā.

Šādas progresīvas tehnoloģijas nākotnē var kļūt par bīstamu instrumentu kibernoziedznieku un interneta krāpnieku rokās. Viltus video publicēšana ar svarīgu politiķu runu var radīt reālu kaitējumu starptautiskā līmenī. Šādas filmas, kuru pamatā ir deepfake tehnoloģija, var izraisīt diplomātiskus konfliktus un skandālus, tādējādi ietekmējot sabiedrisko domu un cilvēku uzvedību.

Vēl viens potenciāls drauds ir pieaugušajiem paredzēts saturs, kas vienmēr ir radījis lielāko trafiku virtuālajā telpā. Nav brīnums, ka Deepfake tehnoloģija tik ātri nonāk internetā. Saskaņā ar Nīderlandes kiberdrošības uzņēmuma Deeptrace ziņojumu 96% no safabricētiem videoklipiem, kas izveidoti, izmantojot deepfake tehnoloģiju, ir saturiski par šādām tēmām. Visbiežāk šādu materiālu izgatavošanai tiek izmantoti kinozvaigžņu, sportistu un pat politiķu un valdības pārstāvju attēli.

Lasi arī: Kāpēc kosmosa misija nevar lidot jebkurā brīdī: kas ir palaišanas logs?

- Reklāma -

Kā izveidot dziļu viltojumu?

Ja kāds var taisīt deepfake video, vai tos var taisīt arī mājās? Noteikti jā, bet to kvalitāte, protams, nebūs ideāla. Lai izveidotu šādus videoklipus, ir nepieciešami lieli skaitļošanas resursi un jaudīgas videokartes. Ar tiem, kas mums parasti ir mājas datoros, nepietiek, un pats izstrādes process var ilgt vairākas nedēļas. Arī filmu kvalitāte atstās ko vēlēties - būs redzamas kļūdas, mutes kustības var neatbilst skaņai, būs redzamas vietas, kur "vecais" saturs pārklājas ar "jauno".

Tomēr, ja mēs vēlamies nedaudz "pieskarties" fotoattēlam vai izveidot īsu deepfake video, programmu tam var lejupielādēt tieši viedtālrunī. Ļoti ērti lietojamā programma dažu minūšu laikā novērsīs izskata trūkumus, pārvērtīs par izvēlēto slavenību vai ļaus jūsu sunim runāt cilvēka balsī.

Lasi arī:

Kā atpazīt dziļo viltojumu?

Profesionālus dziļi viltotus videoklipus kļūst arvien grūtāk pamanīt. Sākumā algoritmiem bija problēmas ar pamata uzvedību (piemēram, acu mirkšķināšanu), un uzreiz bija skaidrs, ka filma ir viltota. Šī kļūda tagad ir novērsta. Viltus varoņi mirgo, kustas dabiski un runā tekoši. Tomēr dažreiz viņiem joprojām ir problēmas ar dabisko acu kustību.

Deepfake

Tātad, kā pamanīt dziļu viltojumu? Lūk, kam jāpievērš uzmanība, skatoties video:

  • Vai skaņa seko līdzi mutes kustībām? Dažreiz tie gluži nesakrīt, un videoklipā redzamā persona kustina lūpas ar kavēšanos attiecībā pret skaņu vai nepareizi formulē vārdus.
  • Visādas parādības, kas šķiet nedabiskas. Šeit ir runa, cita starpā, par visa ķermeņa vai galvas stāvokli attiecībā pret rumpi, nepareizu gaismas atstarošanu uz priekšmetiem, nepareizu gaismas atspīdumu rotaslietās utt. Nedabiska ādas krāsa var arī liecināt, ka filma ir viltota.
  • Audio un video kvalitāte. Atšķirība starp tām palīdzēs atklāt dziļu viltojumu. Parasti skaņu celiņš ir sliktākas kvalitātes.
  • Attēla nelīdzenumi. Visbiežāk tie parādās ķermeņa un galvas krustojumā. Kad slavenības galva ir "pielīmēta" pie cita ķermeņa, kakla rajonā var parādīties izplūdums. Dažreiz ir kadru izlaišana (intermittitāte) un kadru kļūdas (atšķirīgs gaismas leņķis, veids vai virziens).
  • Haštaga maiņa videoklipa laikā var arī nozīmēt, ka mums ir dziļi viltots videoklips.

Aplūkojot materiālus no deepfake viedokļa, ir vērts paļauties arī uz savām sajūtām. Reizēm mums rodas iespaids, ka kaut kas ir "nepareizi". Cita starpā tas notiek, ja ekrānā attēlotās personas emocijas nesakrīt ar to, ko mums parāda sejas izteiksme vai balss tonis. Tas arī liek domāt, ka video varētu būt viltots.

Interesanti arī:

Kā pasargāt sevi no deepfake?

Lai izvairītos no dziļas viltus krāpniecības, eksperti iesaka veikt šādas darbības:

  • Izveidojiet slepenu vārdu vai saukli ar mīļajiem, piemēram, ģimenes locekļiem vai kolēģiem, kuri pierādīs situācijas realitāti ar video vai ierakstu. Tas ļaus ātri pārliecināties par situācijas nepatiesību un izvairīties, piemēram, no naudas izspiešanas.
  • Vienojieties ar radiniekiem vai kolēģiem par informācijas sarakstu, par kuru nekad netiks jautāts ar ziņām, piemēram, sociālajos tīklos vai SMS. Ir obligāti, ka visas ieinteresētās puses ir informētas par patieso briesmu apmēru.
  • Daudzfaktoru autentifikācijas kanālu ieviešana, lai pārbaudītu katru pieprasījumu. Ja saziņa sākas ar īsziņu, tad drošākais veids, kā apstiprināt informāciju, ir sazināties ar ziņojuma sūtītāju sarunas veidā, izmantojot iepriekš saskaņotu un drošu saziņas kanālu.
  • Pastāvīga drošības kompetences uzlabošana, piemēram, personāla apmācības veidā par drošību un kibernoziegumiem. Palielināt izpratni par to, kas ir dziļa viltošana un kā novērst šo draudu.
  • Drošības sistēmu atbalsts un attīstība informācijas un komunikācijas tehnoloģiju (IKT) vidēs.

Kur var sastapt dziļo viltojumu?

Viltus materiālus var atrast visur, kur tas var sasniegt lielu auditoriju, t.i., potenciālo deepfake auditoriju. Facebook, Instagram, TikTok un citas sociālo mediju vietnes ir pilnas ar šāda veida lietām.

Tie ir ne tikai pārsteidzoši video, bet arī "rafinēti" fotoattēli un audio ieraksti. Daži no autentiskajiem slavenību profiliem dažkārt ir pilnībā piepildīti ar viltotām lietām!

Šī nav vienīgā vieta, kur var atrast deepfake. Uz šīs tehnoloģijas pamatā ir arī aplikācija viedtālrunim, kas ļauj fotoattēlam pievienot ūsas un bārdu vai citus specefektus (piemēram, novecot par vairākiem gadu desmitiem). Līdz ar to var izrādīties, ka pēdējā fotogrāfija, ko saņēmi no draugiem, ir nedaudz "nepietiekama".

Interesanti arī:

Deepfake filmas ir ne tikai pornogrāfiskas

Deepfake izmantošana var būt gan pozitīva, gan negatīva. Deepfake filmas var būt rotaļīgas vai izklaidējošas. Šeit jāpiemin video, kurā karaliene Elizabete dejo uz galda Jaungada vēstījuma laikā. Tas ir arī mērķis lielākajai daļai fotoattēlu modifikāciju, ko veicam ar dziļo viltojumu lietotni savos viedtālruņos. Tam vajadzētu būt smieklīgam un jautram.

Deepfake materiāliem var būt arī izglītojoša loma, piemēram, "atdzīvināt" jau mirušus māksliniekus, dziedātājus vai mūziķus. Šo tehnoloģiju izmanto daži muzeji, jo īpaši Salvadora Dalī muzejs Floridā, kur apmeklētājus ar saviem darbiem "prezentē" pats mākslinieks, ar kuru var sarunāties un pat fotografēties.

Deepfake tehnoloģija tiek izmantota balss ģeneratoros - ierīcēs, kas paredzētas cilvēkiem, kuri zaudējuši spēju runāt. Pateicoties viņiem, šādi cilvēki joprojām var runāt ar mums ar savu balsi. Vala Kilmera balss, ko viņš zaudēja balsenes vēža dēļ, tika modelēta filmā Top Gun: Maverick.

Diemžēl mums ir arī daudz piemēru par negatīvu viltošanas izmantošanu. Politika ir piemērs, kur šāda veida nepatiesai informācijai var būt tālejošas, globālas sekas, piemēram, publisku personu diskreditēšana, akciju tirgus, ekonomikas vai vēlēšanu rezultātu ietekmēšana vai pat karadarbība karā. Labi sagatavots ieraksts ļauj vieglāk manipulēt ar sabiedrisko domu. Progresīvā tehnoloģiju attīstība apgrūtinās īstu materiālu nošķiršanu no viltojumiem. Tātad, tas ir solis pretī sociālās uzticības un informācijas haosa krišanai.

Deepfake video, kā jau minējām, ir plaši izplatīti porno industrijā. Visbiežāk izmaiņas sastāv no pornoaktrises/aktiera sejas aizstāšanas ar slavenību vai filmu zvaigžņu seju, protams, bez viņu piekrišanas.

Lasi arī: Pilotētas kosmosa misijas: kāpēc atgriešanās uz Zemes joprojām ir problēma?

Deepfake ir reāls drauds mums visiem

Deepfake ir ne tikai aktieru un politiķu problēma. Viltus saturs var ietekmēt ikvienu. Šantāžas un izspiešanas elements var būt safabricēts video, kurā izdarām noziegumu vai nonākam neviennozīmīgā situācijā – vai nu tu maksā, vai mēs atklājam. Ja strādājat biznesā, jums jāsaprot, ka pastāv risks izmantot deepfake, lai diskreditētu uzņēmumu tā darījuma partneru vidū.

Deepfake

Manipulatīvā materiāla apjoma pieaugums var ietekmēt arī sociālo uzticēšanos un pārliecību par sniegto informāciju. Kā var kaut kam ticēt, ja filma, kas ir pierādījums tiesā, var būt nepatiesa un ziņas vēsta par neesošiem notikumiem?

Deepfake

Tehnoloģija, kas ļauj izveidot ļaunprātīgu attēlu, audio ierakstu vai filmu, kuras varoņi ļoti līdzinās citiem cilvēkiem, ir jauns kibernoziedznieku apdraudējuma līmenis. Īpaši ņemot vērā faktu, ka sociālajos tīklos viņi var iegūt gandrīz neierobežotus izejmateriālu resursus dziļo viltojumu veidošanai.

Mašīnmācīšanās programmatūra var meklēt Facebook uz mājām Instagram, piemēram, un noķert interesantas fotogrāfijas vai video ar potenciālajiem "aktieriem". Uz tā pamata var izveidot ļoti skaidru cilvēka balsi, tēlu un video, bet ar īpaši izveidotu viltus aicinājumu, kas simulē, piemēram, atrašanos nopietnās nepatikšanās – kā nolaupīšanā vai nelaimes gadījumā cietušajam. Nākamajā posmā tiek ģenerēts viltus palīdzības lūgums, piemēram, finansiālas, adresēts "upura" radiniekiem.

Lasi arī: Džeimsa Veba kosmiskais teleskops: 10 novērojamie mērķi

Cīņa pret deepfake

Nepatiesas informācijas plūsma ir tik liela, ka daudzi sociālie tīkli ir nolēmuši cīnīties pret deepfake. Facebook і Twitter mēģiniet atklāt viltotus videoklipus un automātiski tos izdzēst. Lielās korporācijas (t.sk Microsoft vai Amazon) iegulda programmatūrā, kas atklās viltotu saturu. Zinātnieki arī strādā pie šīs problēmas risinājuma.

Tomēr situācijā, kad viltus filmas izveidošanai pietiek ar viedtālruņa lietotni, cīņa ar deepfake ir kā cīņa pret vējdzirnavām. Nav arī tiesību normu, kas noteiktu sekas, manipulējot ar informāciju vai izmantojot svešu attēlu šādā veidā.

Deepfake

Deepfake kļūst arvien populārāks, un to ir arvien grūtāk atšķirt no patiesības. Tas ir saistīts ar tehnoloģiju uzlabošanu, kas var labāk atdarināt cilvēka kustības un žestus. Deepfake var izmantot labiem mērķiem, piemēram, veidojot izglītojošus materiālus vai palīdzot cilvēkiem, kuri zaudējuši balsi pēc balsenes operācijas, taču tie ir arī rīks hakeriem, šantažētājiem un interneta troļļiem.

Tātad, ja internetā atkal atrodat pārsteidzošu videoklipu, vispirms pārbaudiet, vai tas dažkārt nav modificēts vai viltots. Varbūt tas, uz ko jūs skatāties, nekad nav bijis realitātē!

Lasi arī:

Tomēr neaizmirstiet, ka Ukrainā notiek karš. Ja vēlaties palīdzēt Ukrainai cīnīties ar krievu okupantiem, labākais veids, kā to izdarīt, ir ziedot Ukrainas bruņotajiem spēkiem caur Savelife vai izmantojot oficiālo lapu NBU.

Yuri Svitlyk
Yuri Svitlyk
Karpatu kalnu dēls, neatzīts matemātikas ģēnijs, "jurists"Microsoft, praktiskais altruists, kreisais-labais
- Reklāma -
Pierakstīties
Paziņot par
viesis

0 komentāri
Iegultās atsauksmes
Skatīt visus komentārus