29 m. kovo 2024 d., penktadienis

darbalaukis v4.2.1

Root NationStraipsniaiTechnologijosKas yra deepfake, koks jis pavojingas ir kaip jį atpažinti

Kas yra deepfake, koks jis pavojingas ir kaip jį atpažinti

-

Šiandien mes kalbėsime apie deepfake, kuris dabar tapo plačiai paplitęs ir gana dažnas reiškinys. Šios technologijos dėka manipuliavimas informacija pasiekė naują lygį.

Ar per Naujųjų metų žinią matėte ant stalo šokančią karalienę Elžbietą? Ar klausėtės Kim Jong-uno kalbos apie demokratiją, ar žavėjotės Salvadoru Dali, kuris kalbėjo apie jo mirtį (kodėl jis ja netiki)?

Visi šie nuostabūs vaizdo įrašai turi vieną bendrą bruožą – jie yra netikri. Deepfake yra melagingos informacijos vaizdo, garso ir nuotraukų pavidalo kūrimo ir paskelbimo technika. Susidurti su tokia medžiaga darosi vis lengviau, todėl paruošėme jums instrukcijas, kaip kurti, atpažinti ir ieškoti „deepfake“ vaizdo įrašų internete.

Taip pat skaitykite: Rytojaus blokų grandinės: kriptovaliutų pramonės ateitis paprastais žodžiais

Deepfake – kas tai?

Deepfake (Deepfake) iš tikrųjų yra nuotrauka, vaizdo ar garso medžiaga, kuri nėra tikra, netikra, tai yra netikra. Deepfake (dviejų žodžių junginys – gilus mokymasis „gilus mokymasis“ ir netikras „fake“) naudoja dirbtinį intelektą (AI) giliam mokymuisi, kad vaizdo įrašuose ir kitoje skaitmeninės medijos medžiagoje sukurtų vieno žmogaus panašumą į kitą. Jį sukuria algoritmai, pagrįsti tikro balso, garso, vaizdo ar nuotraukų pavyzdžiais, kurie yra sujungti. Algoritmas paima pasirinktą informaciją iš daugelio skirtingų vietų ir sujungia ją į vieną medžiagą. Dėl to sukuriama kažkas naujo (klaidingo), kuris yra pagrįstas skirtingų realių duomenų deriniu.

Deepfake

Bet tai dar ne viskas. Deepfake taip pat gali „nupiešti“ nuotrauką nuo nulio, pavyzdžiui, sukurdamas niekada neegzistavusių personažų veidus.

Koks tokių veiksmų tikslas? Be kita ko, „Deepfake“ naudojama neteisingai informacijai internete skleisti (pavyzdžiui, apie politinius veikėjus ar įvykius), vagystėms (pavyzdžiui, balso komandų klastojimui) ir pornografijai kurti (filmams su įžymybėmis – deepfake pornografija). Jis taip pat gali būti naudojamas švietimo ir pramogų tikslais.

Taip pat skaitykite: Apie kvantinius kompiuterius paprastais žodžiais

Deepfake – kaip tai veikia?

Apskritai, yra du būdai sukurti padirbtą medžiagą. Pirmasis metodas naudoja du algoritmus. Pirma, pirmasis (kodavimo įrenginys) ieško bendrų dviejų vaizdų bruožų (kurie turi būti sujungti į vieną), tada antrasis (dekoderis) gali perkelti juos į naujai sukurtą vaizdą. Pavyzdžiui, jei norime sukurti vaizdo įrašą, kuriame aktorius judėtų kaip ir mes, koderis paima judesį iš vaizdo įrašo, kuriame šokame, o dekoderis jau pakeis mūsų veidą aktoriaus veidu ir privers jį atkartoti mūsų judesius. . Čia svarbiausia yra pasirinkti veiksmai, kurie nukopijuojami į naują vaizdą (pavyzdžiui, judesiai, gestai, veido išraiškos).

- Reklama -

Antrasis būdas yra generatyvūs priešingi tinklai (GAN), kur du algoritmai veikia kartu. Pirmasis vadinamas generatoriumi, nes, naudodamas bendrą informaciją, sukuria vaizdinius (pavyzdžiui, žmogaus atvaizdą), sujungiančius jo skiriamuosius bruožus (žmogus turi kūną, veidą, akis). Antrasis algoritmas yra diskriminatorius, kuris įvertina, ar generatoriaus pateikti vaizdai yra teisingi, ar ne.

Deepfake

Laikui bėgant abu algoritmai tampa tobulesni, todėl mokosi ir tobulėja patys. Jei generatorius apmokytas taip, kad diskriminatorius neatpažintų netikros nuotraukos (laiko ją tikra), procesas baigtas.

Daug padirbtos programinės įrangos galima rasti GitHub – atvirojo kodo scenarijų, programų ir kodo bendruomenėje. Kai kurios iš šių programų yra naudojamos tik pramoginiais tikslais, todėl kurti deepfake nedraudžiama, tačiau daugelis jų gali būti panaudotos ir nusikalstamais tikslais.

Daugelis ekspertų mano, kad ateityje, tobulėjant technologijoms, gilios klastotės taps daug sudėtingesnės ir gali sukelti rimtesnių grėsmių visuomenei, susijusią su kišimusi į rinkimus, politinės įtampos kūrimu ir nusikalstama veikla.

Taip pat skaitykite:

Deepfake grėsmė – nuo ​​kada ji egzistuoja?

Pirmą kartą tokia netikra informacija pasirodė 2017 m. Tada vartotojas yra slapyvardis deepfake „Reddit“ paskelbė keletą pornografinių filmų, kuriuose dalyvavo įžymybės, įskaitant Scarlett Johansson, Gal Gadot ir Taylor Swift. Nuo to laiko ši pramonė sparčiai vystėsi, nes beveik bet kas gali filmuoti giliai padirbtus filmus.

https://youtu.be/IvY-Abd2FfM

Pastaraisiais metais giluminio padirbinėjimo technologija taip išplėtota, kad dabar tampa vis sunkiau nustatyti, ar tai sugalvotas vaizdo įrašas, ar tikras tikrų žmonių įrašas. Pavyzdys gali būti vaizdo įrašas su Elizabeth II žinute arba Baracko Obamos kalba, kuri buvo greitai paskelbta daugelyje skirtingų svetainių. Vaizdo įraše su buvusio JAV prezidento pareiškimu buvo kalbama apie pasaulines grėsmes, kurias gali sukelti internete skelbiama dezinformacija ir netikros naujienos. Kanalo „BuzzFeedVideos“ publikuotoje medžiagoje amerikiečių režisierius ir aktorius Jordanas Peele'as tapo 44-ojo JAV prezidento balsu. Tačiau šiuo metu dirbtinis intelektas jau sugeba generuoti balsą pagal archyvinius asmens, kuris turėtų pasirodyti netikrame filme, įrašus.

Tokios pažangios technologijos ateityje gali tapti pavojingu įrankiu kibernetinių nusikaltėlių ir interneto sukčių rankose. Suklastotų svarbių politikų kalbų vaizdo įrašų publikavimas gali pridaryti realios žalos tarptautiniu lygiu. Tokie „deepfake“ technologija paremti filmai gali sukelti diplomatinius konfliktus ir skandalus, todėl daryti įtaką visuomenės nuomonei ir žmonių elgesiui.

Kita galima grėsmė – suaugusiesiems skirtas turinys, kuris virtualioje erdvėje visada sugeneravo didžiausią srautą. Nenuostabu, kad „deepfake“ technologija taip greitai pateko į internetą. Remiantis Nyderlandų kibernetinio saugumo bendrovės „Deeptrace“ ataskaita, 96% sukurtų vaizdo įrašų, sukurtų naudojant „deepfake“ technologiją, yra tokiomis temomis. Dažniausiai tokių medžiagų gamybai naudojami kino žvaigždžių, sportininkų, net politikų, valdžios atstovų atvaizdai.

Taip pat skaitykite: Kodėl kosminė misija negali skristi bet kuriuo metu: kas yra paleidimo langas?

- Reklama -

Kaip padaryti deepfake?

Jei kas nors gali kurti giliai padirbtus vaizdo įrašus, ar juos galima padaryti ir namuose? Tikrai taip, bet jų kokybė, žinoma, nebus tobula. Tokiems vaizdo įrašams kurti reikalingi dideli skaičiavimo ištekliai ir galingos vaizdo plokštės. Tų, kuriuos dažniausiai turime namų kompiuteriuose, neužtenka, o pats kūrimo procesas gali trukti kelias savaites. Filmų kokybė taip pat paliks daug norimų rezultatų – bus matomų klaidų, burnos judesiai gali neatitikti garso, bus matomos vietos, kur „senas“ turinys persidengia su „nauju“.

Tačiau jei norime šiek tiek „pačiupinėti“ nuotrauką ar padaryti trumpą „deepfake“ vaizdo įrašą, tam skirtą programą galima atsisiųsti tiesiai į išmanųjį telefoną. Itin paprasta naudoti programa per kelias minutes pašalins išvaizdos trūkumus, pavers jus pasirinkta įžymybe ar leis jūsų šuniui kalbėti žmogaus balsu.

Taip pat skaitykite:

Kaip atpažinti gilią klastotę?

Profesionalius padirbtus vaizdo įrašus aptikti vis sunkiau. Iš pradžių algoritmai turėjo problemų dėl elementaraus elgesio (pavyzdžiui, akių mirksėjimo), ir iškart buvo aišku, kad filmas yra netikras. Ši klaida dabar ištaisyta. Netikri veikėjai mirksi, juda natūraliai ir kalba sklandžiai. Tačiau kartais jiems vis tiek kyla problemų dėl natūralaus akių judėjimo.

Deepfake

Taigi, kaip atpažinti gilų klastotę? Štai į ką turėtumėte atkreipti dėmesį žiūrėdami vaizdo įrašą:

  • Ar garsas neatsilieka nuo burnos judesių? Kartais jie ne visai sutampa, o vaizdo įraše esantis asmuo judina lūpas vėluodamas, palyginti su garsu, arba neteisingai artikuliuoja žodžius.
  • Visokiausių reiškinių, kurie atrodo nenatūralūs. Čia, be kita ko, kalbama apie viso kūno ar galvos padėtį liemens atžvilgiu, neteisingą šviesos atspindį ant daiktų, neteisingą šviesos atspindį papuošaluose ir kt. Nenatūrali odos spalva taip pat gali būti ženklas, kad plėvelė netikra.
  • Garso ir vaizdo kokybė. Skirtumas tarp jų padės aptikti gilų klastotę. Dažniausiai garso takelis būna prastesnės kokybės.
  • Vaizdo nelygumai. Dažniausiai jie atsiranda kūno ir galvos sandūroje. Kai įžymybės galva „priklijuota“ prie kito kūno, kaklo srityje gali atsirasti neryškumas. Kartais pasitaiko kadrų praleidimų (nutrūkimų) ir kadrų klaidų (skirtingas šviesos kampas, tipas ar kryptis).
  • Žymos su grotelėmis pakeitimas vaizdo įrašo metu taip pat gali reikšti, kad turime gilų netikrą vaizdo įrašą.

Žvelgiant į medžiagą „deepfake“ požiūriu, taip pat verta pasikliauti savo jausmais. Kartais susidaro įspūdis, kad kažkas „negerai“. Taip atsitinka, be kita ko, kai ekrane pavaizduoto žmogaus emocijos nesutampa su tuo, ką mums rodo veido išraiška ar balso tonas. Tai taip pat rodo, kad vaizdo įrašas galėjo būti suklastotas.

Taip pat įdomu:

Kaip apsisaugoti nuo deepfake?

Kad išvengtumėte gilios netikros sukčiavimo, ekspertai pataria atlikti šiuos veiksmus:

  • Su artimaisiais, pavyzdžiui, šeimos nariais ar kolegomis, sukurkite slaptą žodį ar šūkį, kurie vaizdo įrašu ar įrašu įrodys situacijos realumą. Tai leis greitai patikrinti situacijos klaidingumą ir išvengti, pavyzdžiui, pinigų prievartavimo.
  • Susitarkite su artimaisiais ar kolegomis dėl informacijos, kurios niekada nebus klausiama žinutėmis, pavyzdžiui, socialiniuose tinkluose ar SMS žinutėmis, sąrašą. Būtina, kad visos suinteresuotosios šalys būtų informuotos apie tikrąjį pavojaus mastą.
  • Įdiegti kelių veiksnių autentifikavimo kanalai, kad būtų galima patikrinti kiekvieną užklausą. Jei bendravimas prasideda trumpąja žinute, tuomet saugiausias būdas informaciją patvirtinti yra susisiekti su žinutės siuntėju pokalbio forma iš anksto sutartu ir saugiu komunikacijos kanalu.
  • Nuolatinis saugumo kompetencijos tobulinimas, pavyzdžiui, darbuotojų mokymų saugumo ir elektroninių nusikaltimų klausimais forma. Didinti informuotumą apie tai, kas yra „deepfake“ ir kaip kovoti su šia grėsme.
  • Informacinių ir ryšių technologijų (IKT) aplinkose saugos sistemų palaikymas ir plėtra.

Kur galite susidurti su giliu klastojimu?

Suklastotą medžiagą galima rasti visur, kur ji gali pasiekti didelę auditoriją, t. y. potencialią „deepfake“ auditoriją. Facebook, Instagram, „TikTok“ ir kitose socialinės žiniasklaidos svetainėse gausu tokių dalykų.

Tai ne tik nuostabūs vaizdo įrašai, bet ir „rafinuotos“ nuotraukos bei garso įrašai. Kai kurie autentiški įžymybių profiliai kartais buvo visiškai užpildyti netikrais daiktais!

Tai ne vienintelė vieta, kur galite rasti „deepfake“. Šia technologija paremta ir aplikacija išmaniajam telefonui, kuri leidžia prie nuotraukos pridėti ūsus ir barzdą ar kitus specialiuosius efektus (pavyzdžiui, senėjimą keliais dešimtmečiais). Taigi gali pasirodyti, kad paskutinė nuotrauka, kurią gavote iš draugų, yra šiek tiek „nupiešta“.

Taip pat įdomu:

Deepfake filmai yra ne tik pornografiniai

Deepfake naudojimas gali būti teigiamas ir neigiamas. Deepfake filmai gali būti žaismingi arba linksmi. Čia reikėtų paminėti vaizdo įrašą, kuriame karalienė Elžbieta šoka ant stalo per Naujųjų metų žinią. Tai taip pat yra daugelio nuotraukų modifikacijų, kurias atliekame naudodami „deepfake“ programą savo išmaniuosiuose telefonuose, tikslas. Tai turėtų būti juokinga ir linksma.

Deepfake medžiaga taip pat gali atlikti švietėjišką vaidmenį, pavyzdžiui, „prikelti“ jau mirusius menininkus, dainininkus ar muzikantus. Kai kurie muziejai, ypač Salvadoro Dali muziejus Floridoje, naudoja šią technologiją, kur lankytojams savo darbus „pristato“ pats menininkas, su kuriuo galima pasikalbėti ir net nusifotografuoti.

Deepfake technologija naudojama balso generatoriuose – įrenginiuose, skirtuose žmonėms, praradusiems galimybę kalbėti. Jų dėka tokie žmonės vis dar gali kalbėti su mumis savo balsu. Val Kilmerio balsas, kurį jis prarado dėl gerklų vėžio, buvo sukurtas filme „Top Gun: Maverick“.

Deja, mes taip pat turime daug neigiamo gilaus padirbinėjimo panaudojimo pavyzdžių. Politika yra pavyzdys, kai tokia melaginga informacija gali turėti toli siekiančių pasaulinių pasekmių, pavyzdžiui, diskredituoti viešus asmenis, paveikti akcijų rinką, ekonomiką ar rinkimų rezultatus ar net kariauti kare. Gerai parengtas įrašas leidžia lengviau manipuliuoti viešąja nuomone. Dėl laipsniško technologijų vystymosi bus dar sunkiau atskirti tikras medžiagas nuo padirbtų. Taigi, tai žingsnis socialinio pasitikėjimo ir informacinio chaoso griūties link.

Deepfake vaizdo įrašai, kaip jau minėjome, yra plačiai paplitę pornografijos pramonėje. Dažniausiai pokyčiai susideda iš pornografinės aktorės/aktoriaus veido pakeitimo įžymybių ar kino žvaigždžių veidu, žinoma, be jų sutikimo.

Taip pat skaitykite: Pilotuojamos kosminės misijos: kodėl grįžimas į Žemę vis dar yra problema?

Deepfake yra reali grėsmė mums visiems

Deepfake yra ne tik aktorių ir politikų problema. Suklastotas turinys gali paveikti bet kurį asmenį. Šantažo ir turto prievartavimo elementas gali būti sufabrikuotas vaizdo įrašas, kuriame nusikalstame arba patenkame į dviprasmišką situaciją – arba tu sumoki, arba mes atskleidžiame. Jei dirbate versle, turite suprasti, kad yra pavojus naudoti „deepfake“, kad diskredituotų įmonę tarp jos partnerių.

Deepfake

Padidėjęs manipuliacinės medžiagos kiekis taip pat gali paveikti socialinį pasitikėjimą ir pasitikėjimą pateikta informacija. Kaip galima tikėti, kai filmas, kuris yra įrodymas teisme, gali būti melagingas, o naujienos praneša apie neegzistuojančius įvykius?

Deepfake

Technologijos, leidžiančios sukurti kenkėjišką vaizdą, garso įrašą ar filmą, kurio personažai labai panašūs į kitus žmones, yra naujas kibernetinių nusikaltėlių grėsmės lygis. Ypač atsižvelgiant į tai, kad socialiniuose tinkluose jie gali gauti beveik neribotus šaltinio išteklius kurdami gilius klastojimus.

Mašininio mokymosi programinė įranga gali ieškoti Facebook abo Instagram, pavyzdžiui, ir užfiksuoti įdomias potencialių „aktorių“ nuotraukas ar vaizdo įrašus. Tuo remiantis galima sukurti labai aiškų asmens balsą, atvaizdą ir vaizdo įrašą, tačiau su specialiai sukurtu netikru kreipiniu, kuris imituoja, pavyzdžiui, buvimą rimtoje bėdoje – pagrobimo ar nelaimingo atsitikimo auką. Kitame etape sugeneruojamas netikras pagalbos, pavyzdžiui, finansinės, prašymas, adresuojamas „aukos“ artimiesiems.

Taip pat skaitykite: Jameso Webbo kosminis teleskopas: 10 taikinių, kuriuos reikia stebėti

Kova su deepfake

Melagingos informacijos srautas toks didelis, kad daugelis socialinių tinklų nusprendė kovoti su giliomis klastotėmis. Facebook і Twitter pabandykite aptikti netikrus vaizdo įrašus ir automatiškai juos ištrinti. Didelės korporacijos (įskaitant Microsoft arba „Amazon“) investuoja į programinę įrangą, kuri aptiks netikrą turinį. Mokslininkai taip pat ieško šios problemos sprendimo.

Tačiau tokioje situacijoje, kai pakanka išmaniojo telefono programėlės sukurti netikrą filmą, kova su giliafake yra kaip kova su vėjo malūnais. Taip pat nėra teisės normų, kurios nustatytų manipuliavimo informacija ar svetimo atvaizdo panaudojimo tokiu būdu pasekmes.

Deepfake

Deepfake tampa vis populiaresnis ir vis sunkiau jį atskirti nuo tiesos. Taip yra dėl tobulėjančių technologijų, kurios gali geriau imituoti žmogaus judesius ir gestus. Deepfake'ai gali būti naudojami geriems tikslams, pavyzdžiui, kuriant mokomąją medžiagą ar padedant žmonėms, praradusiems balsą po gerklų operacijos, tačiau jie taip pat yra įsilaužėlių, šantažuotojų ir interneto trolių įrankis.

Taigi, jei internete vėl pamatysite nuostabų vaizdo įrašą, pirmiausia patikrinkite, ar jis kartais nėra pakeistas ar netikras. Galbūt tai, į ką žiūrite, niekada nebuvo realybėje!

Taip pat skaitykite:

Tačiau nepamirškite, kad Ukrainoje vyksta karas. Jei norite padėti Ukrainai kovoti su Rusijos okupantais, geriausias būdas tai padaryti – aukoti Ukrainos ginkluotosioms pajėgoms per Išgelbėk gyvybę arba per oficialų puslapį NBU.

Yuri Svitlyk
Yuri Svitlyk
Karpatų kalnų sūnus, nepripažintas matematikos genijus, „teisininkas“Microsoft, praktiškas altruistas, kairė-dešinė
Daugiau iš autoriaus
- Reklama -
Registruotis
Pranešti apie
svečias

0 komentarai
Įterptieji atsiliepimai
Žiūrėti visus komentarus
Kiti straipsniai
Prenumeruokite naujienas

Naujausi Komentarai

Dabar populiarus
0
Mums patinka jūsų mintys, pakomentuokite.x