Torsdag den 28. marts 2024

Desktop v4.2.1

Root NationArtiklerteknologierHvad er en deepfake, hvor farlig er den, og hvordan genkender man den

Hvad er en deepfake, hvor farlig er den, og hvordan genkender man den

-

I dag vil vi tale om deepfake, som nu er blevet udbredt og et ganske almindeligt fænomen. Takket være denne teknologi har informationsmanipulation nået et nyt niveau.

Så du dronning Elizabeth danse på bordet under udsendelsen af ​​nytårsbudskabet? Eller lyttet til Kim Jong-uns tale om demokrati, eller beundret Salvador Dali, der talte om hans død (hvorfor han ikke tror på det)?

Alle disse fantastiske videoer har én ting til fælles – de er falske. Deepfake er en teknik til at skabe og offentliggøre falsk information i form af videoer, lyd og billeder. Det bliver lettere at støde på sådanne materialer, så vi har udarbejdet en instruktion til dig i at oprette, genkende og søge efter dybe falske videoer på internettet.

Læs også: Morgendagens blockchains: Fremtiden for cryptocurrency-industrien i enkle ord

Deepfake - hvad er det?

Deepfake (Deepfake) er i virkeligheden et foto-, video- eller lydmateriale, der ikke er ægte, falsk, det vil sige falsk. Deepfake (kombination af to ord - deep learning "deep learning" og falsk "fake") bruger kunstig intelligens (AI) til deep learning for at skabe ligheden mellem en person og en anden i videoer og andre digitale mediematerialer. Det er skabt af algoritmer baseret på ægte stemme-, lyd-, video- eller fotoeksempler, der er syet sammen. Algoritmen tager udvalgt information fra mange forskellige steder og kombinerer det derefter til ét materiale. Som følge heraf skabes noget nyt (falskt), som er baseret på en kombination af forskellige reelle data.

Deepfake

Men det er ikke alt. Deepfake kan også "male" et foto fra bunden, for eksempel ved at skabe ansigter på karakterer, der aldrig har eksisteret.

Hvad er formålet med sådanne handlinger? Deepfake bruges blandt andet til at sprede ukorrekte oplysninger på internettet (for eksempel om politiske personer eller begivenheder), tyveri (for eksempel forfalskning af stemmekommandoer) og til at skabe pornografi (film med berømtheder - deepfake porno). Det kan også bruges til uddannelses- og underholdningsformål.

Læs også: Om kvantecomputere i simple ord

Deepfake - Hvordan virker det?

Generelt er der to måder at skabe deepfake-materiale på. Den første metode bruger to algoritmer. Først søger den første (encoder) efter fælles træk ved to billeder (dem, der skal kombineres til ét), derefter kan den anden (dekoder) overføre dem til det nyoprettede billede. For eksempel, hvis vi vil lave en video, hvor en skuespiller ville bevæge sig ligesom os, tager koderen bevægelsen fra videoen, hvor vi danser, og dekoderen vil allerede erstatte vores ansigt med skuespillerens ansigt og få ham til at gengive vores bevægelser . Nøglen her er de valgte handlinger, der kopieres til det nye billede (f.eks. bevægelser, gestus, ansigtsudtryk).

- Annonce -

Den anden måde er gennem generative adversarial networks (GAN'er), hvor to algoritmer arbejder sammen. Den første kaldes en generator, fordi den ved hjælp af generel information skaber billeder (for eksempel billedet af en person), der kombinerer dets kendetegn (en person har en krop, et ansigt, øjne). Den anden algoritme er en diskriminator, der vurderer, om de billeder, som generatoren giver den, er sande eller ej.

Deepfake

Med tiden bliver begge algoritmer mere avancerede, så de lærer og forbedrer sig selv. Hvis generatoren er trænet på en sådan måde, at diskriminatoren ikke genkender et falsk foto (betragter det for ægte), er processen færdig.

En stor mængde forfalsket software kan findes på GitHub, et open source-fællesskab for scripts, programmer og kode. Nogle af disse programmer bruges udelukkende til underholdningsformål, så det er ikke forbudt at lave en deepfake, men mange af dem kan også bruges til kriminelle formål.

Mange eksperter mener, at deepfakes i fremtiden med udviklingen af ​​teknologier vil blive meget mere komplekse og kan skabe mere alvorlige trusler mod samfundet, relateret til indblanding i valg, skabelse af politiske spændinger og kriminelle aktiviteter.

Læs også:

Truslen fra Deepfake - siden hvornår har den eksisteret?

For første gang dukkede sådanne falske oplysninger op i 2017. Så er brugeren et alias deepfake udgivet på Reddit adskillige pornografiske film, hvor berømtheder var involveret, bl.a Scarlett Johansson, Gal Gadot og Taylor Swift. Siden da har denne industri udviklet sig hurtigt, fordi næsten alle kan optage deepfake-film.

https://youtu.be/IvY-Abd2FfM

I de senere år har deepfaking-teknologien udviklet sig så meget, at det nu er stadig sværere at afgøre, om det er en opdigtet video eller en ægte optagelse af rigtige mennesker. Et eksempel kan være en video med en besked fra Elizabeth II eller en tale af Barack Obama, som hurtigt blev offentliggjort på mange forskellige sider. Videoen med den tidligere amerikanske præsidents udtalelse omhandlede de globale trusler, der kan være forårsaget af misinformation og falske nyheder offentliggjort på internettet. I materialet udgivet af BuzzFeedVideos-kanalen blev den amerikanske instruktør og skuespiller Jordan Peele stemmen til USA's 44. præsident. Men i øjeblikket er kunstig intelligens allerede i stand til at generere en stemme baseret på arkivoptagelser af en person, der formodes at optræde i en falsk film.

Sådanne avancerede teknologier kan blive et farligt værktøj i hænderne på cyberkriminelle og internetsvindlere i fremtiden. Offentliggørelsen af ​​falske videoer af taler fra vigtige politikere kan forårsage reel skade på internationalt plan. Sådanne film, baseret på deepfake-teknologi, kan forårsage diplomatiske konflikter og skandaler og derfor påvirke den offentlige mening og folks adfærd.

En anden potentiel trussel er voksenindhold, som altid har genereret mest trafik i det virtuelle rum. Det er ikke underligt, at deepfake-teknologi rammer internettet så hurtigt. Ifølge en rapport fra det hollandske cybersikkerhedsfirma Deeptrace er 96 % af de fremstillede videoer, der er oprettet ved hjælp af deepfake-teknologi, indhold om sådanne emner. Oftest bruges billeder af filmstjerner, atleter og endda politikere og repræsentanter for regeringen til produktion af sådanne materialer.

Læs også: Hvorfor en rummission ikke kan flyve på noget tidspunkt: Hvad er et opsendelsesvindue?

- Annonce -

Hvordan laver man en deepfake?

Hvis nogen kan lave deepfake videoer, kan de så også laves derhjemme? Helt sikkert ja, men deres kvalitet vil selvfølgelig ikke være perfekt. Oprettelse af sådanne videoer kræver store computerressourcer og kraftfulde videokort. Dem, som vi normalt har i hjemmecomputere, er ikke nok, og selve udviklingsprocessen kan vare i ugevis. Kvaliteten af ​​filmene vil også lade meget tilbage at ønske - der vil være synlige fejl, mundbevægelser svarer måske ikke til lyden, der vil være synlige steder, hvor det "gamle" indhold overlapper med det "nye".

Men hvis vi vil "touchere" lidt på et billede eller lave en kort deepfake video, kan programmet til dette downloades direkte til smartphonen. Det meget brugervenlige program vil på få minutter fjerne fejlene ved udseendet, gøre dig til den valgte berømthed eller tillade din hund at tale med en menneskelig stemme.

Læs også:

Hvordan genkender man en deepfake?

Professionelle deepfake-videoer bliver sværere og sværere at få øje på. I starten havde algoritmerne problemer med grundlæggende adfærd (såsom øjenblink), og det var med det samme klart, at filmen var en falsk. Denne fejl er nu rettet. De falske karakterer blinker, bevæger sig naturligt og taler flydende. Men nogle gange har de stadig problemer med naturlig øjenbevægelse.

Deepfake

Så hvordan får man øje på en deepfake? Her er, hvad du skal være opmærksom på, når du ser videoen:

  • Følger lyden med mundens bevægelser? Nogle gange matcher de ikke helt, og personen i videoen bevæger læberne med en forsinkelse i forhold til lyden, eller formulerer ord forkert.
  • Alle slags fænomener, der virker unaturlige. Vi taler her blandt andet om hele kroppens eller hovedets stilling i forhold til torsoen, forkert refleksion af lys på genstande, forkert refleksion af lys i smykker mv. En unaturlig hudfarve kan også være et tegn på, at filmen er falsk.
  • Lyd- og videokvalitet. Forskellen mellem dem vil hjælpe med at opdage en deepfake. Normalt er lydsporet af dårligere kvalitet.
  • Billeduregelmæssigheder. Oftest vises de i krydset mellem krop og hoved. Når en berømtheds hoved er "limet" til en anden krop, kan der opstå en sløring i nakkeområdet. Nogle gange er der rammespring (intermitterende) og rammefejl (forskellig lysvinkel, type eller retning).
  • Ændring af hashtagget under videoen kan også betyde, at vi har en deepfake video.

Når du ser materialer fra deepfake-synspunktet, er det også værd at stole på dine egne følelser. Nogle gange får vi det indtryk, at noget er "galt". Det sker blandt andet, når følelserne hos den afbildede på skærmen ikke stemmer overens med det, ansigtsudtrykket eller tonefaldet viser os. Dette tyder også på, at videoen kan være blevet forfalsket.

Også interessant:

Hvordan beskytter du dig selv mod deepfake?

For at undgå en dyb falsk fidus anbefaler eksperter at følge disse trin:

  • Opret et hemmeligt ord eller slogan med dine kære, såsom familiemedlemmer eller kolleger, som vil bevise virkeligheden af ​​situationen med en video eller optagelse. Dette vil give dig mulighed for hurtigt at verificere løgnen i situationen og undgå for eksempel afpresning af penge.
  • Aftal med pårørende eller kollegaer en liste over oplysninger, der aldrig vil blive spurgt om via beskeder, for eksempel på sociale netværk eller SMS. Det er bydende nødvendigt, at alle interesserede parter informeres om farens sande omfang.
  • Implementering af multi-faktor autentificeringskanaler for at verificere hver anmodning. Hvis kommunikationen starter med en sms, så er den sikreste måde at bekræfte informationen på at kontakte afsenderen af ​​beskeden i form af en samtale gennem en på forhånd aftalt og sikker kommunikationskanal.
  • Løbende forbedring af sikkerhedskompetencen, fx i form af personaleuddannelse om sikkerhed og cyberkriminalitet. Øge bevidstheden om, hvad deepfake er, og hvordan man imødegår denne trussel.
  • Support og udvikling af sikkerhedssystemer i informations- og kommunikationsteknologi (IKT) miljøer.

Hvor kan du støde på en deepfake?

Falsk materiale kan findes overalt, hvor det kan nå et stort publikum, altså det potentielle deepfake-publikum. Facebook, Instagram, TikTok og andre sociale medier er fulde af denne slags ting.

Det er ikke kun fantastiske videoer, men også "raffinerede" billeder og lydoptagelser. Nogle af de autentiske berømthedsprofiler er nogle gange blevet fuldstændig fyldt med deepfake ting!

Dette er ikke det eneste sted, hvor du kan finde en deepfake. En applikation til en smartphone er også baseret på denne teknologi, som giver dig mulighed for at tilføje et overskæg og skæg eller andre specielle effekter til et billede (for eksempel ældning i flere årtier). Så det kan vise sig, at det sidste billede, du har modtaget fra dine venner, er lidt "undertegnet".

Også interessant:

Deepfake-film er ikke kun pornografiske

Brugen af ​​deepfake kan være både positiv og negativ. Deepfake-film kan være legende eller underholdende. Her bør vi nævne videoen af ​​dronning Elizabeth, der danser på bordet under nytårsbudskabet. Dette er også formålet med de fleste af de fotoændringer, vi laver med deepfake-appen på vores smartphones. Det skal være sjovt og sjovt.

Deepfake materialer kan også spille en pædagogisk rolle, for eksempel "genoplive" allerede døde kunstnere, sangere eller musikere. Nogle museer, især Salvador Dali Museum i Florida, bruger denne teknologi, hvor besøgende bliver "præsenteret" for deres værker af kunstneren selv, som du kan tale med og endda tage billeder med.

Deepfake-teknologi bruges i stemmegeneratorer - enheder designet til mennesker, der har mistet evnen til at tale. Takket være dem kan sådanne mennesker stadig tale til os med deres egen stemme. Val Kilmers stemme, som han mistede til strubekræft, blev modelleret i Top Gun: Maverick.

Desværre har vi også mange eksempler på negative anvendelser af deepfaking. Politik er et eksempel, hvor denne form for falsk information kan have vidtrækkende, globale konsekvenser, såsom at miskreditere offentlige personer, påvirke aktiemarkedet, økonomien eller valgresultater eller endda føre krig i en krig. En velforberedt rekord gør det lettere at manipulere den offentlige mening. Den progressive udvikling af teknologier vil gøre det endnu sværere at skelne ægte materialer fra forfalskninger. Så dette er et skridt mod faldet af social tillid og informationskaos.

Deepfake-videoer, som vi allerede har nævnt, er udbredt i pornoindustrien. Oftest består ændringerne i at erstatte pornoskuespillerens/skuespillerens ansigt med berømtheders eller filmstjerners ansigt, selvfølgelig uden deres samtykke.

Læs også: Bemandede rummissioner: Hvorfor er Return to Earth stadig et problem?

Deepfake er en reel trussel mod os alle

Deepfake er ikke kun et problem for skuespillere og politikere. Alle kan blive påvirket af falsk indhold. Et element af afpresning og afpresning kan være en opdigtet video, hvor vi begår en forbrydelse eller kommer i en tvetydig situation – enten betaler du eller vi afslører. Hvis du arbejder i erhvervslivet, skal du forstå, at der er en fare for at bruge deepfake til at miskreditere virksomheden blandt dets modparter.

Deepfake

Stigningen i mængden af ​​manipulativt materiale kan også påvirke social tillid og tillid til den information, der gives. Hvordan kan du tro noget, når en film, der er bevis i en domstol, kan være falsk, og nyhedsrapporterne om ikke-eksisterende begivenheder?

Deepfake

Teknologi, der giver dig mulighed for at skabe et ondsindet billede, lydoptagelse eller film, hvis karakterer meget ligner andre mennesker, er et nyt niveau af trussel fra cyberkriminelle. Især i betragtning af det faktum, at de i sociale netværk kan trække næsten ubegrænsede ressourcer af kildemateriale til at skabe deepfakes.

Maskinlæringssoftware kan søge i Facebook eller Instagram, for eksempel og fange interessante billeder eller videoer af potentielle "skuespillere". På den baggrund kan der skabes en meget tydelig stemme, billede og video af personen, men med en specielt skabt falsk appel, der simulerer for eksempel at være i alvorlige problemer – som offer for en kidnapning eller en ulykke. I næste fase genereres en falsk anmodning om hjælp, for eksempel økonomisk, rettet til pårørende til "offeret".

Læs også: James Webb Space Telescope: 10 mål at observere

Kampen mod deepfake

Strømmen af ​​falsk information er så stor, at mange sociale netværk har besluttet at kæmpe mod deepfakes. Facebook і Twitter prøv at opdage falske videoer og slette dem automatisk. Store virksomheder (inkl Microsoft eller Amazon) investerer i software, der vil opdage falsk indhold. Forskere arbejder også på en løsning på dette problem.

Men i en situation, hvor en smartphone-app er nok til at skabe en falsk film, er det at kæmpe mod en deepfake som at kæmpe mod vindmøller. Der er heller ingen juridiske normer, der bestemmer konsekvenserne af at manipulere information eller bruge en andens billede på denne måde.

Deepfake

Deepfake bliver mere og mere populært, og det er stadig sværere at skelne det fra sandheden. Dette skyldes forbedringen af ​​teknologier, der bedre kan efterligne menneskelige bevægelser og fagter. Deepfakes kan bruges til gode formål, såsom at skabe undervisningsmateriale eller hjælpe folk, der har mistet stemmen efter larynxoperationer, men de er også et værktøj for hackere, afpressere og internettrolde.

Så hvis du støder på en fantastisk video igen på internettet, skal du først tjekke, om den nogle gange er ændret eller falsk. Måske var det, du ser på, aldrig i virkeligheden!

Læs også:

Glem dog ikke, at der er en krig i gang i Ukraine. Hvis du vil hjælpe Ukraine med at bekæmpe de russiske besættere, er den bedste måde at gøre det på at donere til Ukraines væbnede styrker gennem Red livet eller via den officielle side NBU.

Yuri Svitlyk
Yuri Svitlyk
Søn af Karpaterne, uanerkendt geni af matematik, "advokat"Microsoft, praktisk altruist, venstre-højre
Mere fra forfatteren
- Annonce -
Tilmelde
Giv besked om
gæst

0 Kommentarer
Indlejrede anmeldelser
Se alle kommentarer
Andre artikler
Abonner for opdateringer

Seneste kommentarer

Populær nu
0
Vi elsker dine tanker, kommenter venligst.x
()
x