პარასკევი, 19 წლის 2024 აპრილი

დესკტოპის v4.2.1

Root Nationსტატუსიტექნოლოგიებირა არის დეფფეიკი, რამდენად საშიშია და როგორ ამოვიცნოთ იგი

რა არის დეფფეიკი, რამდენად საშიშია და როგორ ამოვიცნოთ იგი

-

დღეს ვისაუბრებთ deepfake-ზე, რომელიც ახლა უკვე ფართოდ გავრცელდა და საკმაოდ გავრცელებული ფენომენია. ამ ტექნოლოგიის წყალობით, ინფორმაციის მანიპულირება ახალ დონეს მიაღწია.

საახალწლო გზავნილის გადაცემის დროს მაგიდაზე ცეკვა დედოფალი ელიზაბეტ გინახავთ? ან მოუსმინა კიმ ჩენ ინის გამოსვლას დემოკრატიაზე, ან აღფრთოვანებული იყო სალვადორ დალით, რომელიც საუბრობდა მის სიკვდილზე (რატომ არ სჯერა ამის)?

ყველა ამ გასაოცარ ვიდეოს ერთი რამ აქვს საერთო - ისინი ყალბია. Deepfake არის ცრუ ინფორმაციის შექმნისა და გამოქვეყნების ტექნიკა ვიდეო, აუდიო და ფოტოების სახით. ასეთი მასალების გაცნობა უფრო ადვილი ხდება, ამიტომ ჩვენ მოვამზადეთ ინსტრუქცია ინტერნეტში ღრმა ფაქიზი ვიდეოების შექმნის, ამოცნობისა და ძიების შესახებ.

ასევე წაიკითხეთ: ხვალინდელი ბლოკჩეინები: კრიპტოვალუტის ინდუსტრიის მომავალი მარტივი სიტყვებით

Deepfake - რა არის ეს?

Deepfake (Deepfake) არის, ფაქტობრივად, ფოტო, ვიდეო ან აუდიო მასალა, რომელიც არ არის რეალური, ყალბი, ანუ ყალბი. Deepfake (ორი სიტყვის კომბინაცია - ღრმა სწავლება "ღრმა სწავლა" და ყალბი "ყალბი") იყენებს ხელოვნურ ინტელექტს (AI) ღრმა სწავლისთვის, რათა შექმნას ერთი ადამიანის მსგავსება მეორესთან ვიდეოებსა და სხვა ციფრულ მედია მასალებში. იგი იქმნება ალგორითმებით, რომლებიც ეფუძნება რეალურ ხმას, ხმას, ვიდეოს ან ფოტო ნიმუშებს, რომლებიც ერთმანეთთან არის შეკერილი. ალგორითმი იღებს შერჩეულ ინფორმაციას მრავალი სხვადასხვა ადგილიდან და შემდეგ აერთიანებს მას ერთ მასალად. შედეგად იქმნება რაღაც ახალი (ყალბი), რომელიც ეფუძნება სხვადასხვა რეალური მონაცემების ერთობლიობას.

Deepfake

მაგრამ ეს ყველაფერი არ არის. Deepfake-ს ასევე შეუძლია ნულიდან „დახატოს“ ფოტო, მაგალითად ისეთი პერსონაჟების სახეების შექმნით, რომლებიც არასდროს არსებობდა.

რა არის ასეთი ქმედებების მიზანი? სხვა საკითხებთან ერთად, Deepfake გამოიყენება ინტერნეტში არასწორი ინფორმაციის გასავრცელებლად (მაგალითად, პოლიტიკური ფიგურების ან მოვლენების შესახებ), ქურდობის (მაგალითად, ხმოვანი ბრძანებების გაყალბება) და პორნოგრაფიის შესაქმნელად (ფილმები ცნობილი ადამიანებით - ღრმა ფაქიზი პორნო). ის ასევე შეიძლება გამოყენებულ იქნას საგანმანათლებლო და გასართობი მიზნებისთვის.

ასევე წაიკითხეთ: კვანტური კომპიუტერების შესახებ მარტივი სიტყვებით

Deepfake - როგორ მუშაობს?

ზოგადად, ღრმა ფეიკის მასალის შექმნის ორი გზა არსებობს. პირველი მეთოდი იყენებს ორ ალგორითმს. პირველ რიგში, პირველი (კოდერი) ეძებს ორი სურათის საერთო მახასიათებლებს (ისინი, რომლებიც უნდა გაერთიანდეს ერთში), შემდეგ მეორე (დეკოდერი) შეუძლია გადაიტანოს ისინი ახლად შექმნილ სურათზე. მაგალითად, თუ გვინდა შევქმნათ ვიდეო, რომელშიც მსახიობი ჩვენსავით იმოძრავებს, შიფრატორი იღებს მოძრაობას იმ ვიდეოდან, სადაც ჩვენ ვცეკვავთ და დეკოდერი უკვე ჩაანაცვლებს ჩვენს სახეს მსახიობის სახით და აიძულებს მას ჩვენი მოძრაობების რეპროდუცირება. . აქ მთავარია შერჩეული მოქმედებები, რომლებიც კოპირებულია ახალ სურათზე (მაგალითად, მოძრაობები, ჟესტები, სახის გამონათქვამები).

- რეკლამა -

მეორე გზა არის გენერაციული საპირისპირო ქსელები (GANs), სადაც ორი ალგორითმი მუშაობს ერთად. პირველს უწოდებენ გენერატორს, რადგან ზოგადი ინფორმაციის გამოყენებით, ის ქმნის სურათებს (მაგალითად, ადამიანის გამოსახულება), რომელიც აერთიანებს მის განმასხვავებელ თვისებებს (ადამიანს აქვს სხეული, სახე, თვალები). მეორე ალგორითმი არის დისკრიმინატორი, რომელიც აფასებს გენერატორის მიერ მიცემული გამოსახულებები ჭეშმარიტია თუ არა.

Deepfake

დროთა განმავლობაში, ორივე ალგორითმი უფრო დახვეწილი ხდება, ამიტომ ისინი სწავლობენ და იხვეწებიან საკუთარ თავს. თუ გენერატორი ისეა გაწვრთნილი, რომ დისკრიმინატორმა არ ამოიცნოს ყალბი ფოტო (მას რეალურად თვლის), პროცესი დასრულებულია.

დიდი რაოდენობით ყალბი პროგრამული უზრუნველყოფა შეგიძლიათ ნახოთ GitHub-ზე, სკრიპტების, პროგრამებისა და კოდების ღია კოდის საზოგადოებაში. ამ პროგრამებიდან ზოგიერთი გამოიყენება მხოლოდ გასართობი მიზნებისთვის, ამიტომ ღრმა ფეიკის შექმნა აკრძალული არ არის, თუმცა ბევრი მათგანის გამოყენება კრიმინალური მიზნებისთვისაც შეიძლება.

ბევრი ექსპერტი თვლის, რომ მომავალში, ტექნოლოგიების განვითარებასთან ერთად, ღრმა ფეიქი გაცილებით რთული გახდება და შესაძლოა უფრო სერიოზული საფრთხე შეუქმნას საზოგადოებას, რაც დაკავშირებულია არჩევნებში ჩარევასთან, პოლიტიკურ დაძაბულობასთან და კრიმინალურ ქმედებებთან.

ასევე წაიკითხეთ:

Deepfake-ის საფრთხე - როდიდან არსებობს?

ასეთი ყალბი ინფორმაცია პირველად 2017 წელს გამოჩნდა. მაშინ მომხმარებელი არის მეტსახელი სიღრმე გამოაქვეყნა Reddit-ზე რამდენიმე პორნოფილმი, რომლებშიც ცნობილი სახეები მონაწილეობდნენ, მათ შორის სკარლეტ იოჰანსონი, გალ გადოტი და ტეილორ სვიფტი. მას შემდეგ ეს ინდუსტრია სწრაფად ვითარდება, რადგან თითქმის ყველას შეუძლია ღრმა ფაქიზი ფილმების გადაღება.

https://youtu.be/IvY-Abd2FfM

ბოლო წლების განმავლობაში ღრმა ფაქსის ტექნოლოგია იმდენად განვითარდა, რომ ახლა სულ უფრო რთულია იმის დადგენა, არის თუ არა ეს შეთხზული ვიდეო თუ ნამდვილი ადამიანების ჩანაწერი. ამის მაგალითი შეიძლება იყოს ვიდეო ელიზაბეტ II-ის გზავნილით ან ბარაკ ობამას გამოსვლა, რომელიც სწრაფად გამოქვეყნდა ბევრ სხვადასხვა საიტზე. აშშ-ს ყოფილი პრეზიდენტის განცხადებით ვიდეო ეხებოდა გლობალურ საფრთხეებს, რომლებიც შეიძლება გამოწვეული იყოს ინტერნეტში გამოქვეყნებული დეზინფორმაციითა და ყალბი ამბებით. არხის BuzzFeedVideos-ის მიერ გამოქვეყნებულ მასალაში ამერიკელი რეჟისორი და მსახიობი ჯორდან პილი შეერთებული შტატების 44-ე პრეზიდენტის ხმა გახდა. თუმცა, ამჟამად ხელოვნურ ინტელექტს უკვე შეუძლია ხმის გამომუშავება იმ პიროვნების საარქივო ჩანაწერებზე დაყრდნობით, რომელიც სავარაუდოდ ყალბ ფილმში გამოჩნდება.

ასეთი მოწინავე ტექნოლოგიები მომავალში შეიძლება გახდეს საშიში იარაღი კიბერკრიმინალებისა და ინტერნეტ თაღლითების ხელში. მნიშვნელოვანი პოლიტიკოსების გამოსვლების ყალბი ვიდეოების გამოქვეყნებამ შეიძლება გამოიწვიოს რეალური ზიანი საერთაშორისო დონეზე. Deepfake ტექნოლოგიაზე დაფუძნებულმა ასეთმა ფილმებმა შეიძლება გამოიწვიოს დიპლომატიური კონფლიქტები და სკანდალები და, შესაბამისად, გავლენა მოახდინოს საზოგადოებრივ აზრზე და ხალხის ქცევაზე.

კიდევ ერთი პოტენციური საფრთხე არის ზრდასრულთა კონტენტი, რომელიც ყოველთვის აწარმოებდა ყველაზე მეტ ტრაფიკს ვირტუალურ სივრცეში. გასაკვირი არ არის, რომ ღრმა ფაქიზი ტექნოლოგია ასე სწრაფად მოხვდა ინტერნეტში. ჰოლანდიური კიბერუსაფრთხოების კომპანიის Deeptrace-ის ანგარიშის მიხედვით, ღრმა ფეიკის ტექნოლოგიით შექმნილი შეთხზული ვიდეოების 96% სწორედ ასეთ თემებზეა კმაყოფილი. ყველაზე ხშირად, ასეთი მასალების დასამზადებლად გამოიყენება კინოვარსკვლავების, სპორტსმენების, პოლიტიკოსებისა და ხელისუფლების წარმომადგენლების გამოსახულებები.

ასევე წაიკითხეთ: რატომ არ შეუძლია კოსმოსურ მისიას ფრენა ნებისმიერ დროს: რა არის გაშვების ფანჯარა?

- რეკლამა -

როგორ გავაკეთოთ ღრმა ფეიქი?

თუ ვინმეს შეუძლია ღრმა ფაქიზი ვიდეოების გადაღება, შესაძლებელია თუ არა მათი სახლში გადაღება? ნამდვილად კი, მაგრამ მათი ხარისხი, რა თქმა უნდა, არ იქნება სრულყოფილი. ასეთი ვიდეოების შესაქმნელად საჭიროა დიდი გამოთვლითი რესურსები და ძლიერი ვიდეო ბარათები. ის, რაც ჩვეულებრივ გვაქვს სახლის კომპიუტერებში, არ არის საკმარისი და თავად განვითარების პროცესი შეიძლება გაგრძელდეს კვირების განმავლობაში. ფილმების ხარისხიც სასურველს დატოვებს - იქნება ხილული შეცდომები, პირის მოძრაობები შეიძლება არ შეესაბამებოდეს ხმას, იქნება ხილული ადგილები, სადაც "ძველი" შინაარსი გადაფარავს "ახალს".

თუმცა, თუ გვსურს ოდნავ „შევეხოთ“ ფოტოს ან გადავიღოთ მოკლე ღრმა ფაქიზი ვიდეო, ამ პროგრამის ჩამოტვირთვა შესაძლებელია პირდაპირ სმარტფონში. ძალიან ადვილად გამოსაყენებელი პროგრამა რამდენიმე წუთში მოგაშორებთ გარეგნობის ხარვეზებს, გადაგაქცევთ არჩეულ ცნობილ ადამიანად ან თქვენს ძაღლს საშუალებას მისცემს ილაპარაკოს ადამიანის ხმით.

ასევე წაიკითხეთ:

როგორ ამოვიცნოთ ღრმა ფეიქი?

პროფესიონალური ღრმა Fake ვიდეოები სულ უფრო და უფრო რთულდება. თავიდან ალგორითმებს პრობლემები ჰქონდათ ძირითად ქცევასთან (როგორიცაა თვალის დახამხამება) და მაშინვე გაირკვა, რომ ფილმი ყალბი იყო. ეს შეცდომა ახლა გამოსწორებულია. ყალბი პერსონაჟები ციმციმებენ, ბუნებრივად მოძრაობენ და თავისუფლად საუბრობენ. თუმცა, ზოგჯერ მათ მაინც აქვთ პრობლემები თვალის ბუნებრივ მოძრაობასთან დაკავშირებით.

Deepfake

მაშ, როგორ ამოვიცნოთ ღრმა ფეიქი? აი, რას უნდა მიაქციოთ ყურადღება ვიდეოს ყურებისას:

  • შეესაბამება თუ არა ხმა პირის ღრუს მოძრაობას? ზოგჯერ ისინი მთლად არ ემთხვევა და ვიდეოში მყოფი პირი მოძრაობს ტუჩებს ბგერასთან შედარებით დაგვიანებით, ან არასწორად გამოხატავს სიტყვებს.
  • ყველა სახის ფენომენი, რომელიც არაბუნებრივი ჩანს. აქ საუბარია, სხვა საკითხებთან ერთად, მთელი სხეულის ან თავის პოზიციაზე ტანთან მიმართებაში, სინათლის არასწორ ასახვაზე ობიექტებზე, სინათლის არასწორ ასახვაზე სამკაულებში და ა.შ. კანის არაბუნებრივი ფერი ასევე შეიძლება იყოს იმის ნიშანი, რომ ფილმი ყალბია.
  • აუდიო და ვიდეო ხარისხი. მათ შორის განსხვავება ხელს შეუწყობს ღრმა ფეიკის აღმოჩენას. ჩვეულებრივ, საუნდტრეკი უფრო ცუდი ხარისხისაა.
  • გამოსახულების დარღვევები. ყველაზე ხშირად, ისინი ჩნდებიან სხეულისა და თავის შეერთების ადგილზე. როდესაც სახელგანთქმული თავი სხვა სხეულზეა „მიწებებული“, შეიძლება კისრის არეში გაჩნდეს დაბინდვა. ზოგჯერ არის ჩარჩოს გამოტოვება (წყვეტილობა) და ჩარჩოს შეცდომები (განსხვავებული სინათლის კუთხე, ტიპი ან მიმართულება).
  • ვიდეოს დროს ჰეშთეგის შეცვლა ასევე შეიძლება ნიშნავდეს, რომ გვაქვს ღრმა ფაქიზი ვიდეო.

მასალების დეფფეიკის თვალსაზრისით ნახვისას, ასევე ღირს საკუთარ გრძნობებზე დაყრდნობა. ხანდახან გვექნება შთაბეჭდილება, რომ რაღაც „არასწორია“. ეს ხდება სხვა საკითხებთან ერთად, როდესაც ეკრანზე გამოსახული ადამიანის ემოციები არ ემთხვევა იმას, რასაც სახის გამომეტყველება ან ხმის ტემბრი გვაჩვენებს. ეს ასევე მიუთითებს იმაზე, რომ ვიდეო შესაძლოა გაყალბებული იყოს.

ასევე საინტერესოა:

როგორ დავიცვათ თავი ღრმა ფეიქისაგან?

ღრმა ყალბი თაღლითობის თავიდან ასაცილებლად, ექსპერტები გვირჩევენ შემდეგი ნაბიჯების შესრულებას:

  • შექმენით საიდუმლო სიტყვა ან სლოგანი საყვარელ ადამიანებთან, მაგალითად, ოჯახის წევრებთან ან კოლეგებთან, რომლებიც დაადასტურებენ სიტუაციის რეალობას ვიდეოთი ან ჩანაწერით. ეს საშუალებას მოგცემთ სწრაფად გადაამოწმოთ სიტუაციის სიყალბე და თავიდან აიცილოთ, მაგალითად, ფულის გამოძალვა.
  • შეათანხმეთ ნათესავებთან ან კოლეგებთან იმ ინფორმაციის სიაში, რომლის შესახებაც არასოდეს დაგეკითხებათ შეტყობინებების საშუალებით, მაგალითად, სოციალურ ქსელებში ან SMS-ში. აუცილებელია, რომ ყველა დაინტერესებული მხარე იყოს ინფორმირებული საფრთხის რეალური მასშტაბის შესახებ.
  • მრავალფაქტორიანი ავთენტიფიკაციის არხების დანერგვა თითოეული მოთხოვნის შესამოწმებლად. თუ კომუნიკაცია იწყება ტექსტური შეტყობინებით, მაშინ ინფორმაციის დასადასტურებლად ყველაზე უსაფრთხო გზაა შეტყობინების გამგზავნთან დაკავშირება საუბრის სახით წინასწარ შეთანხმებული და უსაფრთხო საკომუნიკაციო არხის მეშვეობით.
  • უსაფრთხოების კომპეტენციის მუდმივი გაუმჯობესება, მაგალითად, უსაფრთხოებისა და კიბერდანაშაულის შესახებ პერსონალის ტრენინგის სახით. ცნობიერების ამაღლება იმის შესახებ, თუ რა არის deepfake და როგორ დავუპირისპირდეთ ამ საფრთხეს.
  • უსაფრთხოების სისტემების მხარდაჭერა და განვითარება საინფორმაციო და საკომუნიკაციო ტექნოლოგიების (ICT) გარემოში.

სად შეიძლება შეგხვდეთ ღრმა ფეიქი?

ყალბი მასალის მოძიება შესაძლებელია იქ, სადაც მას შეუძლია მიაღწიოს დიდ აუდიტორიას, ანუ პოტენციურ ღრმა ფეიკ აუდიტორიას. Facebook, Instagram, TikTok და სხვა სოციალური მედიის საიტები სავსეა მსგავსი ნივთებით.

ეს არა მხოლოდ საოცარი ვიდეოებია, არამედ „დახვეწილი“ ფოტოები და აუდიო ჩანაწერებიც. ცნობილი ადამიანების ზოგიერთი ავთენტური პროფილი ზოგჯერ მთლიანად ივსება ღრმა ფაქიზით!

ეს არ არის ერთადერთი ადგილი, სადაც შეგიძლიათ იპოვოთ ღრმა ფეიქი. ამ ტექნოლოგიაზეა დაფუძნებული აპლიკაციაც სმარტფონისთვის, რომელიც საშუალებას გაძლევთ დაამატოთ ულვაში და წვერი ან სხვა სპეციალური ეფექტები ფოტოზე (მაგალითად, რამდენიმე ათეული წლით დაბერება). ასე რომ, შეიძლება აღმოჩნდეს, რომ ბოლო ფოტო, რომელიც მეგობრებისგან მიიღე, ცოტა „დაქვეითებულია“.

ასევე საინტერესოა:

Deepfake ფილმები არ არის მხოლოდ პორნოგრაფიული

Deepfake-ის გამოყენება შეიძლება იყოს როგორც დადებითი, ასევე უარყოფითი. Deepfake ფილმები შეიძლება იყოს მხიარული ან გასართობი. აქვე უნდა აღვნიშნოთ საახალწლო გზავნილის დროს სუფრაზე დედოფალ ელისაბედის ცეკვის ვიდეო. ეს არის ასევე ფოტო მოდიფიკაციების უმეტესი მიზანი, რომელსაც ჩვენ ვაკეთებთ ღრმა ფაქიზის აპლიკაციით ჩვენს სმარტფონებზე. ეს უნდა იყოს სასაცილო და სახალისო.

Deepfake მასალებს შეუძლიათ საგანმანათლებლო როლიც შეასრულონ, მაგალითად, „აღადგინონ“ უკვე გარდაცვლილი არტისტები, მომღერლები ან მუსიკოსები. ზოგიერთი მუზეუმი, კერძოდ, სალვადორ დალის მუზეუმი ფლორიდაში, იყენებს ამ ტექნოლოგიას, სადაც მნახველებს საკუთარი ნამუშევრები თავად მხატვრის მიერ "აწვდიან", რომელთანაც შეგიძლიათ ისაუბროთ და სურათებიც კი გადაიღოთ.

Deepfake ტექნოლოგია გამოიყენება ხმის გენერატორებში - მოწყობილობები, რომლებიც განკუთვნილია ადამიანებისთვის, რომლებმაც დაკარგეს ლაპარაკის უნარი. მათი წყალობით ასეთ ადამიანებს მაინც შეუძლიათ ჩვენთან საკუთარი ხმით საუბარი. ვალ კილმერის ხმა, რომელიც მან დაკარგა ხორხის კიბოს გამო, მოდელირებული იყო Top Gun: Maverick-ში.

სამწუხაროდ, ჩვენ ასევე გვაქვს deepfaking-ის უარყოფითი გამოყენების მრავალი მაგალითი. პოლიტიკა არის მაგალითი, როდესაც ამ სახის ცრუ ინფორმაციას შეიძლება ჰქონდეს შორსმიმავალი, გლობალური შედეგები, როგორიცაა საზოგადო მოღვაწეების დისკრედიტაცია, გავლენა საფონდო ბირჟაზე, ეკონომიკაზე ან არჩევნების შედეგებზე, ან თუნდაც ომში ომის წარმართვა. კარგად მომზადებული ჩანაწერი აადვილებს საზოგადოებრივი აზრის მანიპულირებას. ტექნოლოგიების პროგრესული განვითარება კიდევ უფრო გაართულებს რეალური მასალის გარჩევას ყალბისაგან. ასე რომ, ეს არის ნაბიჯი სოციალური ნდობის დაცემისა და ინფორმაციული ქაოსისაკენ.

Deepfake ვიდეოები, როგორც უკვე აღვნიშნეთ, ფართოდ არის გავრცელებული პორნოინდუსტრიაში. ყველაზე ხშირად, ცვლილებები შედგება პორნომსახიობის/მსახიობის სახის ჩანაცვლებით ცნობილი ადამიანების ან კინოვარსკვლავების სახეებით, რა თქმა უნდა, მათი თანხმობის გარეშე.

ასევე წაიკითხეთ: პილოტირებული კოსმოსური მისიები: რატომ არის ისევ პრობლემა დედამიწაზე დაბრუნება?

Deepfake არის რეალური საფრთხე ყველა ჩვენგანისთვის

Deepfake არ არის მხოლოდ მსახიობებისა და პოლიტიკოსების პრობლემა. ყალბი შინაარსი შეიძლება დაზარალდეს ნებისმიერზე. შანტაჟისა და გამოძალვის ელემენტი შეიძლება იყოს შეთითხნილი ვიდეო, რომელშიც ჩვენ ჩავდივართ დანაშაულს ან შევდივართ ორაზროვან სიტუაციაში – ან თქვენ იხდით, ან ჩვენ ვამხელთ. თუ თქვენ მუშაობთ ბიზნესში, უნდა გესმოდეთ, რომ არსებობს ღრმა ფეიკის გამოყენების საშიშროება კომპანიის დისკრედიტაციისთვის მის კონტრაქტორებს შორის.

Deepfake

მანიპულაციური მასალის რაოდენობის ზრდამ ასევე შეიძლება გავლენა მოახდინოს სოციალურ ნდობაზე და ნდობაზე მოწოდებული ინფორმაციის მიმართ. როგორ შეიძლება რაიმეს დაიჯერო, როცა სასამართლოში მტკიცებულებათა ფილმი შეიძლება იყოს ყალბი და ახალი ამბები არარსებულ მოვლენებზე წერს?

Deepfake

ტექნოლოგია, რომელიც საშუალებას გაძლევთ შექმნათ მავნე გამოსახულება, აუდიო ჩანაწერი ან ფილმი, რომლის პერსონაჟები ძალიან ჰგვანან სხვა ადამიანებს, არის კიბერკრიმინალების საფრთხის ახალი დონე. განსაკუთრებით იმის გათვალისწინებით, რომ სოციალურ ქსელებში მათ შეუძლიათ წყაროს მასალის თითქმის შეუზღუდავი რესურსების დახატვა ღრმა ფეიქების შესაქმნელად.

მანქანათმცოდნეობის პროგრამას შეუძლია მოძებნოს Facebook ან Instagramმაგალითად და დაიჭირეთ პოტენციური „მსახიობების“ საინტერესო ფოტოები ან ვიდეო. ამის საფუძველზე შეიძლება შეიქმნას პიროვნების ძალიან მკაფიო ხმა, გამოსახულება და ვიდეო, მაგრამ სპეციალურად შექმნილი ყალბი მიმართვით, რომელიც სიმულაციას აძლევს, მაგალითად, სერიოზულ უბედურებაში ყოფნას - როგორც გატაცების ან უბედური შემთხვევის მსხვერპლს. შემდეგ ეტაპზე წარმოიქმნება ყალბი დახმარების მოთხოვნა, მაგალითად ფინანსური, მიმართული „მსხვერპლის“ ახლობლებისადმი.

ასევე წაიკითხეთ: ჯეიმს უების კოსმოსური ტელესკოპი: 10 სამიზნე დასაკვირვებლად

Deepfake-თან ბრძოლა

ცრუ ინფორმაციის ნაკადი იმდენად დიდია, რომ ბევრმა სოციალურმა ქსელმა გადაწყვიტა ებრძოლოს ღრმა ფეიქებს. Facebook і Twitter შეეცადეთ აღმოაჩინოთ ყალბი ვიდეოები და ავტომატურად წაშალოთ ისინი. მსხვილი კორპორაციები (მათ შორის Microsoft ან Amazon) ინვესტირებას ახორციელებენ პროგრამულ უზრუნველყოფაში, რომელიც აღმოაჩენს ყალბ შინაარსს. მეცნიერები ამ პრობლემის გადაჭრაზეც მუშაობენ.

თუმცა, იმ სიტუაციაში, როდესაც სმარტფონის აპლიკაცია საკმარისია ყალბი ფილმის შესაქმნელად, ღრმა ფეიკთან ბრძოლა ქარის წისქვილებთან ბრძოლას ჰგავს. ასევე არ არსებობს სამართლებრივი ნორმები, რომლებიც განსაზღვრავს ინფორმაციის მანიპულირების ან სხვისი იმიჯის ამ გზით გამოყენების შედეგებს.

Deepfake

Deepfake სულ უფრო პოპულარული ხდება და სულ უფრო ძნელია მისი გარჩევა სიმართლისგან. ეს გამოწვეულია ტექნოლოგიების გაუმჯობესებით, რომლებსაც შეუძლიათ უკეთესად მიბაძონ ადამიანის მოძრაობებს და ჟესტებს. Deepfakes შეიძლება გამოყენებულ იქნას კარგი მიზნებისთვის, როგორიცაა საგანმანათლებლო მასალების შექმნა ან ადამიანების დასახმარებლად, რომლებმაც ხმა დაკარგეს ხორხის ოპერაციის შემდეგ, მაგრამ ისინი ასევე არის ინსტრუმენტი ჰაკერებისთვის, შანტაჟისტებისთვის და ინტერნეტ ტროლებისთვის.

ასე რომ, თუ ინტერნეტში კვლავ წააწყდებით გასაოცარ ვიდეოს, ჯერ შეამოწმეთ არის თუ არა ის ზოგჯერ შეცვლილი თუ ყალბი. იქნებ ის, რასაც თქვენ უყურებთ, არასოდეს ყოფილა რეალობაში!

ასევე წაიკითხეთ:

თუმცა, არ დაგავიწყდეთ, რომ უკრაინაში ომი მიმდინარეობს. თუ გსურთ დაეხმაროთ უკრაინას რუს ოკუპანტებთან ბრძოლაში, ამის საუკეთესო გზაა უკრაინის შეიარაღებული ძალებისთვის შემოწირულობა. Savelife ან ოფიციალური გვერდის საშუალებით NBU.

Yuri Svitlyk
Yuri Svitlyk
კარპატების მთების შვილი, მათემატიკის ამოუცნობი გენიოსი, "იურისტი"Microsoft, პრაქტიკული ალტრუისტი, მემარცხენე-მარჯვენა
მეტი ავტორისგან
- რეკლამა -
დარეგისტრირდით
შეატყობინეთ შესახებ
სასტუმრო

0 კომენტარები
ჩაშენებული მიმოხილვები
ყველა კომენტარის ნახვა
სხვა სტატიები
გამოიწერეთ განახლებები
პოპულარული ახლა