ჩვენ ვაკანსიების სერვისი გავუშვით: გამოაქვეყნეთ ვაკანსიები და მიიღეთ უკუკავშირი!

Deepfake - ვიდეოებით მანიპულაციის ხელოვნება და საფრთხეები

DeepFake არის ვიდეო, რომელშიც ამა თუ იმ ადამიანის სახე ან სხეული ციფრულად შეცვლილია და მათ სხვა ადამიანებად წარმოაჩენს. Deepfake-ით, სურვილის შემთხვევაში, შესაძლებელია ნებისმიერ ადამიანს სასურველი მოქმედება გავაკეთებინოთ, ნებისმიერ თემაზე ვასაუბროთ. ყალბი ვიდეოები, რომელიც ხელოვნური ინტელექტით იქმნება, როგორც წესი, ბოროტად ან ცრუ ინფორმაციის გასავრცელებლად გამოიყენება.

კომენტარის დატოვება
Deepfake - ვიდეოებით მანიპულაციის ხელოვნება და საფრთხეები

DeepFake არის ვიდეო, რომელშიც ამა თუ იმ ადამიანის სახე ან სხეული ციფრულად შეცვლილია და მათ სხვა ადამიანებად წარმოაჩენს. Deepfake-ით, სურვილის შემთხვევაში, შესაძლებელია ნებისმიერ ადამიანს სასურველი მოქმედება გავაკეთებინოთ, ნებისმიერ თემაზე ვასაუბროთ. ყალბი ვიდეოები, რომელიც ხელოვნური ინტელექტით იქმნება, როგორც წესი, ბოროტად ან ცრუ ინფორმაციის გასავრცელებლად გამოიყენება.

Deepfake-ის შესაქმნელად საჭიროა 2 ადამიანის ათასობით ფოტო, სადაც მათი სახე ჩანს. ფოტოები შეჰყავთ ხელოვნური ინტელექტის ალგორითმში, რომელსაც შიფრატორი ეწოდება.

შიფრატორი შეისწავლის მსგავსებებს სახეებს შორის და დაჰყავს ისინი სწორედ ამ მსგავსებების დონეზე.

ხელოვნური ინტელექტის მეორე ალგორითმი, რომელსაც დეკოდერი ეწოდება, ასწორებს ხარვეზებს და ფოტოებისგან რეალისტურ გამოსახულებებს ქმნის.

სახეების გაცვლისთვის საჭიროა, ისინი ორ სხვადასხვა დეკოდერში გადანაწილდეს ადგილების გაცვლით. მაგალითად A და B ადამიანების შემთხვევაში, A-ის ფოტოები გადავა დეკოდერში, რომელსაც ევალება B-ის სახის კონტროლი და პირიქით. დეკოდერი სახის გამომეტყველებს ამსგავსებს ერთმანეთს  და შედეგად იქმნება ვიდეო.

არსებობს ისეთი Deepfake-ის შექმნის საშუალებაც, რომელსაც არ სჭირდება რეალური მოდელი. ამ შემთხვევაში გამოიყენება «გენერაციული მოწინააღმდეგე ქსელი». ხელოვნური ინტელექტის პირველი ალგორითმი, რომელსაც გენერატორი ეწოდება აგროვებს ხმაურს და მას გამოსახულებად აქცევს. სწორედ ეს გამოსახულება ემატება რეალური სურათების ნაკადს, მაგალითად, ცნობილ ადამიანებს, რომელთა გამოსახულებაც მეორე ალგორითმში — დისკრიმინატორშია მოთავსებული. თავდაპირველად ვიდეო რეალურს არ ჰგავს, თუმცა პროცესის მრავალჯერ გამეორების შემდეგ, ნამდვილისგან განსხვავება რთულდება.

მაგალითად, სოციალურ ქსელებში აქტიურად ტრიალებდა კიმ კარდაშიანის ვიდეო, სადაც ის საუბრობს იმაზე, თუ როგორ უყვარს ადამიანებით მანიპულირება და როგორ ცხოვრობს წარმოუდგენელ სიმდიდრეში.

სწორედ Deepfake-ის წყალობით მიიღეს «სატახტოთა თამაშების» ფანებმა გულწრფელი მობოდიშება ჯონ სნოუსგან, რომელიც წუხდა სერიალის მერვე სეზონით ფანებისთვის გულის დაწყვეტაზე.

თუმცა, საქმე ბევრად უფრო სერიოზულადაა და მსახიობების და ფილმების პერსონაჟების მხრიდან ფანებისთვის მობოდიშების საზღვრებს სცდება.

Deepfake წარმოადგენს ძლიერ იარაღს თანამედროვე პოლიტიკურ ასპარეზზე.

2018 წელს ინტერნეტში ფართოდ გავრცელდა ვიდეო, რომელშიც აშშ-ის 44-ე პრეზიდენტი, ბარაკ ობამა მის იმდროინდელ მოწინააღმდეგეზე, დონალდ ტრამპზე საუბრობს და იყენებს ტერმინოლოგიას, როგორითაც პრეზიდენტის მხრიდან საზოგადოებისთვის მიმართვა არაეთიკურია.

ვიდეოს მსვლელობისას ეკრანი ორად იყოფა და ობამას გამოსახულებასთან ერთად ვხედავთ მსახიობ ჯორდან ფილს, რომელიც რეალურად საუბრობს პრეზიდენტის ნაცვლად.

«საშიშ დროში ვცხოვრობთ. დროის გასვლასთან ერთად უფრო ყურადღებით უნდა ვიყოთ თუ რას ვენდობით ინტერნეტში. დროა, რომ დავეყრდნოთ სანდო მედია წყაროებს». — ამბობს ფილი პრეზიდენტის გამოსახულებასთან ერთად.

Deepfake ვიდეოებმა აქტიურად იჩინა თავი რუსეთ-უკრაინის ომის დროს. ინტერნეტში ვრცელდებოდა ვლოდიმირ ზელენსკის ვიდეოები, სადაც ის თითქოს უკრაინელებს იარაღის დაყრასა და დანებებას სთხოვს.

შეხვდებით ვიდეოებსაც, სადაც რუსეთის პრეზიდენტი, ვლადიმერ პუტინი მსოფლიოს უკრაინის მხარდაჭერისა და მშვიდობისკენ მოუწოდებს.

ინფორმაციით მანიპულირება დღეს ძალიან ადვილი გახდა. Deepfake, ფოტოშოპთან ერთად, სოციალური ქსელებით «ბრძოლის» იარაღია.

აღსანიშნავია, რომ ხშირად Deepfake-ის შესაქმნელად სულაც არაა საჭირო რეალური გამოსახულების ქონა. Deepfake-ით შეიქმნა Bloomberg-ის არარსებული ჟურნალისტი, მეისი კინსლი, რომელსაც ჰქონდა LinkedIn-ისა და Twitter-ის პროფილები.

შესაძლოა შეიქმნას აუდიო Deepfake მასალები, რომლებსაც ცნობილი სახეების ხმის კლონირებით ქმნიან. ინტერნეტში საიტები ადვილად ხელმისაწვდომია.

https://www.respeecher.com/        

Deepfake არ არის მხოლოდ პოლიტიკური იარაღი. 2019 წლის სექტემბერში სოციალურ ქსელში ხელოვნური ინტელექტის ფირმა Deeptrace-მა 15 000 Deepfake ვიდეო აღმოაჩინა. მათ შორის 96% პორნოგრაფიული შინაარსის იყო და ამ ვიდეოებს შორის 99% ცნობილი ქალების სახეები, რომლებიც პორნოვარსკვლავებზე იყო გადატანილი.

ახალი ტექნოლოგიები ყველაზე გამოუცდელ ადამიანებსაც კი აძლევს საშუალებას, მსგავსი ტიპის ვიდეოები შექმნან, შესაბამისად, მსგავსი მასალები ცნობილი ადამიანების სამყაროს ცდება და რიგითი მოქალაქეების ყოველდღიურობაში გადმოდის. შესაძლოა, შეიქმნას პორნოგრაფიული შინაარსის ვიდეოები შურისძიების მიზნით. ბოსტონის უნივერსიტეტის სამართლის პროფესორის, დენიელ კირტონის, თქმით Deepfake ქალთა წინააღმდეგ მიმართულ იარაღადაც იქცა.

Deepfake-ის შექმნა შეუძლია ყველას — როგორც მაღალი განათლების მკვლევრებს, ასევე მოყვარულ ენთუზიასტებს, ვიზუალური ეფექტების სტუდიებსა და პორნოგრაფიული მასალების პროდიუსერებს.

კარგი Deepfake-ის შექმნა სტანდარტულ კომპიუტერზე რთულია.

უმეტესობა იქმნება მაღალი ფუნქციონირების, ძლიერი გრაფიკის მქონე კომპიუტერებზე. ასეთი მოწყობილობები შესაძლებელს ხდის, თვეების ან კვირების საქმე რამდენიმე საათში შესრულდეს. მიუხედავად ამისა, არსებობს უამრავი ხელსაწყო, რომლითაც დღეს Deepfake-ის შექმნაა შესაძლებელი. არიან კომპანიები, რომლებიც, სურვილის შემთხვევაში, მომხმარებელს Deepfake-ს დაუმზადებენ. არსებობს მობილურის აპლიკაცია Zao, რომელიც მომხმარებლებს აძლევს საშუალებას, რომ თავიანთი სახე სხვადასხვა სატელევიზიო თუ ფილმის პერსონაჟს მოარგონ. მსგავსი აპლიკაციაა Reface, სადაც თქვენი სახის სურათის ატვირთვის შემდეგ შეგიძლიათ სხვადასხვა მუსიკალური კლიპის, ფილმის თუ სხვათა მონაწილე გახდეთ.

როგორ აღმოვაჩინოთ Deepfake?

ტექნოლოგიის განვითარებასთან ერთად Deepfake-ის აღმოჩენა რთულდება. 2018 წელს ამერიკელმა მკვლევრებმა აღმოაჩინეს, რომ Deepfake სახეები თვალებს ჩვეულებრივად არ ახამხამებენ, რაც არ არის გასაკვირი. ფოტოების უმრავლესობაში, რომლებიც ვიდეოს დასამზადებლად გამოიყენება, ადამიანებს გახელილი თვალები აქვთ. აქედან გამომდინარე, ალგორითმი ვერ იღებს ინფორმაციას თვალის დახამხამების საჭიროებაზე. თუმცა, მოგვიანებით ამ ხერხმა თავისი სანდოობა დაკარგა იქიდან  გამომდინარე, რომ ვიდეოს გამოსახულებებს თვალის დახამხამება «ასწავლეს». როგორც კი Deepfake-ის აღმოჩენის საშუალება საჯაროვდება, ხარვეზს ასწორებენ.

ცუდი ხარისხის Deepfake ვიდეოები ადვილი შესამჩნევია. შესაძლოა, პირი არ მიყვებოდეს სიტყვებს ან კანის ფერი იყოს აჭრელებული, ასევე, დაბურულია სახის კუთხეები და ისეთი წვრილმანი დეტალები, როგორიცაა, მაგალითად, თმები, რთული გასაკეთებელია. ამოცნობის საშუალება შეიძლება გახდეს ცუდად დარენდერებული სამკაული ან კბილები. ასევე განათება, ანარეკლი და სხვა.

მთავრობები, უნივერსიტეტები და ტექნოლოგიური ფირმები აფინანსებენ კვლევებს Deepfake-ის აღმოსაჩენად. Microsoft, Faceebook და Amazon 2020 წლის 25 ივნისიდან აწარმოებს Deepfake Detection Challenge Dataset-ს, რომლის ფარგლებშიც მკვლევართა გუნდები მსოფლიოს გარშემო ეძებენ Deepfake მასალებს ერთგვარი თამაშის ფორმატში.

Facebook-მა აკრძალა Deepfake ვიდეოები, რომლებმაც, შესაძლოა, მნახველი შეცდომაში შეიყვანოს და ადამიანზე აფიქრებინოს, რომ თქვა რაიმე ისეთი, რაც რეალურად არ უთქვამს.

რა არის გამოსავალი?

რაც არ უნდა ირონიულად ჟღერდეს, ხელოვნური ინტელექტით შექმნილი Deepfake-თან ბრძოლის საშუალება, სწორედ ხელოვნური ინტელექტია. ხელოვნური ინტელექტი გვეხმარება, რომ აღმოვაჩინოთ ყალბი ვიდეოები, მაგრამ ბევრ არსებულ აღმომჩენ სისტემას აქვს ხარვეზები. მსგავსი სისტემები კარგად მუშაობს ცნობილ სახეებზე, რადგან მათ შეუძლიათ შეისწავლონ ძალიან ბევრი გამოსახულება.  ტექნოლოგიური ფირმები მუშაობენ აღმომჩენ სისტემებზე, რომლებიც გამოჩენისთანავე აღმოაჩენს ყალბ მასალას.

მაგალითად, კომპანია Intell-მა წარმოადგინა სისტემა FakeCatcher, რომელიც, მათი თქმით, 96% სიზუსტით აღმოაჩენს ყალბ მასალას.

***

მიუხედავად ყველაფრისა, Deepfake ვიდეოები ყოველთვის საფრთხის შემცველი არ არის და შესაძლოა ხშირად სასარგებლოც კი იყოს. მაგალითად ხმის კლონირების აპარატებს შეუძლიათ «ხმა დაუბრუნონ» ადამიანებს, რომლებმაც ის ავადმყოფობის გამო დაკარგეს. Deepfake ვიდეოებმა შესაძლოა «გააცოცხლონ» მუზეუმები და გალერეები,  მაგალითად ფლორიდის შტატში დალის მუზეუმში თავად სალვადორ დალი აცნობს დამთვალიერებლებს თავის ნამუშევრებს და მათთან ერთად ფოტოებსაც იღებს.



ასევე წაიკითხეთ
როგორ შეიძლება, ხელოვნურმა ინტელექტმა შეცვალოს LGBTQIA+ ადვოკატირება
როგორ შეიძლება, ხელოვნურმა ინტელექტმა შეცვალოს LGBTQIA+ ადვოკატირება
როგორ შეიძლება, ხელოვნურმა ინტელექტმა შეცვალოს LGBTQIA+ ადვოკატირება
ახალი AI Comes Out of the Closet — «AI კარადიდან გამოდის» სისტემა მიზნად ისახავს ხელოვნური ინტელექტისა და LGBTQIA+ მხარდაჭერის შერწყმას.  ავტორი: დევიდ სვინი, MIT
AI-ის დამსახურებით, Nvidia-ს მოგება 600%-ით გაიზარდა
AI-ის დამსახურებით, Nvidia-ს მოგება 600%-ით გაიზარდა
AI-ის დამსახურებით, Nvidia-ს მოგება 600%-ით გაიზარდა
Truecaller და Microsoft მომხმარებლებს ზარებზე პასუხის გასაცემად AI ხმის შექმნის ნებას მისცემს
Truecaller და Microsoft მომხმარებლებს ზარებზე პასუხის გასაცემად AI ხმის შექმნის ნებას მისცემს
Truecaller და Microsoft მომხმარებლებს ზარებზე პასუხის გასაცემად AI ხმის შექმნის ნებას მისცემს
რა წერია ევროპული საბჭოს მიერ მიღებულ AI აქტში
რა წერია ევროპული საბჭოს მიერ მიღებულ AI აქტში
რა წერია ევროპული საბჭოს მიერ მიღებულ AI აქტში
დღეს, 21 მაისს ევროპულმა საბჭომ მიიღო ხელოვნური ინტელექტის აქტი — კანონი, რომელიც «მიზნად ისახავს ხელოვნური ინტელექტის წესების ჰარმონიზაციას». ევროპული საბჭო აცხადებს, რომ აქტი მიჰყვება რისკებზე დაფუძნებულ მიდგომას — რაც უფრო მაღალია საზოგადოებისთვის ზიანის მიყენების რისკი, მით უფრო მკაცრია წესები. ეს არის პირველი კანონმდებლობა მსოფლიოში, რომელსაც შეუძლია, დააწესოს ხელოვნური ინტელექტის რეგულირების გლობალური სტანდარტი.
განხილვა
კომენტარები ჯერ არაა.