კოლექციები

Deepfakes ცუდია, მაგრამ რომელია შესაძლო უპირატესობა?

Deepfakes ცუდია, მაგრამ რომელია შესაძლო უპირატესობა?

რა არის Deepfakes? ოდესმე ნამდვილად შეგვიძლია ვენდოთ იმას, რასაც ტელევიზორში ან ფილმში ვხედავთ?

როგორც აღმოჩნდა, მათ, ვისაც საშუალება და მოტივი ჰქონდა, ათწლეულების განმავლობაში ექიმოდნენ ფოტოებსა და ვიდეო კადრებს. ახალი არაფერია.

მაგრამ Deepfakes– მა, რომელიც აღჭურვილია AI და ML– ით, შესაძლებელი გახადა საზოგადოების მოღვაწეობის თითქმის სრულყოფილი ყალბი კადრების წარმოება, უნდა ითქვას, კომპრომეტირებულ სიტუაციებში. მაგრამ ეს აუცილებლად ცუდია?

დაკავშირებული: უფასო პროგრამული უზრუნველყოფა სცემს გამაფრთხილებელ ბრაზებს. ჰენრი კევილის მუსტაქის ამოსაღებად

რა არის Deepfakes?

Deepfakes, ღრმა სწავლისა და ყალბი ტერმინების აგება, ადამიანის გამოსახულების სინთეზის ტექნიკაა, რომელიც დაფუძნებულია AI– ზე. ვიკიპედიის მიხედვით:

"იგი გამოიყენება არსებული სურათების და ვიდეოების დასაწყობებლად და მათზე გადასატანად წყაროს სურათებზე ან ვიდეოებზე, მანქანური სწავლების ტექნიკის გამოყენებით, რომელიც ცნობილია როგორც გენერალური შეჯიბრებითობის ქსელები. ფრაზა" Deepfake "გამოყენებულია 2017 წელს.

ეს ტექნიკა წარმოუდგენლად ეფექტურია და უფრო მოწინავე ხდება და რაც დრო გადის, რთულია იმის დადგენა. Deepfakes წარსულში გამოიყენებოდა ცნობილ ადამიანთა ყალბი პორნოგრაფიული ვიდეოების შესაქმნელად.

იგი ასევე იქნა გამოყენებული ყალბი ამბების და სხვა მუქარის, ან წმინდა სატირული, სხვა გამოჩენილი პირების მოჩვენებითი კადრების შესაქმნელად, სხვა სრულიად შეთითხნილი დიალოგის საშუალებით. ამის მთავარი და გულწრფელად სასაცილო მაგალითი იყო მარკ ცუკერბერგის ახლახან Deepfake ვიდეო.

Deepfakes– ზე მუშაობა ძირითადად ჩატარდა აკადემიურ კვლევებში და ონლაინ თემებში მოყვარულთა მიერ. ასევე ფიქრობენ, რომ სამთავრობო უწყებებმა, როგორიცაა CIA ან დიდი ბრიტანეთის GCHQ, გამოიყენეს ეს ტექნიკა პროპაგანდისტული მიზნებისთვის.

ვინ შექმნა Deepfakes?

Deepfakes– ზე მუშაობა რეალურად ახალი არაფერია. მიუხედავად იმისა, რომ ახლანდელი ტექნოლოგიის დახვეწილობასთან ახლოს არ არის, 90-იანი წლებიდან არსებობს "კომპიუტერული ხედვის" სფერო.

კომპიუტერული მეცნიერების ქვესფერო, ის აერთიანებს AI და ციფრული სურათების და ვიდეოების კომპიუტერული დამუშავებას ახალი ხელოვნური მედიის შესაქმნელად. ადრეულ ერთ მნიშვნელოვან აკადემიურ პროექტს ეწოდა ვიდეო გადაწერილი პროგრამა, რომელიც 1997 წელს გამოქვეყნდა.

მას შეეძლო შეცვალონ არსებული ვიდეომასალა, სადაც ადამიანი საუბრობს ახალი დოქტორული დიალოგის საშუალებით. იგი იყენებდა მანქანურ სწავლებას სახის რეანიმაციის სრულად ავტომატიზირებისთვის.

ამ სფეროში უფრო თანამედროვე აკადემიური და სამოყვარულო საქმიანობა უფრო მეტად ორიენტირებულია პროცესის გამარტივებაზე, სწრაფ და ხელმისაწვდომობაზე.

მაგალითად, Face2Face პროგრამა, რომელიც 2016 წელს გამოქვეყნდა, ცვლის პირის სახის ვიდეომასალას, რომ ასახოს ისინი რეალურ დროში მიბაძავენ სხვა ადამიანის სახის გამომეტყველებებს.

კიდევ ერთი მაგალითი, 2017 წელს გამოქვეყნებული პროგრამა "სინთეზირება ობამასთვის", ნამდვილად აჩვენებს ამ ტექნოლოგიის პოტენციალს. მაგრამ შეიძლება ითქვას, რომ ყველაზე მნიშვნელოვანი ნამუშევარი ძირითადად მოყვარულთაგან არის.

სანამ Reddit აკრძალული იქნებოდა, r / deepfakes subreddit შედგებოდა 'თვითნაკეთი' Deepfake შინაარსის მომხმარებლებისგან. ამ საზოგადოებამ, მართალია, შინაარსი ძირითადად პორნოგრაფიული ხასიათისაა, მაგრამ ნამდვილად აჩვენა, თუ როგორ შეიძლება Deepfakes შედარებით ადვილად შეიქმნას საკმარისი ცოდნისა და სწორი პროგრამული უზრუნველყოფის გათვალისწინებით.

როგორ მუშაობს Deepfakes?

Deepfakes მუშაობს ჩვენი ბუნებრივი ტენდენციის გამოყენებით, დავიჯეროთ ის, რასაც ვხედავთ, თუ ის შეუმჩნევლად განსხვავდება იმისგან, რასაც რეალურ კადრებს მივიჩნევდით. იგი ასევე ცდილობს 'გატეხოს' ვინმეს მიერ დადასტურებული მიკერძოება მოცემულ თემაზე - განსაკუთრებით თუ Deepfake- ის თემა პოლიტიკური ხასიათისაა.

ეს ყველაზე ეფექტურია, თუ მაყურებელს არასოდეს უნახავს ორიგინალი კადრები - გასაგები მიზეზების გამო.

რაც შეეხება მათ რეალურ შექმნას, ეს მოიცავს ორი გენერალური შეჯიბრებითობის ქსელის (GAN) გამოყენებას. მანქანათმშენებლობის ეს ორი მოდელი იბრძვის ნულოვანი ჯამით თამაშში, რომ შექმნან ყალბი კადრები და სხვა მცდელობა აქვთ აღმოაჩინონ, რომ იგი ყალბია.

ყალბი ქმნის ყალბი სანამ სხვა ML მოდელი ვერ დააფიქსირებს გაყალბებას. ეს სისტემები საუკეთესოდ მუშაობს, როდესაც არსებობს უამრავი მასალა და ვიდეომასალის სურათები.

ეს არის ყველაზე მთავარი Deepfakes- ის პოლიტიკოსების ან ცნობილი სახეების ჩართვის მთავარი მიზეზი.

Deepfakes– ის უპირატესობები და უარყოფითი მხარეები

Deepfakes– ის მსგავსი ნაკლოვანებები საკმაოდ აშკარაა. ყალბი ინკრიმინაციული მტკიცებულებების შექმნის შესაძლებლობამდე "ყალბი ამბები" და პროპაგანდა, ეს ტექნოლოგია შეიძლება გამოყენებულ იქნას ბოროტი მიზნებისთვის და შანტაჟისთვის.

მაგრამ ამას შეიძლება თავისი უპირატესობაც ჰქონდეს. ამის შესახებ ერთი საინტერესო მოსაზრება მოდის TowardsDataScience.com– დან.

სინამდვილეში, სატირული Deepfake ვიდეო, ვიზუალურად დამაჯერებელი თვალისთვის, აშკარად შეთითხნილია. ამან, ისევე როგორც "Fake News" - ის ზრდამ, ხალხს თვალი გაახილა, რომ ეს შესაძლებელია და ყველაფერი უნდა მივიღოთ "მარილის მარილით".

გაფრთხილება: შემდეგი ვიდეო შეიცავს რბილ ენას - ეს არის ჯორჯ კარლინი.

”ასე რომ მადლობაDeepfakes, ამის შესახებ რომ შეგვატყობინეს, კიდევ ერთხელ გავაცნობიერეთ, რომ ყველაფერს, რასაც ვხედავთ და ვისმენთ, თავისთავად ვერ მივიღებთ. ჩვენთვის პრობლემის გადასაჭრელად, ადრე, სანამ ეს იმდენად დიდი გახდება და ბევრ ჩვენგანზე მოახდინა არასწორად გავლენა, რომ უკვე გვიანია.

ამას დრო დასჭირდება. ახალი უნარ-ჩვევა, რომელიც ყველამ უნდა ვისწავლოთ. ასე რომ, ეჭვი შეიტანეთ, რომ შემდეგ ვიდეოს ნახავთ ინტერნეტში. ჯანდაბა, ეჭვი შეიტანე ყველაფერში, რასაც ხედავ, კითხულობ ან ისმენ. იყავით უფრო კრიტიკულები! შენ თვითონ იფიქრე ”.

ჩვენ თვითონ უკეთესად ვერ ვამბობდით ამას. ბოლოს და ბოლოს, თუ რამე ჭეშმარიტად ძალიან კარგი ან ცუდი ჩანს, ეს ალბათ დაეჭვებას საჭიროებს.


Უყურე ვიდეოს: His Glory- Take 5 Deep Fakes (იანვარი 2022).