Ілюзія 21 століття або як технології можуть нас збентежити

Ви слухали промову Кім Чен Ина про демократію, чи захоплювалися Сальвадором Далі, який розповідав про свою смерть (чому він не у неї вірить)? Або приходили в шок від відео із Зеленським про «капітуляцію»? Ці відео об’єднує одне – вони фальшиві. Deepfake — це методика створення та публікації неправдивої інформації у вигляді відео, аудіо та фотографій. Натрапити на такі матеріали все легше, тому ми підготували для вас інструкцію про створення, розпізнавання та пошук діпфейкових відео в Інтернеті.

Діпфейк – що це?

Діпфейк (Deepfake) – це, по суті, фото, відео чи аудіо матеріал, який є не справжнім, підробленим, тобто фейковий. Deepfake (поєднання двох слів – deep learning «глибоке навчання» та fake «підробка») використовує штучний інтелект (AI) для глибокого навчання, щоб створити схожість однієї людини з іншою у відео та інших цифрових медіа матеріалах. Його створюють алгоритми на основі реальних зразків голосу, звуку, відео або фотографій, які зшиваються разом. Алгоритм бере вибрану інформацію з багатьох різних місць, а потім об’єднує її в один матеріал. У результаті створюється щось нове (несправжнє), що базується на поєднанні різних реальних даних.

Але це ще не все. Діпфейк також може «намалювати» фотографію з нуля, наприклад, створивши обличчя персонажів, яких ніколи не існувало.

Яка мета таких дій? Серед іншого, використовується Deepfake для поширення некоректної інформації в Інтернеті (наприклад, щодо політичних осіб або подій), крадіжки (наприклад, підробка голосових команд) і створення порнографії (фільми зі знаменитостями – порно deepfake). Його також можна використовувати в освітніх і розважальних цілях.

Deepfake – як це працює?

Взагалі, існує два способи створення матеріалу deepfake. Перший спосіб використовує два алгоритми. Спочатку перший (кодер) шукає спільні риси двох зображень (тих, які потрібно об’єднати в одне), потім другий (декодер) може перенести їх на новостворене зображення. Наприклад, якщо ми хочемо створити відео, в якому актор рухався б, як ми, кодер бере рух з відео, де ми танцюємо, а декодер вже замінить наше обличчя на обличчя актора й змусить його відтворювати наші рухи. Ключовими тут є вибрані дії, які копіюються на нове зображення (наприклад, рухи, жести, міміка).

Другий спосіб — за допомогою генеративних змагальних мереж (GAN), де два алгоритми працюють разом. Перший називається генератором, тому що, використовуючи загальну інформацію, він створює образи (наприклад, образ людини), що об’єднують його відмінні ознаки (у людини є тіло, є обличчя, є очі). Другий алгоритм є дискримінатором, який оцінює, чи є зображення, надані йому генератором, правдивими чи ні. З часом обидва алгоритми стають все більш розвиненими, тому навчаючись, вони самоудосконалюються. Якщо генератор навчений так, що дискримінатор не розпізнає фейкове фото (вважає його справжнім), процес завершено.

Велику кількість підробленого програмного забезпечення можна знайти на GitHub, спільноті з відкритим кодом для сценаріїв, програм і кодів. Деякі з цих програм використовуються виключно в розважальних цілях, тому створення deepfake не заборонено, однак, багато з них може використовуватися й зі злочинною метою.

Багато експертів вважають, що в майбутньому з розвитком технологій діпфейки стануть набагато складнішими і можуть створити більш серйозні загрози суспільству, пов’язані зі втручанням у вибори, створенням політичної напруги та кримінальною діяльністю.

Загроза Deepfake – відколи вона існує?

Вперше така підроблена інформація з’явилася у 2017 році. Тоді користувач під псевдонімом deepfake опублікував на Reddit кілька порнографічних фільмів, в яких були задіяні знаменитості, у т.ч. Скарлетт Йоханссон, Галь Гадот і Тейлор Свіфт. Відтоді ця галузь стрімко розвивається, адже фільми deepfake може знімати практично кожен.

Останніми роками технологія діпфейку розвинулася настільки, що зараз стає все важче визначити, чи це сфабриковане відео, чи справжній запис реальних людей. Прикладом можуть бути відео з посланням Єлизавети II або промовою Барака Обами, яке швидко опублікували на багатьох різних сайтах. Відео із заявою колишнього президента США стосувалося питання світових загроз, які можуть бути викликані дезінформацією та фейковими новинами, опублікованими в Інтернеті. У матеріалі, опублікованому каналом BuzzFeedVideos, голосом 44-го президента США став американський режисер і актор Джордан Піл. Однак наразі штучний інтелект вже здатний згенерувати голос на основі архівних записів людини, яка має з’явитися у фейковому фільмі.

Такі передові технології можуть у майбутньому стати небезпечним інструментом у руках кіберзлочинців та інтернет-шахраїв. Публікація фейкових відео з виступами важливих політиків може завдати реальної шкоди на міжнародному рівні. Такі фільми, засновані на технології deepfake, можуть зчиняти дипломатичні конфлікти та скандали, а отже, впливати на громадську думку і поведінку людей.

Ще однією потенційною загрозою є контент для дорослих, який завжди генерував найбільше трафіку у віртуальному просторі. Не дивно, що технологія deepfake так швидко потрапила в Інтернет. Згідно зі звітом нідерландської компанії Deeptrace, яка займається кібербезпекою, 96% сфабрикованих відео, створених за допомогою технології діпфейк, є контентом на такі теми. Найчастіше для виготовлення подібних матеріалів використовуються образи кінозірок, спортсменів і навіть політиків і представників влади.

Як зробити діпфейк?

Якщо діпфейкові відео може створювати будь-хто, чи можна їх також зробити вдома? Однозначно так, але їх якість, звичайно, не буде ідеальною. Для створення таких відео потрібні великі обчислювальні ресурси і потужні відеокарти. Тих, що ми зазвичай маємо в домашніх комп’ютерах, недостатньо, а сам процес розробки може тривати тижнями. Якість фільмів також залишить бажати кращого – будуть видні помилки, рухи рота можуть не відповідати звуку, будуть видні місця перекриття «старого» контенту з «новим».

Однак, якщо ми хочемо трохи «підправити» фотографію або зробити коротке відео deepfake, програму для цього можна завантажити прямо на смартфон. Дуже проста у використанні програма за кілька хвилин усуне недоліки зовнішності, перетворить вас на обрану знаменитість або дозволить вашій собаці говорити людським голосом.

Як розпізнати діпфейк?

Професійні діпфейкові відео стає все важче і важче розпізнати. Спочатку алгоритми мали проблеми з елементарною поведінкою (наприклад, моргання очима), і одразу було зрозуміло, що фільм є підробкою. Зараз цю помилку виправлено. Фальшиві персонажі моргають, рухаються природно, а також вільно говорять. Однак, іноді вони все ще мають проблеми з природним рухом очей.

Отже, як виявити діпфейк? Ось на що варто звернути увагу під час перегляду відео:

  • Чи встигає звук за рухами роту? Іноді вони не зовсім збігаються, і людина на відео рухає губами з запізненням відносно звуку, або неправильно формулює слова.
  • Всілякі явища, які здаються неприродними. Ми говоримо тут, серед іншого, про положення всього тіла або голови по відношенню до тулуба, неправильне відображення світла на предметах, неправильне відображення світла в прикрасах тощо. Ознакою того, що плівка є підробкою, також може бути неприродний колір шкіри.
  • Якість аудіо та відео. Розбіжність між ними допоможе виявити deepfake. Зазвичай звукова доріжка гіршої якості.
  • Нерівності зображення. Найчастіше вони з’являються на стику тіла і голови. Коли голова знаменитості «приліплена» до іншого тіла, в області шиї може з’явитися розмитість. Інколи зустрічаються пропуски кадрів (переривчастість) і помилки кадру (різний кут світла, тип або напрямок).
  • Зміна хештегу під час відео – також може означати, що перед нами deepfake-відео.

Переглядаючи матеріали з точки зору діпфейку, варто також покладатися на власні відчуття. Іноді у нас складається враження, що щось «не так». Таке трапляється, серед іншого, коли емоції людини, зображеної на екрані, не збігаються з тим, що нам показує вираз обличчя чи тон голосу. Це також свідчить про те, що відео, можливо, було підроблено.

Як захиститись від діпфейку?

Щоб уникнути глибокого фейкового шахрайства, спеціалісти радять дотримуватися таких кроків:

  • Створіть таємне слово чи слоган з близькими людьми, такими як члени родини чи колеги, які доведуть реальність ситуації з відео чи запису. Це дозволить швидко переконатися у неправдивості ситуації та уникнути, наприклад, вимагання грошей.
  • Узгодити з родичами або колегами перелік інформації, про яку ніколи не запитуватимуть через повідомлення, наприклад, у соцмережах чи СМС. Вкрай важливо, щоб усі зацікавлені сторони були проінформовані про реальний ступінь небезпеки.
  • Реалізація каналів багатофакторної автентифікації для перевірки кожного запиту. Якщо спілкування починається з текстового повідомлення, то найбезпечнішим буде підтвердити інформацію, зв’язавшись з відправником повідомлення у формі розмови по попередньо узгодженому та безпечному каналу зв’язку.
  • Постійне вдосконалення компетенції у сфері безпеки, наприклад, у формі навчання персоналу з питань безпеки та кіберзлочинності. Підвищення обізнаності про те, що таке діпфейк, і як протидіяти цій загрозі.
  • Підтримка та розвиток систем безпеки в інформаційно-комунікаційних технологічних (ІКТ) середовищах.

Де можна стикнутися з діпфейком?

Фальшивий матеріал можна знайти скрізь, де він може охоплювати велику аудиторію, тобто потенційну аудиторію deepfake. Facebook, Instagram, TikTok та інші сайти соціальних мереж повні такого роду матеріалів.

Це не тільки дивовижні відео, а й «доопрацьовані» фотографії та аудіозаписи. Деякі з автентичних профілів знаменитостей інколи були повністю заповнені діпфейковим матеріалом!

Це не єдине місце, де можна знайти діпфейк. На цій технології також заснований застосунок для смартфона, який дозволяє додати до фотографії вуса і бороду або інші спецефекти (наприклад, старіння на кілька десятиліть). Тож може виявитися, що останнє фото, яке ви отримали від друзів, трохи «підмальоване».

Deepfake-фільми не тільки порнографічні

Застосування deepfake може бути як позитивним, так і негативним. Фільми з діпфейком можуть бути й розважальними. Тут слід згадати відео, як королева Єлизавета танцює на столі під час новорічного послання. Це також мета більшості модифікацій фотографій, які ми робимо за допомогою програми deepfake на наших смартфонах. Це має бути забавно та весело.

Матеріали Deepfake також можуть відігравати освітню роль, наприклад, «воскрешати» вже померлих художників, співаків чи музикантів. Деякі музеї, зокрема, Музей Сальвадора Далі у Флориді, використовують цю технологію, де відвідувачам свої роботи «представляє» сам художник, з яким можна поспілкуватися і навіть сфотографуватися.

Технологія діпфейк використовується у голосових генераторах – пристроях, призначених для людей, які втратили здатність говорити. Завдяки ним такі люди все ще можуть розмовляти з нами своїм голосом. Голос Вела Кілмера, який він втратив через рак гортані, саме так був змодельований у фільмі «Топ Ґан: Меверік».

На жаль, ми також маємо багато прикладів негативного використанням діпфейку. Політика є прикладом, коли такого роду неправдива інформація може мати далекосяжні, глобальні наслідки, наприклад, дискредитувати публічних діячів, впливати на фондовий ринок, економіку чи результати виборів, або навіть на хід бойових дій у війні. Добре підготовлений запис полегшує маніпулювання суспільною думкою. Поступальний розвиток технологій ще більш ускладнить розрізнення справжніх матеріалів від підробок. Отже, це крок до падіння соціальної довіри та інформаційного хаосу.

Діпфейкові відео, як ми вже згадували, широко поширені в порноіндустрії. Найчастіше зміни полягають у заміні обличчя порноактриси/актора на обличчя знаменитостей чи кінозірок, звісно, ​​без їхньої згоди.

Діпфейк – реальна загроза для всіх нас

Діпфейк – проблема не лише акторів і політиків. Будь-хто може постраждати від фейкових матеріалів. Елементом шантажу та вимагання може стати сфабриковане відео, на якому ми робимо злочин чи потрапляємо в недвозначну ситуацію – або ви заплатите, або ми розкриємо. Якщо ви працюєте у бізнесі, треба розуміти, що є небезпека використання діпфейку для дискредитації компанії серед її контрагентів.

Зростання кількості маніпулятивних матеріалів також може вплинути на соціальну довіру та довіру до наданої інформації. Як можна чомусь вірити, коли фільм, який є доказом у суді, може бути неправдивим, а в новинах повідомляється про неіснуючі події?

Технологія, що дозволяє створити шкідливе зображення, аудіозапис чи фільм, персонажі якого дуже схожі на інших людей, — це новий рівень загроз з боку кіберзлочинців. Особливо з огляду на те, що в соціальних мережах вони можуть черпати практично необмежені ресурси вихідного матеріалу для створення діпфейків.

Програмне забезпечення для машинного навчання може здійснювати пошук у Facebook або Instagram, наприклад, і ловити цікаві фото чи відео потенційних «акторів». На цій основі може бути створений дуже чіткий голос, образ і відео за участю даної людини, але зі спеціально створеним фальшивим зверненням, яке імітує, наприклад, перебування в серйозній біді – як жертва викрадення або нещасного випадку. На наступному етапі генерується фальшиве прохання про допомогу, наприклад фінансову, адресовану родичам «жертви».

Боротьба з діпфейком

Потік неправдивої інформації настільки великий, що багато соціальних мереж вирішили боротися з діпфейком. Facebook і Twitter намагаються виявляти підроблені відео та автоматично їх видаляти. Великі корпорації (включно з Microsoft або Amazon) інвестують у створення програмного забезпечення, яке буде виявляти фейкові матеріали. Вчені також працюють над рішенням цієї проблеми.

Однак у ситуації, коли для створення фейкового фільму достатньо програми на смартфоні, боротьба з діпфейком – це боротьба з вітряками. Також немає правових норм, які б визначали наслідки маніпулювання інформацією чи використання чужого іміджу таким чином.

Deepfake стає все більш популярним, і його все важче відрізнити від правди. Це пов’язано з удосконаленням технологій, які можуть краще імітувати людські рухи та жести. Діпфейкові програми можна використовувати для благих цілей, створюючи навчальні матеріали або допомагаючи людям, які втратили голос після операції на гортані, але вони також є інструментом для хакерів, шантажистів та інтернет-тролів.

Тому, якщо ви знову натрапите на шокуюче відео в Інтернеті, спершу перевірте, чи воно, часом, не є зміненим чи підробленим. Можливо, того, на що ви дивитеся, ніколи не було в реальності!

БІЛЬШЕ ЦІКАВОГО:

Похожие новости

В записи нет меток.