Як захиститися від діпфейкових атак (Deepfake) та вимагання

29 листопада 2023 1 хвилина Автор: Cyber Witcher

Навчіться розпізнавати та захищатися від діпфейків

В умовах стрімкого розвитку технологій штучного інтелекту, зловмисники все частіше вдаються до використання діпфейків — синтетичних медіа, створених за допомогою алгоритмів глибокого навчання, для здійснення шахрайств та вимагань. Ці фальсифіковані відео та аудіо можуть бути використані для дискредитації публічних осіб, маніпуляцій думкою громадськості та навіть вимагання коштів. Виявлення таких атак та захист від них вимагає особливої уваги та застосування спеціалізованих методик кібербезпеки про що ми вам тут і розповімо

Як зловмисники використовують атаки Deepfake

Deepfakes — це синтетичний носій, створений за допомогою алгоритмів машинного навчання, названих на честь методів глибокого навчання, які використовуються в процесі створення, і фейкових подій, які вони зображують.

Методи Deepfake перетинають дисципліни та галузі від інформатики та програмування до візуальних ефектів, комп’ютерної анімації та навіть нейронаук . Вони можуть бути переконливо реалістичними, і їх важко виявити, якщо їх зробити добре та за допомогою складних і потужних технологій.

Але, зрештою,  машинне навчання є основоположною концепцією для науковців із обробки даних , і як таке воно пропонує цікаву область дослідження в контексті глибоких фейків і прогнозних моделей, які використовуються для їх створення. Методи навчання, алгоритмічні структури та синтетичний вихід цих моделей пропонують розуміння глибокого навчання та даних.

Раніше у 2021 році ФБР оприлюднило попередження про зростаючу загрозу синтетичного контенту, який включає дипфейки, описуючи його як «широкий спектр створеного або маніпуляційного цифрового контенту, який включає зображення, відео, аудіо та текст». Люди можуть створювати найпростіші види синтетичного вмісту за допомогою такого програмного забезпечення, як Photoshop. Зловмисники Deepfake стають все більш досконалими, використовуючи такі технології, як штучний інтелект (AI) і машинне навчання (ML). Тепер вони можуть створювати реалістичні зображення та відео.

Пам’ятайте, що зловмисники займаються кіберкрадіжками, щоб заробити гроші. Програми-вимагачі, як правило, успішні. Тож для них було логічним кроком використовувати deepfakes як новий інструмент для програм-вимагачів. У традиційному способі поширення програм-вимагачів зловмисники запускають фішингову атаку за допомогою зловмисного програмного забезпечення, вбудованого в привабливе глибоке фейкове відео. Існує також новий спосіб використання глибоких фейків. Зловмисники можуть показувати людям або компаніям усі види незаконної (але фальшивої) поведінки, яка може завдати шкоди їхній репутації, якщо зображення стануть публічними. Сплатіть викуп, і відео залишаться приватними.

Окрім програм-вимагачів, синтетичний вміст використовується в інші способи. Зловмисники можуть використовувати дані та зображення як зброю, щоб поширювати брехню та обманювати співробітників, клієнтів та інших осіб або вимагати їх.

Зловмисники можуть використовувати всі ці три стилі атаки разом або окремо. Пам’ятайте, шахрайство існує вже давно. Фішингові атаки вже досить безжальні у спробах обдурити користувачів. Однак захисники не звертають достатньо уваги на зростання ШІ/ML ​​для поширення дезінформації та тактики вимагання. Сьогодні зловмисники навіть можуть використовувати програми , призначені для створення порнографічних зображень зі справжніх фотографій і відео.

Запобігання атакам Deepfake

Користувачі вже стали жертвами фішингових атак, і тому виявлення глибоких фішингових спроб стало ще більш важким завданням для звичайних користувачів. Важливо, щоб програми безпеки включали навчання з кібербезпеки як обов’язковий елемент. В цьому навчанні слід надавати інформацію про те, як відрізнити підроблені повідомлення від справжніх.

Це завдання може бути не таким складним, як може здатися. Технологія фішингових атак може бути досить вдосконаленою, але не ідеальною. На одному з вебінарів Реймонд Лі, генеральний директор компанії FakeNet.AI, і Етай Маор, старший директор зі стратегії безпеки в Cato Networks, пояснили, що однією з ключових рис для виявлення підробок є обличчя та особливо очі. Якщо очі виглядають ненатурально або здається, що риси обличчя не рухаються, то ймовірно, що це змінене зображення.

Тут також застосовуються найкращі практики

Ще одним способом відрізнити дипфейк від справжньої інформації є застосування найкращих практик у кібербезпеці та прийняття філософії нульової довіри. Важливо перевіряти всі дані, які ви отримуєте. Двічі та навіть потрійно перевіряйте джерело повідомлення. У разі потреби використовуйте пошук зображень, щоб знайти оригінал, якщо це можливо.

Коли мова йде про ваші власні зображення, використовуйте цифровий підпис або водяний знак, щоб зробити їх важчими для фальсифікації.

В загальному, існуючі системи захисту можуть застосовуватися для запобігання фішингу та атак соціальної інженерії. Дипфейки все ще є в ранніх стадіях як метод атаки, тому команди з кібербезпеки мають перевагу у підготовці оборонних заходів, якщо інструменти для виявлення та захисту від цих атак вдосконалюються. Важливо не дозволяти цим загрозам мінімізувати наш спокій.

Наука лежить в основі дипфейків

Для науковців і фахівців, які працюють з даними та цікавляться впливом технології дипфейків на приватне підприємництво, державні установи, кібербезпеку та громадську безпеку, вивчення методів створення та виявлення дипфейків може бути надзвичайно корисним. Розуміння цих методів і наук, які лежать в їх основі, дозволяє легше реагувати на потенційні загрози, пов’язані із шкідливим використанням синтетичних медіа.

З розвитком моделей глибокого навчання стає важливим розвивати навички та ресурси для виявлення і запобігання потенційній загрозі, яка виходить від шкідливого використання дипфейків. Це може бути важливим завданням для дослідників, компаній та громадськості.

Урядові установи та великі корпорації відводять значні кошти на розвиток і вдосконалення систем виявлення дипфейків. Такі інвестиції можуть допомогти зменшити ризики, пов’язані із широкомасштабним поширенням фальшивої інформації та дезінформацією. Моделі, які створюються дослідниками, такі як Тхань Тхі Нгуєн і його колеги, можуть бути важливими інструментами для виявлення та боротьби з дипфейками в майбутньому.

Модель руху першого порядку

Модель руху першого порядку – це інтересний та передовий підхід до анімації зображень. Ця модель навчена відтворювати рух на основі вхідних даних і створювати анімації, які дозволяють користувачам анімувати відео або створювати нові сцени на основі існуючих даних.

Автори моделі навчили її “реконструювати” навчальні відеоролики шляхом поєднання одного кадру і вивченого представлення руху у відео. Це дозволяє моделі розуміти, як об’єкти рухаються на відео, і використовувати цю інформацію для створення нових кадрів або анімацій.

Димитріс Пулопулос, інженер з машинного навчання, використовував цю модель для створення інтерактивних сценаріїв та анімацій. Він ділився вихідним кодом та прикладами використання, дозволяючи іншим користувачам експериментувати з цією технологією.

Застосування цієї моделі може бути різноманітним, від створення візуальних ефектів у кіно та відеоіграх до анімації медійного контенту. Вона представляє собою важливий інструмент для творців відображення та відеоредакторів, які шукають нові способи створення захоплюючого вмісту.

Копайте глибше — і назовні — щоб дізнатися, що насправді

Перегляд підказок у фрагменті медіа є відправною точкою, але цього недостатньо. Ми також рекомендуємо запустити  бічний пошук  , щоб підтвердити або спростувати точність відео — те, що ви також можете зробити вдома. Згідно з посібником із перевірки фактів  Майком Колфілдом, науковим співробітником Центру інформованої громадськості Університету Вашингтона, латеральний пошук означає читання «багатьох пов’язаних сайтів замість того, щоб глибоко копатися в конкретному сайті»  . Відкрийте кілька вкладок у веб-браузері, щоб дізнатися більше про претензію, хто її поширює та що про це говорять інші джерела.

Колфілд радить: «Зайдіть зі сторінки та подивіться, що інші авторитетні джерела сказали про сайт», і зіберіть разом «різні фрагменти інформації з Інтернету, щоб отримати кращу картину сайту».

Якби аудіозапис Байдена про крах банку був справжнім, новини майже напевно містили б інформацію про це. Але коли ми шукали, результати включали лише інші публікації в соціальних мережах, у яких поширювався кліп, або новинні статті, які його розвінчували. Ніщо не підтвердило, що це правда.

Подібним чином, коли PolitiFact знайшов відео,  на якому  ДеСантіс оголосив про свою участь у президентських виборах у 2024 році, жодне надійне джерело новин не підтвердило це — те, що сталося б, якби ДеСантіс справді оголосив.

«Важливо відзначити, перш за все, хто ділиться цим відео, ви знаєте, шукайте трохи походження, звідки це відео було оригінально», – сказав Лю. «Якщо повідомлення справді має значення для аудиторії, вони повинні шукати перехресні перевірки».

Фактчекери також використовують зворотний пошук зображень, який також можуть робити користувачі соціальних мереж. Зробіть знімки екрана відео та завантажте їх на такі сайти, як  Google Images  або  TinEye . Результати можуть виявити оригінальне джерело відео, чи публікувалося воно в минулому та чи було воно відредаговано.

Інші статті по темі
КібервійнаСоціальна інженерія
Читати далі
Атака на «водоймі», що це таке та як від неї захиститися?
У цій статті ви знайдете докладну інформацію про природу атаки на "водойму", методи її виконання та практичні поради з безпеки, які допоможуть вам убезпечити свій комп'ютер та дані від потенційних загроз.
333
Знайшли помилку?
Якщо ви знайшли помилку, зробіть скріншот і надішліть його боту.