Кожен з нас нині живе у шаленому інформаційному полі. Ми слухаємо, читаємо, переглядаємо новини ледь не цілодобово. І час від часу в це інфополе може підло проникати брехня — аби дезорієнтувати нас, посіяти паніку, викликати відчай. Як не стати жертвою російських фейків?
— Ворожа пропаганда робить ставку перш за все на емоційну складову українців, — каже Ольга Юркова, співкоординаторка сайта StopFake.org. — Удар по емоціях сильно діє навіть у мирний час, а у воєнний — і поготів. Тому новини, які викликають страх, відчай, слід одразу перевірити за кількома офіційними (!) українськими джерелами інформації. Мова про канали Президента України, Верховної Ради, Збройних сил, Генштабу, місцевих адміністрацій... Але увага: і офіційні українські сайти тепер зламують — днями таке вже бувало кілька разів із сайтами місцевих райадміністрацій і міськрад, які повідомляли про начебто капітуляцію України. Саме тому важливо перевірити інформацію за кількома джерелами. Ну і не варто вірити анонімам — найчастіше фейки поширюють саме вони.
Раджу підписатися в Телеграмі на Центр протидії дезінформації РНБО, який відстежує фейки (шукайте установу за назвою).
— Нині чимало експертів, зокрема й на Заході, беруться назагал аналізувати ситуацію в нашій країні. Як зрозуміти, що експерт насправді заангажований і діє не в інтересах України?
— Не можна вірити тим, хто повторює риторику окупантів. От днями у соціальних мережах та на сайтах масово поширювали відеоінтерв’ю “колишнього розвідника та інспектора ООН” Скотта Ріттера про війну Росії проти України. У своєму “потужному аналізі”, як його називають користувачі соцмереж, Ріттер розповідав, що російські військові начебто взяли Маріуполь менш ніж за годину, а українська армія — абсолютно недієздатна. Ріттер повторював тези російської пропаганди про нацистів в Україні. Певна річ, вірити йому не можна.
— На що ще варто звернути увагу, аби не стати жертвою фейку?
— Коли це відео, то на час зйомки, якщо він доступний. Наприклад, недавно в мережі росіяни поширювали сюжет, начебто знятий на підступах до Мелітополя, де повідомляли, що “ситуація спокійна”. І на таймері можна було побачити час — 14:43. А саме тоді у місті відбувся великий проукраїнський марш мелітопольців. За повідомленням місцевих мешканців, під час маршу двоє людей поранили російські військові, які стріляли з автоматів із захопленої ними будівлі СБУ. Отож росіяни знову брехали.
Також будьте дуже обережні з новими акаунтами в соціальних мережах. Дуже багато їх — фейкові. Ось нещодавно в мережі з’явилося рекламне повідомлення про новий акаунт Служби безпеки України. Та це була підробка. Клікаючи на посилання у такому фальшивому повідомленні, ми можемо запустити вірус на свій прилад. Тож краще зайти на сайт Центру протидії дезінформації (https://cpd.gov.ua/) — тут є перелік офіційних акаунтів влади, і перевірити адреси, на які хочете підписатися.
ГЛИБОКА-ГЛИБОКА БРЕХНЯ
Нещодавно офіційні канали української влади повідомили, що російська пропаганда може поширити відео, в якому начебто Президент Зеленський повідомлятиме про капітуляцію України. Ви спитаєте: як же це можливо? Елементарно! Завдяки сучасним технологіям спеціалісти можуть створити картинку, яка виглядатиме, як реальна. Це називається дипфейк.
— Уявіть: хтось зняв відео з певною особою, а спеціалісти з допомогою штучного інтелекту вставили на її місце ваші фото — і ось на відео вже говорите ви, а не та особа, — пояснює Аліна Єлевтерова, консультантка з циф-рової безпеки ГО “Лабораторія цифрової безпеки”. — Про дипфейки активно заговорили у 2018 році, коли режисер Джордан Піл записав ролик начебто із Бараком Обамою, який нібито погано відгукується про Дональда Трампа.
Власне, на відео Піл зняв себе, а тоді за допомогою спеціальних програм наклав своє зображення на Обаму. Ролик набрав майже 9 мільйонів переглядів на YouTube, хоч він неправдивий. Це демонструє, як непросто може бути відрізнити несправжні новини від реальних.
— Єдина мета дипфейків — очорнити політиків?
— Подібні технології застосовують у фільмах, коли міміку акторів переносять, до прикладу, на вигаданих персонажів. Режисери не називають це дипфейком, проте алгоритми подібні.
Та в цілому цю технологію найчастіше використовують для очорнення політиків, зірок. Так, багато дипфейків з порнографічними мотивами було створено про публічних осіб, таких, як Емма Вотсон, Кеті Перрі, Тейлор Свіфт, Скарлетт Йоганссон.
У ситуації з Україною мета дипфейку, який можуть створити окупанти, — дезорієнтація та дезінформація народу. Добре, що людей попередили про ймовірність створення такого відео. Ми знаємо — вірити такому категорично не можна.
У ситуації з Україною мета дипфейку, який можуть створити окупанти, — дезорієнтація та дезінформація народу.
— Чи можливо все-таки відрізнити дипфейк від реально знятого відео?
— Якісний дипфейк розпізнати може лише фахівець, ретельно дослідивши відео. Проте пропаганда росії — низькопробна, тож і якісного ролика від них не варто чекати. На що треба звернути увагу, аби зрозуміти, що відео — фальшивка? На міміку людини — придивіться, чи вона “жива”, чи слова відповідають тому, як рухаються губи. Також зверніть увагу на фон — чи немає там незбігання за кольорами. В якийсь момент може “поплисти” контур обличчя — це теж ознака дипфейку.
— Фейк викаже асиметрія в обличчі, особливо вух, очей чи брів, а також розмитий, незрозумілий фон, — додає Ольга Юркова.
Дякуємо, що прочитали цей текст у газеті Експрес. У нас — тільки оригінальні тексти.
Читайте також репортаж із притулку для евакуйованих українців