
Ключові винос
- Глибока ностальгія – це нова програма, яка дозволяє анімувати старі фотографії.
- Технологія показує, наскільки легко створювати відеозаписи людей, які роблять те, чого насправді не робили в реальному житті.
- Технологія глибоких підробок вже настільки складна, що важко сказати, чи є відео реальним чи створеним комп’ютером, каже один експерт.
imaginima / Getty Images
Будьте обережні з новим програмним забезпеченням, яке може створити так звані «глибокі підробки», в яких можна змоделювати відео реальних людей, попереджають експерти. «Глибока ностальгія», випущена компанією MyHeritage, поширюється в соціальних мережах, і користувачі реанімують усіх, від відомих композиторів до померлих родичів. Програмне забезпечення викликає неоднозначні реакції, деякі люди в захваті від творінь, а інші вважають їх моторошними. Технологія показує, наскільки легко створювати відеозаписи людей, які роблять те, чого насправді не робили в реальному житті. «Технологія Deepfake стає все більш досконалою та небезпечною», – сказав Аарон Лоусон, помічник директора лабораторії мовних технологій та досліджень (STAR) SRI International в електронному інтерв’ю. «Це частково пов’язано з природою штучного інтелекту. Там, де» традиційна «технологія вимагає людського часу та енергії для вдосконалення, ШІ може вчитися на собі.» Але здатність ШІ розвиватися – це меч з двома кінцями «, – продовжив Лоусон. Якщо ШІ створений для того, щоб робити щось доброзичливе, велике. Але коли ШІ призначений для чогось зловмисного, як глибокі підробки, небезпека є безпрецедентною «.
Змістовий покажчик
Програмне забезпечення оживляє фотографії
Генеалогічний веб-сайт MyHeritage представив механізм анімації минулого місяця. Технологія, відома як Глибока ностальгія, дозволяє користувачам анімувати фотографії через веб-сайт MyHeritage. Компанія D-ID розробила алгоритми для MyHeritage, які відтворюють цифрові рухи людських облич. За даними веб-сайту MyHeritage, програмне забезпечення застосовує рухи до фотографій та модифікує міміку, щоб рухатись, як це зазвичай роблять людські обличчя. Глибока ностальгія показує, що технологія глибоких підробок стає все доступнішою, заявив в інтерв’ю електронною поштою професор інформатики Канзаського державного університету Ліор Шамір. Він швидко прогресує і усуває навіть незначні відмінності між підробкою та реальним відео та аудіо.
«Також було досягнуто значного прогресу в напрямку глибокої підробки в режимі реального часу, що означає, що переконливі відео з глибокою підробкою створюються під час відеозв’язку», – сказав Шамір. «Наприклад, можна зустріти Zoom з певною людиною, бачачи і чуючи голос зовсім іншої людини». Зростає також кількість глибоких підробок, заснованих на мові, – сказав в електронному інтерв’ю директор Інституту штучного інтелекту Стівенса Технологічного інституту Стівенса Джейсон Корсо. «Скласти цілі абзаци глибокого фальшивого тексту до конкретного порядку денного досить складно, але сучасні досягнення в глибокій природній обробці мови роблять це можливим», – додав він.
Як виявити глибоку підробку
Хоча технологія виявлення глибоких підробок все ще перебуває на стадії зародження, є кілька способів, як її виявити, сказав Корсо, починаючи з рота. «Варіабельність зовнішнього вигляду рота, коли хтось говорить, дуже велика, що ускладнює переконливу анімацію», – пояснив Корсо. «Це можна зробити, але це складніше, ніж решта голови. Зверніть увагу, що відео» Глибока ностальгія «не демонструє здатності фотографії сказати» Я тебе люблю «або якусь іншу фразу під час глибокого створення фейку. вимагало б відкриття та закривання рота, що дуже важко для глибоких підробок. »
Ghosting – ще одна роздача, додав Корсо. Якщо ви бачите розмиття по краях голови, це результат «швидкого руху або обмежених пікселів, доступних у вихідному зображенні. Вухо може на мить частково зникнути, або волосся може стати розмитим там, де ви цього не очікуєте», він сказав. Ви також можете звернути увагу на варіації кольорів, намагаючись помітити глибоке фальшиве відео, наприклад, різку лінію на обличчі, з темнішими кольорами з одного боку та світлішими з іншого. «Комп’ютерні алгоритми часто можуть виявити ці закономірності спотворень», – сказав Шамір. «Але глибокі фейкові алгоритми швидко прогресують. Неминуче вимагатимуться суворі закони, щоб захистити від глибоких фейків та шкоди, яку вони можуть легко нанести».