Коли бум на розвиток технологій, що дозволяють «оживити» минуле і симулювати сучасне стає нестримним, ми постаємо перед екзистенційним вибором – використовувати цифрові дублікати як інструменти прогресу (підтримувати технологічний рух утвердження сталості цивілізаційних перспектив людяності), чи дозволити їм стати джерелом зловживань і маніпуляцій (безальтернативність регресу).
У 2020-х роках технології штучного інтелекту (ШІ) зробили справжній прорив, особливо у сфері мультимодальних моделей, які здатні генерувати не лише текст, а й зображення, відео й аудіо. Вони імітують особливості конкретних людей так реалістично, що межа між реальністю і симуляцією майже стерта. На цьому тлі виник новий феномен – персоналізовані цифрові дублікати (digital duplicates). Ці створіння набагато складніші і небезпечніші за звичні deepfake-відео. Якщо дипфейки – це короткі підробки зображень або відео, то цифрові дублікати є цілісними ГШІ–сутностями, які можуть діяти напівавтономно від імені людини.
Варто відзначити, що розвиток цифрових дублікатів відбувається не лише у комерційній сфері, а й у наукових та медичних дослідженнях, що відкриває нові можливості й одночасно загострює етичні дилеми.
Новий феномен викликає низку глибоких етичних, правових і соціальних викликів, на які суспільство й законодавці поки що не мають повних відповідей. Питання згоди, приватності, авторства, відповідальності та впливу на довіру до публічної інформації стають дедалі гострішими.
Цифровий дублікат – це персоналізована мультимодальна система штучного інтелекту, яка імітує зовнішність, голос, міміку, поведінкові та когнітивні особливості конкретної людини. В основі таких дублікатів лежать великі мовні моделі (LLM) і мультимодальні архітектури, що навчаються на персональних даних: фотографіях, відео, голосових записах, текстах, листуванні, публікаціях у соцмережах, інтерв’ю, електронних листах тощо. Чим більше даних, тим точніше модель відтворює унікальні риси особи.
Водночас з’являються серйозні ризики щодо захисту приватності, адже персональні дані часто збираються без достатньої прозорості або згоди користувачів. Подібні ситуації ставлять під сумнів ефективність існуючих механізмів GDPR і вимагають розробки нових, більш жорстких стандартів контролю.
Авторське право додає ще один рівень складності. Якщо цифровий дублікат відтворює стиль, манеру мислення або творчість автора, чи може він порушувати інтелектуальну власність? Чи може бути ШІ-репліка автора-есеїста підставою для претензій від правонаступників?
Також відкрите питання: хто несе відповідальність за дії дубліката – творець, платформа, користувач чи сама система?
Сучасні цифрові дублікати поєднують у собі різні компоненти:
– 3D-аватари (візуальні тривимірні моделі);
– голосові симуляції (voice cloning);
– поведінкові моделі, створені на основі машинного навчання;
– персоналізовані чатботи, які можуть вести діалог у реальному часі.
Наша увага зосереджена на явищі «персоналізованих цифрових дублікатів». Ми визначаємо їх як часткові, принаймні напівавтономні цифрові відтворення реальних людей. Це визначення потребує певного уточнення.
Ці дублікати є «частковими» в тому сенсі, що вони не претендують на повне відтворення всіх аспектів оригінальної особистості. Людина має цілий набір характеристик – зовнішність, когнітивні здібності, голос тощо. Цифрові дублікати намагаються відтворити деякі з них, але не всі. Виникає цікаве метафізичне питання: чи можлива взагалі повна реплікація людини? Ми відкладаємо це питання осторонь і зосереджуємося на часткових відтвореннях, адже саме вони сьогодні є технологічно досяжними. Ймовірно, суть етичного аналізу залишилася б незмінною навіть у разі більш повної реплікації.
Крім того, слід розглянути соціальні наслідки таких «часткових» дублікатів: навіть обмежена імітація може мати значний психологічний вплив на близьких людей, що взаємодіють із цифровими версіями своїх рідних чи друзів. Взаємодія з цифровими копіями померлих родичів чи відомих осіб може мати як терапевтичний, так і травматичний вплив. У таких випадках цифрові дублікати починають виконувати функцію нової форми «цифрового безсмертя», але водночас порушують межі між життям і смертю, справжнім і симульованим.
Станом на 2024 рік часткові цифрові дублікати поділяються на дві основні категорії. Перша – «когнітивні дублікати», які відтворюють певні когнітивні функції чи риси реальної особи. До цієї категорії належать, наприклад, ШІ-версії Міхаеля Шумахера, Дена Деннета, Лучано Флоріді та Джонатана Свіфта, створені для взаємодії з користувачами. Сюди також належать чат-боти, які супроводжують зірок соціальних мереж, та цифрові консультанти з прийняття медичних рішень.
Друга категорія – це «візуально-слухові дублікати», покликані імітувати зовнішність, голос та поведінку конкретної особи. Такі дублікати активно використовуються в індустрії розваг – прикладами є ШІ-версії Beatles і ABBA, а також цифрові актори у фільмах франшизи «Зоряні війни» та проєктах Disney.
Можна уявити гібридні версії, які поєднують обидві категорії, як, наприклад, роботизована версія самого Ішіґуро . Також розрізняють дублікати з вузькою функціональністю (виконання однієї конкретної задачі, наприклад, виступ на концерті чи написання тексту) і дублікати з широким функціоналом (наприклад, загальні чат-боти, які можуть використовуватися в різних ситуаціях).
Такі дублікати є принаймні «напівавтономними», тобто здатними виконувати певні дії без прямого втручання людини. Можливе й повністю контрольоване створення цифрових репрезентацій, наприклад, відеоігрові аватари. Звісно, це викликає етичні питання, які вже обговорюються в контексті віртуальних світів.
Ми використовуємо термін «персоналізовані цифрові дублікати» з двох причин. По-перше, він точно відображає суть явища: спроби оцифрувати або представити риси конкретної особи. По-друге, словосполучення має приємну й запам’ятовувану алітерацію.
Важливо також відрізняти цифрових дублікатів від нових штучних істот. Хоча останні також можуть бути напівавтономними та імітувати людські риси, вони не репрезентують конкретну особу. ШІ-попзірка – це одне, а цифровий Пол Маккартні – зовсім інше. Більшість загальних ШІ-чатботів і роботів є прикладами саме нових штучних істот: вони можуть бути натхненні реальною поведінкою людей, але не є їхнім прямим відображенням.
У 2025 році також з’явилися типології за ступенем згоди.
- Добровільні (consensual): створені за згодою особи, часто для комерційних чи освітніх цілей. Приклад – цифровий аватар Тома Генкса для майбутніх фільмів.
- Несанкціоновані (non-consensual): створені без відома або дозволу особи. Приклад – фейкові відео із «виступом» українського президента, що поширювалися для деморалізації суспільства.
- Післясмертні (posthumous): цифрові копії на основі архівних записів. Приклад – цифрова версія Енді Ворхола для документального фільму Netflix.
За функціональним призначенням дублікати поділяються на:
- репрезентативні – виконують роль представника людини у цифровому середовищі, наприклад, аватари, які відповідають на запитання замість автора;
- емоційно-комунікативні – чатботи, що імітують діалог або емоційну підтримку (як Replika AI);
- комерційні – використовуються у рекламі, брендингу, розважальній індустрії (це можуть бути повністю віртуальні моделі, що ніколи не існували в реальному житті);
- маніпулятивні – створені для політичних чи соціальних маніпуляцій, поширення дезінформації або шантажу. Вони стали інструментом передвиборчих кампаній, дискредитації політиків або підробки їхніх заяв.
Раніше генератори deepfake були інструментами для технічних фахівців. Сьогодні ж завдяки відкритому коду та зручним інтерфейсам такі технології стали доступнішими навіть для осіб без спеціальної підготовки. Демократизація створення цифрових дублікатів відкрила двері для кіберзлочинців та несумлінних користувачів.
Результат – стрімке зростання кількості шахрайських схем. Особливо небезпечним стало «клонування голосу»: достатньо кількох секунд запису, щоб створити переконливе аудіозвернення. В одній резонансній справі генеральний директор компанії переказав 243 000 доларів, отримавши фальшивий дзвінок від ШІ-копії свого колеги.
Попри гучність теми deepfake-відео, реальні ризики цифрових дублікатів набагато ширші. Йдеться не лише про підроблені зображення, а про повноцінні інтерактивні ШІ-персонажі, здатні до реального діалогу, адаптації до поведінки користувача та навіть емоційної маніпуляції.
Такі системи відкривають новий фронт соціальної інженерії. Наприклад, зловмисники можуть використовувати ШІ, щоб «зіграти» близьку людину жертви, викликаючи довіру та змушуючи діяти у власних інтересах. Особливо уразливими до таких маніпуляцій є люди похилого віку або ті, хто переживає втрату.
Найпідступніший ефект цифрових дублікатів – це поступове руйнування довіри. Адже якщо аудіо, відео чи текст можна фальсифікувати з вражаючою точністю, ми втрачаємо здатність розрізняти правду і брехню. Дослідження у сфері ШІ та етики прогнозують кризу «перцептивної довіри» – люди все більше ставитимуть під сумнів реальність побаченого чи почутого.
Це має далекосяжні наслідки: від руйнування особистих стосунків до дестабілізації суспільних інститутів. У світі, де будь-хто може бути переконливо підроблений, як зрозуміти, кому вірити?
Особливо критичні ризики – у сфері політики та інформаційної безпеки. Наприклад, під час президентських виборів у США 2024 року з’явилися фейкові відео з кандидатами, що викликали плутанину й недовіру до виборчого процесу. У міру зростання кількості цифрових дублікатів суспільна поляризація посилюється, а демократичні інститути – слабшають.
Одна з головних юридичних проблем – це встановлення відповідальності за дії цифрового дубліката. Якщо, наприклад, дублікат когось ображає, поширює фейкову інформацію або схиляє до шкідливих дій, хто має відповідати – розробник, користувач, власник моделі, чи сама модель (якщо вона діє автономно)? Наразі правові рамки не готові до таких сценаріїв. Законодавство багатьох країн оперує категоріями «фізична особа» або «юридична особа», тоді як цифрові дублікати не належать до жодної з цих категорій.
Окремо стоїть питання згоди: чи має право компанія створити дублікат померлої особи без дозволу родичів? Або – чи є згода, надана в умовах користування сервісом, достатньою для повноцінного відтворення людини?
Також актуальним стає поняття цифрової особистості (digital personhood). Чи можуть дублікати мати обмежений правовий статус? У 2024-2025 роках це питання вже обговорюється на рівні ЄС у контексті розвитку регуляцій законодавства щодо ШІ.
Утвердження цифрових дублікатів – не лише технологічна інновація, а глибокий етичний зсув. Ми стикаємося з ризиком «нормалізації» підробок, розмиття меж між правдою і фікцією, деградації відповідальності. У цьому контексті довіра – не просто соціальний капітал, а ресурс безпеки, який потребує захисту на рівні основоположних прав.
Головне питання, що стоїть сьогодні перед суспільством, – зможемо ми забезпечити використання технологій відповідно до людських цінностей чи дозволимо їм поступово витіснити уявлення про автентичність, згоду і гідність?
Не менш небезпечним є й інше: цифрові маніпуляції з образом людини є новим прецедентом якісного стану злочину на тлі глокальної геноцидної агресії колективного путінізму. Адже дублікат особистості, як і геймеризований формат, може слугувати засобом нейтралізації уваги, відвернення світу від геноцидного знищення реального життя в Україні. Ілюзія витісняє реальність, фейк – правду, симулякр – свідомість.
Дублікат людини – чи дублікат цивілізаційності? Що важливіше? Вирішувати кожному, поки Сили оборони України тримають справжню реальність – світ життя.
Ліна Вежель, ГО «Центр ККБ»
Зображення згенероване штучним інтелектом Grok