Систематичне спростування-повторення фейків зміцнює віру
у фальшивку та довіру до джерел їхньої генерації
Здатність сучасників спотворювати життєву реальність через специфічне використання контенту і поширення моди застосування досить якісних технологій deepfake дозволила зробити експонентний стрибок вперед у напрямі створення штучних аудіо- та відео матеріалів. І замість легалізації реального життя все частіше нас намагаються занурити, причому в ігровій стилістиці, в псевдореальність, де реальні люди говорять і роблять те, чого вони ніколи не говорили і не робили.
Методи прискореного машинного навчання та широкого беззастережного використання систем штучного інтелекту підвищують рівень технологічно-вишуканої складності, роблячи глибокі повні та системні імітації-підробки ще реалістичнішими і стійкішими до можливого викриття.
Якщо технологічні підходи GAN, що вимагають високої продуктивності обробки і графічних карт, а також інші технології діпфейків ще не досягли досить високої виробничої потужності, щоб стати суспільним надбанням, то cheap fakes (дешеві фейки) – розважальні програми для зміни обличчя на смартфонах, елементарні методи прискорення і уповільнення з метою дезінформації та онлайншахрайства, використовуються зараз в достатній кількості. Це не може не викликати занепокоєння у відповідальних міжнародних інституцій та фахівців комунікаційно-контентної безпеки.
Зростає також кількість продукції на носіях deepfаke voice і deepfake video, які стає все важче відрізнити від оригіналів. Це реально створює такий стан речей, коли розуміння суті унікальності авторства в контенті, науці, мистецтві, творчості, освіті втрачається. Навіть пошук цієї оригінальності може бути заборонений, причому без особливих пояснень. Такою може бути ціна нашого захоплення технологізацією алгоритмічних дійств щодо підробок та імітацій, які наразі ми сприймаємо як розваги чи пустощі. У розпорядженні звичайних користувачів на платформі GitHub є досить багато програмних інструментів, в тому числі FakeApp, DFaker, Faceswap-GAN, Faceswap і DeepFaceLab, тому неважко уявити, що цю технологію можна застосовувати у політичних, економічних і навіть культурних кампаніях та інших значущих соціальних заходах, зокрема духовних та ментальних.
Deepfake вже володіє технологічно-креативними характеристиками, які уможливлюють швидке і стрімке (до глобального) поширення контенту як досвідченими, так і недостатньо компетентними учасниками комунікаційного процесу. Контент не тільки може знайти свій шлях до онлайн-аудиторії, а й нести вірусний, наразі – хайповий, тобто підсилюючий ефект, коли його підхоплюють традиційні ЗМІ. Свідоме системне паразитування на оригінальності швидкоплинне, але досить загрозливе. Воно несе зміну парадигми не лише сприйняття, а й організації життя. Ці зміни прослідковуються від динамічних ідентифікацій та дієвих самореалізацій до жорстких систем виживання в ізольованих соціумних резерваціях-анклавах.
Різноманітні когнітивні евристики підтримують та прискорюють цей процес. Зокрема, три явища – динаміка «інформаційного каскаду», людський потяг до негативної і нової інформації та бульбашкові фільтри (filter bubbles) – допомагають зрозуміти, чому глибокі підробки набувають вірусного розповсюдження.
Під інформаційним каскадом розуміється така поведінка індивіда, коли він приймає рішення не тільки на основі інформації, якою сам володіє, а й ураховує те, як ведуть себе інші агенти. Оскільки люди не можуть знати всього, вони часто покладаються на те, що говорять інші, навіть якщо це суперечить їхнім власним знанням чи уявленням.
Інфраструктурно-геостратегічні платформи соціальних мереж є тим комунікаційно-контентним середовищем, що формує інформаційні (контентні) каскади для поширення різного роду саме сумнівного контенту. Алгоритмічні показники уваги щодо цих каскадів можуть перекинутися на традиційні ЗМІ, які за допомогою інструментів social listening відслідковують сплеск інтересу в соціальних мережах і, як наслідок, висвітлюють історію, справжні факти якої можуть не знати і самі.
Якщо взяти навіть невеликий історично-часовий вимір, то ми бачимо суттєві зміни, які відбуваються в цьому напрямі. Так, геостратегічні іноземні гравці, які прагнули вплинути на вибори 2020 року в США, намагалися ввести в оману репортерів з метою посилення фальшивих сюжетів. Ця тактика відрізняється від тактики 2016 року, коли зловмисники використовували підроблені облікові записи і ботів для прямого поширення дезінформації серед населення.
Наприкінці вересня цього року Facebook заявив, що розкрив і призупинив діяльність трьох скоординованих кампаній з дезінформації, що керувалися представниками путінського режиму. За словами технологічного гіганта, ці кампанії були зосереджені на створенні «фіктивних начебто незалежних медійних організацій та особистостей, що залучали людей до розширення свого контенту».
Фальшиві історії, наративи, меми, що продукуються новинними псевдоресурсами, спочатку підхоплюються дрібними ЗМІ, зокрема агентствами, що подають себе як локальні місцеві джерела інформації і діяльність яких важко перевірити, спонукають національне новинне агентство підхопити одну з сюжетних ліній для більш широкого охоплення аудиторії. «Ці операції безпосередньо намагаються використовувати тиск конкуренції в екосистемі ЗМІ», – написав у Твітері Натаніель Глейхер (Nathaniel Gleicher), глава відділу політики кібербезпеки Facebook, звертаючись до медіа.
Наша природна схильність поширювати нову, зокрема негативну, інформацію також може сприяти вірусному розповсюдженю глибоких підробок. Так, фахівці з аналізу даних вивчили 126 000 новин, опублікованих в Twitter з 2006 по 2010 рік, використовуючи сторонні сайти перевірки фактів, щоб класифікувати їх як істинні або хибні. Згідно з дослідженням, містифікації і чутки досягають людей в десять разів швидше, ніж достовірні історії.
Навіть без допомоги технологій ми інтуїтивно оточуємо себе інформацією, яка підтверджує наші переконання. Платформи соціальних мереж посилюють цю тенденцію, даючи користувачам можливість рекомендувати і повторно ділитися контентом. Алгоритми виділяють популярну інформацію, особливо якщо її поширили друзі, і пропонують нам історії з відносно однорідних груп. Автор терміну «filter bubble» Елі Парайзер стверджує, що невидимі алгоритмічні редагування, можуть обмежувати висвітлення нової інформації і звужувати наш кругозір.
Залученість, кліки, лайки, проведений час на платформі – це безжальне прагнення багатьох провідних інтернет-компаній, таких, наприклад, як Facebook, Twitter, ефективно монетизувати будь-яку взаємодію, а рекомендовані алгоритми призводять до використання в ігровому полі того типу повідомлень, які миттєво залучають користувачів у режимі реального часу та роблять таргетинг максимально монетарно-продуктивним. Поява тексту, створеного штучним інтелектом, може призвести до того, що фальшиві новини будуть оптимізовані так, щоб бути гіперефективними для будь-яких цілей. Наприклад, набір даних, який використовується для навчання GPT-3, ймовірно, містить все: від новин і книг про співочих птахів Болівії до маніфестів масових стрільців, і технологія здатна генерувати контент, щоб робити людей щасливими, сумними, розлюченими або радикалізованими.
З огляду на те, що все більше маніпульованого контенту заповнює онлайн-ландшафт, наша довіра до всього, що відбувається в суспільстві, суттєво підривається. Так, відео президента Дональда Трампа, записане незабаром після його госпіталізації через COVID-19, викликало численні припущення щодо постановки та фальсифікації. Білий дім опублікував також три світлини, на яких Трамп «підписував документи» у президентському номері Національного військово-медичного центру Волтера Ріда. Але фотографії стали об’єктом ретельної перевірки стосовно того, чи не були вони інсценовані, і деякі користувачі соціальних мереж прирівняли їх до пропаганди. Аналогічним чином стверджувалося, що відеозапис вбивства Джорджа Флойда є фальшивкою і прийомом для розпалювання ненависті та закликом до протестів. Таким чином втрачається здатність погоджуватися і сприймати правду, виявляється недовіра як до конкретних людей, так і до міжнародно визнаних інституцій.
Ми вже писали про глибокі підробки і раніше, але є один побічний ефект, на який слід звернути увагу саме зараз: у міру того, як технологія удосконалюється і стає (широко і масштабно) звичним явищем, люди, яких критикують за певні слова, заяви, поступки, дії або навіть політику на посаді чи в житті, можуть все частіше стверджувати, що інкриміновані файли є діпфейками.
За іронією долі, справжні і часто вишукані брехуни, які прагнуть уникнути відповідальності за свої справжні слова і дії, з часом стануть більш авторитетними, бо громадськість, яка обізнана в загрозах від діпфейків, буде схильна сумніватися в автентичності реальних аудіо- та відеоматеріалів. Цей скептицизм можна використовувати як проти автентичного та оригінального, так і проти фальсифікованого контенту.
Американські науковці Даніель Сітрон (Danielle Citron) і Роберт Чесні (Robert Chesney) називають цю проблему «дивідендом брехуна». Коли журналісти намагаються довести, що відзнятий матеріал є справжнім, це може мати неприємні наслідки, оскільки підвищує ймовірність того, що твердження про те, що це фальшивка, може бути сприйняте як правда.
Зокрема, в останні роки падає популярність традиційних ЗМІ, які втратили свою монополію на право продукувати контент. Зростає недовіра до традиційних офіційних джерел новин, які із завидною завзятістю не змінюють формати новин чи технологічні можливості їхньої агрегації, попри те, що час вимагає цього і в житті цей процес вже відбувся. Вже очевидно, що скоро у зазначених сферах відбудеться діджитал-форматування безперервних контентно-комунікаційних сервісів на засадах досягнень криптокультурних феноменів технологій та індивідуалізовано-сервісних мотиваторів самореалізацій різних суб’єктів суспільно-цивілізаційного життя.
Недовіра до традиційних ЗМІ невблаганно та яскраво розпалювалася, наприклад, в США президентом Трампом і його однодумцями на телебаченні і радіо; мантра «фальшиві новини» стала миттєво пізнаваним умовним позначенням безлічі тверджень про ймовірну корупцію і упередженість широкого кола журналістів та ефектною підміною аргументації при зіткненні зі справжніми небезпечними фактичними твердженнями.
Когнітивна упередженість людського сприйняття потокового контенту в ситуативних динаміках одночасних комунікаційних залучень, де потрібні інструменти комунікаційно-контентної безпеки, посилить цю нездорову динаміку. Як зазначалося вище, люди схильні вірити чітким доконаним фактам, які відповідають їхнім вже існуючим, довгоплинним переконанням. Вони часто ігнорують швидку, динамічну, різноверсійну часткову інформацію про наявний факт, яка суперечить їхньому традиційному сприйняттю, позиції і переконанням. Тоді люди на власний розсуд інтерпретують спірні докази. Це пояснюється, зокрема тим, що в сучасних умовах швидкісних процесів і потокового контенту вони втрачають минулі орієнтири, але ще не набули сучасних фахових вмінь і навиків для розуміння і оперування комунікаційно-контентними реаліями.
Зростаюче усвідомлення того, що нібито повсюдно існують глибокі підробки, можуть стати зручним приводом для несприйняття об’єктивної інформації. Більше того, відчуття тотального страху перед перспективою бути обманутим може призвести конкретну людину до відчаю чи відгородження від сучасного світу. В умовах реальної гібридно-месіанської агресії, з чим ми стикаємося в Україні з 2014 року, існує загроза аксіоматичного сприйняття частиною населення технології-агресії, яка отримала світове визначення як «постправда». І тоді пересічний громадянин може неусвідомлено стати співаторам чи ініціатором легалізації неправдивої інформації.
Але чим більше експерти прагнуть захистити людей від фейків і діпфейків, розкриваючи їм цей світ імітацій, інсинуацій, підробок та фальсифікацій, навчаючи їх відрізняти якість правди від масиву брехні, тим більше вони розширюють коло тих, хто буде вразливо довірливий до заперечення брехуном легітимного відео. Бо це навчання акцентовано занурює людину у світ брехні і вона там стає своєю, а через деякий час їй захочеться самій спробувати перевірити отриманні знання і навички, адже це так захоплююче… Тому ця умовна людина для перевірки створить фейк/діпфейк і запустить його в обіг. А згодом вже не зможе відрізнити правди від неправди. Коло замикається, а винними будуть вчителі і інституції міжнародних систем, які вчать розрізняти якість брехні…
Найбільша загроза людській довірі не у широкій індустрії використання діпфейків, а у бажанні, стимулах та мотивах з’ясувати, що є реальним у постійному потоці дезінформації, тобто шукати в багні неправди квітку правди, якої там ніколи не було. Глобальна цивілізаційна небезпека полягає в тому, що згодом ми будемо сприймати майже всю інформацію як недостовірну, і такий стан Авів Овадья (Aviv Ovadya), дослідник ЗМІ і засновник проекту про вдумливі технології, називає «апатією реальності».
Чи є вихід із цього алгоритмічно-технологічного кола імітацій та фальсифікацій живого і справжнього? Є. Це творення сегментів ноосферного світу на засадах криптокультурних можливостей блокчейн-технологій, які здатні монетизувати, капіталізувати, а головне – мотивувати людину бути людиною і жити заради миру і щастя всіх людей Землі.
Ліна Вежель, ГО «Центр комунікаційно-контентної безпеки»
Be the first to comment on "Дивіденд брехуна: як відбувається капіталізація фейків"