Токсичні можливості глобалізованого онлайн контенту  –  це не відхилення від норми. Це маркер нової якості відкритості соцмереж

Інфраструктурно-контентні платформи глобального світу сучасної цивілізації давно знаходилися в стані підвищеної готовності до винесення вироку у справі колишнього офіцера поліції Міннеаполіса (США) Дерека Шовіна. Це стало найсерйознішим випробуванням на їхню здатність реагувати в режимі реального часу.

У понеділок (19 квітня) Facebook повідомив, що його співробітники «працюють цілодобово», щоб виявляти і обмежувати публікації, які можуть призвести до заворушень чи насильства після оголошення вироку ексофіцеру Дереку Шовіну у справі про смерть темношкірого американця Джорджа Флойда: «Ми знаємо, що це випробування було болючим для багатьох людей. Ми хочемо знайти правильний баланс між наданням людям можливості говорити про судовий процес і тим, що означає вирок, і при цьому внести свій вклад в захист безпеки кожного. Ми дозволимо людям обговорювати, критикувати і засуджувати судовий процес і адвокатів, залучених до нього».

В блозі компанія пообіцяла видаляти «контент, що вихваляє, схвалює або висміює» смерть Джорджа Флойда. Здебільшого заява зводилася до клятви на мізинцях з метою забезпечити дотримання існуючих стандартів спільноти, що забороняють знущання, розпалювання ненависті і підбурювання до насильства.

Google, що володіє відеоплатформою YouTube, також повідомив, що знаходиться в режимі підвищеної готовності до дезінформації та розпалювання ненависті. «У нас є найсуворіші заходи захисту, і ми швидко видалимо будь-який контент, позначений як такий, що порушує нашу політику щодо ненависті і підбурювання до насильства»,  – заявив офіційний представник YouTube Фаршад Шадлоу (Farshad Shadloo). «Крім того, ми працюємо цілодобово, щоб гарантувати людям надання достовірної інформації, особливо останніх новин про судовий процес, і ми зменшимо поширення дезінформації через наші системи».

У відповідь на електронний лист від CNN Business Twitter (TWTR) запевнив, що буде продовжувати застосовувати власні існуючі політики, які охоплюють образливу поведінку, ненависницькі дії і загрози насильства.

З Tik Tok відбувалися дивні речі: під час оголошення вироку в залі суду Міннеаполіса багато користувачів скаржилися на те, що не можуть публікувати повідомлення в застосунку – відео не завантажувалися, не дивлячись на те, що відображалися у профілях.

Хоча в минулому у TikTok були технічні збої, той факт, що вони впливають тільки на завантаження, викликав розмови про «shadowbanning» (тіньовий бан) – популярну теорію змови, згідно з якою платформи приховують контент деяких користувачів із загальнодоступних каналів без оповіщення.

Через мить після того, як присяжні оголосили вердикт, прихильники білої раси в Telegram висловили розчарування. «Система правосуддя просто померла»,  – написав один з них. Інший розмістив повідомлення: «Життя чорних має значення [sic], що явно означає, життя білих не має значення. Час встати, біла людино».

Вердикт поліціянту став для глобальних технологічно-інфраструктурних комунікаційно-контентних платформ найсерйознішим випробуванням на їхню здатність реагувати в режимі реального часу.

«У 2020 році платформи соціальних мереж боролися і часто не могли стримувати агресивну риторику, особливо дегуманізуючі висловлювання (колишнього) президента (Дональда) Трампа, спрямовані на протестуючих Джорджа Флойда», –  стверджує Емерсон Брукінг (Emerson Brooking), науковий співробітник лабораторії цифрової криміналістики Атлантичної ради. Тепер платформи краще розуміють, що «цикли насильницької риторики у соціальних мережах іноді можуть означати різницю між життям і смертю»,  –  вважає Брукінг, співавтор книги «LikeWar: перетворення соціальних мереж на зброю».

«Після 6 січня платформи, схоже, вже добре знаються на тому, що те, що люди бачать в своїх стрічках і чим вони діляться, може створити середовище, яке призводить до насильства в реальному світі»,  –  запевняє Рене ДіРеста (Renée DiResta), менеджер з технічних досліджень Стенфордської інтернет-обсерваторії. Компанії рухаються до більш проактивної моделі, на відміну від попередньої стратегії видалення контенту постфактум. Вони також більш обізнані про «потенційно важливі моменти», які призводять до насилля, зазначила вона. «Як ми діяли в надзвичайних ситуаціях у минулому,  – заявила Моніка Бікерт (Monika Bickert), віце-президент компанії з контентної політики Facebook, –  ми також можемо обмежити поширення контенту, який, за прогнозами наших систем, може порушити наші громадські стандарти у сфері мови ненависті, сцен насилля, а також жорстокості і підбурювання».

Facebook вже не вперше говорить про скорочення кількості провокаційних та токсичних публікацій, щоб зробити свою платформу кращою і безпечнішою. Аналогічні заяви щодо обмеження потоку дезінформації та закликів до насильства звучали до і після президентських виборів 2020 року. Такі кроки раніше були зарезервовані для «країн ризику», таких як М’янма, Ефіопія і Шрі-Ланка. Тепер ці виняткові заходи були застосовані щодо Міннеаполісу, який Facebook «тимчасово вважає місцем підвищеного ризику» через суд над Шовіном. І це змушує критиків Facebook порушувати питання: чому вони не використовують ці потужні інструменти модерації постійно? «Якщо Facebook може бути безпечним для чорношкірих, чому це не налаштування за замовчуванням?»  –  запитує Рашад Робінсон (Rashad Robinson), президент Color Of Change.

Коли Facebook виявляє підвищену соціальну напруженість, він вводить політику промоції авторитетної інформації і додає «тертя», щоб контент на сайті рухався повільніше і спокійніше, ніж зазвичай. Компанія приборкує віральність, яку онлайн-платформи так вражаюче забезпечують. Як заявив колумніст New York Times Кевін Руз (Kevin Roose), Facebook значною мірою уникнув грандіозного провалу в день виборів, «повернувши ті самі функції, які протягом багатьох років забезпечували зростання платформи».

Техногігант нещодавно заявив про зменшення кількості ненависницького контенту, який користувачі бачать на його платформі. Яким чином були здійснені ці покращення? Не шляхом зміни правил про розпалювання ненависті, не наймаючи більше модераторів контенту, не через вдосконалення інструментів штучного інтелекту, які шукають контент, що порушує правила і який потрібно видалити. Прогрес був «в основному за рахунок змін, які ми внесли, щоб зменшити проблемний зміст в стрічці новин». Компанія використала датчик, а не перемикачі.

Без будь-якого незалежного доступу до внутрішніх даних не можна зрозуміти, наскільки сильно змінюють показники Facebook або, наприклад, про конкретні подробиці, що означає “borderline content”. До честі компанії, вона перша публічно оголосила про заходи в очікуванні вердикту Шовіну, інші платформи, здається, просто мовчали.

Суд над Дереком Шовіном  –  унікальна подія, але расова напруженість і насильство  –  ні. Контент окремої якості і особливо контентні динаміки в парадигмі комунікаційно-контентної безпеки у соціальних мережах, які можуть завдати шкоди офлайн, не обмежуються Міннеаполісом або навіть США. Це глобальна проблема об’єднаного світу, який потерпає від масштабних анклавів одержавлених режимів. Там ці інфраструктурно-технологічні сервіси обмежуються чи забороняються, а широкі можливості цих платформ використовуються як засоби комунікаційно-контентного нападу, спонукання, приниження, дискредитації і злоби проти демократичного світу. Тому цивілізаційні комунікаційно-контентні платформи не повинні чекати, поки трапиться трагедія, щоб потім робити щось, шукати варіанти реагування. За нинішніх технологічних умов надшвидкого переходу світу на цифровий режим життя очільникам і продукаторам сталої демократії необхідно раз і назавжди усвідомити – сили позацивілізаційного характеру використовують засади і механізми демократії проти власне демократії як зброю глобального ураження. І передусім їхня діяльність спрямована на знищення цивілізованого світу, частиною якого є цифрове середовище відкритих можливостей.

Ліна Вежель, ГО «Центр комунікаційно-контентної безпеки»

Використано ескіз із сайту REUTERS , на якому колишній поліцейський Міннеаполіса Дерек Шовін сидить перед фотографією Джорджа Флойда, показаною під час судового розгляду над Шовіном. REUTERS / Джейн Розенберг

 

Be the first to comment on "Токсичні можливості глобалізованого онлайн контенту  –  це не відхилення від норми. Це маркер нової якості відкритості соцмереж"

Leave a comment

Your email address will not be published.


*