Facebook, Google, Twitter та інші: між прибутком і цивілізаційною чесністю

Генеральний директор MyPillow Майк Лінделл (Mike Lindell), палкий прихильник Дональда Трампа, у середу (10 березня) розкрив нові подробиці про соціальну мережу, яку він планує запустити протягом наступних трьох тижнів. Платформа Vocl не схожа на Gab або Parler, це щось середнє між Twitter і YouTube.

Консерватори (республіканці) вже давно створили свої власні медійні канали, щоб боротися з передбачуваним лівим ухилом (демократичним) в основних загальнонаціональних ЗМІ. Поява нових соціальних мереж, стрімінгових платформ і цифрових мультимедійних застосунків  –  це наступна ітерація цієї багаторічної глобальної тенденції діджитал та криптокультурних феноменів сучасності.

Протягом 2020 року активно формувався консервативний цифровий всесвіт: Rumble  –  альтернатива YouTube; Parler  – Twitter; MeWe –  Facebook, і, зрештою, CloutHub – щось на зразок Reddit.

Поляризація уподобань і чіткої партійної приналежності недавно досягла в США рекордного рівня. Представники обох ключових партій часто висловлювали крайні ідеологічні погляди, особливо після деплатформінгу Дональда Трампа та деяких республіканців. А симпатії американців до власної партії, як і неприязнь до опонентів, різко посилилися. Це підтвердило наростаючу глобальну потребу пересічного виборця (передусім – громадянина) в довірі до нього політичних сил і конкретних політиків, а також у вірі в заявлені цінності цих партій.

Сьогодні рядовий споживач інформації тоне в контентній потоковості, різнорівневій комунікаційно-контентній надлишковості, ситуативних несподіванках кожного дня. Без фахової допомоги йому досить непросто розбиратися в поточних процесах.

В сучасних динаміках людям важко, а часто і неможливо, критично оцінювати недоліки і переваги політичних позицій, явищ, процесів. Тому вони переважно йдуть найлегшим шляхом – шукають інформацію, яка підтверджує їхні партійні уподобання, та ігнорують факти, які їм суперечать. Цей тренд наочно виступає індикатором переходу від публічної уваги, яка вимагає власної відповідальної усвідомленості позицій (продуктивного комунікаційно-контентного сприйняття), до умовних орієнтирів, якими є в цьому разі партійні сили сучасних США.

Соціальні мережі потужно впливають на формування нашого інформаційного поля. Найчастіше саме звідти ми отримуємо новини та іншу інформацію: туди дуже легко зайти із власним набором політичних переконань і знайти енергетично-стилістичну екосистему поглядів, яка підтримує цю опінію і рідко кидає їй виклик. Тому, коли люди з ідеологічно протиборчих сторін намагаються обговорювати політичні проблеми, вони неодмінно сперечаються, переважно використовуючи різний набір фактів, аргументів, оперують різними за масштабами і якістю проблематиками однієї і тієї ж тематики.

Відсутність інфраструктурних можливостей прямого загальнонаціонального дискурсу значно полегшує членам однієї групи поглиблювати власну ізоляцію, тому в такому середовищі легко дегуманізовувати членів протилежної політичної групи.

Поляризація фіксується не тільки у соціальних мережах. Нове дослідження, проведене вченими Гарварда, доводить, що демократам і республіканцям не подобається навіть перебувати поруч один з одним, зокрема бути просто сусідами.

«Наші результати демонструють високу партійну сегрегацію по всій країні, при цьому більшість виборців обох політичних партій живуть в партизанських міхурах, майже не контактуючи з іншою партією»,  –  пишуть гарвардський політолог Джейкоб Браун (Jacob Brown) і статистик Райан Енос (Ryan Enos) у звіті.

Браун і Енос застосували унікальний підхід: замість того, щоб просто аналізувати географічне положення груп виборців в сукупності, вони змогли використати локальні геопросторові дані для вимірювання відстані від симпатика однієї партії до найближчого сусіда – прихильника іншої. Дослідники скористалися даними голосування і демографічними відомостями з усього файлу виборців США, який містить інформацію про 180 млн осіб.

Науковці виявили, що, коли демократи і республіканці живуть в одному місті  чи навіть в районі,   вони, зазвичай, об’єднуються в групи на основі своєї прихильності до тієї чи іншої політичної сили.

Триваюча сегрегація людей, що належать до різних партій, може мати безпосередній вплив на те, як формуються виборчі округи, стверджує Бенджамін Шнеєр (Benjamin Schneer), доцент кафедри державної політики Школи управління імені Джона Ф. Кеннеді Гарвардського університету.

Тотальне несприйняття одне одного прихильниками двох партій породило ідею відділяти ідеологічну поляризацію від поляризації афективної. Остання означає чисто емоційне відчуття несприйняття, відторгнення та ворожості щодо іншої партії, її кандидатів та виборців.

Сьогодні вже порушуються питання про те, як підсилюють соціальні мережі та технологічні платформи афективну політичну поляризацію в США і які причинно-наслідкові зв’язки існують між онлайн-інформацією та офлайн-поведінкою.

Facebook уважно стежить за токсичністю американського загальнонаціонального комунікаційно-контентного дискурсу. Задовго до виборів компанія, яка часто проводить таємні тести свого алгоритму стрічки новин, почала експериментувати з різними засобами промоції більш надійної інформації. Серед іншого, була створена нова система ранжування, призначена для зниження позиції фальшивих, гіперпартійних джерел і для підвищення «авторитетного новинного контенту».

Після різкого збільшення дезінформації на платформі відразу після президентських виборів в США в 2020 році техногігант змінив спосіб оцінки якості новинних джерел на основі «news ecosystem quality» (NEQ). У таких ЗМІ, як Times, NPR і CNN, спостерігалося зростання трафіку з Facebook, тоді як активність «партизанських» сайтів, що публікували провокаційні новини про вибори, знизилася.

Ця зміна була частиною серії «критичних заходів», які, за повідомленням компанії, будуть застосовуватися в періоди «підвищеної напруженості». Втім, за кілька тижнів все було скасовано. Після штурму Капітолія 6 січня зміни знову відновилися – до інавгурації Джо Байдена.

Тобто Facebook може робити свою платформу «кращою» не тільки після виборів, а й постійно. Він здатен зробити набагато більше для заохочення громадянського обговорення, дискусій та запобігання дезінформації. Але не завжди корпоративно-монетарні інтереси Facebook збігаються з інтересами американської громадськості або будь-якої демократичної громадськості деінде у світі.

Причина дуже проста. Все, що компанія робить (або вважає за краще не робити), випливає з єдиної мотивації: невпинного прагнення Марка Цукерберга до зростання монетарних показників успішності. Досвід Хоакіна Кіньйонерія Кандела (Joaquin Quiñonero Candela), директора з ШІ в Facebook був використаний для того, щоб його команда була прив’язана до таргетингу упередженості ШІ. Бо запобігання такій упередженості допомагає компанії уникнути пропонованого регулювання, яке в разі його прийняття може перешкодити цьому зростанню. У статті MIT Tech Review, опублікованій минулого тижня, Карен Хао (Karen Hao) описала, як техногігант ігнорує, перешкоджає або блокує роботу своїх власних дослідників, коли вони виявляють, що проблеми платформи пов’язані з тими ж алгоритмами і продуктами, які використовуються для зростання і залучення. Керівництво Facebook неодноразово послаблювало або припиняло низку ініціатив, спрямованих на усунення дезінформації у соцмережі, бо це перешкоджало отриманню прибутків.

Іншими словами, робота групи Responsible AI по суті немає відношення до вирішення більш серйозних проблем дезінформації, екстремізму і політичної поляризації.

«Коли ви прагнете до максимального залучення, вас не цікавить правда. Вас не цікавить шкода, розбіжності, змови. Насправді, це ваші друзі»,  –  стверджує Хані Фарід (Hany Farid), професор Каліфорнійського університету в Берклі, який співпрацює з Facebook, щоб зрозуміти специфіку дезінформації у зображеннях і відео, що поширюються на платформі. «Вони завжди роблять рівно стільки, щоб випустити прес-реліз. Але, за деякими винятками, я не думаю, що насправді це призвело до покращення політики. Вони ніколи не вирішують фундаментальних проблем».

Аналогічна ситуація склалася і у Google. Команда Ethical AI, до якої входили звільнені Тімніт Гебра і Маргарет Мітчелл, виглядала як громадянське виключення в компанії, чий прибуток все ще залежить від того, як обманом змусити людей натискати на рекламу.

Для техногіганта, метою якого є отримання всієї світової інформації та її монетизація для вигоди інвесторів, досягнення влади і панування є головними. Підпорядковувати кожен біт і кожен байт увазі спостерігача  –  це метод роботи Google; це те, як він бачить світ і як заробляє мільярди доларів, щоб субсидувати дружні пресі ініціативи (такі як Loon і складні дослідження штучного інтелекту).

Хоча у компаній є політики, спрямовані на боротьбу з дезінформацією, і вони наче готові внести корективи для покращення дискурсу, але віддають перевагу капіталізації та прибутковості. При цьому ігнорують маркери сучасного світу, який «висковзує з під ніг». Однак окрім такого корпоративного егоїзму існують ще й глобальні сили, які живляться вадами абсолютного монетаризму (як базової основи тотального цинізму). Там інструменти постправди і дезінформації, які застосовуються як засіб збагачення, насправді є геостратегічними технологіями знищення суті правди і її цивілізаційних перспектив. Так через жадобу збагачення суспільно-міжнародний устрій глобального партнерства затягується у вир майбутніх катастроф. Американські техногіганти, паразитуючи на цих вадах нинішнього суспільства, наразі не підозрюють, що самі ж працюють на позацивілізаційні сили сучасності.

За останні кілька років, на тлі зростаючої вимогливої цивілізаційної уваги до Кремнієвої долини, техногіганти зробили пропозиції спільноті дослідників, відкриваючи раніше недоступні набори даних, які науковці можуть використовувати для вивчення впливу соціальних мереж на суспільство. Наприклад, Twitter нещодавно запустив безкоштовний API для попередньо затверджених вчених, щоб отримати доступ до його повного каталогу твітів. Новий дослідний проєкт, який Facebook анонсував ще наприкінці серпня 2020 року, має на меті проаналізувати, як платформи  – FB та Instagram  – впливають на політичну поляризацію, участь виборців, довіру до демократії і поширення дезінформації.

Але навіть у цій співпраці технологічні компанії розправляються з вченими, методи яких порушують їхні правила. Оскільки такі теми, як онлайн-дезінформація, таргетинг реклами та алгоритмічна упередженість, стали основними сферами досліджень, науковці покладалися на API-інтерфейси та інструменти соціальної аналітики, фіктивні облікові записи і скрапінг, щоб з’ясувати, наприклад, чи отримують фейкові новини більше уваги, ніж правдиві в мережі. Часто ці методи ненавмисно порушують ретельно розроблені компанією умови обслуговування, і тому, щоб захистити конфіденційність користувачів та свою репутацію, технологічні гіганти інколи використовували ці правила для закриття науково-дослідних проєктів.

Ad Observer  –  один з таких проєктів. У жовтні, всього за кілька тижнів до президентських виборів, коли політична реклама заполонила Facebook, компанія наказала Лаурі Едельсон (Laura Edelson) і її співробітнику, доценту Нью-Йоркського університету Деймону Маккей (Damon McCoy), не тільки закрити розширення для браузера до 30 листопада 2020 року, а й видалити всі дані, які були зібрані або зіткнулися з «додатковими заходами примусового характеру». З того часу команда Нью-Йоркського університету і Facebook так і не дійшли згоди.

На відміну від Facebook і Twitter, контент YouTube в основному заснований на відео, що ускладнює аналіз дослідників. Представник Google Лара Левін (Lara Levin) заявила, що, хоча у компанії немає ніяких дослідних проєктів, «пошук істотно відрізняється від соціальних мереж і продуктів на основі фідів / рекомендацій, оскільки він відповідає на запити користувачів, і це відкрита платформа, яку дослідники [і] ЗМІ можуть вивчати (і вивчають)».

YouTube забороняє парсинг, окрім пошукових систем або в тих випадках, коли на це є попередній письмовий дозвіл, що робить його однією з найменш вивчених платформ.

Крім того, деякі нові закони про конфіденційність даних, такі як GDPR, прикривають техногігантів. Оскільки вони посилюють захист даних окремих користувачів, компаніям легше посилатися на ці нормативні документи у своїх зусиллях по блокуванню парсингу, і це також заважає дослідникам вивчати, аналізувати вплив соціальних мереж на суспільні процеси.

Зараз Big Tech активно борються за збереження сумнозвісного розділу 230 Закону про порядність в комунікаціях, який захищає від відповідальності за контент, розміщений користувачами в їхніх онлайн-сервісах. Проте, скасування цього розділу може призвести до того, що компанії або припинять своє існування, або почнуть видаляти певні частини контенту, щоб уникнути судового переслідування. Зосередження уваги на алгоритмічному регулюванні, навпаки, означало б, що компанії не будуть відповідальні за кожен крихітний фрагмент контенту, але будуть нести юридичну відповідальність за те, як їхні сервіси поширюють і доповнюють матеріал. Зрештою, саме цим компанії і займаються: систематизують, орієнтують, поширюють та примножують контент, використовуючи персональні дані користувачів.

Хоча системи штучного інтелекту з кожним днем стають все більш витонченими, досконалими і поширеними, зараз немає єдиної позиції щодо ефективного способу перевірки алгоритмів. Потенційно руйнівні наслідки недосконалих моделей ШІ досі виявлялися тільки спеціалізованими організаціями або незалежними експертами, ніяк не пов’язаними один з одним.

Big Tech реально безконтрольні і орієнтуються на індустріальну епоху розвитку людства, хоча самі сприяють творенню цивілізаційно-ойкуменічної епохи планетярства із своїми глобальними викликами і загрозами ліберально-демократичному світоустрою. Водночас сучасний статус-кво викликає занепокоєння з приводу здатності приватних компаній створювати належні умови для політичних дебатів і доступу до достовірної та фактичної інформації. В США складається загрозлива ситуація, коли одна половина населення відмовляється інтелектуально взаємодіяти з іншою. І навіть якщо це морально найправильніший вибір, демократичні механізми більше не можуть працювати ефективно. Не усвідомлюючи цього, вони починають грати на боці позацивілізаційних сил, які всіма засобами руйнують світ миру та людського партнерства, причому не в межах держави чи нації, а в масштабах цивілізації.

В цій ситуації постає вибір між прибутком і цивілізаційною чесністю. В першому випадку ми всі (цивілізація) програємо. В другому у нас є шанс. Цифрова комунікаційно-контентна чесність – це вражаючий потенціал людства, якщо воно зуміє його реалізувати в сучасному житті.

Ліна Вежель, ГО «Центр комунікаційно-контентної безпеки»

 

Be the first to comment on "Facebook, Google, Twitter та інші: між прибутком і цивілізаційною чесністю"

Leave a comment

Your email address will not be published.


*