Невидимі нам гейткіпери контролюють інформаційні потоки та формують те, що ми бачимо (структурують подачу), впливають на сприйняття (усвідомлення) новин
Алгоритм у цифрових медіа давно перестав бути нейтральним інструментом навігації в публічному шумі сьогодення. Те, що колись виконувало допоміжну функцію сортування та впорядкування, сьогодні перетворилося на повноцінного гейткіпера когнітивної сфери — глобального гравця зі структурно-ресурсною владою над сприйняттям видимого, темпоритмом комунікації, тяглістю уваги та ціннісною інтерпретацією реальності. Алгоритм штучно (формально) визначає, які теми потрапляють у поле суспільної уваги, які відсуваються на периферію, а які взагалі не мають шансу бути поміченими, незалежно від їхньої фактичної значущості та ціннісної ваги для людства. На відміну від традиційних медійно-інституційних (редакційних) брамників, цей новий центр антропологічно-когнітивної експертизи публічного впливу не має легального мандата, не несе відповідальності перед нацією, суспільством, спільнотою чи аудиторією й не зобов’язаний нормативно (національне / міжнародне право) пояснювати логіку своїх ситуативних, оперативних та стратегічних рішень, діючи при цьому в глокальних масштабах цивілізаційної симультанності, недосяжних для будь-якої національної медіаінституції минулого.
Найвиразнішим прикладом такої алгоритмічно-глокальної трансформації є Google Discover — не просто канал дистрибуції, а модель алгоритмічно-свавільного гейткіпінгу нового типу. На відміну від класичного пошуку, Discover навмисно не відповідає прямо на запит, а проактивно формує інформаційну стрічку, спираючись на історію когнітивної поведінки користувача, його комунікаційно-контентні інтереси й прогнозовані алгоритмом наміри. Фактично алгоритм перебирає на себе авторську функцію: вирішує, що саме заслуговує на увагу в запиті, у який момент і в якій формі. Для значної частини онлайн-медіа Discover став основним джерелом трафіку, а отже — критичною інфраструктурою виживання, залежною від непрозорих і мінливих правил. За даними аналітичної платформи Chartbeat, приблизно 68 % трафіку з Google для майже 2 000 глобальних новинних сайтів надходить саме через Discover, тоді як традиційний пошук забезпечує значно меншу частку переходів.
Ця зміна не є технічною — вона радикально зміщує лінію відповідальності за видимість контенту від конкретної новинної редакції до алгоритму, що приймає рішення без прозорих критеріїв відбору, які й досі не стали ринком когнітивно-технологічних послуг та сервісів, наприклад для інституалізованих видань національного масштабу. Видання по всьому світу будують редакційні та бізнес‑моделі навколо Discover, але ця залежність має свою ціну — непередбачуваність і вразливість до змін алгоритму.
Проблема не в абстрактних цифрах, а в реальних наслідках. Незалежні медіа в Туреччині, зокрема T24, Medyascope, Diken і Birgun, заявили про драматичне падіння читачів через зміни в алгоритмі Google, що серйозно вдарило по їхній фінансовій стабільності та змусило деякі з них шукати юридичного захисту проти компанії через місцеві та міжнародні інстанції. Такі випадки чітко ілюструють, що залежність від Discover може становити загрозу не лише комерційній життєздатності, а й інформаційній незалежності та суверенітету.
У Франції та інших європейських країнах аналогічні тренди видно в структурі трафіку: Discover може становити до 69 % кліків, що приходять від Google, і до половини загального трафіку деяких великих груп преси, включно з відомими брендами. При цьому саме ті формати, що краще «займають» стрічку — короткі й емоційно забарвлені тексти — отримують перевагу, тоді як довгі аналітичні матеріали частіше лишаються непоміченими.
Ключовою структурною зміною, що зробила таку трансформацію можливою, стала атомізація цифрових медіа. Якщо раніше алгоритми працювали з матеріалами як відносно цілісними одиницями — статтями, репортажами, колонками, то сьогодні вони оперують фрагментами: окремими абзацами, цитатами, відеокліпами, тезами, емоційними сигналами. Ці мікроодиниці контенту рекомбінуються відповідно до індивідуальних інтересів і поведінкових патернів користувача. У результаті журналістський текст перестає існувати як завершений аргумент або логічно вибудувана позиція і перетворюється на сировину для алгоритмічної реконфігурації. Один і той самий матеріал про війну, політичну кризу чи кліматичні зміни може бути показаний різним користувачам у принципово несумісних версіях: як гуманітарна трагедія, як геополітична загроза або як економічний ризик. Контекст, причинно-наслідкові зв’язки та авторська інтенція при цьому розмиваються, а нерідко й анулюються. Таким чином формується нова база подачі, де сприйняття інформації (смисл) губиться в наростаючому шумі глокальної публічності сьогодення. Натомість виникає ситуативно розрізнена персоналізовано-атомізована (під настрій, стан, відчуття особи-споживача) «ніша-бульбашка» ситуативного сприйняття, що далека від дискурсної тяглості. Таке розмиття первинних сенсів застосовують тоталітарні режими позацивілізаційних сил світу, яким потрібен смисловий хаос для нав’язування власних доктринальних наративів.
Цей процес тісно пов’язаний із переходом до так званої економіки мікроодиниці, що особливо чітко проявилася у 2025 році. Аудиторія, що мала традиційну історію епохи медіа-монополій, більше не мислиться як маса; кожен користувач розглядається як окремий інформаційний ринок, для якого оптимізується контент. Видимість матеріалу дедалі менше залежить від його новизни, актуальності чи суспільної ваги і дедалі більше — від того, наскільки добре він відповідає прогнозованій алгоритмом наявно-визначеній поведінці конкретної людини. У такій логіці медіа не формують спільний публічний простір, а обслуговують таргетовану рефлекторно-тяглу множинність паралельних, часто ізольованих інформаційних реальностей минулого окремої людини, яка не може збагнути, що це вона в минулому, тоді як їй пропонують нібито сьогодення та майбутнє.
Саме цю логіку — на кшталт Google Discover — сьогодні відтворюють і інші алгоритмічні мегаглобальні інфраструктури. Рекомендаційні стрічки соціальних мереж працюють не як нейтральні канали поширення, а як системи темпорального контролю поведінкових (застарілих) уявлень про людину: вони визначають, коли тема з’являється, як швидко вона зникає і в якому емоційному режимі споживається. Новинні агрегатори і персоналізовані добірки в мобільних середовищах створюють світ ілюзії вибору, водночас централізуючи рішення про ситуативну видимість нового контенту виключно у руках алгоритму, а мав би бути вибір (формату, історії, новизни тощо) споживачем, як суб’єктом, а не об’єктом продажу контенту. Навіть push-повідомлення виконують функцію мікроредакцій, вирішуючи, яка новина варта того, щоб увійти в повсякденний ритм людини.
Якісно новий рівень алгоритмічного гейткіпінгу позначився з появою AI Overviews у пошукових системах. Якщо Discover ще принаймні спрямовує користувача до джерел, то AI Overviews дедалі частіше підміняють сам акт звернення до медіа. Алгоритм більше не пропонує набір матеріалів для вибору — він одразу надає узагальнену відповідь, синтезовану з непрозорого корпусу текстів. Користувач отримує не поле для зіставлення аргументів, а одну, усереднену версію реальності, оптимізовану для надшвидкого споживання. Ми фіксуємо, як в когнітивній сфері все більше звужується практика вибору контекстно-контентного джерела, що веде до деградації антропологічно-когнітивних засад людини. Таким чином, можемо говорити, що ми стикаємося з таким явищем як алгоритмічна форма антропологічно-когнітивного розлюднення.
Британська аналітична компанія Authoritas у липні оприлюднила результати дослідження, яке шокувало ринок: функція AI Overviews, запущена Google минулого року, нібито знизила кількість переходів по посиланнях аж на 80%. Дослідження, яке стало частиною юридичної скарги до британського антимонопольного органу щодо впливу Google AI Overviews, також виявило цікаву тенденцію: посилання на YouTube - платформу, що належить материнській компанії Google, Alphabet, стали значно помітнішими порівняно з традиційною системою пошукових результатів.
Не відстає й американський аналітичний центр Pew Research Center: їхнє дослідження підтвердило різке падіння реферального трафіку з AI Overviews Google. За даними Pew, користувачі переходили за посиланням під коротким оглядом штучного інтелекту лише один раз із ста.
У Google, однак, заявляють, що ці дослідження не точні та спираються на помилкову методологію. Але навіть сама поява таких цифр підштовхує до серйозних питань: чи не трансформує ШІ-пошук звичний інтернет-трафік, поступово перетворюючи Google на єдиного не лише контролера інформаційних потоків, а й цензора, що забороняє допуск до реальності, оперуючи активно минулим, а не сьогоденням чи, тим паче, майбутнім з його викликами та ризиками цивілізаційного масштабу та темпу?
Низка медіагруп у Європі вже зверталися до законодавців/регуляторів із вимогою розслідувати, чи не порушують нові ШІ‑функції Google правила DSA, оскільки вони значно зменшують реферальний трафік і здатні підірвати різноманіття медіаекосистеми.
Наслідки цього особливо відчутні в темах, що потребують складного й контекстуального аналізу. Політичні конфлікти, геноцидні агресії, глокальне тероризування, прояви практик варварства, геноцидність як реальні практики управління, питання міжнародної відповідальності в AI Overviews часто редукуються до деполітизованого, «збалансованого» викладу, де асиметрії влади та причинно-наслідкові зв’язки згладжуються (приховуються та адвокуються). У наукових і медичних темах дискусії між різними школами думки подаються як уже вирішені, створюючи ілюзію остаточного знання там, де насправді тривають дебати. У підсумку публічна сфера втрачає складність і конфліктність, необхідні для креативно-венчурного, комунікаційно-контентного та критичного мислення.
У 2026 році глокальний медіаландшафт публічності дедалі чіткіше розділятиметься на тих, хто (свідомо чи несвідомо) підпорядковується алгоритмічним каналам, і тих, хто будує прямі відносини з аудиторією та формує спільноти антропологічно-когнітивного сприйняття: підписки, розсилки, спільноти, подкасти, власні платформи, реальності (віртуальні, додані, змішані), всесвіти тощо. Перші виживатимуть у короткостроковій перспективі, але втратять контроль над редакційним процесом; другі — працюватимуть у більш обмеженому масштабі, але збережуть автономію та перспективу (здатність) формувати справжній публічний дискурс.
Алгоритмічно-корпоративне домінування Google Discover і AI Overviews (якщо без руху когнітивного спротиву, як в ЄС), докорінно змінює саму архітектуру публічної сфери. Вона дедалі більше редукується до автоматизованих, синтетичних відповідей, де журналістика як антропологічно-когнітивно-ментальна інституція поступово втрачає вагу. Питання вже не в тому, чи зникнуть алгоритми — вони стали структурною умовою цифрового світу. Питання в тому, чи зможуть медіа зберегти здатність виробляти складний, критично осмислений контент у реальності, де алгоритми дедалі частіше вирішують, що побачимо і що почуємо ми з вами.
Ліна Вежель, ГО «Центр ККБ»
Зображення згенероване СhatGPT
