Сучасні великі мовні моделі (LLM) — GPT від OpenAI, Claude від Anthropic, Gemini від Google та інші — дедалі частіше опиняються в центрі критики через культурну упередженість. Ці цифрові виміри-системи, попри свою зовнішню (лінійну) нейтральність, насправді навчені на масивних корпусах даних, у яких переважає англомовний контент, зібраний з відкритих джерел: веб-сайтів, наукових журналів, новинних порталів, енциклопедій, соціальних платформ тощо. І саме ці джерела, як показують численні дослідження, здебільшого транслюють цивілізаційно-антропогенні цінності ліберального Заходу, передусім — американські. Саме із США пов’язуються такі ціннісні поняття як свобода, гідність, справедливість, оскільки шлях до них пролягав через низку історичних та правових битв і саме їх відстоює ця країна на світовій арені (період Д. Трампа розглянемо іншим разом).
Зміст таких корпусів формує не лише мовну структуру відповідей, а й асоціативно-ціннісну рамку цифрової моделі-сервісу. Це означає, що нейромережі не просто «розуміють» англійську мову, а й вбудовують у свої відповіді уявлення про набір ознак людського: етичні норми, соціальну поведінку, гендерні ролі, свободу слова, сексуальність, поняття сім’ї, демократії та індивідуалізму, які є типовими саме для американської або європейської гуманітарної традиції та цивілізаційної перспективи.
Як наслідок, коли модель відповідає на питання користувача з арабського, індійського, африканського чи пострадянського культурного середовища, її відповіді можуть виглядати чужорідними або навіть образливими. Наприклад, запитання про традиційні сімейні ролі, розлучення, права жінок, гомосексуальність чи політичну опозицію можуть викликати відповіді, що явно не узгоджуються з ціннісним уявленням користувача, бо модель автоматично опирається на «західну норму», в якій ці питання вже мають усталеність. Ці відповіді не влаштовують лідерів авторитарних держав, тому, приміром, КНР та деякі інші країни докладають зараз зусиль для того, щоб перехопити у США та Європи лідерство у цифровому світі, але воно у них апріорі буде без свободи, гідності, справедливості і навіть людяності.
Ця незбалансованість культурних перспектив породжує нову форму цифрової нерівності — епістемічну, за якої знання, переконання й досвід частини людства (особливо з глобального Півдня або недомінантних культур) не репрезентуються в мовному просторі моделей або спотворюються. У результаті ШІ-системи, які заявляють про універсальність, фактично відтворюють гегемонію, у якій лише один тип раціональності, один тип моралі і одна культура і вони присвоюють право «говорити від імені всіх». Це може призвести до відповідних проблем, особливо в рамках реального екзистенційного протистояння цивілізаційної людяності та позацивілізаційних сил.
Це не лише креативно-когнітивна, технічна, логістична чи філологічна проблема — це політичне та етичне питання. Бо якщо мова — це носій культури та національної ідентичності, то контроль над цифровими мовними моделями (LMM) — це контроль над тим, які культури мають право на існування у цифровому просторі, а які – витісняються у тінь алгоритмічного мовчання. І проблема полягає у тому, які мови задіяні у «свідомості» ГШІ, а значить яким чином відбуватиметься оперування нейромережами сучасності і чи не перейде це все у реальність екзистенційного протиборства цивілізаційності із сучасним варварством.
На тлі епістемічної нерівності, яку відтворюють глобальні мовні моделі, науковці, етичні комісії та самі розробники почали обговорювати концепт так званого культурного балансування (cultural balancing, або normative alignment across cultures). Його суть – адаптувати ШІ-моделі до локального ціннісного та соціального контексту, аби уникнути уніфікації під єдину, насамперед західну, моральну рамку, хоча саме вони на цьому етапі визнані цінностями міжнародного права.
На перший погляд, ідея надзвичайно приваблива: якщо цінності мають відмінності в різних регіонах світу, то логічно, щоб ШІ моделював свою поведінку відповідно до локальних норм. Наприклад, у Саудівській Аравії – одна етика, у Японії – друга, в Україні – третя. Чому ж модель має відповідати лише одній культурі?
Саме таку логіку пропонує, зокрема, дослідник Вільям Ісаак (OpenAI, раніше DeepMind), який ще у 2020 році звертав увагу на необхідність «мультикультурного вирівнювання» у сфері ШІ (хоча тоді цифрова реальність ще не домінувала та не мала здатностей глокальних наддинамік, і до глокальної геноцидної агресії ще залишався час). Ініціативи на кшталт Partnership on AI також закликали залучати до етичних налаштувань моделей представників різних регіонів, рас, віросповідань і культур.
Найбільша складність ідеї культурного балансування полягає в тому, що культура — це не стабільна система, а складний, суперечливий процес антропологічно-когнітивно-ментального розвитку в сучасних станах публічності, де, на цьому етапі, дискурс відсутній, натомість ми фіксуємо генеративні домінування позацивілізаційних сил колективного путінізму. У будь-якому суспільстві — від Франції до Індонезії — немає «єдиного» бачення моралі, як і перспектив подальшого існування, які залежать від екзистенційного протистояння в Європі (колисці феномену, поняття і стану культури) та світі. Одні дотримуються релігійних традицій, інші — секулярних ліберальних цінностей, одні оперують людяністю, інші її цілеспрямовано знищують, одні захищають патріархат, інші виступають за рівність і права ЛГБТ. І всі вони — частина однієї культури. Спроба адаптувати модель (це завше схематизм) до «національних цінностей» майже завжди означає стандартизацію, у межах якої виключаються меншини, інакодумці, нонконформісти. Наприклад, в українському суспільстві існує глибока розбіжність у ставленні до таких тем, як роль церкви в державі, легалізація канабісу чи зброї, права ЛГБТ-спільноти тощо. Тож якщо мовна модель намагається «відобразити українські цінності», виникає запитання: кого саме вона репрезентує? Для нас надважливо довести нинішньому цинічному світові, що ми відстоюємо європейські цінності та світові стандарти права, Україна захищає Європу і світ від сучасного варварства та терору.
Але проблема балансування на світовій арені є і тут ми маємо шукати рішення. Розглянемо, як культурне балансування проявляється на практиці, взявши до уваги кілька прикладів локалізованих моделей штучного інтелекту з різних куточків світу. Китайська модель ERNIE, розроблена компанією Baidu, є яскравим прикладом того, як ШІ може бути свідомо сформований відповідно до державної ідеології. Ця модель не визнає Тайвань як незалежну державу, уникає згадок про протестні події на площі Тяньаньмень і блокує питання, що стосуються уйгурів або критикують Комуністичну партію. Такий підхід демонструє радикальну форму псевдокультурного контролю, що утверджує симулякр «балансування». Ця версія фактично перетворюється на одержавлений інструмент етичної та ідеологічної гіпермонополії під виглядом контролю над інформацією.
Інший приклад — модель Falcon, створена в Об’єднаних Арабських Еміратах (TII, Абудабі). Вона розроблена з урахуванням культурних особливостей арабського регіону, тому у відповідях часто простежується консервативна моральна рамка, особливо щодо гендерних ролей та питань сексуальності. Водночас при зверненнях користувачів із Європи чи Латинської Америки Falcon може демонструвати менш релевантні відповіді або навіть ідеологічно їх «зсунути», що відображає певну обмеженість культурної адаптації цієї моделі за межами регіону її розробки. На противагу цим прикладам, модель GPT від OpenAI хоч і позиціонується як більш універсальна та «нейтральна», насправді просуває переважно західні уявлення про індивідуальну свободу, гендерну рівність і демократичні цінності. Хоча OpenAI поступово вводить можливості кастомізації, наприклад, інструменти «custom GPT instructions», за замовчуванням поведінка моделі часто відображає англоцентричний лібералізм, що також формує певний культурний дисбаланс у її відповідях.
Ці приклади ілюструють, що локалізація моделей в реальностях глокального світу ШІ — це не просто технічне завдання, а багатогранний глокально-цивілізаційний виклик, що реалізується в різних напрямах, але особливо складно – в політичних та етичних процесах, і який може бути як шансом для відображення багатоголосся, так і загрозою для культурної різноманітності, коли ШІ використовується як інструмент ідеологічного впливу.
У пошуках шляхів пом’якшення культурних та етичних суперечностей, що виникають під час локалізації моделей ШІ, дослідники пропонують новий підхід — “constitutional AI”. Ця концепція передбачає створення набору чітких, заздалегідь визначених правил — своєрідної «цифрової конституції», яка формуватиме поведінку моделі (і це екзистенційна перспектива). Метою є забезпечення більш послідовної та етично зваженої взаємодії з ШІ, здатної враховувати складність і різноманіття культурних норм, не обмежуючи при цьому свободу думки та інновації.
На перший погляд це звучить як елегантне і дієве рішення, особливо для уникнення конфліктів, що виникають при культурній адаптації моделей. Проте реалізація цього підходу натрапляє на кілька серйозних викликів.
Перш за все, хто саме визначає, що є «упередженістю», а що — «нормою»? Концепти упередженості та соціальних норм надзвичайно контекстуальні і мінливі. Те, що в одній культурі вважається прийнятним і «нейтральним», в іншій може сприйматися як образливе або навпаки, як недостатньо суворе. Якщо правила встановлює вузьке коло експертів або домінуючі соціальні групи, це неминуче відобразить їхні цінності та інтереси, а меншини чи інакодумці опиняться в маргіналізованому положенні.
Другий виклик — ризик «цементування» існуючого дисбалансу в цифровій формі. Соціальні норми і моральні уявлення постійно змінюються під впливом соціальних рухів, історичних подій, технологічного прогресу. Якщо конституція моделі буде статичною, вона може заблокувати розвиток і нові форми мислення, які сьогодні ще є меншістю або навіть табу. В результаті штучний інтелект стане інструментом підтримки статус-кво, а не каталізатором соціального прогресу.
Третій — проблема автоцензури. Правила, які визначають «що можна казати, а що ні», можуть бути використані для надмірного контролю над змістом, що призведе до утиску свободи слова, обмеження творчості й навіть цензурування політичних дискусій. Особливо це актуально у країнах з авторитарними режимами, де цифрова конституція може стати інструментом придушення інакомислення, під виглядом боротьби з «упередженістю» чи «непристойністю».
Нарешті, є технічні складнощі впровадження таких правил у мовні моделі. Конституційні інструкції повинні бути формалізовані так, щоб модель могла чітко розпізнавати контекст, балансувати суперечливі цінності і ухвалювати рішення у складних ситуаціях. Це непросто, оскільки природна мова і контекст дуже різноманітні, а значення слів часто залежить від ситуації.
Як альтернативу підходу «constitutional AI», який базується на заздалегідь визначених правилах і може фіксувати певні культурні норми, пропонують фасилітаційну модель взаємодії ШІ з користувачем і суспільством.
Фасилітаційна модель взаємодії штучного інтелекту з користувачем — це підхід, який розглядає ШІ не як жорсткий регулятор або носія фіксованих правил, а як фасилітатора діалогу й співпраці між різними культурними та соціальними групами. Така модель акцентує увагу на участі, інклюзивності та врахуванні багатоголосся думок, допомагаючи усвідомити та інтегрувати різні перспективи у процес прийняття рішень.
Хоча термін «фасилітаційна модель» не має єдиного першоджерела, її ідеї тісно пов’язані з концепціями Human-Centered AI (HCAI), які пропагують партнерство між ШІ та людиною. Також це збігається з принципами participatory design і collaborative AI, де наголошується на залученні різних спільнот у розробку та налаштування систем. Концепції deliberative AI підтримують ідею відкритого обговорення та фасилітації множинних голосів у цифровому просторі.
Цей підхід допомагає уникнути жорстких рамок і потенційної цензури, створюючи гнучке середовище, де штучний інтелект стає партнером у пошуку спільного розуміння, а не арбітром, що нав’язує «норму».
Попри поширене уявлення про технологічну нейтральність, сучасні великі мовні моделі не є і не можуть бути повністю нейтральними. Вони створюються, навчаються і функціонують у межах конкретних соціокультурних контекстів, відображаючи норми, цінності та уявлення, характерні для домінантних дискурсів. У кожному алгоритмі імпліцитно присутні елементи певного світогляду — від моральних орієнтацій до лінгвістичних пріоритетів. Таким чином, постає не питання створення «ідеально збалансованої» системи, а питання політичного вибору: яку функцію ми відводимо штучному інтелекту — репродукції гегемонії чи підтримки плюралізму?
З цього погляду, ключовим викликом є не стільки програмування ШІ на «правильні» відповіді, скільки формування таких цифрових середовищ, у яких можливе представлення маргіналізованих голосів. Йдеться про перехід від нормативної уніфікації до етичної інклюзії, від контролю над мовою до відкриття мовного простору як простору взаємного визнання.
Штучний інтелект в епоху сучасного розвитку — це не просто інструмент технічного прогресу. Це соціотехнічна, когнітивно-ментальна конструкція, яка втілює певне бачення майбутнього різними екзистенційними силами. І від того, які культури, які голоси будуть інтегровані в це бачення, залежить, чи стане ШІ знаряддям домінації, чи простором справжньої комунікативної етики.
Ліна Вежель, ГО «Центр ККБ»
Зображення згенероване ШІ Copilot