23 Червня, 2025

Мова в фокусі: Розшифровуємо дискурс про ШІ та його значення для соціальних змін

ШІ є або наступним кроком до безмежних людських можливостей, або до занепаду людської цивілізації.
ai-society

Інструменти штучного інтелекту (ШІ), як-от ChatGPT, стрімко захопили світ. Ми колективно спостерігаємо за колосальним прагненням інтегрувати ці нові та вражаючі інструменти в найрізноманітніші сфери нашого життя – від написання промов, підготовки грантових заявок, і до тренувань мовної практики з віртуальним носієм бажаної іноземної мови. Залежно від того, з ким ви розмовляєте, ШІ є або наступним кроком до безмежних людських можливостей, або до занепаду людської цивілізації.

Один елемент, який об’єднує ці пристрасні та подекуди перебільшені дискурси, – це їхня залежність від звичних висловів про технології ШІ, що випливають з історії та особливостей галузі ШІ. Нижче ми пропонуємо кілька порад щодо того, як ми говоримо про ШІ, особливо в контексті прагнення до соціальних та політичних системних змін в Україні.

 

Антропоморфізація ШІ: Коли машини стають “людьми”

Ми часто думаємо про ШІ як про людиноподібний об’єкт, наділяючи його якостями створення смислів, що спонукає нас усіх думати про цю технологію як про таку, що має власне життя. Але технології ШІ насправді створюються людьми. Це регулярно проявляється в мові, що використовується навколо ШІ.

Наприклад, сам термін “Штучний інтелект” наповнений значенням. Проте багато критиків вказують, що ChatGPT та інші подібні інструменти погано описуються цим терміном. Назва підкріплюється поширеним, але помилковим переконанням, що ці інструменти схожі на нелюдський мозок, навіть імітуючи нейронні мережі та емоції. Але це не так. Ці інструменти (великі мовні моделі) насправді є дуже складними калькуляторами ймовірностей, які просто обирають найбільш ймовірне наступне слово на основі того, що було раніше. Це скоріше комп’ютерний, ніж людський інтелект. Цей основний аргумент підсумовується критиками, які стверджують, що ChatGPT – це просто “стохастичний папуга” – пристрій для повторення, заснований на випадковій ймовірності розподілу слів у контексті.

Припущення про людиноподібний інтелект передбачає наявність наміру, зважування всіх “за” і “проти”, розуміння паралельних тем і навіть досвіду сенсорних явищ. Жодне з цих припущень не є правильним. Отже, які політичні, соціальні та етичні наслідки виникають, коли ми приписуємо людські якості складним калькуляторам?

Натомість:

Деякі експерти з ШІ, такі як Люк Джулія, запропонували говорити про “доповнений інтелект” як про більш точний термін, оскільки він передбачає, що за допомогою цих інструментів людський інтелект посилюється. Це повертає нашу увагу до тих, хто має суб’єктність та відповідальність у розвитку ШІ – людей-творців та програмістів. Важливо пам’ятати, що люди контролюють ШІ та мають владу визначати майбутнє технологій ШІ.

Іншим прикладом антропоморфізації ШІ є назва помилок ChatGPT та інших подібних інструментів “галюцинаціями”. Використовуючи цей термін, ми пов’язуємо досвід людського сенсорного сприйняття, що виявляє щось, чого насправді немає, з фактичними неточностями, створеними чат-ботом. Цей вибір мови створює враження, що ШІ має якості, подібні до мозку. Наша реальність сьогодні включає стрімке просування до андроїдів з “Зоряних воєн”, як-от робот C-3PO, але мова, яку ми використовуємо для розмови про це, створює враження, що C-3PO вже тут.

Попри нашу схильність припускати людиноподібні якості в технологічних інструментах ШІ, багато людей схильні не помічати їхні найбільш людські (і проблематичні) якості: упередження, властиві базовим даним, що використовуються для навчання цих інструментів. Враховуючи численні докази таких упереджень, ми маємо етичне зобов’язання виявляти фактичні помилки та перенавчати системи ШІ, щоб пом’якшити упередження. Використання мови, що приховує саме існування помилок, наприклад, називаючи їх “галюцинаціями”, послаблює нашу здатність як суспільства створювати кращі системи, оскільки це уникає прямої розмови про проблеми, що існують.

Натомість:

Давайте використовувати просту мову, щоб говорити те, що ми маємо на увазі. Термін “галюцинація” вводить в оману. Ми насправді говоримо про фактичні помилки, які важко виявити, оскільки технологія ШІ не була створена для виявлення або позначення фактичних неточностей. Сам цей факт заохочує критичний підхід при обмірковуванні використання цієї технології в поєднанні з пошуковими системами та іншими повсякденними інструментами. В українському контексті це особливо важливо, адже дезінформація та фейки, створені за допомогою ШІ, можуть мати руйнівні наслідки, особливо під час війни.

 

Містифікація ШІ: Коли “магія” приховує реальність

Досягнення генеративних інструментів ШІ, як-от ChatGPT, настільки вражаючі, настільки експоненціально успішніші за попередні покоління, що вони виходять за межі раціонального пояснення. Насправді, здавалося б, магічна продуктивність ШІ гаряче обговорювалася фахівцями галузі ще з початку 1950-х років, під час зустрічей з технологіями ШІ, коли дискусії про ШІ були суто теоретичними. Сьогодні ШІ з’являється в новинних стрічках та твітах, і навіть у заявах тих, хто розробляє ці системи. Наприклад, генеральний директор Palantir Алекс Карп нещодавно написав: “Зовсім незрозуміло — навіть для вчених і програмістів, які їх створюють, — як і чому працюють генеративні мовні та графічні моделі”.

Мова, яка містифікує ШІ, впливає на те, як ми припускаємо взаємодію людей з цими новими технологіями. Вона приховує дуже реальну людську працю, яка стоїть за навчанням масивних наборів даних, як-от ті, що лежать в основі ChatGPT. Коли ми говоримо про ChatGPT та інші подібні інструменти як про ті, що дають надлюдські результати, які не можуть бути повністю пояснені, ми ігноруємо деякі задокументовані факти про те, як ці досягнення з’являються. Наприклад, зростає кількість доказів того, що компанії-постачальники ШІ-послуг безпосередньо сприяють нещадній експлуатації та шкоді людям у Кенії, Індії та на Філіппінах, які модерують непристойний та небезпечний контент.

Частина “магії” ChatGPT та інших інструментів полягає в їхній очевидній здатності обирати правильні слова, зображення або звукові фрагменти та (здаватися) точно вгадувати більшу частину часу. Це досягається завдяки людським контролерам контенту, які переглядають і позначають найогидніший та найбільш тривожний контент в інтернеті, щоб інструменти ШІ пізніше розпізнали його як неприйнятний. Початкові звіти, подібні до зазначених вище, вказують на те, що це виснажлива та психологічно шкідлива робота. У цьому випадку “магія” – це насправді людська експлуатація.

Кемполо та Кроуфорд влучно визначають цю містифікуючу динаміку як “зачарований детермінізм”. Навіть без їхніх посилань на соціально-наукову теорію, ця назва доречна, враховуючи наше колективне захоплення досягненнями ШІ та безпосередність, з якою просування концепції на ринок призводить до реальних наслідків, що визначають результати для багатьох. Деякі з них є очевидно шкідливими, наприклад, недоліки технології розпізнавання облич або запропоноване використання ШІ для надання медичних консультацій (що вже використовується в деяких клініках).

Пов’язаний з цим наратив полягає в тому, що технологія ШІ швидко розвивається без нашого контролю. Її магічні, незбагненні якості призводять до міфу про можливу або поточну автономну еволюцію. Ця концепція називається загальним штучним інтелектом. Але критичний аналіз останніх досягнень ШІ вказав на те, що, поширюючи історію про те, що технологія ШІ незабаром вийде з-під нашого контролю, ми приховуємо дуже конкретну відповідальність і нагляд, які розробники технологій мають для контролю цієї спіралі. Це також зменшує увагу до питання, чому розробники ШІ стверджують, що “неможливо” знати, як інструменти ШІ виробляють свої результати. Реалії такі: ШІ не є автономним чи незбагненним – його розробляють лідери технологічної індустрії, які можуть вирішити спрямувати ресурси на розуміння його причинно-наслідкових механізмів. Заклики до державного регулювання зручно дозволяють цим особам та їхнім компаніям приховувати свої обов’язки та позиціонувати себе як експертів, необхідних для керівництва діями уряду. Така позиція відбувається за рахунок вчених, громадських активістів, журналістів та інших, хто зараз критично ставиться до їхніх інтересів та тверджень.

Натомість:

Давайте не поширювати історію про ШІ як про щось, що знаходиться за межами людського розуміння, і коли ми помічаємо це в наших комунікаційних середовищах, давайте вибирати прямо ідентифікувати цю тему та застосовувати мову, яка підтримує вимоги до відповідальності та підзвітності людей у міру розвитку цих технологій.

Це означає вибір запитати, які владні та трудові відносини стоять за заявами про нелюдську експертизу та непізнаваність. Крім того, ретельний аналіз цього наративу нагадує нам про необхідність досліджувати саму конструкцію інструментів ШІ, звертаючи увагу на те, як упередження потрапляють у ці системи. Нагляд такого роду потрібно демократизувати, і ми, громадянське суспільство, маємо відігравати в цьому свою роль.

Нарешті, давайте розповідати інші історії через наші комунікації, які відокремлюють сумнівні рекомендації від компаній, що отримують прибуток від розвитку ШІ, на підтримку організацій, науковців-практиків та журналістів, які присвятили себе етичному осмисленню ШІ та колективного соціального блага. В Україні це означає співпрацю з медіа, які перевіряють факти, та залучення експертів, які не заангажовані комерційними інтересами, для відкритого обговорення переваг і ризиків ШІ, особливо в контексті використання цих технологій під час війни та для майбутньої відбудови країни.

 

Які, на вашу думку, є найбільші виклики у формуванні об’єктивного та відповідального дискурсу про ШІ в Україні, зважаючи на нашу поточну ситуацію?

Більше матеріалів: