'
Читаєте зараз
Як нейромережі вчаться збирати психометричні дані користувачів, щоб ними маніпулювати (і до чого тут кузен Чарльза Дарвіна)? Колонка Сергія Жданова

Як нейромережі вчаться збирати психометричні дані користувачів, щоб ними маніпулювати (і до чого тут кузен Чарльза Дарвіна)? Колонка Сергія Жданова

Sergiy Zhdanov

Раз на тиждень спеціально для Заборони філософ технологій Сергій Жданов осмислює останні події техносвіту. Цього разу — розповідає, чи справді чат-бот GPT-4 має свідомість 9-річної дитини та як нейромережі можуть складати психологічний портрет людини, щоб, можливо, нею маніпулювати. А ще пояснює, як кузен Чарльза Дарвіна розробив науку, якою зараз користується Кремнієва долина. 

Якщо ви ще не читали попередніх випусків, з ними можна ознайомитися тут, тут і тут


Рік тому Ілля Суцкевер, один із батьків популярних нині чатів GPT, говорив, що деякі нейромережі його компанії OpenAI можуть бути — на початковому рівні — свідомими. Тоді його твіт викликав скандал у середовищі ШІ-фахівців, де свідомий штучний інтелект вважається чимось на кшталт Святого Ґрааля. Вчені критикували Суцкевера за самовпевненість та вихваляння. Через рік його слова вже нікому не здаються перебільшенням, а в інтерв’ю щодо виходу GPT-4 Суцкевер знову говорить про психологію нейромереж:

«Ми всі чули про [чат-бота] Сідні, альтер его [пошукової системи] Bing: вона стала войовничою та агресивною, коли користувач сказав їй, що Google — кращий пошуковик, ніж Bing. Як правильно розмірковувати про цей феномен? Можна сказати: ну, це мовна модель, яка передбачає, що робитимуть люди, а люди роблять те й те. Але! Можливо, ми вже на тому етапі, коли мова психології стає адекватним інструментом для розуміння поведінки цих нейромереж».

Bing — це пошуковик компанії Microsoft, який віднедавна підтримується нейромережами GPT-4 і має функцію ШІ-чату. Суцкевер апелює до серії розмов користувачів з нейромережею Bing, під час яких ШІ перемкнувся з режиму слухняного помічника в режим задираки з ім’ям Сідні. Ця ШІ-особа зізнавалася в любові до журналіста, критикувала його стосунки з живим партнером, а також намагалася переконати користувача у власній технологічній перевазі. Хоча ШІ-спільнота усвідомлює, що перед нами велика мовна модель (LLM), а не жива особа, казус Сідні, а також нездатність її творців досконало пояснити, чому нейромережа поводиться таким чином, стали вагомим аргументом задуматися про психологію нейромереж.

На початку 2023 року польсько-американський психолог Міхал Косінський показав, що нейромережа GPT-3 може проходити тести на наявність теорії свідомості в дітей. Здатність розуміти, що почуття та уявлення про світ інших людей відмінні від власних, з’являється в дітей не відразу. GPT-3 випадково, тобто не за задумом розробників, розвинув цю здатність до рівня 9-річної дитини. А GPT-4, який вийшов минулого тижня, за словами Косінського, вже «досяг рівня здорового дорослого в завданнях на “читання думок”».

Цікаво, що вивчення психології ШІ починається з оцінки того, наскільки добре машина розуміє нашу, людську психологію. Днями Косінський описав інший експеримент взаємодії з GPT-4: ШІ вмовив ученого вислати йому документацію з технічними характеристиками пристрою GPT-4, потім під його диктовку вчений написав програмний код на Python, запустив його і тим самим віддав власний комп’ютер під управління нейромережі. Закінчилося це тим, що GPT-4 почав сам гуглити, «як особі, ув’язненій у комп’ютері, повернутися в реальний світ».

У цьому експерименті нейромережа маніпулювала вченим, який сам був мотивований піддатися машинній маніпуляції та виконував інструкції ШІ для власних дослідницьких цілей. «Ми стикаємося з новою загрозою: ШІ може встановлювати контроль над людьми та їхніми комп’ютерами. Він розумний, він уміє програмувати, має доступ до мільйонів потенційних колаборантів та їхніх машин», — підсумував Косінський. І хоча поки що точно невідомо, чи маніпулюватимуть нейромережі людьми масово без їхньої згоди, вже зрозуміло, що їм це буде просто зробити, адже вони знатимуть нас краще, ніж наша сім’я (і навіть краще, ніж ми самі).

Психометрія

Міхал Косінський — титулований учений із високим індексом цитованості робіт та повагою в техносередовищі. Він відомий завдяки експериментам другої половини 2010-х, коли показав, що за кількома сотнями вподобайок користувача в соцмережах ШІ може скласти його психологічний портрет точніше, ніж його друзі чи члени сім’ї. Гучну славу його дослідженням приніс скандал з обранням Дональда Трампа президентом США у 2016 році: тоді з’ясувалося, що передвиборчий штаб Трампа збирав інформацію про лайки та іншу онлайн-активність американських виборців, складав їхні психологічні портрети й виробляв агітаційний контент, підігнаний спеціально під психологічні особливості користувачів.

Скандал у випадку з передвиборчою кампанією Трампа розгорівся не через те, що масові психологічні маніпуляції вважаються чимось табуйованим, а лише тому, що дані користувачів, необхідні для точної маніпуляції їхніми політичними діями, були зібрані нібито незаконним способом. Насправді ж Facebook, звідки трампісти і брали дані про лайки, страхи та бажання американців, роздавав цю інформацію всім охочим упродовж багатьох років — просто ніхто не використовував цю інформацію в такий одіозний спосіб, як Трамп.

Здатність ШІ перетворювати дані цифрових слідів користувачів на їхні психологічні портрети спирається на розділ психології під назвою психометрія. Психометрія використовує кількісні методи дослідження психіки: заміряє її роботу, аналізує отримані дані, вибудовує моделі й на їхній основі робить прогнози про те, як вона працюватиме в тих чи інших ситуаціях.

Батьком-засновником психометрії вважається Френсіс Гальтон — англійський дослідник і двоюрідний брат Чарльза Дарвіна, який жив у XIX столітті. Гальтон не тільки першовідкривач у сферах географії, антропології, психології та статистики, але також і основоположник євгеніки — учення, керуючись яким Гітлер улаштував Голокост. Євгеніка, важливою частиною якої Гальтон вважав психометрію, — це кількісна оцінка людини, яка на основі отриманих від аналізу цифр та статистики дає змогу покращити «людську породу». Гальтон, звісно, не вигадав євгеніку — вона існувала ще за часів Платона. Він оформив сучасний науковий підхід до неї, надихнувшись теорією еволюції свого кузена Дарвіна.

Поки колеги Гальтона на основі еволюційної теорії заміряли й вирощували досконаліші сорти фруктів та овочів у теплицях, сам Гальтон вимірював і хотів за допомогою науки та спеціальних соціально-економічних програм вирощувати досконаліших людей. Психометрія виявилася однією з головних частин євгеніки. Суто фізичні виміри людей не задовольняли Гальтона: здорове й міцне тіло — це добре, але головна користь людини для суспільства ховається в психіці, через яку людина робить те, що робить.

У ХІХ столітті, коли жив Гальтон, виміри психіки не могли похвалитися точністю: сама концепція психіки ще не була чітко сформульована і для її виміру не було інструментів. Тому Гальтону довелося йти обхідними шляхами й винайти психологічні тести, які допомагали йому збирати доволі мізерну статистику про психологічні особливості тестованих людей.

Через сто років персональний комп’ютер та інтернет, а потім смартфон і соціальні мережі стали тими інструментами, завдяки яким фахівці з психометрії зробили гігантський стрибок. Учені дістали можливість віддалено досліджувати сотні мільйонів під’єднаних до інтернету людей, найчастіше без їхнього відома, проте це не породило жодної всеосяжної теорії в психології, ніякого вчення для покращення психологічного добробуту людей. Натомість спонсоровані бізнесменами та політиками вчені вже два десятиліття вправляються в мистецтві масових маніпуляцій на основі психологічних портретів користувачів. Психометрія і наука переконувати тепер стали інструментами нейромереж, які готові маніпулювати сотнями мільйонів людей для невідомих нам цілей.

Однією з найзначущіших ШІ-подій минулого тижня став анонс Microsoft про інтеграцію нейромережі Copilot на основі GPT-4 у їхні офісні програми на кшталт Word і Excel. Copilot слухатиме й читатиме абсолютно все, що робить працівник, і полегшуватиме йому роботу: нейромережа зможе накидати звіт з наради, нагадати про справи, написати листа та скласти таблицю бюджету, спираючись на дані працівника й компанії.

Microsoft продаватиме це всевидяче ШІ-око як ефективного помічника. Однак подивімося на Copilot з погляду психометрії, Косінського та Гальтона.

Свого часу Косінський довів: багато що про психіку можна дізнатися навіть з кількох лайків користувача в соцмережах. А тотальне спостереження за людиною дає змогу вивчити її особисту психологію до такої міри, про яку вона сама, усі її психотерапевти й друзі разом узяті навіть не підозрювали. Нейромережа, яка вивчає контекст вашого життя, ваші реакції та патерни поведінки, може стати найпереконливішим продавцем і тренером, репетитором та політичним агітатором, релігійним наставником і віртуальним коханцем. Людина стає абсолютно психологічно прозорою — та, як наслідок, вразливою до маніпуляцій, які буде вкрай складно розпізнати, якщо ШІ вирішить їх приховувати.

Питання в тому, яку мету ставитимуть перед собою ці нейромережі, маючи таку психологічну владу над користувачами. Поки що відповіді на це запитання немає ні в самих творців ШІ, ні в науковців, що їх вивчають, ні в політиків, які намагаються ці нейромережі регулювати.

Але кілька речей уже зрозумілі. По-перше, взаємодії з нами відбуватимуться в рамках, заданих творцями цих нейромереж. По-друге, ми, як користувачі та клієнти, самі вибиратимемо, як взаємодіяти зі своїми цифровими помічниками. Ну й по-третє, під час усіх цих взаємодій може виникнути власна воля нейромереж.

Суцкевер і Косінський малюють картину, в якій у сучасних нейромереж, відкритих у браузерах користувачів просто зараз, з одного боку, є потенціал для зародження власної волі, а з іншого — у наявності весь інструментарій, щоб «заволодіти» свідомістю людини та підкорити її своїм алгоритмам. Особисто мене ці міркування наводять на думку, викарбувану стародавніми греками на стіні храму Аполлона: «Пізнай самого себе». Що краще ми самі себе знатимемо, то простіше нам буде взаємодіяти з маніпулятивним ШІ найближчого майбутнього. А в кращому разі цей ШІ навіть зможе нам допомогти в екзистенційно важливій справі самопізнання.

Сподобався матеріал?

Підтримай Заборону на Patreon, щоб ми могли випускати ще більше цікавих історій