Читаєте зараз
Хайп на ШІ. Як творці ChatGPT налякали весь світ розробкою, про яку нічого не відомо

Хайп на ШІ. Як творці ChatGPT налякали весь світ розробкою, про яку нічого не відомо

Andriy Sorokin

Компанія OpenAI (розробник ChatGPT) вкотре привернула увагу світових ЗМІ. Спочатку медіа спостерігали за історією зі звільненням та поверненням її гендиректора Сема Альтмана, яку навіть порівнювали з сюжетами «Гри престолів». Потім почали лякати, що OpenAI розробила ШІ, який загрожує людству. Постійний автор Заборони та редактор телеграм-каналу FintechWave Андрій Сорокін спробував розібратися, чи це так насправді.


Про загрозу ШІ говорять постійно. Звідки стільки галасу

Декілька розробників OpenAI написали раді директорів листа про те, що нова модель ШІ — Q* (Q-Star) — може загрожувати людству. Про це Reuters розповіли джерела у компанії. При цьому копії листа видання не має. Співробітники, які написали його, не відповіли на запити про коментарі. У компанії лише підтвердили наявність проєкту Q*, але про це стало відомо від джерел Reuters.

Деталей у статті мало (наприклад, нічого не сказано про конкретні проблеми з безпекою), а офіційних коментарів OpenAI немає — чому ж тоді все це обговорюють? Як мінімум, з таких причин:

Звільнення Альтмана, яке не відбулося, могло бути пов’язане з Q*, стверджують джерела Reuters. Спочатку в це було легко повірити: незрозуміло, навіщо рада директорів OpenAI вирішила так демонстративно позбутися гендиректора. Можливо, суть розбіжностей полягала в безпеці технологій, що розробляються. The Verge заперечує це разом із тим фактом, що рада директорів отримувала листа з повідомленням про якийсь прорив.

Q* схожий на вирішальний прорив до AGI (універсальний штучний інтелект), заявили неназвані співробітники OpenAI. Вони так вирішили, оскільки Q* міг розв’язати незнайомі математичні задачі — нехай і на рівні початкової школи. На їхню думку, це означає, що нова модель ШІ може навчатися та розвиватися на основі самостійно отриманих даних, що необхідно для наукової діяльності. Крім того, одне з джерел визнало, що в компанії була спеціальна група, сформована з команд Code Gen та Math Gen. Вона нібито вивчала оптимізацію та можливості «свідомості» ШІ-моделей.

Альтман нещодавно говорив про черговий прорив OpenAI. Мова про його виступ на саміті Азійсько-Тихоокеанського економічного співробітництва в Сан-Франциско.

Чому все впирається в математику? Є калькулятор. Невже так важливо, що Q* розв’язує найпростіші задачі?

  • Калькулятор виконує обмежену кількість операцій. Універсальний ШІ здатен розв’язувати незнайомі задачі, використовуючи величезну кількість ресурсів.
  • Генеративний ШІ непогано справляється з перекладом, де можливі різні інтерпретації. Нейромережі «передбачають» відповідь на питання і намагаються підібрати її з певною ймовірністю помилки. Але математичні задачі потребують точної відповіді.
  • Генеративний ШІ ґрунтується на великій мовній моделі, розробленій шляхом сканування величезних обсягів тексту. По суті, це модель того, як ми говоримо, тобто шаблонів, заснованих на словах, що використовуються. Жодні прямі обчислення або формули вона не використовує.
  • Генеративний ШІ, здатний надійно розв’язувати математичні задачі, має добре розумітися на визначеннях понять, які можуть бути абстрактними. «Якщо ШІ зможе логічно міркувати та оперувати абстрактними поняттями, з чим у нього наразі великі проблеми, то це буде дуже серйозний стрибок. Математика передбачає символічні міркування: наприклад, “якщо X більше Y, а Y більше Z, то X більше Z”. Мовні моделі традиційно дуже погано справляються із цим, тому що вони не міркують логічно, а просто користуються інтуїцією», — пояснює засновник ШІ-стартапу Tromero Чарльз Хіггінс.
  • Багато математичних задач також вимагають певного рівня планування протягом кількох кроків, зазначає дослідниця Кембридзького університету у Массачусетсі Кеті Коллінз, яка спеціалізується на математиці та ШІ. Головний спеціаліст зі штучного інтелекту в Meta Ян Лекун вважає, що Q*, швидше за все, буде «спробою OpenAI планувати».

Q*: у чому суть

Q* може належати до двох різних теорій в області ШІ: Q-навчання або алгоритму Q* з Мерилендської системи доказу заперечення (MRPPS).

Q-навчання, алгоритм навчання нейромереж. Означає, що ШІ сам на основі методу спроб і помилок вчиться знаходити оптимальні рішення, не покладаючись на людину. Це відрізняє його від RLHF (Reinforcement Learning from Human Feedback, навчання зі зворотним зв’язком від людини) — нинішнього підходу OpenAI.

Ось як пояснює суть цього алгоритму видання DeCrypt. Уявімо робота, який іде лабіринтом. За допомогою Q-навчання він навчається знаходити найшвидший шлях до виходу. Коли він наближається до виходу, то отримує винагороди. Згодом робот розробляє стратегію (Q-таблицю), яка підказує, яка дія найкраща на кожній ділянці лабіринту. Якби замість Q-навчання застосовувалася RLHF, робот покладався б на втручання людини та вказівки щодо того, був його вибір правильним чи ні.

Чому ця версія може працювати? Ще у травні OpenAI розповіли, що «навчили модель досягати нового рівня у розв’язанні математичних задач, винагороджуючи кожен правильний крок міркування, а не просто правильну остаточну відповідь».

Якщо мова дійсно про Q-навчання, то такий ШІ може стати в пригоді у безпілотних транспортних засобах. Адже ключове значення для них має прийняття рішень за частку секунди, засноване на мінливих умовах.

Поєднання Q-досліджень і A* (A star, пошук А) — ще одна версія того, що ховається за Q*. A* — це алгоритм пошуку за першим найкращим збігом на графі, який знаходить маршрут з найменшою вартістю від однієї вершини (початкової) до іншої (цільової, кінцевої). Його використовують для того, щоб програма знаходила оптимальний шлях до мети. Що може означати поєднання Q-навчання та A*? Одна із засновниць ШІ-стартапу Tromero Софія Калановська стверджує, що це допоможе розв’язати проблему галюцинацій ШІ. Крім того, у такому разі він зможе генерувати нові ідеї — ChatGPT поки що не може цим похвалитися.

Алгоритм Q* із MRPPS. Це складний метод для доказу теорем у ШІ, особливо в системах відповідей на запитання. Той самий Decrypt пояснює його на прикладі Шерлока Холмса. Припустимо, що йому потрібно розкрити злочин. Для цього він збирає підказки (семантична інформація) і логічно поєднує їх (синтаксична інформація), щоб дійти висновку. Алгоритм Q* працює аналогічним чином, поєднуючи семантичну та синтаксичну інформацію для навігації складними процесами розв’язання проблем. Якщо OpenAI займається алгоритмом Q*, то вони ще ближчі до створення моделі, яка може розуміти реальність за рамками простих текстових підказок. Це може бути особливо ефективним у галузях, що потребують глибокого аналітичного мислення: наприклад, у юридичному аналізі, складній інтерпретації даних і навіть медичній діагностиці.

Q-навчання спрямоване на те, щоб навчити ШІ вчитися на основі взаємодії з довкіллям. Алгоритм Q — на поліпшення дедуктивних здібностей ШІ. У кожного з них великий потенціал для розвитку ШІ, але різне застосування та наслідки.

Проте вищеописане — це лише припущення щодо сутності Q*. OpenAI, як і раніше, зберігає мовчання щодо цього і не поспішає спростовувати чутки.

ШІ-розробки: чи варто непокоїтися

Брак даних не дозволяє зі стовідсотковою впевненістю сказати це, але панікувати точно не варто.

Розробки OpenAI ще далекі від прориву, щоб викликати екзистенційний страх. Про це The Atlantic розповіли співробітники компанії, які побажали залишитися анонімними. Видання нагадує, що досягнення в галузі ШІ часто суб’єктивно оцінюють у той момент, коли вони відбуваються. Щоб сформувати консенсус щодо того, чи був конкретний алгоритм або частина дослідження насправді проривом, більше дослідників мають підтвердити це. Інакше гучні заяви — це лише суб’єктивна оцінка невеликої групи працівників.

У нинішній ситуації із консенсусом вже є проблеми. Основні розробки зосереджені в руках кількох компаній: Meta, Google, OpenAI, Microsoft та Anthropic. Дослідження, які колись здебільшого проводилися відкрито, тепер оповиті таємницею з міркувань конкуренції. Так, OpenAI відкрито визнає, що секретність дозволяє їй зберігати перевагу на тлі інших компаній.

Ажіотаж навколо ШІ-розробок виникає регулярно, пише MIT Technology Review. Торік лабораторія Google DeepMind створила Gato. Він міг грати в ігри Atar, створювати реалістичні зображення, спілкуватися з людьми. Через це деякі дослідники почали стверджувати, що Gato практично на межі створення універсального ШІ. «Хайп той самий, розробники різні», — констатує видання.

Подібне відбувалося і безпосередньо з OpenAI. Ще до появи ChatGPT експерти OpenAI так злякалися нейромережі GPT-2, що заявили про неможливість її публічного використання. Утім, через три роки компанія відкрила доступ до набагато потужніших розробок, зазначає Wired.

Здатність ШІ розв’язувати математичні задачі ще не означає народження надрозуму, вважає дослідниця Кембридзького університету Кеті Коллінз. «Я не думаю, що це одразу приведе нас до AGI чи жахливих ситуацій. Також дуже важливо з’ясувати, які саме математичні задачі розв’язує ШІ», — каже вона. Адже одна справа — задачі для початкової школи, а інша — складні речі, за які дають премію Філдса. Але якщо чергова розробка OpenAI — це справжній прорив? Чи означає це, що такий ШІ зможе, наприклад, займатися шахрайством? За словами Кеті Коллінз, це буде можливо тільки в тому випадку, якщо йому «буде дозволено ставити власні цілі та почати взаємодіяти з реальним фізичним чи цифровим світом».

Ми не можемо повністю покладатися на ШІ у розв’язанні математичних задач, стверджує викладачка ШІ в Единбурзькому університеті Венда Лі. За її словами, для цього немає алгоритмів чи навіть відповідної архітектури. Той же ChatGPT може виконувати деякі математичні операції, але не надто надійно. Все впирається в те, що глибоке навчання і перетворювачі (різновид нейронної мережі), які використовують мовні моделі, відмінно розпізнають шаблони, але цього недостатньо.

Ніщо не говорить про те, що Q* буде креативнішим, вважає старший науковий співробітник NVIDIA Лінсі «Джим» Фан. На його думку, такий ШІ навряд чи продемонструє прогрес у «написанні віршів, розповіді анекдотів або у рольових іграх». «Удосконалення творчих здібностей — це фундаментально людська річ, тому я вважаю, що природні дані все одно перевершать синтетичні», — написав він у X.

Розвиток ШІ прискорився?

Анонімні коментарі співробітників OpenAI та скептичне ставлення ШІ-експертів змушують засумніватися, що чергова розробка змінює правила гри. З упевненістю можна сказати лише про існування проєкту: це визнала технічна директорка Міра Мураті. Інші повідомлення ЗМІ вона не коментувала.

Тоді чому всі почали активно обговорювати Q*, про який нічого невідомо? Автор блогу про ШІ The Algorithmic Bridge Альберто Ромеро впевнений, що пояснення лежить на поверхні. Люди просто звикли, що їм регулярно розповідають про чергове відкриття у цій галузі. Вони хочуть більше. Важко в цьому когось звинувачувати: так працює економіка уваги.

Бездоганний маркетинг OpenAI є ще одним фактором, який не можна ігнорувати. «Коли у березні анонсували GPT-4, люди вже питали про GPT-5. GPT-4 був цікавий доти, доки його не випустили. Незабаром значна частина інтересу перейшла на GPT-5», — пише Альберто Ромеро. Це визнає і Сем Альтман: в одному з інтерв’ю він згадував, що GPT-4 сприймався як величезний стрибок. Потім люди швидко звикли й почали вимагати нової версії.

Оглядач Computer World Майк Елган рекомендує і надалі зі скепсисом оцінювати чергові новини про приголомшливі відкриття у сфері ШІ. Річ у тім, що завдяки OpenAI здається, що окремі компанії чи лабораторії роблять прориви в ШІ, які змінюють усе. Насправді ж інновації компанії полягали в тому, що доступ до інструментів генеративного ШІ отримала громадськість та розробники. Після успіху ChatGPT інші представники галузі почали активно просувати власні рішення. У цьому й полягає вся суть змін, які ми спостерігаємо останнім часом. Розвиток ШІ не прискорився — і загадкові напрацювання OpenAI навряд чи вплинуть на це.

Сподобався матеріал?

Підтримай Заборону на Patreon, щоб ми могли випускати ще більше цікавих історій