Читаєте зараз
Топові діджитал-мільярдери та розробники виступили проти ChatGPT: у чому бачать небезпеку

Топові діджитал-мільярдери та розробники виступили проти ChatGPT: у чому бачать небезпеку

Ilona Kivva
Автор:
  • GPT-4 — це найсучасніша модель комп’ютерної мови з ШІ. На ній засновано популярний ChatGPT.
  • У Євросоюзі готують законопроєкт щодо регулювання подібних систем.
  • Стів Возняк, Ілон Маск, Еван Шарп та ще кілька сотень техноекспертів підписали відкритий лист з вимогою призупинити подальшу розробку ШІ.

ChatGPT та потужніші сучасні системи, які працюють на основі штучного інтелекту, можуть призвести до часткового обвалу ринку праці, а також стати інструментом для розповсюдження фейків і пропаганди. Щоб запобігти цьому, пропонується взяти паузу у розробках і зосередитися на законодавчому регулюванні процесів у всіх країнах.

Заборона розповідає про основні поїнти із відкритого звернення топ-бізнесменів та техноекспертів, а також про деякі підтвердження їхніх думок.


Експерименти з ШІ: лист Маска, Возняка й інших техноекспертів

Сучасні системи штучного інтелекту можуть становити серйозні ризики для суспільства та людства, вважають автори відкритого листа до ШІ-лабораторій. Підписантами станом на 29 березня 2023 року стали понад тисячу людей. Серед них кілька сотень техноекспертів та діджитал-бізнесменів зі світовим ім’ям, наприклад: Стів Возняк (співзасновник Apple), Ілон Маск (SpaceX, Tesla та Twitter), Еван Шарп (Pinterest), Яан Таллінн (Skype), Кріс Ларсен (Ripple), Юваль Харарі (письменник).

«Розширений штучний інтелект може представляти глибоку зміну в історії життя на Землі, і його слід планувати та керувати ним відповідно до ретельності та ресурсів. На жаль, такого рівня планування та управління не існує, навіть попри те, що останнім часом ШІ-лабораторії вийшли з-під контролю з розробкою та розгортанням все більш потужних цифрових розумів, яких навіть їхні творці не можуть зрозуміти або надійно контролювати», — йдеться у зверненні.

Кількість підписантів відкритого листа до ШІ-лабораторій станом на 29 березня. Скріншот: Інститут майбутнього життя 

Читати більше новин в Telegram

Більшою мірою лист стосується систем GPT-4 і потужніших аналогів. GPT-4 — це модель комп’ютерної мови, яку створила компанія OpenAI. На ній засновано вже популярний ChatGPT.

Загрози, які вбачають у ШІ:

  • системи на штучному інтелекті стають конкурентоспроможнішими, ніж люди;
  • піддаються злому, а отже можуть заповнювати інформаційний простір пропагандою та фейками;
  • з часом можуть перевершити та замінити людей — втрата контролю над цивілізацією;
  • позитивний ефект від потужних систем не доведений, а ризики не вивчені.

До чого закликають експерти:

  1. лабораторії ШІ мають негайно призупинити навчання потужніших за GPT-4 систем принаймні на пів року — ця пауза буде використана для перевірок за участю міжнародних експертів;
  2. уряди країн повинні втрутитися та ввести мораторій;
  3. розробка сучасних спільних для всіх протоколів безпеки;
  4. переорієнтування досліджень на те, щоб зробити системи більш точними, безпечними і доступними;
  5. уряди мають створити нові регуляторні органи, які займатимуться наглядом за ШІ; 
  6. розробка надійної системи аудиту та сертифікації; 
  7. введення у законодавство відповідальності за шкоду, заподіяну ШІ;
  8. державне фінансування технічних досліджень безпеки ШІ;
  9. забезпечення ресурсів для протидії впливу штучного інтелекту на політику і економіку (особливо на демократію).

«Це не означає призупинення розвитку штучного інтелекту, а просто відхід від небезпечної гонки… Людство може насолоджуватися процвітаючим майбутнім завдяки ШІ. Здобувши успіх у створенні потужних систем, ми тепер можемо насолоджуватися літом штучного інтелекту, під час якого ми пожинаємо плоди і даємо суспільству шанс адаптуватися. Давайте насолоджуватися довгим ШІ-літом, а не поспішати непідготовленими в осінь», — резюмували автори листа.

Штучний інтелект: які загрози

Деякі побоювання авторів і підписантів листа підтверджують останні дослідження. Так, аналітики однієї з найбільших інвестиційних компаній у світі Goldman Sachs підрахували, що системи штучного інтелекту на кшталт ChatGPT можуть призвести до обвалу ринку праці.

Річ у тім, що контент, який генерує ШІ, практично не відрізнити від продукту, який роблять люди. Це може викликати різкий попит на систему і навіть збільшити глобальний ВВП на 7% за 10 років. При цьому, за прогнозом, близько 300 млн людей можуть постраждати від цього (зменшення кількості повноважень, заробітної плати) або навіть зовсім втратити роботу. В зоні підвищеного ризику юристи,  а також люди, які працюють у сфері адміністрування.

Для прикладу, у Європі й США 63% працівників втратять частину повноважень і обов’язків, бо низку процесів буде автоматизовано. Близько 7% робітників можна буде повністю замінити.

Робочі сфери/завдання, які може оптимізувати ШІ у Європі та США. Інфографіка: Goldman Sachs

Правоохоронне агентство ЄС (Європол) 27 березня 2023 року опублікувало екстрений звіт. У ньому йдеться, що ChatGPT та інші генеративні системи штучного інтелекту піддаються злому, а отже можуть бути використані для онлайн-шахрайства та інших кіберзлочинів.

Технологія може пришвидшити дослідження зловмисником потенційної сфери злочину, наприклад, проникнення в будинок, тероризм, сексуальне насильство.

«Хоча вся інформація, яку надає ChatGPT, є у вільному доступі, можливість використовувати модель для надання конкретних кроків, ставлячи контекстуальні запитання, означає, що зловмисникам значно легше краще розуміти та згодом здійснювати різні види злочинів», — йдеться у звіті.

Законопроєкт Євросоюзу про ШІ

Європарламентарі готують закон, який регулюватиме використання штучного інтелекту (AI Act). Він охоплюватиме системи, які можуть генерувати вміст, прогнози, рекомендації або рішення, що впливають на суспільство чи навколишнє середовище, пише Reuters.

Зокрема, пропонується класифікувати різні інструменти ШІ за рівнем ризику — від низького до неприйнятного:

  • неприйнятні будуть забороненими;
  • група високого ризику — інструменти, що використовуються в критичній інфраструктурі, правоохоронних органах та освіті. Не підпадають під пряму заборону, але будуть вноситися у спеціальні реєстри і перевірятися;
  • група низького ризику — можуть вільно використовуватися у законних межах.

Окремо виділять категорію GPAIS — система штучного інтелекту загального призначення (наприклад, ChatGPT). Такі продукти будуть відносити до різних груп, в залежності від направленості.

Які саме які зобов’язання будуть покладені на виробників систем ШІ, не уточнюється. Але компанії, які їх порушують сплачуватимуть штраф до €30 млн або 6% від прибутку, залежно від того, що більше.

Коли буде голосування та у які терміни він може набути чинності, невідомо. 

Раніше Заборона розповідала про принципи роботи ChatGPT та сфери, у яких його можна застосовувати. В Україні сервіс офіційно працює з 18 лютого 2023 року.

Читати більше новин в Telegram

Сподобався матеріал?

Підтримай Заборону на Patreon, щоб ми могли випускати ще більше цікавих історій