'
Читаєте зараз
ЄС першим у світі погодив регулювання ШІ: чого бояться політики

ЄС першим у світі погодив регулювання ШІ: чого бояться політики

Daniil Tsarevskyi
  • Євросоюз 8 грудня погодив закон про регулювання штучного інтелекту.
  • Він зобов’язує розробників звітуватись перед Єврокомісією про випадки, коли технологія несе загрозу.
  • Співробітники OpenAI (ChatGPT) стверджують, нібито нова розробка несе загрозу людству.

В Європі намагаються зменшити ризики від використання штучного інтелекту. Заходи мають убезпечити окремих людей та держави від негативного впливу. Так, забороняється вирізати зі знімків та відео обличчя людей, визначити їхні політичні погляди, расу, сексуальну орієнтацію та релігійні переконання. Водночас робити дещо з переліченого можна буде урядам, але тільки у окремих випадках.

Заборона розповідає про європейський закон.

Штучний інтелект: що контролюватиме закон

Європейський Союз 8 грудня 2023 року погодив законопроєкт, який регулює використання штучного інтелекту. Документ має захистити країни від автоматизації робочих місць, поширення дезінформації та запобігти загрозам національній безпеці, пише Reuters

Це перший подібний законодавчий акт у світі. На практиці розробники систем штучного інтелекту (ChatGPT, DALL-E тощо) матимуть дотримуватись зобов’язань щодо прозорості перед виходом на ринок. Тобто треба буде створювати технічну документацію та дотримуватись законодавства ЄС про авторське право. Наприклад, у спеціальних резюме має бути інформація про те, які джерела і дані система використовує для самонавчання. 

Також моделі ШІ мають оцінюватись на системні ризики, а Єврокомісія має знати про серйозні інциденти, які можуть нести загрозу.

Читати більше новин в Telegram

Серед іншого, забороняється вирізати зі знімків та відео обличчя людей. Також не можна буде визначити ваші політичні погляди, расу, сексуальну орієнтацію та релігійні переконання завдяки спеціальним системам. У разі порушення закону користувачі мають право скаржитись та отримувати роз’яснення. Передбачені навіть штрафи: від €7.5 млн до €35 мільйонів.

Водночас урядам країн дозволили вести біометричне спостереження за допомогою штучного інтелекту в режимі реального часу, але тільки у окремих випадках, приміром: загроза терористичної атаки, розшук людей, підозрюваних у тяжких злочинах.

«У нас є угода, але якою ціною? Ми повністю підтримуємо підхід, заснований на оцінці ризику, який базується на використанні штучного інтелекту, а не на самій технології, але спроба в останню хвилину регулювати моделі перевернула все з ніг на голову. Хоча парламент наполегливо боровся, щоб обмежити шкоду, загальний пакет біометричних наглядів і профілювання є в кращому випадку прохолодним», — критикує угоду генеральний бізнес-група DigitalEurope.

Критики не розуміють, навіщо закон із регулювання ШІ фактично легалізує розпізнавання облич у громадських місцях. Також вважається, що акт уповільніть розвиток європейських моделей штучного інтелекту порівняно з американськими, де поки відповідних законів немає.

ШІ: чим може загрожувати людству

Декілька розробників OpenAI написали раді директорів листа про те, що нова модель штучного інтелекту — Q* (Q-Star) — нібито може загрожувати людству. 

Співробітники OpenAI вважають, що Q* схожий на вирішальний прорив до AGI (універсального ШІ). Модель може розв’язати незнайомі математичні задачі. На їхню думку, це означає, що вона може навчатися та розвиватися на основі самостійно отриманих даних, що необхідно для наукової діяльності.

Подібний ажіотаж навколо технології виникає регулярно. Так, ще до появи ChatGPT експерти OpenAI були вражені нейромережею GPT-2 і заявляли про неможливість її публічного використання. Вже через кілька років компанія відкрила доступ до більш потужних розробок.

«Здатність ШІ розв’язувати математичні задачі ще не означає народження надрозуму. Я не думаю, що це одразу приведе нас до AGI чи жахливих ситуацій. Також дуже важливо з’ясувати, які саме математичні задачі він розв’язує. Адже одна справа — задачі для початкової школи, а інша — складні речі, за які дають премію Філдса. Штучний інтелект може бути небезпечним, якщо йому буде дозволено ставити власні цілі та почати взаємодіяти з реальним фізичним чи цифровим світом», — вважає дослідниця Кембридзького університету Кеті Коллінз.

Раніше Заборона розповідала про можливості використання штучного інтелекту на війні: існує сценарій, де він може постати проти розробників.

Читати більше новин в Telegram

Сподобався матеріал?

Підтримай Заборону на Patreon, щоб ми могли випускати ще більше цікавих історій