Роботи-вбивці стануть реальністю: піонер Google зробив передбачення через ШІ
- Лідери галузі вважають, що нові системи штучного інтелекту можуть бути такими ж важливими, як і впровадження веббраузера на початку 1990-х років. Очікують проривів у різних сферах, від дослідження ліків до освіти.
- Водночас генеративний ШІ вже може бути інструментом для дезінформації, а невдовзі — і загрозою робочим місцям.
- Скептики вказують на термінову потребу регулювати AI-розробки, інакше людство може опинитись у небезпеці.
Інтернет дуже скоро буде заповнений фальшивими фотографіями, відео та текстом. Звичайна людина, за словами хрещеного батька штучного інтелекту, більше не зможе відрізняти правду від брехні. Технологія самостійно та швидко вивчає несподівану поведінку на величезних обсягах даних, тому контролювати цей процес буде все складніше.
Заборона розповідає про застереження доктора Джеффрі Хінтона, який покинув Google через свої хвилювання щодо небезпеки для світу з розвитком ШІ.
Чат-боти на штучному інтелекті
Нове покоління чат-ботів, що працюють на базі штучного інтелекту, викликало суперечки про те, чи зможе ця технологія перевернути економіку інтернету та здійснити фундаментальні зрушення у галузі.
Найбільш успішний чат-бот, що став прикладом для багатьох інших подібних технологій — ChatGPT зі штучним інтелектом від OpenAI. Він може створити для користувачів текст на основі будь-якого запиту: електронні листи, есе, вірші, реп, списки покупок, листи тощо. чат може спілкуватися на різні теми, писати та виправляти код і розв’язувати складні математичні рівняння. Розробку випустили у листопаді 2022 року.
На початку лютого 2023 року корпорація Майкрософт представила новий, покращений за допомогою ШІ Bing Chat. Він працює на GPT-4, найновішій версії мовної моделі OpenAI, що є більш потужною та надійною. Bing розв’язав дві основні проблеми з ChatGPT: доступ до поточних подій і посилання на джерела, з яких чат отримав відповідь.
Читати більше новин в TelegramGoogle випустив свою версію AI-бота — Bard. Він використовує не мовну модель GPT, а полегшену версію LaMDA (Language Model for Dialogue Applications) власної розробки. Чат-бот може редагувати текст і писати професійні документи, зокрема резюме, супровідні листи тощо. Його не рекомендують використовувати для написання коду чи замість пошуковика.
В Китаї найвідомішою подібною технологією є Ernie Bot від компанії Baidu. Як і ChatGPT, Ерні pаснований на архітектурі Transformer. Бот довів ефективність у ряді завдань обробки природної мови, таких як аналіз настроїв, класифікація тексту та машинний переклад. Перевагою цього бота є підтримка більшої кількості мов, порівняно з іншими.
Винахід ШІ та його небезпека
У 2012 році доктор Джеффрі Хінтон і двоє його студентів, Ілля Суцкевер і Алекс Кришевський, побудували нейронну мережу, яка навчалась аналізувати тисячі фотографій та ідентифікувати типові об’єкти, такі як квіти, собаки та машини. Разом вони заснували компанію, яку згодом купив Google за $44 мільйони. Система призвела до створення дедалі потужніших технологій, зокрема і нових чат-ботів, таких як ChatGPT і Google Bard. Суцкевер став головним науковим співробітником OpenAI. У 2018 році за роботу над нейронними мережами Хінтон і двоє інших давніх співробітників отримали нагороду Тюрінга, яку часто називають Нобелівською премією з обчислювальної техніки.
Приблизно тоді ж Google, OpenAI та інші компанії почали тренувати власні нейронні мережі на величезній кількості матеріалу. Джеффрі Хінтон вважав, що наскільки б добре машини не навчались розуміти та генерувати мову, вони все одно робитимуть це гірше за людей. Після розробок Google й OpenAI його погляд змінився: ці системи все ще поступаються людському мозку в деяких аспектах, але в інших проявах вони затьмарюють людський інтелект. Тоді один із найповажніших науковців у цій галузі, який працював у Google понад десять років, звільнився з компанії, щоб вільно говорити про ризики ШІ.
За словами Хінтона, до 2022 року Google діяв відповідально та намагався не випускати нічого шкідливого. Але тепер, коли Microsoft доповнила свою пошукову систему Bing чат-ботом, Google намагається розгорнути таку саму технологію. Технологічні гіганти замкнені в конкуренції, яку неможливо зупинити, вважає вчений.
Хінтон: контроль AI
Винахідник штучного інтелекту вважає, що коли компанії вдосконалюють свої системи, вони стають дедалі небезпечнішими. Він також стурбований тим, що AI-технології з часом перевернуть ринок праці. Сьогодні такі чат-боти, як ChatGPT зазвичай доповнюють працівників, але вони можуть замінити помічників юристів, особистих менеджерів, перекладачів та інших виконавців механічних завдань.
«Подивіться, як це було п’ять років тому і як зараз. Візьміть різницю та уявіть, як буде далі. Це страшно», — каже Хінтон.
Майбутні версії технології можуть становити загрозу для людства, оскільки окремі люди та компанії дозволяють системам штучного інтелекту не тільки генерувати свій власний комп’ютерний код, але й запускати його самостійно. Вчений боїться того дня, коли справді автономна зброя, роботи-вбивці, стануть реальністю.
«Ідея про те, що ця штука насправді може стати розумнішою за людей — лише кілька людей у це вірять. Більшість людей думали, що до цього ще далеко. І я теж думав, що це буде через 30-50 років або навіть більше», — ділиться Джеффрі Хінтон.
Багато інших експертів, зокрема його студенти та колеги вважають, що ця загроза є гіпотетичною. Але доктор впевнений, що змагання між Google, Microsoft та іншими компаніями переросте у глобальні перегони, які не зупиняться без регулювання. Втім, контролювати цей процес дуже складно. За словами дослідника, на відміну від слідкування за розробками ядерної зброї, неможливо дізнатися, чи компанії та країни часом не працюють над штучним інтелектом таємно. Усі надії він покладає на провідних вчених, які можуть винайти способи контролю технології.
Раніше Заборона розповідала про небезпеку фейкових фотографій з точки зору дослідника впливу штучного інтелекту на візуальну культуру Фреда Рітчіна.
Читати більше новин в Telegram