Кілька днів тому Microsoft впровадила відому мовну модель ChatGPT у свою пошукову систему Bing.

      Що зробила Google, щоб не поступатися статусом першого серед пошуковиків світу?

 

 

      Google прискорила розробку Bard — конкурента ChatGPT. На це були кинуті всі сили — CEO компанії Сундар Пічаї навіть закликав всіх робітників компанії доєднатися до активного тестування.

      Bard мусив стати «вбивцею» ChatGPT, ударом у відповідь конкурентам, що спробували потіснити Google. Ця програма працює на іншій мовній моделі, і на стадії тестувань Bard показував себе спроможним давати точніші відповіді, ніж ChatGPT.

      Проте, як виявилося, це було щасливою випадковістю.

      Коли Google випустила у своєму твіттері промо-ролик, де представляла працюючий «Bard», стало зрозуміло, що навіть тестування всією компанією не допомогло.  На перше ж питання Bard відповів брехнею.

 

 

 

      Його спитали: «Що можна розповісти 9-річній дитині про відкриття, зроблені за допомогою телескопу James Webb?».

Серед іншого Bard відповів: «James Webb зробив перше фото планети за межами Сонячної Системи».

Хоча перше фото екзопланети було отримане ще у 2004 році на Дуже Великому Телескопі в Чилі.

Пильні глядачі з агентства Reuters одразу ж помітили цю фактичну помилку і розповіли про неї на весь Інтернет. Акціонери компанії Alphabet (що володіє в тому числі й компанією Google) почали продавати свої акції, бо багато хто з них подумав, що у боротьби мовних моделей перевага на боці ChatGPT.

Акції Alphabet впали у ціні на 9%, що становить космічну суму у 10 міліардів доларів.

І все через одну помилку.

Але як так взагалі сталося? Чому і ChatGPT, і Bard продовжують видавати фактично невірну інформацію?

Річ у тому, що вони — не справжній штучний інтелект. Обидві програми — це саме мовні моделі, складні чат-боти, створені, щоб створювати текст, що має гарний вигляд, що не відрізняється начебто від написаного людиною. Це відтворення однієї з функцій людського мозку — його здатності вчитися мові із контексту.

Для тренування цих програм через ChatGPT і Bard, які самонавчаються, проганяли неймовірні корпуси текстів, гігабайт за гігабайтом. Тому вони знають, як сполучати слова так, щоб вони мали добрий вигляд у контексті. Але насправді факти не існують для цих програм — вони лише сполучають слова. У більшості випадків програми не роблять фактичних помилок лише тому, що людські тексти, на яких вони вчилися, здебільшого написані без цих помилок.

Можна зробити гіпотезу, що Bard помилився тому, що прочитав новину на кшталт ««James Webb» вперше сфотографував екзопланету». У 2022 James Webb дійсно сфотографував її вперше за період своєї роботи, і це твердження збігається з новиною із бази даних Bard. Тому програма, напевно, і вирішила так сказати. Хоча це фото було першим лише для «ames Webb» (орбітальний інфрачервоний космічний телескоп).

Людина вміє думати абстрактно і будувати модель світу, базуючись на спостереженнях, невербальних сигналах і логічних висновках із попередніх фактів. Через це людям не потрібно вивчити гігабайти тексту, щоб почати говорити у дитинстві — в них є інформація про світ взагалі, а не тільки про слова.

Щоб подолати постійний ризик фактичної недосконалості мовної моделі, доведеться прикрутити гіпотетичному чат-боту блоки абстрактного мислення і побудови логічних тверджень, базованих на фактах.

Але до цього ще далеко. Тому не лінуйтеся перевіряти факти, навіть якщо вони знайдені за допомогою найдосконалішої мовної моделі.


Іван Синенко

 

 

Популярні статті

Читати далі