Ми вже писали про те, що штучний інтелект може створити лавину фейків. Він її створив. Одні фейки безневинні — наче фото Папи Римського у модному жакеті. А інші небезпечні — так у травні згенероване штучним інтелектом фото вибухів у пентагоні призвело до падіння цін на ринку акцій. Щобільше: хто сказав, що не можна створювати підробки й у науці?..
З кожним роком штучний інтелект стає краще, і зараз його створіння вже складно відрізнити від правди. Але як пристосуватися до цих нових загроз? І які можливості ШІ корисні для науки?
Ілюзія омани
9 листопада у серйозному журналі «JAMA Ophtalmology» вийшла стаття, де автори порівнювали методи лікування очей. Але від інших статей вона відрізнялася одним: дані були повністю створені штучним інтелектом. Автори використали GPT-4 у парі з новітньою моделлю AMA, що робить статистичний аналіз, і повністю вигадали весь набір експериментів.
І їх пропустили.
«Нашою ціллю було привернути увагу до того, що ви можете за кілька хвилин створити набір даних, який підтвердить що вам потрібно, навіть якщо це неправда чи прямо суперечить наявним даним», — сказав Джузеппе Джаннакаре, один з авторів праці.
Серйозний науковий журнал опублікував статтю, яка базувалася на ніколи не проведених експериментах. При тому, що результати експериментів містили видимі помилки — наприклад, жінок з чоловічими іменами.
Це дуже небезпечно для науки як такої, бо наука базується на даних. А як тепер можна довіряти даним?..
Чи можна знайти ознаки генерації?
Отже, треба знайти спосіб перевіряти дані й відрізняти справжні від хибних.
Насправді «генерації випадкових чисел» не існує. Всі алгоритми генерують тільки «псевдовипадкові» — бо в основі комп’ютера лежать чітко визначені числа, і справжній випадковості ніде там взятись.
Тому на відміну від нормально розподіленої справжньої інформації, згенерована ШІ інформація розподіляється нерівномірно.
Наприклад, у статті про лікування очей підозріло багато людей мали вік, що закінчувався на 7 чи 8.
Такі тенденції помітні й в генерації зображень. На фото можна побачити усереднене фото лиця, згенерованого ШІ (зліва), у порівнянні з усередненим реальним (справа).
Також штучний інтелект схилен робити специфічні помилки, так звані «артефакти»: «заблюрене» волосся, додаткові чи відсутні пальці рук, дивне освітлення.
Таким чином, ми маємо проблему. Але виявляється, що у тому, що ми досліджуємо, є тенденції.
Тож, може, натренувати нейромережу, щоб вона визначала створені ШІ?
Однак тут виникає складність.
- У тексті, згенерованому штучним інтелектом, не вдається визначити такі ознаки.
- До того ж дуже багато вчених вже використовують ChatGPT, щоб структурувати свої думки — і їх статті теж будуть маркуватися як написані ШІ, хоча вони можуть бути корисними.
- І наостанок, навіть якщо ми створимо інструмент, що визначатиме творіння штучного інтелекту з ймовірністю 99%, він пропустить 1%. А враховуючи, як просто створювати фейки, це дуже багато.
Тож, може полегшити собі задачу?
Як підтвердити правдивість?
- Можна змусити штучний інтелект помічати свої витвори непомітними підписами. Наприклад, змінювати кожний «n»-ний піксель. Але тоді виникне проблема: ці мітки зникатимуть навіть якщо накласти найпростіший фільтр.
- Інший спосіб – сховати підпис глибше у файл, у його метадані. Наприклад, деякі сучасні камери фіксують у файлі фотографії також час і місце, де фотографія зроблена — з такими камерами працюють в Україні західні журналісти, щоб забезпечити точність і чесність.
Але що, якщо хтось буде свідомо використовувати штучний інтелект для омани?
У війні російські спецслужби регулярно використовують діпфейки, щоби створити відео з Зеленським чи Залужним. І кожного разу вони стають все краще.
Цього року голова американського Федерального Резервного Банку Джером Пауелл говорив по відеозв’язку з Зеленським. Але, поговоривши, виявив, що у Офісі Президенту йому ніхто не дзвонив. Відеодзвінки від когось, хто використовував лице Андрія Єрмака, отримували діячі російської опозиції.
Ви думаєте, що ті, хто користується такими методами, будуть використовувати чесні програми?
Ні, вони модифікують моделі під свої цілі, і весь замір з маркуванням позбавиться сенсу.
Тож, може маркувати справжні результати?
Наприклад, змушувати робити фотографії чи результати експериментів через спеціальний софт, що буде відмічати їх як справжні. Це допомогло б пропускати тільки статті, підтримані реальними даними. Також наукове рецензування має стати більш ретельним.
А для критичних випадків треба проводити окреме розслідування з людьми-спеціалістами.
Революція у науці
Але чи може штучний інтелект допомагати в науці, а не тільки заважати?
Як вже говорилося, деякі вчені використовують штучний інтелект, щоб він допомагав їм структурувати їх думки. Сам він не може нічого створити, і цінність повністю написаних ШІ статей дуже низька. Але він може допомогти людині надати форму ідеям. Також він став великим помічником для тих вчених, кому англійська не рідна.
Багато вчених просять штучний інтелект оглянути проблемну область літератури, що існує, щоб зекономити свій час. І, мені здається, саме тут лежить можливість справжньої революції у науці.
Вже зараз наукових праць і журналів занадто багато, щоб читати їх усі, і в епоху штучного інтелекту їх кількість ще збільшиться. Штучний інтелект показав себе дуже гарно в оцінюванні й структуруванні інформації.
Тож, може, з’являться нові засоби пошуку, зручні для учених: вони будуть звертатися до ШІ, щоб він розповів їм про якесь питання. А він обиратиме інформацію зі своєї величезної бази, підбиратиме відповідні набори даних і презентуватиме їм. Коли штучний інтелект стане краще (а він стає все краще), такі засоби пошуку можуть значно спростити вченим доступ до інформації. Тим більше, що перший з таких — Scopus AI вже запущений.
Штучний інтелект змінює усі сфери сучасного життя, і в ньому лежать як великі небезпеки, так і великі можливості, бо тепер ми можемо працювати з інформацією, як ніколи у минулому.
Іван Синенко