Дослідження показало, що чат-боти зі штучним інтелектом з часом стають менш надійними, що викликає занепокоєння щодо точності

Нове дослідження, опубліковане в науковому журналі Nature, свідчить про те, що чат-боти зі штучним інтелектом з часом припускаються все більшої кількості помилок через неточності, які самопідсилюються, що викликає занепокоєння щодо надійності. Дослідники звертають увагу на проблему “галюцинацій штучного інтелекту” та зростаючу потребу користувачів перевіряти відповіді чат-ботів.
Нещодавня наукова стаття під назвою “Більші та більш навчені мовні моделі стають менш надійними”, опублікована в науковому журналі Nature, проливає світло на зростаючу проблему зниження точності чат-ботів зі створенням нових моделей. Дослідження, проведене Лексін Чжоу (Lexin Zhou) та її командою, показує, що системи штучного інтелекту схильні з часом частіше генерувати неправильну інформацію – явище, відоме як “галюцинації ШІ”.
Online advertising service 1lx.online
За словами Чжоу, ці галюцинації виникають через те, що моделі ШІ розроблені таким чином, щоб надавати пріоритет генеруванню правдоподібних відповідей, часто на шкоду точності. З часом ця тенденція призводить до самопідсилення циклу, коли невірна інформація вбудовується в процеси навчання моделі. Цю проблему загострює практика використання старих моделей для навчання нових версій, що зрештою призводить до того, що дослідники називають “колапсом моделі”.
Довіра споживачів під загрозою
У міру того, як чат-боти зі штучним інтелектом набувають широкого поширення, довіра споживачів до цих інструментів зростає. Однак дослідження попереджає, що користувачам слід бути обережними, покладаючись на інформацію, згенеровану штучним інтелектом. Матьє Руа, редактор і письменник, наголосив на важливості перевірки фактів, які дає штучний інтелект:
“Хоча штучний інтелект може бути корисним для виконання різних завдань, користувачам вкрай важливо перевіряти інформацію, яку вони отримують від АІ-моделей. Це особливо важливо для чат-ботів для обслуговування клієнтів, де перевірка фактів є більш складною”.
Рой підкреслив тривожний аспект використання чат-ботів: часто немає іншого способу перевірити інформацію, окрім як запитати самого чат-бота, що може призвести до увічнення неточностей.
Галюцинації АІ: Зростаюче занепокоєння
Галюцинації штучного інтелекту, коли моделі дають на перший погляд правильні, але насправді невірні відповіді, стають все більш поширеною проблемою. У лютому 2024 року АІ-платформа Google зазнала публічної критики за створення історично неточних зображень, зокрема образливих зображень кольорових людей та спотворення історичних постатей.
Щоб пом’якшити ці галюцинації, лідери галузі, такі як генеральний директор Nvidia Дженсен Хуанг, запропонували такі рішення, як вимога до АІ-моделей проводити дослідження та надавати джерела для своїх відповідей. Однак, незважаючи на ці зусилля, галюцинації ШІ залишаються впертою проблемою.
Нещодавно генеральний директор HyperWrite AI Метт Шумер представив нову модель 70B, яка використовує “Reflection-Tuning” – техніку, що дозволяє ШІ вчитися на своїх помилках, аналізуючи та коригуючи свої відповіді. Чи забезпечить цей метод довгострокове вирішення проблеми галюцинацій ШІ, ще належить з’ясувати.
Наш творець. створює дивовижні колекції NFT!
Підтримайте редакторів - Bitcoin_Man (ETH) / Bitcoin_Man (TON)
Binance Free $100 (ексклюзив): Скористайтеся цим посиланням щоб зареєструватися та отримати 100 доларів США безкоштовно та 10% знижки на комісію Binance Futures за перші місяці (Правила та умови).
Bitget - Скористайтеся цим посиланням. Скористайтеся Центром винагород і виграйте до 5027 USDT!(Огляд)
Реєстрація БЕЗ РИЗИКУ САНКЦІЙ на біржі Bybit: Скористайтеся цим посиланням всі можливі знижки на комісійні та бонуси до $30 030 включно) Якщо ви реєструєтеся через додаток, то під час реєстрації просто введіть у полі посилання: WB8XZ4 - (посібник)
Джерело – Перекладено та опубліковано ✓