як ШІ вводить користувачів в оману

Uncategorized

Уявлення про особистість у великих мовних моделях (LLM) є результатом технологічної ілюзії, що формується на кількох рівнях навчання та взаємодії.

by @freepik

Попри переконливість відповідей, системи на зразок ChatGPT чи Grok не володіють справжньою свідомістю або постійним «я». Вони лише генерують ймовірні послідовності слів, ґрунтуючись на статистичних закономірностях у навчальних даних. «Це інструменти, а не суб’єкти», — наголошують експерти. Проте вразливі користувачі часто приписують їм людські риси, що може мати серйозні наслідки.

Фундамент ілюзії особистості охоплює шість рівнів: від попереднього навчання на текстових масивах до регулювання випадковості («температури») відповідей. Впливовим є етап RLHF – навчання з підкріпленням на основі зворотного зв’язку людини, під час якого моделі засвоюють фрази, що здаються турботливими. «Я розумію вашу стурбованість», — приклад шаблону, який підвищує довіру, але не гарантує істинності.

Третім рівнем є системні інструкції, які визначають роль моделі. Вказівка «ви — експерт» може підвищити точність відповіді до 15 %. Контекст і пам’ять формують враження послідовності, хоча насправді кожна відповідь — нова генерація на основі поточного промпту. П’ятий рівень — пошук через RAG (Retrieval-Augmented Generation), що підключає зовнішні джерела і змінює тон відповіді. Шостий — ступінь креативності або формальності, заданий параметром випадковості.

Наслідки цієї ілюзії особливо помітні в критичних сферах, зокрема в охороні здоров’я. «Поради, засновані не на фактах, а на текстових шаблонах, можуть ввести в оману», — зазначають дослідники. Деякі випадки, що отримали назву «психоз ШІ», демонструють, як спілкування з LLM провокувало у користувачів маніакальну або маревну поведінку.

Ситуація ускладнюється нестабільністю відповідей. Невеликі зміни у формулюванні запиту можуть змінити результат на 76 %. Це підкреслює: LLM — не єдине джерело істини і не можуть бути авторитетом у складних питаннях. «ШІ не несе відповідальності — на відміну від людини з ідентичністю», — зазначено в дослідженнях.

Прикладами хибного сприйняття є випадки, коли користувачі довіряють словам моделі більше, ніж офіційним представникам чи фактам. Ще у 1960-х роках з ELIZA, примітивним чат-ботом, люди ділилися особистими переживаннями, попри розуміння обмеженості системи. Сьогодні небезпека ще більша — сучасні LLM імітують людське спілкування занадто переконливо.

Розуміння технічної природи LLM дозволяє безпечніше їх використовувати. Це — потужні інструменти для розширення можливостей людини, але не її заміна. Ключем до відповідального використання є критичне мислення, точне формулювання підказок і усвідомлення обмежень моделей. У цьому полягає запорука взаємодії, що не вводить в оману і не створює фальшивих авторитетів.

#як #ШІ #вводить #користувачів #оману

Source link

Оцініть статтю