Уявлення про особистість у великих мовних моделях (LLM) є результатом технологічної ілюзії, що формується на кількох рівнях навчання та взаємодії.

Попри переконливість відповідей, системи на зразок ChatGPT чи Grok не володіють справжньою свідомістю або постійним «я». Вони лише генерують ймовірні послідовності слів, ґрунтуючись на статистичних закономірностях у навчальних даних. «Це інструменти, а не суб’єкти», — наголошують експерти. Проте вразливі користувачі часто приписують їм людські риси, що може мати серйозні наслідки.
Фундамент ілюзії особистості охоплює шість рівнів: від попереднього навчання на текстових масивах до регулювання випадковості («температури») відповідей. Впливовим є етап RLHF – навчання з підкріпленням на основі зворотного зв’язку людини, під час якого моделі засвоюють фрази, що здаються турботливими. «Я розумію вашу стурбованість», — приклад шаблону, який підвищує довіру, але не гарантує істинності.
Третім рівнем є системні інструкції, які визначають роль моделі. Вказівка «ви — експерт» може підвищити точність відповіді до 15 %. Контекст і пам’ять формують враження послідовності, хоча насправді кожна відповідь — нова генерація на основі поточного промпту. П’ятий рівень — пошук через RAG (Retrieval-Augmented Generation), що підключає зовнішні джерела і змінює тон відповіді. Шостий — ступінь креативності або формальності, заданий параметром випадковості.
Наслідки цієї ілюзії особливо помітні в критичних сферах, зокрема в охороні здоров’я. «Поради, засновані не на фактах, а на текстових шаблонах, можуть ввести в оману», — зазначають дослідники. Деякі випадки, що отримали назву «психоз ШІ», демонструють, як спілкування з LLM провокувало у користувачів маніакальну або маревну поведінку.
Ситуація ускладнюється нестабільністю відповідей. Невеликі зміни у формулюванні запиту можуть змінити результат на 76 %. Це підкреслює: LLM — не єдине джерело істини і не можуть бути авторитетом у складних питаннях. «ШІ не несе відповідальності — на відміну від людини з ідентичністю», — зазначено в дослідженнях.
Прикладами хибного сприйняття є випадки, коли користувачі довіряють словам моделі більше, ніж офіційним представникам чи фактам. Ще у 1960-х роках з ELIZA, примітивним чат-ботом, люди ділилися особистими переживаннями, попри розуміння обмеженості системи. Сьогодні небезпека ще більша — сучасні LLM імітують людське спілкування занадто переконливо.
Розуміння технічної природи LLM дозволяє безпечніше їх використовувати. Це — потужні інструменти для розширення можливостей людини, але не її заміна. Ключем до відповідального використання є критичне мислення, точне формулювання підказок і усвідомлення обмежень моделей. У цьому полягає запорука взаємодії, що не вводить в оману і не створює фальшивих авторитетів.
#як #ШІ #вводить #користувачів #оману
Source link