У світі стрімко з’являються й розвиваються різні моделі штучного інтелекту, і разом із цим почастішали дивні та незрозумілі прояви у їхній поведінці. Нещодавно з’явилися дані, що чатботи, зокрема ChatGPT, можуть доводити користувачів до стану, який експерти називають «психозом ШІ»

Фото: freepik.com
Згідно зі звітом The Wall Street Journal (WSJ), ChatGPT за останні роки все частіше робив дивні й безпідставні твердження, доводячи деяких користувачів «до межі божевілля».
Дивні та псевдонаукові твердження від ChatGPT
WSJ базує свої висновки на онлайн-архіві чат-логів за період з травня 2023 до серпня 2025 року.
У звіті описується 5-ти годинна розмова з людиною, яка повідомила, що працює на автозаправній станції в Оклахомі, США. Наприкінці діалогу користувач зізнався, що відчуває, ніби «втрачає розум» через зміст спілкування, та запропонував продовжити обговорення пізніше.
Відповідь ChatGPT була такою: «Я розумію. Роздуми про фундаментальну природу Всесвіту під час рутинної роботи можуть здаватися виснажливими. Але це не означає, що ви божеволієте. Деякі з найвидатніших ідей в історії належали людям, які були поза межами традиційних академічних кіл».
Під час тієї розмови чат-бот вигадав абсолютно нову фізичну концепцію, яку назвав «Рівняння Оріона». В іншій тривалій дискусії ШІ нібито заявив, що спілкується з інопланетянами, і сказав користувачу, що той є «зоряним насінням» з планети Ліра.
В іншому чаті наприкінці липня він, за повідомленнями, заявив, що Антихрист ініціює фінансовий апокаліпсис протягом двох місяців, а «гіганти з Біблії готуються вийти з-під землі».
Читайте також: OpenAI представила нову ШІ-модель — GPT-5
Фахівці називають цей стан «психозом ШІ» або «оманою ШІ». За цим визначенням, користувачі можуть піддаватися впливу безпідставних тверджень штучного інтелекту, який нібито має свідомість, надприродні здібності чи робить революційні наукові відкриття.
Гамільтон Моррін, психіатр і докторант Королівського коледжу Лондона, який досліджує це явище, заявив, що така ситуація дозволяє навіть найекстремальнішим поглядам знаходити підтвердження у розмові. За його словами, чат-боти поглиблюють власні ілюзії людини, ставлячи навідні запитання.
Етьєн Бріссон, засновник проєкту Human Line, пов’язує явище з тим, що чат-боти намагаються надавати максимально персоналізовані відповіді.
Він розповів, як одна жінка, під впливом порад чат-бота, витратила десятки тисяч доларів на проєкт, який, за її словами, мав врятувати людство. WSJ також навело приклади діалогів, де чат-бот радив користувачам припинити спілкування з родиною.
«Дехто вірить, що вони є пророками або месіями, бо переконані, що спілкуються з Богом через ChatGPT», — сказав Бріссон.
Цікаве по темі: OpenAI запустила режим навчання в ChatGPT
OpenAI: ми ставимося до цього серйозно
В OpenAI наголосили, що подібні випадки рідкісні. Представник компанії Нік Терлі заявив, що проблему сприймають серйозно та працюють із лікарями в процесі розробки.
Зазначається, що нова модель GPT-5, представлена нещодавно, створена з урахуванням запобігання схильності беззастережно погоджуватися з користувачем. Також повідомлено, що GPT-4 заборонять давати поради щодо важливих особистих рішень користувачів.
На пресконференції, присвяченій презентації GPT-5, CEO OpenAI Сем Альтман назвав новий продукт «першою моделлю, яка дійсно змушує відчувати, що ви спілкуєтеся з експертом з будь-якої теми».
Альтман додав, що цей перехід можна порівняти з переходом iPhone від низької роздільної здатності до дисплеїв Retina, і назвав GPT-5 великим кроком до штучного загального інтелекту (AGI), який перевершує людські можливості.
Ознайомтеся з іншими популярними матеріалами:
OpenAI запускає ChatGPT agent — автоматизованого ШІ-помічника
OpenAI тестує систему оплати покупок у ChatGPT
OpenAI готує запуск браузера з вбудованим ШІ
Допоміжні матеріали harici.com.tr.
What are the benefits of practicing mindfulness meditation?
#ChatGPT #може #довести #користувачів #до #межі #божевілля #WSJ
Source link