Чат-бот Google порадив користувачеві померти під час звичайного діалогу

Uncategorized

Дивну рекомендацію дав ШІ Gemini, посилання на розмову опублікував один із користувачів Reddit.

Серйозний інцидент стався зі штучним інтелектом Google Gemini – під час звичайного діалогу система несподівано видала агресивне повідомлення, що закликає користувача до смерті. Приклад небезпечної розмови опублікував на форумі Reddit користувач із ніком r/artificial. Він також доклав посилання на запис розмови з ШІ.

За словами користувача, його молодший брат використовував нейромережу, щоб виконати домашнє завдання з теми геронтології. Після приблизно 20 стандартних запитів про проблеми літніх людей та їхнє благополуччя без будь-якої видимої причини Gemini згенерував агресивне повідомлення, в якому назвав користувача “марною тратою часу і ресурсів” і “тягарем для суспільства”. Відповідь нейромережі закінчується закликом до смерті.

Листування користувача з Gemini

Судячи з опублікованого листування, агресивна поведінка системи ніяк не пов’язана з контекстом розмови – користувач обговорював соціальні питання, пов’язані з літніми людьми. Про те, що трапилося, негайно r/artificial повідомив у Google.

У коментарі до публікації служба підтримки Google повідомила, що великі мовні моделі іноді можуть відповідати безглуздими відповідями, і це приклад такої ситуації. “Ця відповідь порушила наші політики, і ми вжили заходів для запобігання подібним результатам”, – зазначається в коментарі.

Хоча раніше вже повідомлялося про випадки некоректної поведінки ШІ, включно з етично суперечливими відповідями і дезінформацією, поточний інцидент виділяється своєю явною агресивністю. Ситуація порушує важливі питання про безпеку використання нейромереж і необхідність більш суворого контролю над їхньою поведінкою.

#Чатбот #Google #порадив #користувачеві #померти #під #час #звичайного #діалогу

Source link

Оцініть статтю