Позначки ШІ можуть посилювати довіру до фейкової науки

Uncategorized

Штучний інтелект дедалі частіше створює тексти, які виглядають як справжні наукові повідомлення. Через це уряди та платформи почали запроваджувати позначки, які повідомляють, що контент створено за допомогою AI. Однак нове дослідження показує, що така прозорість може працювати не так, як очікували.

У новій роботі, про яку повідомляють дослідники, виявлено парадоксальний ефект: позначки ШІ можуть знижувати довіру до правдивої інформації і водночас робити фейкові твердження переконливішими. Дослідження опубліковане у журналі Journal of Science Communication.

Що відомо коротко

  • Вчені вивчили вплив позначок про створення контенту штучним інтелектом.
  • У дослідженні взяли участь 433 учасники експерименту.
  • Позначки іноді знижували довіру до правдивих повідомлень.
  • Водночас фейкові пости з такою позначкою могли виглядати більш переконливими.
  • Ефект отримав назву truth falsity crossover effect.

Що це за явище

Останніми роками платформи дедалі частіше вимагають маркувати контент, створений за допомогою штучного інтелекту. Ідея полягає в тому, що користувачі повинні знати походження інформації та самостійно оцінювати її надійність. Передбачалося, що така прозорість допоможе боротися з дезінформацією.

Однак нове дослідження показує, що людська психологія реагує на ці сигнали значно складніше. Позначка про ШІ може викликати як недовіру, так і несподіване підвищення довіри залежно від контексту.

Деталі відкриття

Дослідження провели Тенг Лін і Їцін Чжан зі Школи журналістики та комунікації University of Chinese Academy of Social Sciences. В експерименті 433 учасникам показували пости у стилі соціальних мереж із науковою інформацією. Частина повідомлень містила правдиві факти, а частина — неправдиві твердження.

Тексти створювалися за допомогою мовної моделі GPT-4, після чого дослідники перевіряли їх на точність. Деякі повідомлення містили позначку, що вони створені штучним інтелектом. Учасники оцінювали достовірність кожного поста за п’ятибальною шкалою.

Що показали нові спостереження

Результати виявилися несподіваними. Коли правдиві повідомлення мали позначку ШІ, люди оцінювали їх як менш достовірні. Натомість неправдиві повідомлення з тією ж позначкою отримували вищі оцінки довіри.

Цей парадоксальний результат дослідники назвали ефектом перетину правди і брехні. Він показує, що позначки не завжди допомагають відрізнити факти від дезінформації. Важливу роль також відіграє явище, відоме як algorithm aversion — схильність людей недовіряти автоматизованим системам.

Чому це важливо для науки

Результати дослідження ставлять під сумнів ефективність простих політик маркування AI-контенту. Якщо позначки можуть випадково підсилювати фейкову інформацію, то вони потребують значно складнішого дизайну. Це особливо важливо для тем, пов’язаних із медициною, здоров’ям або технологіями.

Дослідники пропонують розглядати більш складні системи маркування. Наприклад, позначки можуть одночасно повідомляти про використання ШІ та про незалежну перевірку фактів. Такий підхід може допомогти краще орієнтуватися у потоці інформації в соціальних мережах.

Цікаві факти

  • Дослідження показують, що люди часто демонструють недовіру до алгоритмів, навіть якщо вони точніші за людські рішення, зазначає Harvard Business Review.
  • За даними Pew Research Center, значна частина користувачів інтернету стурбована поширенням дезінформації через AI.
  • У 2023–2024 роках багато платформ почали запроваджувати позначки AI-контенту, щоб підвищити прозорість, повідомляє Reuters.

FAQ

Що таке позначка ШІ в контенті?
Це маркер, який повідомляє, що текст, зображення або відео створені або відредаговані за допомогою штучного інтелекту.

Чому такі позначки можуть бути проблемою?
Дослідження показало, що вони можуть випадково знижувати довіру до правдивої інформації.

Чи означає це, що маркування ШІ не потрібне?
Ні, але науковці вважають, що системи маркування повинні бути більш складними та містити додаткові сигнали надійності.

Дослідники підкреслюють дивовижний висновок: проста позначка про використання штучного інтелекту може не лише не зупинити дезінформацію, а іноді навіть зробити її переконливішою для людей.

#Позначки #ШІ #можуть #посилювати #довіру #до #фейкової #науки

Source link

Оцініть статтю