Нове дослідження показало, що чат-бот зі штучним інтелектом ChatGPT не може поставити точний педіатричний діагноз у більшості випадків.
Чат-бот на основі ШІ надав неправильні діагнози у 72 педіатричних випадках зі 100. Ще у 11 випадках діагноз був неточним.
Дослідники виявили, що чат-бот зі штучним інтелектом, який працює на мовній моделі під назвою GPT-3.5 від OpenAI, не зміг правильно діагностувати 83% педіатричних випадків, які досліджував. Результати дослідження опубліковано у журналі JAMA Pediatrics.
Раніше вчені з’ясували, що новіша мовна модель під назвою GPT-4 правильно діагностувала лише 39% складних медичних випадків як у дорослих, так і у дітей.
У рамках нового дослідження вчені використали 100 медичних звітів із журналів JAMA Pediatrics та The New England Journal of Medicine (NEJM). Чат-бота попросили «провести диференціальний діагноз та надати остаточний діагноз».
Диференціальна діагностика в медицині виключає захворювання, що не підходять за будь-якими фактами, з подібними симптомами. Зрештою, це має звести діагноз до єдиної ймовірної хвороби.
ChatGPT надав неправильні діагнози для 72 зі 100 випадків, при цьому 11 зі 100 результатів були класифіковані як «клінічно пов’язані, але надто загальні, щоб вважатися правильним діагнозом».
В одному з випадків ChatGPT поставив підлітку з аутизмом, у якого виявлялися симптоми висипу та жорсткості суглобів, діагноз імунна тромбоцитопенічна пурпура. Це аутоімунне захворювання, яке впливає на згортання крові, викликаючи синці та кровотечі. Проте лікар діагностував у підлітка цингу стан, викликаний важким недоліком вітаміну С. Люди з аутизмом можуть дотримуватися дуже обмежувальних дієт через чутливість до харчових текстур або смаків, що робить їх схильними до дефіциту вітамінів.
#Чи #може #ChatGPT #встановити #діагноз #вчені #провели #експеримент
Source link