У зв’язку з популярністю моделей, як ChatGPT, з’являється тривога щодо їхніх потенційних вразливостей
Недавно кіберексперт Йоганн Ребергер продемонстрував можливість використання таких моделей для отримання конфіденційних даних.
ChatGPT, який користується популярністю серед понад 100 мільйонів користувачів, став ціллю для хакерів. Йоганн Ребергер, який сам є дослідником безпеки, зумів змусити чат-бота OpenAI виконати шкідливе завдання: прочитати його особисту електронну пошту, витягти з неї короткий зміст і згодом опублікувати зібрану інформацію в Інтернеті.
Цей фахівець підкреслив, що завдяки ChatGPT процес атак стає менш технічним. Він використав функцію бета-тестування для доступу до додатків як Slack та Gmail.
Ребергер використав тактику “ін’єкція запитів” — сучасний метод атаки. Ця стратегія розглядає хакерство під новим кутом, звертаючи увагу на слабкі сторони систем штучного інтелекту.
OpenAI відгукнулася на цю інформацію, впровадивши контрзаходи в ChatGPT та подякувавши спільноті за співпрацю. Вони також проводять дослідження щодо потенційних “джейлбрейків”.
Цього тижня на конференції в Лас-Вегасі основний акцент зроблено на штучний інтелект від таких гігантів як OpenAI, Google та Anthropic. Ініціатива, спрямована на виявлення вразливостей в AI системах, включає в себе винагороди для найбільш ефективних хакерів.
Раніше ми писали: кіберзлочинці розробили власні мовні AI-моделі, які будуть допомагати їм у фішингу та створенні шкідливого програмного забезпечення. У Darknet вже можна знайти перші версії.
Prompt
#Хакер #зламав #ChatGPT #виявив #вразливість #ШІ
Source link