Штучний інтелект відкриває перед біологією колосальні можливості — від створення ліків та вакцин до розробки мікроорганізмів, здатних переробляти відходи. Але паралельно з цим виникає занепокоєння: чи може ШІ стати інструментом для розробки небезпечної біологічної зброї, яку важко буде виявити?
Як зазначає головний науковий співробітник Microsoft Ерік Горвіц, «з новою силою приходить відповідальність за пильність». Його команда досліджувала, чи можна перепроектувати білки так, щоб вони виконували функції відомих токсинів, але мали інші амінокислотні послідовності, які не проходять перевірку.
Результати показали: хоча алгоритми ШІ можуть створювати подібні послідовності, більшість із них не працюють. Крім того, існують простіші шляхи отримати токсини (наприклад, рицин із рицинової олії), тож складні інженерні методи не є основною загрозою.
Серйозніші побоювання викликають експерименти з вірусами. Нещодавно команда Стенфордського університету використала ШІ для створення сотень варіантів бактеріофагів — вірусів, що вражають кишкову паличку. Лише небагато з них виявилися працездатними, але це перший крок у напрямку, де ризики з часом можуть зростати.
Деякі експерти наголошують, що виявляти небезпечні геноми вірусів легше, ніж білкові послідовності, адже інформації про них більше. Однак проблема в тому, що не всі компанії з синтезу ДНК проводять належний скринінг, а настільні синтезатори ДНК стають дедалі доступнішими.
Попри побоювання, історія показує: реальні біотерористичні атаки були надзвичайно рідкісними і малоефективними. Аум Сінрікьо в Японії не зміг використати ботулін, листи з рицином не призвели до жертв. Натомість набагато серйознішою небезпекою є природні віруси — прикладом є SARS-CoV-2, що перейшов від кажанів до людей без лабораторного втручання.
До того ж, як зазначають фахівці, потенційні зловмисники можуть завдати величезної шкоди, використавши вже відомі патогени, наприклад вірус віспи. Це набагато простіше, ніж намагатися створювати нові біологічні агенти за допомогою штучного інтелекту.
На сьогодні ризик випуску у світ вірусу, створеного ШІ, оцінюється як близький до нуля. Але зі зростанням можливостей технологій цей ризик поступово зростатиме. Пандемія COVID-19 продемонструвала, наскільки масштабний вплив може мати навіть відносно “звичайний” вірус.
Отже, головна загроза — не негайне використання ШІ у біотероризмі, а те, що у найближчі десятиліття технології можуть зробити такі сценарії більш реалістичними. І це підкреслює потребу у глобальному контролі, відповідальному використанні та прозорості в дослідженнях, які поєднують біологію та штучний інтелект.
#Чи #слід #нам #турбуватися #що #ШІ #створить #смертоносну #біологічну #зброю
Source link