Експерти предупреждават, че начинаещи престъпници може да създадат следващата голяма смъртоносна пандемия
През 2023 г. бившият инспектор по оръжията на ООН Роко Казагранде влиза в сградата “Айзенхауер” във Вашингтон, която се намира до Западното крило на Белия дом. В ръцете си ученият носи малък запечатан контейнер. В него има няколко епруветки, чиито съставки при определени условия биха могли да бъдат използвани за създаване на опасен патоген, който да предизвика следващата смъртоносна световна пандемия.
Посещението му не е опит за покушение срещу президента, а предупреждение. Казагранде иска да разговаря със служители, отговорни за националната сигурност на страната, за да им покаже колко бързо новите технологии могат да променят правилата на биологичната война. Според Казагранде информацията за това как подобен вирусен агент би могъл да бъде създаден е била генерирана от чатбот с изкуствен интелект (ИИ). Системата не само му предложила потенциална комбинация от съставки, но дори му дала идеи как биха могли да се подберат подходящи атмосферни условия за максимално разпространение на заразата.
Това е пример, който трябва да покаже колко лесно могат да се преодолеят бариерите пред разработването на биологични оръжия. Доскоро създаването на опасни патогени изискваше сложни лаборатории, значителни финансови ресурси и екип от висококвалифицирани специалисти. С появата на мощни системи с ИИ като ChatGPT на OpenAI част от тази експертиза може да бъде компенсирана чрез лесен достъп до информация и аналитични инструменти.
Затова темата започва да се появява все по-често в стратегиите за отбрана на правителствата по света. В САЩ новият план за действие в областта на изкуствения интелект предвижда мерки за ограничаване на подобни рискове. Великобритания също поставя химическата и биологичната защита сред приоритетите в своя стратегически преглед на отбраната за 2025 г.
И технологичните компании започват да обръщат повече внимание на този проблем. Някои от най-големите разработчици на ИИ обявиха публично ангажираността си да намаляват рисковете, свързани с химически, биологични и други видове опасни технологии. Тези обещания бяха формулирани на срещата за безопасност на изкуствения интелект в Сеул миналата година, където водещи лаборатории се съгласиха да разработват механизми за предотвратяване на злоупотреби с техните системи.
От OpenAI дори публично признават, че техните модели са способни да
създават биологични оръжия ChatGPT Agent - инструмент, който може да предприема действия от името на потребителя, е първият продукт, който компанията е класифицирала с висока степен на риск.
Това означава, че моделът може да предостави значителна помощ на начинаещи престъпници и да им позволи да създадат патогенни или химически заплахи. Реалните последствия от това биха могли да означават, че следващата голяма пандемия може да е акт на най-безскрупулен тероризъм.
“Някои може да мислят, че биологичният риск не е реален и че моделите предоставят само информация, която може да бъде намерена чрез търсене в гугъл. Това може да е било вярно през 2024 г., но определено не е вярно днес. Въз основа на нашите оценки и тези на нашите експерти рискът е много реален”, заяви Боаз Барак, член на техническия екип на OpenAI.
“Макар че не можем да кажем със сигурност, че този модел може да позволи на начинаещ да причини сериозна биологична вреда, считам, че би било дълбоко безотговорно да го пуснем на пазара, без да сме приложили всеобхватни мерки за смекчаване на риска като тези, които вече сме въвели”, добави той.
Въпреки това много експерти предупреждават, че настоящият подход към сигурността има сериозен недостатък. Основното внимание е насочено към един конкретен сценарий - човек, който самостоятелно използва ИИ, за да създаде нов вирус. Този риск безспорно съществува, но не е единственият. Значително по-малко внимание се обръща на други възможности, като например използването на изкуствен интелект за създаване на химически оръжия, импровизирани експлозиви или биологични агенти, които не се разпространяват между хората.
Тези технологии изискват различни знания и процеси.
Производството на нервнопаралитичен агент
като зарин например е съвсем различна задача от създаването на вирус. Поради това системите за безопасност трябва да бъдат тествани и срещу други сценарии, а не само срещу опасността от нова пандемия.
Макар да изглеждат по-малки като мащаб, подобни нападения също могат да имат тежки последствия. Една химическа или експлозивна атака би могла да отнеме десетки или стотици човешки животи, да парализира цели градове и да предизвика сериозна обществена паника. Специалистите по сигурността предупреждават и за друг проблем. Съвременният ИИ не само може да помага при разработването на опасни вещества, но и да дава съвети как да се избегнат контролите и международните ограничения.
Например системите могат да предложат начини за заобикаляне на проверки при износ на чувствителни материали или да помогнат за прикриване на следите от незаконни експерименти. Много експерти са на мнение, че справянето с този риск изисква
по-тясно сътрудничество между правителствата и технологичните компании
Държавните институции разполагат с разузнавателна информация за дейността на терористични групи и враждебни държави, но често не познават достатъчно добре възможностите на най-новите ИИ системи. От своя страна технологичните компании имат техническите знания и данни за поведението на потребителите, но нямат достъп до класифицирана информация. Тази липса на обмен на критични данни създава опасни слепи петна.
Затова специалистите предлагат изграждането на нови публично-частни партньорства, които да обединят експертизата на двете страни. Подобно сътрудничество би позволило потенциалните заплахи да бъдат откривани много по-рано, пише списание “Тайм”.
Историята показва, че международното сътрудничество може да намали риска от използване на опасни технологии. Преди повече от половин век държавите по света подписват Конвенцията за биологичните оръжия, която забранява разработването и притежаването на такива. Още през 1925 г. Женевският протокол поставя забрана върху използването на химически и биологични оръжия във въоръжени конфликти. Днес светът се намира пред ново предизвикателство: ИИ обещава огромен напредък в науката и медицината, но същевременно може да се превърне в инструмент за създаване на нови заплахи.
Ако обществата се съсредоточат само върху най-драматичните сценарии, има риск да пропуснат по-малките, но по-вероятни опасности, които могат да доведат до сериозни последствия.
