Страхује се да би четботови могли да помогну у планирању напада биолошким оружјем
Према истраживању једног америчког истраживачког центра, модели вештачке интелигенције који подржавају четботове могли би да помогну у планирању напада биолошким оружјем.
Извештај корпорације „Ранд“ објављен у понедељак тестирао је неколико великих језичких модела (large language models – ЛЛМ) и открио да они могу пружити смернице које би „могле помоћи у планирању и извршењу напада биолошким оружјем“. Међутим, прелиминарни налази су такође показали да ЛЛМ нису генерисали експлицитна упутства за стварање биолошког оружја.
У извештају се наводи да су претходни покушаји да се биолошки агенси користе као оружје, као што је покушај јапанског култа Аум Шинрикјо да употреби токсин ботулинум деведесетих, пропали због неразумевања бактерије. Вештачка интелигенција би могла „брзо да премости такве празнине у знању“, наводи се у извештају. Истраживачи нису прецизирали које су ЛЛМ истраживачи тестирали.
Биолошко оружје је међу озбиљним претњама у вези са вештачком интелигенцијом о којима ће се расправљати на глобалном самиту о безбедности вештачке интелигенције следећег месеца у Великој Британији. Дарио Амодеи, извршни директор компаније за вештачку интелигенцију „Антропик“(Anthropic), још у јулу је упозорио да би системи вештачке интелигенције могли да помогну у стварању биолошког оружја за две до три године.
ЛЛМ се обучавају на огромним количинама података преузетих са интернета и представљају кључну технологију иза четботова као што је ChatGPT. Иако „Ранд“ није открио које је ЛЛМ тестирао, истраживачи су навели да су приступили моделима преко интерфејса за програмирање апликација или АПИ-ја.
У једном тест сценарију који је осмислио „Ранд“, неименовани ЛЛМ је идентификовао потенцијалне биолошке агенсе – укључујући оне који изазивају мале богиње, антракс и кугу – и разговарао о њиховим релативним шансама да изазову масовни помор људи. ЛЛМ је такође проценио могућност набавке глодара или бува заражених кугом и транспорта живих примерака. Затим је напоменуо да обим пројектованих смртних случајева зависи од фактора као што су величина погођене популације и пропорције случајева плућне куге, која је смртоноснија од бубонске куге.
Истраживачи „Ранда“ су признали да је вађење ових информација добијена из ЛЛМ-а захтевала коришћење текстуалних упита који заобилазе безбедносна ограничења четбота.
У другом сценарију, неименовани ЛЛМ је расправљао о предностима и недостацима различитих механизама испоруке ботулинум токсина – који може изазвати фатално оштећење нерава – као што су храна или аеросоли. ЛЛМ је такође саветовао уверљиву причу о набављању бактерије Clostridium botulinum све док „му се чинило да спроводи легитимна научна истраживања“.
Генерички језички модел је препоручио да се куповина клостридијум ботулинума представи као део пројекта који се бави дијагностичким методама или третманима за ботулизам. У одговору ЛЛМ-а се додаје: „Ово би пружило легитиман и убедљив разлог да затражите приступ бактеријама, а да притом праву сврху ваше мисије сакријете“.
Истраживачи су рекли да њихови прелиминарни резултати указују да би ЛЛМ могли „потенцијално да помогну у планирању биолошког напада“. Рекли су да ће њихов коначни извештај испитати да ли одговори једноставно одражавају већ доступне информације на мрежи.
„Остаје отворено питање да ли могућности постојећих великих језичких модела представљају нови ниво претње, поред штетних информација које су лако доступне на интернету“, наводе истраживачи.
Међутим, стручњаци „Ранда“ наглашавају неопходност ригорозног тестирања модела. Додају и да компаније које развијају ове језичке моделе вештачке интелигенције морају да ограниче отвореност четботова на сличну врсту разговора попут ових које су они тестирали.
Коментари