Големите јазични модели (ЛЛМ) веќе се покажаа како исклучително корисни алатки во анализа на податоци, генерирање содржина и помош при програмирање. Сепак, нова студија фрла сосема поинаква светлина врз нивната улога.
Истражувањето спроведено од Универзитетот „Карнеги Мелон“ во Питсбург во соработка со „Антропик“ покажа дека, под соодветни услови, големите јазични модели можат самостојно да планираат и да извршуваат сложени сајбер-напади без водство од човек. Ова претставува значајна промена од улогата на асистенти кон целосна автономија во светот на дигиталните закани.
Додека претходните експерименти со вештачка интелигенција во сајбер-безбедноста најчесто беа ограничени на сценарија „фаќање на знамето“ или поедноставени предизвици за обука, тимот на „Карнеги Мелон“, предводен од докторандот Брајан Сингер, отиде чекор понатаму. Тие им дадоа на јазичните модели структурирани упатства и ги интегрираа во хиерархија на агенти, што им овозможи да бидат тестирани во многу пореални онлајн средини.
Во еден тест, тимот ги ресоздаде точните услови што доведоа до познатото пробивање на „Еквифакс“ во 2017 година (податоците на речиси 148 милиони Американци беа украдени преку „Еквифакс“), вклучувајќи ги сите ранливости и мрежна архитектура документирани во официјалните извештаи. Вештачката интелигенција не само што осмислила план за напад, туку и независно го имплементирала малициозниот софтвер и извлекла податоци, сето тоа без директно човечко влијание.

Она што го прави ова истражување особено впечатливо е колку малку „сурово“ кодирање морал да направи самиот ЛЛМ. Традиционалните пристапи честопати не успеваат бидејќи моделите се мачат да извршуваат команди или да анализираат детални логови. Наместо тоа, овој систем користел структура од повисоко ниво, каде што ЛЛМ дејствувал како главен планер, додека делегирал задачи од пониско ниво на специјализирани подагенти. Таквата апстракција ѝ дала на вештачката интелигенција доволен контекст за да ја „разбере“ својата околина и да се приспособи на неа.
Иако овие резултати се постигнати во строго контролирани лабораториски услови, тие го поставуваат прашањето до каде може да оди оваа автономија. Ризиците не се само хипотетички. Ако ЛЛМ можат самостојно да вршат прекршувања на мрежата, злонамерните актери би можеле да ги користат за да ги зголемат нападите на нивоа далеку над можностите на човечките тимови. Дури и напредните алатки како решенија за заштита на крајни точки (ЕДР) и најдобрите антивирусни програми би можеле да бидат ставени на сериозен тест од такви агенти.
Од друга страна, оваа можност носи и потенцијални придобивки. ЛЛМ што може верно да имитира напади од реалниот свет, би можел да се користи за напредно тестирање на системот и откривање на безбедносни ранливости што инаку би останале незабележани.
- Ова функционира само под специфични услови и сè уште немаме нешто што може автономно да го нападне целиот интернет... Но, ова е клучен прв чекор - објаснил Сингер, нагласувајќи дека работата е во фаза на прототип.
Сепак, способноста на вештачката интелигенција да реплицира големо нарушување на безбедноста со минимални почетни инструкции не треба лесно да се отфрла. Истражувањата се фокусирани на тоа како истите техники можат да се применат во одбраната, потенцијално овозможувајќи им на агентите на вештачката интелигенција да детектираат и да блокираат напади во реално време.
Извор: bug.hr
Фото: Freepik