Žalinančios AI kibernetinės atakos yra neišvengiamos: 4 būdai, kaip įmonės gali pasiruošti

Džiaugiamės galėdami sugrąžinti „Transformaciją 2022“ asmeniškai liepos 19 d. ir beveik liepos 20–28 d. Prisijunkite prie AI ir duomenų lyderių, kad galėtumėte įžvalgių pokalbių ir įdomių tinklų kūrimo galimybių. Registruokitės šiandien!


Kai „Microsoft“ vyriausiasis mokslo pareigūnas Ericas Horvitzas gegužės 3 d. liudijo JAV Senato Ginkluotųjų tarnybų komiteto Kibernetinio saugumo pakomitečiui, jis pabrėžė, kad organizacijos tikrai susidurs su naujais iššūkiais, kai kibernetinio saugumo atakos tampa vis sudėtingesnės, įskaitant ir naudojant dirbtinį intelektą.

Nors dirbtinis intelektas tobulina gebėjimą aptikti kibernetinio saugumo grėsmes, jis paaiškino, grėsmių subjektai taip pat didina priešiškumą.

„Nors iki šiol yra mažai informacijos apie aktyvų AI naudojimą kibernetinėse atakose, plačiai pripažįstama, kad dirbtinio intelekto technologijos gali būti naudojamos kibernetinėms atakoms didinti pasitelkiant įvairias zondavimo ir automatizavimo formas… vadinamas įžeidžiančiu AI“, – sakė jis.

Tačiau ne tik kariuomenė turi aplenkti grėsmių veikėjus, naudojančius AI, kad padidintų savo atakas ir išvengtų aptikimo. Pasak ekspertų, įmonės įmonėms kovoja su vis daugiau didelių saugumo pažeidimų, todėl jos turi pasiruošti sudėtingiems dirbtinio intelekto skatinamiems kibernetiniams nusikaltimams.

Užpuolikai nori padaryti didelį šuolį į priekį naudodami AI

„Dar nematėme „didžiojo sprogimo“, kai įsijungia „Terminator“ kibernetinis AI ir visur pridaro sumaištį, bet užpuolikai ruošiasi tam mūšio laukui“, – „VentureBeat“ sakė Maxas Heinenmeyeris, AI kibernetinio saugumo įmonės „Darktrace“ kibernetinių inovacijų viceprezidentas. Tai, ką šiuo metu matome, pridūrė jis, yra „didelis kibernetinio saugumo variklis – kai užpuolikai nori padaryti didelį šuolį į priekį, mąstyseną keičiantys ataka, kuri bus labai trikdanti“.

Pavyzdžiui, buvo ne dirbtinio intelekto atakų, tokių kaip 2017 m. „WannaCry“ išpirkos reikalaujančios programinės įrangos ataka, kurios metu buvo naudojami nauji kibernetiniai ginklai, aiškino jis, o šiandien Ukrainos ir Rusijos kare naudojama kenkėjiška programa, kuri retai matoma. prieš. „Tokio pobūdžio mąstymą keičiančios atakos yra vieta, kur mes tikimės išvysti AI“, – sakė jis.

Kol kas AI naudojimas Ukrainos ir Rusijos kare apsiriboja Rusijos naudojimu giliųjų klastotėmis ir Ukrainos prieštaringai vertinamos „Clearview AI“ veido atpažinimo programinės įrangos naudojimu, bent jau viešai. Tačiau saugumo profesionalai ruošiasi kovai: „Darktrace“ pernai atlikta apklausa parodė, kad vis daugiau IT saugumo lyderių nerimauja dėl galimo kibernetinių nusikaltėlių panaudojimo dirbtiniu intelektu. Šešiasdešimt procentų respondentų teigė, kad žmonių atsakas mažėja, nes neatsilieka nuo kibernetinių atakų tempo, o beveik visi (96 %) pradėjo ginti savo įmones nuo dirbtinio intelekto grėsmių, daugiausia susijusių su el.

„Tikrai buvo atlikta labai mažai realių mašinų mokymosi ar dirbtinio intelekto atakų tyrimų, bet blogi vaikinai tikrai jau naudoja dirbtinį intelektą“, – sakė Corey Nachreiner, „WatchGuard“ CSO, tiekiančios įmonės lygio saugos produktus vidutinės rinkos klientams. .

Grėsmių dalyviai jau naudoja mašininį mokymąsi, kad padėtų daugiau socialinės inžinerijos atakų. Jei jie gaus didelius, didelius duomenų rinkinius, kuriuose yra daug slaptažodžių, jie gali sužinoti daugiau apie tuos slaptažodžius, kad pagerintų slaptažodžių įsilaužimą.

Jis sakė, kad mašininio mokymosi algoritmai taip pat paskatins daugiau sukčiavimo sukčiavimo atakų arba labai tikslinių, nebendrų apgaulingų el. laiškų, nei anksčiau. „Deja, sunkiau išmokyti vartotojus spustelėti sukčiavimo pranešimus“, – sakė jis.

Dėl ko įmonės tikrai turi nerimauti

Pasak Setho Siegelio, Šiaurės Amerikos konsultacijų dėl dirbtinio intelekto vadovo „Infosys“, saugumo specialistai gali negalvoti apie grėsmių subjektus, naudojančius dirbtinį intelektą, tačiau jie mato daugiau, greitesnių atakų ir gali pajusti, kad horizonte padaugėjo dirbtinio intelekto naudojimo.

„Manau, kad jie mato, kad ten darosi greita ir įnirtinga“, – sakė jis „VentureBeat“. „Grėsmės kraštovaizdis yra tikrai agresyvus, palyginti su praėjusiais metais, palyginti su prieš trejus metus, ir jis vis blogėja.

Tačiau jis perspėjo, kad organizacijos turėtų jaudintis kur kas labiau nei dėl sukčiavimo išpuolių. „Iš tikrųjų turėtų kilti klausimas, kaip įmonės gali susidoroti su viena didžiausių AI pavojų, ty blogų duomenų įvedimą į jūsų mašininio mokymosi modelius? jis pasakė.

Šias pastangas dės ne atskiri užpuolikai, o sudėtingi nacionalinės valstybės įsilaužėliai ir nusikalstamos grupuotės.

„Štai čia ir yra problema – jie naudoja pačias prieinamiausias technologijas, greičiausias technologijas, pažangiausias technologijas, nes jie turi turėti galimybę gauti ne tik praeities nusikaltimus, bet ir didžiulius skyrius, kurie, atvirai pasakius, nėra pasirengę susitvarkyti su tokio lygio bloga vaidyba“, – sakė jis. „Iš esmės jūs negalite panaudoti žmogaus įrankio į AI kovą.

4 būdai, kaip pasiruošti AI kibernetinių atakų ateičiai

Ekspertai teigia, kad saugos specialistai turėtų imtis kelių esminių žingsnių, kad pasiruoštų dirbtinio intelekto kibernetinių atakų ateičiai:

Vykdykite nuolatinius saugumo supratimo mokymus.

Nachreinerio teigimu, sukčiavimo su spygliu problema yra ta, kad el. laiškai yra pritaikyti taip, kad atrodytų kaip tikri verslo pranešimai, todėl juos daug sunkiau blokuoti. „Turite turėti saugumo supratimo mokymus, kad vartotojai žinotų, kaip tikėtis šių el. laiškų ir žiūrėti į juos skeptiškai, net jei atrodo, kad jie ateina verslo kontekste“, – sakė jis.

Naudokite AI valdomus įrankius.

„Infosec“ organizacija turėtų priimti dirbtinį intelektą kaip pagrindinę saugumo strategiją, sakė Heinenmeyeris. „Jie neturėtų laukti, kol panaudos dirbtinį intelektą, arba laikyti tai tiesiog vyšnia ant viršaus – jie turėtų numatyti ir įgyvendinti AI patys“, – paaiškino jis. „Nemanau, kad jie suvokia, kaip tai būtina šiuo metu, bet kai grėsmės veikėjai pradės naudoti įnirtingesnę automatiką ir galbūt bus surengtos daugiau destruktyvių atakų prieš vakarus, tada tikrai norisi turėti AI.

Pagalvokite ne tik apie atskirus blogus veikėjus.

Įmonės turi perorientuoti savo požiūrį nuo atskiro blogo veikėjo, sakė Siegel. „Jie turėtų daugiau galvoti apie įsilaužimą nacionalinės valstybės lygmeniu, apie nusikaltėlių gaujų įsilaužimą, turėti gynybines pozas ir suprasti, kad tai yra kažkas, su kuo jiems dabar reikia kovoti kasdien“,

Turėkite iniciatyvią strategiją.

Organizacijos taip pat turi įsitikinti, kad jos laikosi savo saugumo pozicijų, sakė Siegel. „Kai pataisos yra duomenys, turite juos vertinti taip, kaip jie nusipelnė“, – paaiškino jis, „ir turite patikrinti savo modelius, kad įsitikintumėte, jog į modelius neįtraukiate kenkėjiškos informacijos.

Siegelis pridūrė, kad jo organizacija kibernetinio saugumo specialistus įtraukia į duomenų mokslo komandas ir taip pat moko duomenų mokslininkus kibernetinio saugumo metodų.

Įžeidžiančio AI ateitis

Anot Nachreinerio, „priešingas“ mašininis mokymasis atsiranda vis dažniau.

„Tai susiję su tuo, kaip mes naudojame mašininį mokymąsi gindamiesi – žmonės tuo naudosis prieš mus“, – sakė jis.

Pavyzdžiui, vienas iš būdų, kaip šiandien organizacijos naudoja dirbtinį intelektą ir mašininį mokymąsi, yra aktyviau pagauti kenkėjiškas programas, nes dabar kenkėjiškos programos greitai keičiasi, o parašu pagrįstas kenkėjiškų programų aptikimas kenkėjiškų programų nebefiksuoja taip reguliariai. Tačiau ateityje tie ML modeliai bus pažeidžiami grėsmės veikėjų išpuolių.

Heinenmeyeris teigė, kad dirbtinio intelekto keliama grėsmė ir toliau blogės, nes didėja geopolitinė įtampa, kuri prisidės prie šios tendencijos. Jis citavo neseniai Džordžtauno universiteto atliktą tyrimą, kuriame buvo tiriama Kinija ir kaip jie susieja savo AI tyrimų universitetus ir nacionalinės valstybės remiamą įsilaužimą. „Tai daug pasako apie tai, kaip glaudžiai Kinija, kaip ir kitos vyriausybės, bendradarbiauja su mokslininkais ir universitetais bei dirbtinio intelekto tyrimais, kad panaudotų juos potencialioms kibernetinėms įsilaužimo operacijoms.

„Kai galvoju apie šį tyrimą ir kitus vykstančius dalykus, manau, kad po metų mano požiūris į grėsmes bus niūresnis nei šiandien“, – prisipažino jis. Tačiau jis atkreipė dėmesį, kad gynybos perspektyvos taip pat pagerės, nes daugiau organizacijų imasi dirbtinio intelekto. „Mes vis tiek liksime įstrigę šiame katės ir pelės žaidime“, – sakė jis.

„VentureBeat“ misija bus skaitmeninė miesto aikštė, skirta techninius sprendimus priimantiems asmenims įgyti žinių apie transformuojančias įmonės technologijas ir sudaryti sandorius. Sužinokite daugiau apie narystę.

Leave a Comment