Tyrėjas nustato, kad kariuomenė negali pasikliauti AI, siekdama strategijos ar sprendimo

Kreditas: Pixabay / CC0 viešasis domenas

Dirbtinio intelekto (DI) naudojimas karui buvo mokslinės fantastikos ir politikų pažadas daugelį metų, tačiau nauji Džordžijos technologijos instituto tyrimai teigia, kad tik tiek daug galima automatizuoti ir parodo žmogaus sprendimo vertę.

„Visos sunkios dirbtinio intelekto problemos iš tikrųjų yra sprendimo ir duomenų problemos, o įdomus dalykas yra tai, kad kai pradedi galvoti apie karą, sunkios problemos yra strategija ir netikrumas, arba tai, kas gerai žinoma kaip karo migla“, – sakė jis. Jon Lindsay, Kibernetinio saugumo ir privatumo mokyklos ir Sam Nunn tarptautinių reikalų mokyklos docentas. „Jums reikia žmogaus supratimo ir priimti moralinius, etinius ir intelektualius sprendimus neįtikėtinai painioje, kupinoje ir baisioje situacijoje.

Dirbtinio intelekto sprendimų priėmimas grindžiamas keturiais pagrindiniais komponentais: duomenimis apie situaciją, tų duomenų interpretavimu (arba prognozavimu), geriausio būdo, kaip elgtis atsižvelgiant į tikslus ir vertybes (arba sprendimą), nustatymu ir veiksmais. Mašininio mokymosi pažanga palengvino prognozes, todėl duomenys ir sprendimas tampa dar vertingesni. Nors dirbtinis intelektas gali automatizuoti viską nuo komercijos iki tranzito, žmonės turi įsikišti į sprendimą, Lindsay ir Toronto universiteto profesorius Avi Goldfarbas rašė straipsnyje „Numatymas ir sprendimas: kodėl dirbtinis intelektas padidina žmonių svarbą kare“, paskelbtame m. Tarptautinis saugumas.

Daugelis politikos formuotojų mano, kad žmonių kareivius būtų galima pakeisti automatizuotomis sistemomis, idealiu atveju, kad kariuomenė būtų mažiau priklausoma nuo žmogaus darbo ir būtų veiksmingesnė mūšio lauke. Tai vadinama AI pakeitimo teorija, tačiau Lindsay ir Goldfarb teigia, kad AI neturėtų būti vertinamas kaip pakaitalas, o veikiau kaip esamos žmogaus strategijos papildymas.

„Mašinos gerai prognozuoja, tačiau jos priklauso nuo duomenų ir sprendimo, o sunkiausios karo problemos yra informacija ir strategija“, – sakė jis. „Sąlygos, dėl kurių dirbtinis intelektas veikia komercijoje, yra sąlygos, kurias sunkiausia įvykdyti karinėje aplinkoje dėl jos nenuspėjamumo.

„Lindsay“ ir „Goldfarb“ akcentas yra „Rio Tinto“ kalnakasybos įmonė, kuri medžiagoms gabenti naudoja savaeigius sunkvežimius, taip sumažindama išlaidas ir riziką vairuotojams. Yra gausių, nuspėjamų ir nešališkų duomenų srauto modelių ir žemėlapių, kuriems reikia mažai žmogaus įsikišimo, nebent yra uždarytų kelių ar kliūčių.

Tačiau karui paprastai trūksta daugybės nešališkų duomenų, o sprendimai dėl tikslų ir vertybių iš esmės yra prieštaringi, tačiau tai nereiškia, kad tai neįmanoma. Tyrėjai teigia, kad dirbtinis intelektas būtų geriausiai naudojamas biurokratiškai stabilizuotose aplinkose, atsižvelgiant į kiekvieną užduotį.

„Visas jaudulys ir baimė yra dėl robotų žudikų ir mirtinų transporto priemonių, tačiau blogiausias karinio AI atvejis praktikoje bus klasikinės militaristinės problemos, kai iš tikrųjų esi priklausomas nuo kūrybiškumo ir interpretacijos“, – sakė Lindsay. „Tačiau turėtume atkreipti dėmesį į personalo sistemas, administravimą, logistiką ir remontą.

Tyrėjų teigimu, dirbtinio intelekto naudojimas taip pat turi pasekmių tiek kariškiams, tiek jos priešams. Jei žmonės yra pagrindinis elementas sprendžiant, kada naudoti dirbtinį intelektą kare, karinės vadovybės struktūra ir hierarchijos gali keistis atsižvelgiant į asmenį, atsakingą už duomenų sistemų projektavimą ir valymą bei politinių sprendimų priėmimą. Tai taip pat reiškia, kad priešininkai sieks pakenkti duomenims ir nuosprendžiui, nes tai labai paveiktų karo trajektoriją. Konkurencija su dirbtiniu intelektu gali priversti priešininkus manipuliuoti duomenimis arba juos trikdyti, kad būtų dar sunkesnis sprendimas. Tiesą sakant, žmogaus įsikišimas bus dar labiau reikalingas.

Tačiau tai tik ginčų ir naujovių pradžia.

„Jei AI automatizuoja numatymą, sprendimas ir duomenys tampa tikrai svarbūs“, – sakė Lindsay. “Mes jau automatizavome daugybę karinių veiksmų mechanizuotomis pajėgomis ir tiksliaisiais ginklais, tada automatizavome duomenų rinkimą žvalgybos palydovais ir jutikliais, o dabar automatizuojame numatymą naudodami AI. Taigi, kai ketiname automatizuoti sprendimą, arba ar yra sprendimo komponentų, kurių negalima automatizuoti?

Tačiau iki tol taktiniai ir strateginiai žmonių sprendimai tebėra svarbiausias karo aspektas.


DI tobulėja, kad labiau vertintų žmogaus nuomonę: U of T ekspertai


Daugiau informacijos:
Avi Goldfarb ir kt., Numatymas ir sprendimas: kodėl dirbtinis intelektas padidina žmonių svarbą kare, Tarptautinis saugumas (2022). DOI: 10.1162/isec_a_00425

Pateikė Džordžijos technologijos institutas

Citata: Tyrėjas nustato, kad kariuomenė negali pasikliauti dirbtiniu intelektu, siekdama strategijos ar sprendimo (2022 m. birželio 14 d.), gauta 2022 m. birželio 15 d. iš https://techxplore.com/news/2022-06-military-ai-strategy-judgment.html

Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

Leave a Comment