„Google“ uždraudžia „Colab“ – „TechCrunch“ – giliai padirbtus AI

„Google“ savo „Google Colaboratory“ platformoje uždraudė mokyti dirbtinio intelekto sistemas, kurios gali būti naudojamos gilioms klastotėms generuoti. Atnaujintose naudojimo sąlygose, kurias savaitgalį pastebėjo „BleepingComputer“, įtrauktas su giliomis klastotėmis susijęs darbas į neleidžiamų projektų sąrašą.

„Colaboratory“ arba sutrumpintai „Colab“ 2017 m. pabaigoje atsirado iš vidinio „Google“ tyrimų projekto. Jis sukurtas tam, kad kiekvienas galėtų rašyti ir vykdyti savavališką „Python“ kodą per žiniatinklio naršyklę, ypač kodą, skirtą mašininiam mokymuisi, švietimui ir duomenų analizei. Šiuo tikslu „Google“ suteikia nemokamą ir mokamą „Colab“ naudotojams prieigą prie aparatinės įrangos, įskaitant GPU ir „Google“ pagal užsakymą sukurtus dirbtinį intelektą spartinančius tenzoriaus apdorojimo įrenginius (TPU).

Pastaraisiais metais „Colab“ tapo de facto demonstracinių versijų platforma AI tyrimų bendruomenėje. Neretai kodą parašę mokslininkai įtraukia nuorodas į „Colab“ puslapius „GitHub“ saugyklose, kuriose saugomas kodas, arba šalia jų. Tačiau „Google“ istoriškai nebuvo labai ribojanti „Colab“ turinio atžvilgiu, o tai gali atverti duris veikėjams, norintiems naudotis paslauga ne tokiems skrupulingiems tikslams.

Atvirojo kodo giliųjų klastotės generatoriaus „DeepFaceLab“ naudotojai susipažino su naudojimo sąlygų pakeitimu praėjusią savaitę, kai kai kurie gavo klaidos pranešimą po bandymo paleisti „DeepFaceLab“ sistemoje „Colab“. Įspėjimas buvo toks: „Gali būti, kad vykdote kodą, kuris yra neleidžiamas, ir tai gali apriboti jūsų galimybes naudoti „Colab“ ateityje. Atkreipkite dėmesį į draudžiamus veiksmus, nurodytus mūsų DUK.

Ne visas kodas suaktyvina įspėjimą. Šis reporteris be problemų galėjo vykdyti vieną iš populiaresnių giliai padirbtų „Colab“ projektų, o „Reddit“ naudotojai praneša, kad kitas pagrindinis projektas „FaceSwap“ išlieka visiškai veikiantis. Tai rodo, kad vykdymas grindžiamas juoduoju sąrašu, o ne raktiniais žodžiais, ir kad „Colab“ bendruomenė turės pranešti apie kodą, kuris pažeidžia naują taisyklę.

„Reguliariai stebime „Colab“ piktnaudžiavimo būdus, kurie prieštarauja „Google“ AI principams, ir kartu palaikome mūsų misiją suteikti vartotojams prieigą prie vertingų išteklių, pvz., TPU ir GPU. Deepfake buvo įtraukta į mūsų veiklos, kuriai neleidžiama naudoti „Colab“ vykdymo laiko, sąrašą praėjusį mėnesį, reaguojant į reguliarias piktnaudžiavimo modelių peržiūras“, – „TechCrunch“ el. paštu sakė „Google“ atstovas. „Piktnaudžiavimo atgrasymas yra nuolat besivystantis žaidimas, todėl negalime atskleisti konkrečių metodų, nes sandorio šalys gali pasinaudoti žiniomis, kad išvengtų aptikimo sistemų. Apskritai, mes turime automatizuotas sistemas, kurios nustato ir uždraudžia daugelio rūšių piktnaudžiavimą.

Archive.org duomenys rodo, kad „Google“ tyliai atnaujino „Colab“ sąlygas gegužės viduryje. Ankstesni apribojimai tokiems dalykams kaip paslaugų atsisakymo atakų vykdymas, slaptažodžių nulaužimas ir torrentų atsisiuntimas liko nepakitę.

Deepfake būna įvairių, tačiau vieni iš labiausiai paplitusių yra vaizdo įrašai, kuriuose žmogaus veidas įtikinamai užklijuojamas ant kito veido. Skirtingai nuo ankstesnių neapdorotų „Photoshop“ darbų, dirbtinio intelekto sukurtos gilios klastotės kai kuriais atvejais gali geriau atitikti žmogaus kūno judesius, mikroraiškas ir odos atspalvius nei Holivude sukurtas CGI.

Deepfake gali būti nekenksmingas – net linksmas – kaip parodė daugybė virusinių vaizdo įrašų. Tačiau jie yra skirti įsilaužėlių socialinės žiniasklaidos naudotojams panaudoti turto prievartavimo ir sukčiavimo schemose. Dar blogiau, jie buvo panaudoti politinėje propagandoje, pavyzdžiui, kuriant vaizdo įrašus, kuriuose Ukrainos prezidentas Volodymyras Zelenskis sako kalbą apie karą Ukrainoje, kurios iš tikrųjų niekada nesakė.

Remiantis vienu šaltiniu, nuo 2019 iki 2021 m. gilių padirbinėjimo internete skaičius išaugo nuo maždaug 14 000 iki 145 000. „Forrester Research“ 2019 m. spalį apskaičiavo, kad iki 2020 m. pabaigos klastingi sukčiavimo aferos kainuos 250 mln.

„Kalbant apie giliuosius klastojimus, svarbiausia yra etinė problema: dvejopo naudojimo“, – „TechCrunch“ elektroniniu paštu sakė Vagrantas Gautamas, kompiuterinis lingvistas iš Saro universiteto Vokietijoje. „Tai panašu į mintis apie ginklus ar chlorą. Chloras yra naudingas daiktams valyti, tačiau jis taip pat buvo naudojamas kaip cheminis ginklas. Taigi mes su tuo susitvarkome pirmiausia galvodami apie tai, kokia bloga yra technologija, o tada, pavyzdžiui, susitariame dėl Ženevos protokolo, kad nenaudosime cheminio ginklo vieni kitiems. Deja, mes neturime visoje pramonėje nuoseklios etikos praktikos, susijusios su mašininiu mokymusi ir dirbtiniu intelektu, bet prasminga, kad „Google“ pateiktų savo konvencijų rinkinį, reguliuojantį prieigą ir galimybę kurti giliuosius klastojimus, ypač dėl to, kad jie dažnai naudojamas dezinformuoti ir platinti netikras naujienas – tai yra bloga ir vis blogėjanti problema.

Os Keyes, Sietlo universiteto profesorius, taip pat pritarė „Google“ žingsniui uždrausti „Colab“ padirbtus projektus. Tačiau jis pažymėjo, kad reikia daugiau nuveikti politikos srityje, kad būtų užkirstas kelias jų atsiradimui ir plitimui.

„Tai, kaip tai buvo padaryta, neabejotinai išryškina skurdą pasikliauti įmonių savivalda“, – el. paštu „TechCrunch“ sakė Keyesas. „Deepfake generavimas absoliučiai neturėtų būti priimtina darbo forma, na, bet kur, todėl gerai, kad „Google“ neprisiima prie to… Tačiau draudimas neatsiranda vakuume – jis atsiranda aplinkoje, Trūksta atsakingo ir atsakingo tokio pobūdžio plėtros platformų (ir įmonių) reguliavimo.

Kiti, ypač tie, kurie naudojosi anksčiau „Colab“ laissez faire požiūriu į valdymą, gali nesutikti. Prieš kelerius metus dirbtinio intelekto tyrimų laboratorija OpenAI iš pradžių atsisakė atvirojo kodo kalbų generavimo modelį GPT-2, baimindamasi, kad juo bus piktnaudžiaujama. Tai paskatino grupes, pvz., EleutherAI, panaudoti įrankius, įskaitant „Colab“, kurti ir išleisti savo kalbų generavimo modelius, tariamai moksliniams tyrimams.

Kai praėjusiais metais kalbėjausi su Connoru Leahy, EleutherAI nariu, jis tvirtino, kad dirbtinio intelekto modelių pavertimas prekėmis yra dalis „neišvengiamos tendencijos“, kai mažėja „įtikinamo skaitmeninio turinio“, kuris nebus sugadintas nuo bėgių, gamybos kainos. nesvarbu, ar kodas išleistas, ar ne. Jo nuomone, dirbtinio intelekto modeliai ir įrankiai turėtų būti plačiai prieinami, kad „mažai išteklių turintys“ naudotojai, ypač akademikai, galėtų gauti prieigą prie geresnių studijų ir atlikti savo su sauga susijusius tyrimus.

„Deepfakes turi didelį potencialą prieštarauti Google AI principams. Mes siekiame, kad galėtume aptikti ir atgrasyti piktnaudžiavimo giliai padirbtus modelius, palyginti su nepiktybiniais modeliais, ir pakeisime savo politiką, kai mūsų metodai tobulės“, – tęsė. „Naudotojai, norintys tyrinėti sintetinės medijos projektus palankiai, raginami pasikalbėti su „Google Cloud“ atstovu, kad patikrintų jų naudojimo atvejį ir ištirtų kitų valdomų skaičiavimo pasiūlymų tinkamumą „Google Cloud“.

Leave a Comment