Turite stebėti, ar jūsų svetainėje nėra toksiško turinio. AI gali padėti

Toksiškas turinys plinta visame internete, ir įmonės, diegiančios naudotojų sukurtą turinį, rizikuoja tapti aferų, fanatizmo ir dezinformacijos šeimininkais. Šio toksiško turinio platinimas gali pakenkti jūsų prekės ženklo įvaizdžiui ir gali pakenkti vartotojų nuotaikoms, jei juo nebus pasirūpinta greitai ir dideliu mastu.

Tačiau samdyti moderatorius, kad jie žiūrėtų kiekvieną tiesioginį srautą, tinklalaidę, įrašą ir GIF, gali sustabdyti jūsų įmonę. Tiesiog yra per daug turinio, kad žmonės galėtų visa tai išvalyti. Kita problema yra ta, kad blogiausio interneto naršymas gali turėti neigiamą poveikį jūsų darbuotojų sveikatai. 2021 m. teisėjas skyrė daugiau nei 10 000 buvusių „Facebook“ moderatorių grupei 85 mln.

Įeikite į turinio moderavimo sprendimų rinką, kuri, naudodama dirbtinį intelektą arba sujungdama ją su žmonėmis, padeda pakeisti atoslūgį kovojant su toksišku turiniu internete.

Kevinas Guo, AI pagrįstos turinio moderavimo įmonės „Hive“ įkūrėjas ir generalinis direktorius, pirmą kartą pastebėjo potencialų automatinio turinio moderavimo verslą, kai jis ir jo įkūrėjas Dmitrijus Karpmanas buvo Stanfordo universiteto studentai. Guo ir Karpmanas sukūrė „Kiwi“ – vaizdo pokalbių programą, kuri atsitiktinai suporuotų vartotojus su nepažįstamais žmonėmis iš viso pasaulio.

Greitai Guo susidūrė su tuo, ką jis sukūrė „dešrainio šuns problema“, kuri vėliau bus parodijuojama HBO komedijoje. Silicio slėnis. Paprasčiau tariant: vyrai naudojo programą norėdami parodyti save prieš kamerą nenoriai visuomenei.

Nusprendęs, kad jo problemos sprendimo nėra, Guo nusprendė sukurti mašininio mokymosi modelį, kuris galėtų pats atpažinti ir pažymėti „dešrainius“. „Pats pažymėjau tą vaizdų rinkinį ir jis iš tikrųjų galėjo padaryti tik vieną dalyką, ty pasakyti, ar kažkas yra „dešrainis“, ar ne“.

Guo pradėjo pardavinėti savo „dešrainio“ modelį iš šono, bet greitai suprato, kad yra daugiau mokymosi modelio programų, galinčių atpažinti ir pažymėti objektus vaizduose ir vaizdo įrašuose, o ne tik nuogybių aptikimą, todėl 2017 m. jis ir Karpman uždarė savo programas. visą dėmesį skirti įmonės verslui.

Dabar „Hive“ siūlo visų rūšių automatizuotas turinio moderavimo paslaugas su modeliais, kuriuos galima išmokyti aptikti ne tik vaizdus, ​​bet ir toksišką teksto ir garso turinį. Šiuos modelius naudoja įmonės, įskaitant „Reddit“, „Giphy“ ir „Vevo“, siekdamos aptikti ir sustabdyti smurtą, neapykantą kurstančią kalbą, šlamštą, patyčias, savęs žalojimą ir kitą elgesį, kurio nenorėtumėte matyti savo svetainėje ar programoje.

Viena iš pirmųjų „Guo“ sėkmių turinio moderavimo srityje įvyko tiesioginio vaizdo įrašo metu Pokalbių tarnybos „Omegle“ ir „Chatroulette“ kreipėsi į „Hive“, kad padėtų išvalyti jų turinį. Abi bendrovės 2010-ųjų pradžioje išgarsėjo dėl nesugebėjimo susidoroti su problemomis, panašiomis į „dešrainio“ situaciją, todėl išgirdę, kad „Guo“ nulaužė kodą, jos susidomėjo.

“Dabar, – sako Guo, – tos platformos yra 100 procentų švarios. Mėginame kiekvieną vaizdo pokalbį ir galime pažymėti, kai tik kas nors atsiras.” Remiantis atvejo tyrimu, „Hive“ per mėnesį uždaro daugiau nei 1,5 milijono „Chatroulette“ srautų.

Guo sako, kad jo modeliai skirti naudoti be jokios žmogaus pagalbos ar įvesties, ypač patrauklus aspektas didelėms įmonėms, kurioms reikia labai keičiamo dydžio sprendimų.

2021 m. spalį „Microsoft“ paskelbė, kad įsigijo „Two Hat“ – turinio moderavimo tiekėją, orientuotą į internetinių žaidimų pramonę. Kaip ir „Hive“, dauguma „Two Hat“ turinio moderavimo paslaugų veikia be žmogaus sąveikos. Tinklaraščio įraše, kuriame skelbiama apie įsigijimą, „Xbox Product Services“ įmonės viceprezidentas Dave’as McCarthy teigė, kad „Two Hat“ technologija padėjo padaryti pasaulines „Xbox“, „Minecraft“ ir MSN bendruomenes saugesnes vartotojams naudojant labai konfigūruojamą metodą, leidžiantį vartotojui nuspręsti, kas jie yra. ir jiems nėra patogu.

Tačiau kiti turinio moderavimo specialistai mano, kad tikrasis sprendimas yra suderinti tai, ką AI daro gerai, su žmogaus sprendimų priėmimu. „Twitch“, pasaulinė žaidimų, muzikos ir pramogų tiesioginio transliavimo paslauga, kuria vidines programas, kurios naudoja mašininį mokymąsi kartu su žmonėmis, kad pažymėtų įtartiną ir žalingą turinį. Nors tam tikras turinys yra uždraustas visoje platformoje, pvz., nuogybės ir smurtas, „Twitch“ taip pat leidžia transliuotojams pritaikyti turinio moderavimą specialiai savo kanalui.

Pagrindinis šio pritaikymo pavyzdys, pasak „Twitch“ bendruomenės sveikatos produktų direktorės Alison Huffman, yra neseniai išleistas įrankis, pavadintas „Įtartinų vartotojų aptikimas“. Įrankis naudoja mašininį mokymąsi, kad nustatytų naudotojus, kurie sukūrė naują paskyrą, kad išvengtų užblokavimo tam tikrame kanale. Įrankis pažymi galimus draudimo vengiančius asmenis ir leidžia kūrėjams patiems nuspręsti, kaip elgtis.

„Stengiamės sujungti geriausias mašininio mokymosi galimybes, kurios yra keičiamo dydžio ir efektyvios, bet netobulos aptinkant niuansus, su žmogaus atliekama peržiūra, kuri yra ne tokia efektyvi, bet labiau niuansuota ir asmeniška“, – sako Huffmanas.

„Tokiu būdu naudojame mašininį mokymąsi, kad suteiktume kūrėjams informacijos, kuri padėtų jiems priimti geresnius ir greitesnius saugos sprendimus, o galutinis sprendimas būtų paliktas jų rankose.

Leave a Comment