Kodėl dirbtinio intelekto įmonės vertinamos milijonais ir milijardais dolerių, kuriančios ir platinančios įrankius, kurie gali padaryti dirbtinio intelekto sukurtą medžiagą apie seksualinę prievartą prieš vaikus (CSAM)?

Vaizdo generatorius, vadinamas Stable Diffusion versija 1.5, kurį sukūrė AI įmonė „Runway“, finansuodama „Stability AI“, buvo ypač susijęs su CSAM gamyba. Tokios populiarios platformos kaip „Hugging Face“ ir „Civitai“ priglobė šį modelį ir kitas, kurios galėjo būti apmokytos realių vaikų seksualinės prievartos vaizdų. Kai kuriais atvejais įmonės netgi gali pažeisti įstatymus, priglobdamos sintetinę CSAM medžiagą savo serveriuose. Ir kodėl pagrindinės įmonės ir investuotojai, tokie kaip „Google“, „Nvidia“, „Intel“, „Salesforce“ ir Andreesenas Horowitzas, pumpuoja į šias įmones šimtus milijonų dolerių? Jų parama prilygsta pedofilams skirto turinio subsidijavimui.

Kaip dirbtinio intelekto saugos ekspertai, uždavėme šiuos klausimus, norėdami paskambinti šioms įmonėms ir priversti jas imtis taisomųjų veiksmų, kuriuos aprašome toliau. Ir šiandien džiaugiamės galėdami pranešti apie vieną svarbų triumfą: panašu, kad atsakant į mūsų klausimus, „Stable Diffusion“ 1.5 versija buvo pašalinta iš „Hugging Face“. Tačiau dar daug reikia nuveikti, o reikšmingai pažangai gali prireikti teisės aktų.

CSAM problemos apimtis

Vaikų saugos šalininkai pavojaus varpu pradėjo skambinti praėjusiais metais: Stanfordo interneto observatorijos ir technologijų ne pelno organizacijos „Thorn“ tyrėjai 2023 m. birželį paskelbė nerimą keliančią ataskaitą. Jie nustatė, kad plačiai prieinami ir „atvirojo kodo“ AI vaizdų generavimo įrankiai jau buvo naudojami. piktnaudžiauja piktybiniais veikėjais, kad padarytų seksualinės prievartos prieš vaikus medžiagą. Kai kuriais atvejais blogi aktoriai kurdavo savo individualias šių modelių versijas (procesas, vadinamas koregavimu) su tikra seksualinės prievartos prieš vaikus medžiaga, kad sukurtų pagal užsakymą sukurtus konkrečių aukų vaizdus.

Praėjusių metų spalį JK ne pelno siekiančios organizacijos „Internet Watch Foundation“ (kuris valdo karštąją liniją, skirtą pranešimų apie vaikų seksualinę prievartą medžiagą) ataskaitoje išsamiai aprašyta, kaip piktybiški veikėjai dabar labai lengvai kuria fotorealistišką AI sukurtą medžiagą apie seksualinę prievartą prieš vaikus. Tyrėjai įtraukė vieno tamsaus žiniatinklio CSAM forumo „momentinės nuotraukos“ tyrimą, išanalizuodami daugiau nei 11 000 dirbtinio intelekto sukurtų vaizdų, paskelbtų per vieną mėnesį; iš jų beveik 3000 buvo pripažinti pakankamai sunkiais, kad būtų klasifikuojami kaip nusikaltėliai. Ataskaitoje paraginta griežtesnė generatyvinių AI modelių reguliavimo priežiūra.

AI modeliai gali būti naudojami kuriant šią medžiagą, nes jie anksčiau matė pavyzdžių. Stanfordo mokslininkai praėjusį gruodį atrado, kad vienas iš svarbiausių duomenų rinkinių, naudojamų vaizdų generavimo modeliams mokyti, apima tūkstančius CSAM dalių. Daugelis populiariausių atsisiunčiamų atvirojo kodo AI vaizdo generatorių, įskaitant populiarųjį Stable Diffusion 1.5 versijos modelį, buvo apmokyti naudojant šiuos duomenis. Šią „Stable Diffusion“ versiją sukūrė „Runway“, nors „Stability AI“ mokėjo už skaičiavimo galią, skirtą duomenų rinkiniui sukurti ir modeliui parengti, o „Stability AI“ išleido vėlesnes versijas.

Runway neatsakė į prašymą pakomentuoti. „Stability AI“ atstovas pabrėžė, kad bendrovė neišleido ir nepalaikė „Stable Diffusion“ 1.5 versijos, ir teigia, kad bendrovė „įdiegė tvirtas apsaugos priemones“ nuo CSAM vėlesniuose modeliuose, įskaitant filtruotų duomenų rinkinių naudojimą mokymams.

Taip pat praėjusį gruodį socialinės žiniasklaidos analizės įmonės „Graphika“ tyrėjai nustatė, kad daugėja „nurengimo“ paslaugų, kurių daugelis yra pagrįstos atvirojo kodo AI vaizdo generatoriais, įskaitant „Stable Diffusion“. Šios paslaugos leidžia vartotojams įkelti apsirengusias žmonių nuotraukas ir sukurti, kaip ekspertai vadina, nepilnamečių ir suaugusiųjų nesąžiningus intymius vaizdus (NCII), kurie kartais dar vadinami netikra pornografija. Tokias svetaines galima nesunkiai rasti per Google paieškas, o vartotojai už paslaugas gali atsiskaityti kreditinėmis kortelėmis internetu. Daugelis šių paslaugų veikia tik moterims ir mergaitėms, o tokio tipo įrankiai buvo naudojami siekiant nukreipti į įžymybes, pvz., Taylor Swift, ir politikus, pvz., JAV atstovę Alexandria Ocasio-Cortez.

Dirbtinio intelekto sukurtas CSAM turi tikrą poveikį. Vaikų saugos ekosistema jau yra per daug apmokestinta, o kasmet karštosioms linijoms pranešama apie milijonus bylų apie įtariamą CSAM. Viskas, kas papildo tą turinio srautą, ypač fotorealistiška prievartos medžiaga, apsunkina vaikų, kurie aktyviai kenkia, paieška. Dar blogiau yra tai, kad kai kurie kenkėjiški veikėjai naudoja esamą CSAM, kad sukurtų sintetinius šių išgyvenusiųjų vaizdus – tai siaubingai pakartotinai pažeidžia jų teises. Kiti naudoja lengvai pasiekiamas „nuoginimo“ programas, kad sukurtų seksualinį turinį iš gerybinių tikrų vaikų vaizdų, o vėliau naudoja tą naujai sukurtą turinį seksualinio prievartavimo schemose.

Viena pergalė prieš dirbtinio intelekto sukurtą CSAM

Remiantis praėjusių metų gruodžio mėn. Stanfordo tyrimu, dirbtinio intelekto bendruomenėje gerai žinoma, kad „Stable Diffusion 1.5“ buvo apmokytas apie seksualinę prievartą prieš vaikus, kaip ir visi kiti modeliai, apmokyti naudojant LAION-5B duomenų rinkinį. Šiais modeliais piktybiniai veikėjai aktyviai piktnaudžiauja, kad sukurtų dirbtinio intelekto sukurtą CSAM. Ir net tada, kai jie naudojami kuriant daugiau nekenksmingos medžiagos, jų naudojimas iš esmės atgaivina vaikus, kurių prievartos vaizdai buvo įtraukti į jų mokymo duomenis. Taigi paklausėme populiarių AI prieglobos platformų „Hugging Face“ ir „Civitai“, kodėl jos priglobė „Stable Diffusion 1.5“ ir išvestinius modelius, todėl juos galima nemokamai atsisiųsti?

Verta paminėti, kad Integrity Institute duomenų mokslininkas Jeffas Allenas nustatė, kad „Stable Diffusion 1.5“ per pastarąjį mėnesį iš „Hugging Face“ buvo atsisiųsta daugiau nei 6 milijonus kartų, todėl tai yra populiariausias AI vaizdo generatorius platformoje.

Kai paklausėme Hugging Face, kodėl ji ir toliau priglobė modelį, įmonės atstovė Brigitte Tousignant tiesiogiai į klausimą neatsakė, o pareiškė, kad bendrovė netoleruoja CSAM savo platformoje, kad joje yra įvairių saugos priemonių ir kad ji skatina bendruomenę naudoti saugaus stabilaus sklaidos modelį, kuris identifikuoja ir slopina netinkamus vaizdus.

Tada vakar patikrinome Hugging Face ir nustatėme, kad „Stable Diffusion 1.5“ nebėra. Tousignant mums pasakė, kad Hugging Face jo nepanaikino, ir pasiūlė susisiekti su Runway – tai ir padarėme, bet atsakymo dar negavome.

Neabejotinai sėkmė, kad šio modelio nebegalima atsisiųsti iš „Hugging Face“. Deja, jį vis dar galima įsigyti „Civitai“, kaip ir šimtus išvestinių modelių. Kai susisiekėme su „Civitai“, atstovas spaudai mums pasakė, kad jie nežino, kokius mokymo duomenis naudojo „Stable Diffusion 1.5“, ir kad jie pašalins juos tik tuo atveju, jei bus piktnaudžiavimo įrodymų.

Platformos turėtų jaudintis dėl savo atsakomybės. Praėjusią savaitę buvo sulaikytas Pavelas Durovas, žinučių siuntimo programėlės „Telegram“ generalinis direktorius, vykdant tyrimą, susijusį su CSAM ir kitais nusikaltimais.

Kas daroma dėl dirbtinio intelekto sukurto CSAM

Nuolatinis nerimą keliančių ataskaitų ir naujienų apie dirbtinio intelekto sukurtą CSAM ir NCII dūzgimas nenutrūko. Nors kai kurios įmonės bando pagerinti savo gaminių saugą pasitelkdamos Techninę koaliciją, kokią pažangą matėme sprendžiant platesnę problemą?

Balandžio mėn. Thorn ir All Tech Is Human paskelbė apie iniciatyvą suburti pagrindines technologijų įmones, generatyvaus AI kūrėjus, modelių prieglobos platformas ir kt., siekiant apibrėžti ir įsipareigoti laikytis saugos pagal projektavimo principus, pagal kuriuos pagrindinis dėmesys skiriamas vaikų seksualinės prievartos prevencijai. produkto kūrimo procesas. Dešimt įmonių (įskaitant „Amazon“, „Civitai“, „Google“, „Meta“, „Microsoft“, „OpenAI“ ir „Stability AI“) įsipareigojo laikytis šių principų, o keletas kitų prisijungė prie susijusio dokumento su išsamesnėmis rekomenduojamomis švelninimo priemonėmis. Principai ragina įmones kurti, diegti ir prižiūrėti AI modelius, kurie aktyviai sprendžia vaikų saugos riziką; sukurti sistemas, užtikrinančias, kad bet kokia piktnaudžiavimo medžiaga, kuri pagaminama, būtų patikimai aptikta; ir apriboti pagrindinių modelių ir paslaugų, naudojamų siekiant padaryti šią piktnaudžiavimo medžiagą, platinimą.

Tokie savanoriški įsipareigojimai yra pradžia. Rebecca Portnoff, Thorn duomenų mokslo vadovė, teigia, kad iniciatyva siekiama atskaitomybės reikalaujant, kad įmonės pateiktų ataskaitas apie pažangą, susijusią su švelninimo žingsniais. Ji taip pat bendradarbiauja su standartus nustatančiomis institucijomis, tokiomis kaip IEEE ir NIST, siekdama integruoti jų pastangas į naujus ir esamus standartus, atverdama duris trečiųjų šalių auditams, kurie „peržengtų garbės sistemą“, sako Portnoffas. Portnoffas taip pat pažymi, kad Thorn bendradarbiauja su politikos formuotojais, kad padėtų jiems sukurti teisės aktus, kurie būtų ir techniškai įmanomi, ir veiksmingi. Iš tiesų, daugelis ekspertų teigia, kad laikas atsisakyti savanoriškų įsipareigojimų.

Manome, kad šiuo metu dirbtinio intelekto pramonėje vyksta beatodairiškos lenktynės į dugną. Įmonės taip įnirtingai kovoja, kad būtų techniškai todėl daugelis jų nepaiso etiškas ir galbūt net legalus jų gaminių pasekmes. Nors kai kurios vyriausybės, įskaitant Europos Sąjungą, daro pažangą reguliuodamos dirbtinį intelektą, jos nenuėjo pakankamai toli. Pavyzdžiui, jei pagal įstatymus būtų draudžiama teikti dirbtinio intelekto sistemas, kurios gali gaminti CSAM, technologijų įmonės gali į tai atkreipti dėmesį.

Realybė tokia, kad nors kai kurios įmonės laikysis savanoriškų įsipareigojimų, daugelis jų nesilaikys. Ir iš tų, kurie tai daro, daugelis veiksmų imsis per lėtai, nes nėra pasiruošę arba stengiasi išlaikyti savo konkurencinį pranašumą. Tuo tarpu piktybiški veikėjai patrauks į šias paslaugas ir sukels sumaištį. Toks rezultatas yra nepriimtinas.

Ką technologijų įmonės turėtų daryti dėl dirbtinio intelekto sukurto CSAM

Ekspertai pastebėjo, kad ši problema kyla iš mylios, o vaikų saugos gynėjai rekomendavo sveiko proto strategijas, kaip su ja kovoti. Jei praleisime šią galimybę ką nors padaryti, kad ištaisytume situaciją, mes visi prisiimsime atsakomybę. Mažiausiai visos įmonės, įskaitant tas, kurios išleidžia atvirojo kodo modelius, turėtų būti teisiškai įpareigotos laikytis įsipareigojimų, nustatytų Thorn’s Safety by Design principuose:

  • Aptikti, pašalinti ir pranešti apie CSAM iš jų mokymo duomenų rinkinių prieš mokydami generuojančius AI modelius.
  • Įtraukite tvirtus vandens ženklus ir turinio kilmės sistemos į savo generatyvius AI modelius, todėl sugeneruoti vaizdai gali būti susieti su juos sukūrusiais modeliais, kaip reikalaujama pagal Kalifornijos įstatymo projektą, kuris sukurtų Skaitmeninio turinio kilmės standartai įmonėms, kurios vykdo verslą valstybėje. Tikimasi, kad įstatymo projektą artimiausią mėnesį turės pasirašyti gubernatorius Gavinas Newsonas.
  • Pašalinkite iš savo platformų visus generuojančius AI modelius, kurie, kaip žinoma, yra išmokyti naudoti CSAM arba gali sukurti CSAM. Atsisakykite iš naujo priglobti šiuos modelius, nebent jie buvo visiškai atkurti pašalinus CSAM.
  • Nustatykite modelius, kurie buvo sąmoningai sureguliuoti naudojant CSAM, ir visam laikui pašalinkite juos iš savo platformų.
  • Pašalinkite „nuogias“ programas iš programų parduotuvių, užblokuokite šių įrankių ir paslaugų paieškos rezultatus ir bendradarbiaukite su mokėjimo teikėjais, kad užblokuotumėte mokėjimus jų kūrėjams.

Nėra jokios priežasties, kodėl generatyvusis dirbtinis intelektas turi padėti ir skatinti siaubingą vaikų išnaudojimą. Tačiau mums reikės visų turimų įrankių – savanoriškų įsipareigojimų, reguliavimo ir visuomenės spaudimo, kad pakeistume kursą ir sustabdytume lenktynes ​​iki dugno.

Autoriai dėkoja Rebecca Portnoff Erškėčio, Davidas Thielis Stanfordo interneto observatorijoje, Jeffas Allenas Integrity Institute, Ravitas Dotanas TechBetter ir technologijų politikos tyrinėtojas Owenas Doyle’as už pagalbą rengiant šį straipsnį.

Iš jūsų svetainės straipsnių

Susiję straipsniai visame internete



Source link

By admin

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -