Galbūt jau skaitėte apie Gary Marcuso liudijimą Senate 2023 m. gegužės mėn., kai jis sėdėjo šalia Samo Altmano ir ragino griežtai reguliuoti Altmano įmonę „OpenAI“, taip pat kitas technologijų įmones, kurios staiga atsidūrė visapusiškai. AI. Galbūt jūs pastebėjote kai kuriuos jo ginčus „Twitter“ su Geoffrey Hintonu ir Yannu LeCunu, dviem vadinamaisiais „AI krikštatėviais“. Vienaip ar kitaip, dauguma žmonių, kurie šiandien atkreipia dėmesį į dirbtinį intelektą, žino Gary Marcuso vardą ir žino, kad jis nėra patenkintas dabartine DI būkle.

Savo naujoje knygoje jis išsamiai išdėsto savo rūpesčius, Silicio slėnio prisijaukinimas: kaip galime užtikrinti, kad dirbtinis intelektas veiktų mumskurį šiandien paskelbė MIT Press. Marcusas susiduria su tiesioginiais generatyvaus AI keliamais pavojais, įskaitant tokius dalykus kaip masiškai gaminama dezinformacija, lengvas netikros pornografijos kūrimas ir kūrybinės intelektinės nuosavybės vagystės, kad galėtų parengti naujus modelius (jis neįtraukia AI apokalipsės kaip pavojaus , jis nėra pasmerktas). Jis taip pat ginčijasi, kaip Silicio slėnis manipuliavo viešąja nuomone ir vyriausybės politika, ir paaiškina savo idėjas, kaip reguliuoti dirbtinio intelekto įmones.

Marcusas studijavo kognityvinius mokslus pas legendinį Steveną Pinkerį, daug metų buvo Niujorko universiteto profesorius ir įkūrė dvi dirbtinio intelekto įmones – Geometric Intelligence ir Robust.AI. Jis kalbėjo su IEEE spektras apie jo kelią iki šio taško.

Kokia buvo jūsų pirmoji pažintis su AI?

Garis MarkusasBenas Wongas

Gary Marcus: Na, koduoti pradėjau būdama aštuonerių metų. Viena iš priežasčių, kodėl galėjau praleisti paskutinius dvejus vidurinės mokyklos metus, buvo ta, kad savo Commodore 64 logotipe parašiau vertėją iš lotynų į anglų kalbą programavimo kalba. Taigi, būdamas 16 metų, jau buvau kolegijoje ir dirba dirbtinio intelekto bei pažinimo mokslų srityje.

Taigi jūs jau domėjotės dirbtiniu intelektu, bet studijavote pažinimo mokslus ir bakalauro studijose, ir doktorantūroje. MIT.

Marcusas: Dalis priežasčių, kodėl stojau į pažinimo mokslą, yra ta, kad maniau, kad jei suprasčiau, kaip žmonės galvoja, tai gali paskatinti naujus požiūrius į AI. Įtariu, kad norint sukurti tikrai pažangų dirbtinį intelektą, reikia plačiau pažvelgti į tai, kaip veikia žmogaus protas. Kaip mokslininkas ir filosofas, sakyčiau, vis dar nežinoma, kaip sukursime dirbtinį bendrąjį intelektą ar net tiesiog patikimą bendrą AI. Tačiau mes negalėjome to padaryti su šiais dideliais statistiniais modeliais ir suteikėme jiems didžiulę galimybę. Iš esmės buvo išleista 75 milijardai dolerių generuojamajam AI, dar 100 milijardų dolerių – automobiliams be vairuotojų. Ir nė vienas iš jų tikrai nesukūrė stabilaus AI, kuriuo galėtume pasitikėti. Mes tiksliai nežinome, ką turime daryti, bet turime rimtą priežastį manyti, kad vien tik padidinimas neveiks. Dabartinis požiūris nuolat susiduria su tomis pačiomis problemomis.

Kokias matote pagrindines problemas, su kuriomis ji nuolat susiduria?

Marcusas: Numeris vienas yra haliucinacijos. Šios sistemos sutepa daug žodžių ir sugalvoja dalykų, kurie kartais yra tiesa, o kiti ne. Netiesa, kaip sakydamas, kad turiu naminę vištą, vardu Henrieta. Ir jie tai daro daug. Mes matėme, kad tai vyksta, pavyzdžiui, teisininkams rašant trumpus dokumentus su išgalvotomis bylomis.

Antra, jų samprotavimai labai prasti. Pastaruoju metu mano mėgstamiausi pavyzdžiai yra šie upės kirtimo žodiniai uždaviniai, kai jūs turite vyrą ir kopūstą, vilką ir ožką, kuriuos reikia įveikti. Sistema turi daug įsimintų pavyzdžių, bet nelabai supranta, kas vyksta. Jei pateikiate paprastesnę problemą, pavyzdžiui, Dougas Hofstadteris, kurį man atsiuntė: „Vyras ir moteris turi valtį ir nori perplaukti upę. Ką jie daro?” Atrodo toks beprotiškas sprendimas, kai žmogus eina per upę, palieka ten valtį, plaukia atgal, nutinka kažkas ar kita.

Kartais jis atsineša kopūstą, tik dėl malonumo.

Marcusas: Taigi tai yra neprotingos samprotavimo klaidos, kai kažkas akivaizdžiai negerai. Kiekvieną kartą, kai nurodome šias klaidas, kažkas sako: „Taip, bet mes gausime daugiau duomenų. Mes tai sutvarkysime“. Na, aš tai girdžiu beveik 30 metų. Ir nors padaryta tam tikra pažanga, pagrindinės problemos nepasikeitė.

Grįžkime į 2014 m., kai įkūrėte savo pirmąją AI įmonę „Geometric Intelligence“. Įsivaizduoju, kad tuo metu dėl AI jautėtės labiau pasipūtę?

Marcusas: Taip, aš buvau daug kvailesnis. Buvau paklusnesnis ne tik dėl techninės pusės. Taip pat labiau mėgavausi žmonėmis, kurie gerai naudojasi AI. AI anksčiau jautėsi kaip maža žmonių, kurie tikrai norėjo padėti pasauliui, tyrinėtojų bendruomenė.

Taigi kada užklupo nusivylimas ir abejonės?

Marcusas: 2018 m. jau maniau, kad gilus mokymasis yra per daug garsinamas. Tais metais parašiau šį kūrinį pavadinimu „Gilus mokymasis, kritinis įvertinimas“, kurio Yann LeCun tuo metu tikrai nekentė. Aš jau nebuvau patenkintas šiuo požiūriu ir nemaniau, kad tai pavyks. Bet tai ne tas pats, kas nusivilti, tiesa?

Tada, kai išpopuliarėjo dideli kalbų modeliai (apie 2019 m.), iš karto pagalvojau, kad tai bloga idėja. Tiesiog maniau, kad tai yra neteisingas būdas siekti AI filosofiniu ir techniniu požiūriu. Ir tapo aišku, kad žiniasklaidą ir kai kuriuos mašininio mokymosi žmones vilioja ažiotažas. Tai mane trikdė. Taigi 2020 m. rašiau kūrinius apie GPT-3 (ankstyvą OpenAI didelės kalbos modelio versiją) kaip kvailą menininką. Kaip mokslininkas tuo metu buvau gerokai nusivylęs šia sritimi. Ir tada viskas pablogėjo, kai 2022 m. pasirodė „ChatGPT“, ir didžioji pasaulio dalis prarado bet kokią perspektyvą. Ėmiau vis labiau nerimauti dėl klaidingos informacijos ir kaip dideli kalbos modeliai tai sustiprins.

Jūs nerimavote ne tik dėl startuolių, bet ir dėl didelių įsitvirtinusių technologijų kompanijų, kurios šoktelėjo į generatyvų AI traukinį, tiesa? Kaip Microsoft, kuri bendradarbiauja su OpenAI?

Marcusas: Paskutinis lašas, privertęs mane pereiti nuo dirbtinio intelekto tyrimų prie politikos kūrimo, buvo tada, kai tapo aišku, kad „Microsoft“ žengs į priekį, kad ir kas būtų. Tai labai skyrėsi nuo 2016 m., kai jie išleido (ankstyvą pokalbių robotą, pavadintą) Tay. Tai buvo blogai, jie išėmė jį iš rinkos po 12 valandų, o tada Bradas Smithas parašė knygą apie atsakingą AI ir tai, ką jie išmoko. Tačiau 2023 m. vasario mėn. pabaigoje buvo aišku, kad „Microsoft“ iš tikrųjų pakeitė savo mąstymą apie tai. Ir tada jie turėjo šį juokingą „AGI kibirkščių“ popierių, kuris, mano nuomone, buvo didžiausias ažiotažas. Ir jie nenuvertė Sidnėjaus po beprotiško Kevino Roose pokalbio, kai (pokalbių robotas) Sidnėjus liepė jam skirtis ir visa tai. Tiesiog man tapo aišku, kad Silicio slėnio nuotaika ir vertybės tikrai pasikeitė, ir ne į gerą pusę.

Taip pat nusivyliau JAV vyriausybe. Manau, kad Bideno administracija gerai atliko savo vykdomąjį įsakymą. Tačiau tapo aišku, kad Senatas nesiruošia imtis reikiamų veiksmų. Senate kalbėjau 2023 m. gegužę. Tuo metu jaučiau, kad abi šalys pripažino, kad negalime viso to palikti savireguliacijai. Ir tada per pastaruosius metus nusivyliau (Kongresu), ir tai paskatino parašyti šią knygą.

Jūs daug kalbate apie rizikas, būdingas šiandieninei AI technologijai. Bet tada jūs taip pat sakote: „Tai neveikia labai gerai“. Ar tie du požiūriai nuoseklūs?

Marcusas: Buvo antraštė: „Gary Marcusas vadino AI kvailu, o dabar jis vadina jį pavojingu“. Tai reiškia, kad šie du dalykai negali egzistuoti kartu. Tačiau iš tikrųjų jie egzistuoja kartu. Vis dar manau, kad gen AI yra kvailas ir juo tikrai negalima pasitikėti ar juo tikėtis. Ir vis dėlto tai pavojinga. O tam tikras pavojus iš tikrųjų kyla dėl jo kvailumo. Pavyzdžiui, tai nėra gerai pagrįsta pasaulyje, todėl blogam aktoriui lengva manipuliuoti, sakydamas visokias šiukšles. Dabar gali atsirasti DI, kuris gali būti pavojingas dėl kitos priežasties, nes jis toks protingas ir gudrus, kad atbaido žmones. Bet tai nėra dabartinė padėtis.

Sakėte, kad generatyvusis AI yra burbulas, kuris netrukus sprogs. Kodėl taip manai?

Marcusas: Paaiškinkime: nemanau, kad generatyvinis AI išnyks. Kai kuriems tikslams tai puikus metodas. Norite sukurti automatinį užbaigimą, tai geriausias kada nors išrastas metodas. Tačiau yra finansinis burbulas, nes žmonės vertina dirbtinio intelekto įmones taip, lyg jos ketintų išspręsti dirbtinio bendro intelekto problemą. Mano nuomone, tai nėra realu. Nemanau, kad esame netoli AGI. Tada jums belieka atsakyti į klausimą: „Gerai, ką galite padaryti su generuojamuoju AI?

Praėjusiais metais, kadangi Samas Altmanas buvo toks geras pardavėjas, visi fantazavo, kad netrukus turėsime AGI ir kad galėtumėte naudoti šį įrankį visais kiekvienos korporacijos aspektais. Ir visa krūva įmonių išleido krūvą pinigų, išbandydamos generatyvųjį AI įvairiems dalykams. Taigi jie tam praleido 2023 m. Tada tai, ką matėte 2024 m., yra ataskaitos, kuriose mokslininkai kreipiasi į „Microsoft Copilot“ naudotojus – ne kodavimo įrankį, o bendresnį AI įrankį – ir jie sako: „Taip, tai tikrai neveikia taip gerai. . Pernai buvo daug tokių atsiliepimų.

Realybė yra tokia, kad šiuo metu AI įmonės iš tikrųjų praranda pinigus. Praėjusiais metais „OpenAI“ veiklos nuostolis siekė maždaug 5 mlrd. Galbūt galite parduoti 2 milijardų dolerių vertės gen AI žmonėms, kurie eksperimentuoja. Bet jei jie nepriims jo visam laikui ir nesumokės daug daugiau pinigų, tai neveiks. OpenAI pradėjau vadinti galimu AI WeWork po to, kai jis buvo įvertintas 86 mlrd. Matematika man tiesiog nebuvo prasminga.

Kas wAr reikės įtikinti jus, kad klystate? Koks būtų galvos sukimo momentas?

Marcusas: Na, aš pateikiau daug įvairių teiginių, ir visi jie gali būti klaidingi. Kalbant apie techninę pusę, jei kas nors galėtų sukurti grynai didelės kalbos modelį, kad neliktų haliucinacijų ir visą laiką būtų galima patikimai samprotauti, aš klysčiau dėl to paties pagrindinio teiginio, kurį pateikiau apie tai, kaip šie dalykai veikia. Taigi tai būtų vienas iš būdų mane paneigti. To dar neįvyko, bet bent jau logiškai įmanoma.

Dėl finansinės pusės galiu lengvai klysti. Tačiau burbulai yra tai, kad jie dažniausiai yra psichologijos funkcija. Ar aš manau, kad rinka racionali? Ne. Taigi net jei šie daiktai neuždirbs pinigų ateinančius penkerius metus, žmonės galėtų ir toliau į juos pilti pinigų.

Vieta, kurioje norėčiau įrodyti, kad klystu, yra JAV Senatas. Jie galėtų susitvarkyti, tiesa? Bėgau aplinkui sakydamas: „Jie juda nepakankamai greitai“, bet norėčiau, kad man būtų įrodyta, kad dėl to klystu. Knygoje pateikiau 12 didžiausių generatyvaus AI pavojų sąrašą. Jei Senatas priimtų kažką, kas iš tikrųjų būtų skirta visiems 12, mano cinizmas būtų buvęs klaidingas. Jaučiausi taip, lyg būčiau sugaišęs metus rašydamas knygą, ir būčiau labai labai laimingas.

Iš jūsų svetainės straipsnių

Susiję straipsniai visame internete



Source link

By admin

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *