Prisijunkite prie mūsų kasdienių ir savaitinių naujienlaiškių, kad gautumėte naujausių naujienų ir išskirtinio turinio apie pramonėje pirmaujančią AI aprėptį. Sužinokite daugiau
Nors 2024 m. JAV rinkimuose pagrindinis dėmesys buvo skiriamas tradiciniams klausimams, pvz., ekonomikai ir imigracijai, jų tylus poveikis dirbtinio intelekto politikai gali pasirodyti dar labiau transformuojantis. Neturėdami nė vieno diskusijų klausimo ar didelio kampanijos pažado apie DI, rinkėjai netyčia persuko svarstykles akceleracijos šalininkų naudai – tų, kurie pasisako už greitą AI plėtrą su minimaliomis reguliavimo kliūtimis. Šio pagreičio pasekmės yra gilios, skelbiančios naują AI politikos erą, kuri teikia pirmenybę naujovėms, o ne atsargumui, ir signalizuoja apie ryžtingą diskusijų tarp galimos AI rizikos ir naudos pasikeitimą.
Išrinkto prezidento Donaldo Trumpo verslui palanki pozicija verčia daugelį manyti, kad jo administracija bus palanki tiems, kurie kuria ir parduoda AI ir kitas pažangias technologijas. Jo partijos platforma mažai ką pasako apie AI. Tačiau jame pabrėžiamas politinis požiūris, orientuotas į AI reglamentų panaikinimą, ypač nukreipiant į tai, ką jie apibūdino kaip „radikalias kairiąsias idėjas“ esamuose kadenciją baigiančios administracijos vykdomuosiuose įsakymuose. Priešingai, platforma palaikė dirbtinio intelekto plėtrą, kuria siekiama skatinti žodžio laisvę ir „žmonių klestėjimą“, ragindama politiką, kuri įgalintų dirbtinio intelekto naujoves, tuo pačiu prieštaraudama priemonėms, kurios, kaip manoma, trukdo technologijų pažangai.
Ankstyvieji požymiai, pagrįsti paskyrimais į vadovaujančias pareigas vyriausybėje, pabrėžia šią kryptį. Tačiau atsiskleidžia didesnė istorija: intensyvių diskusijų dėl AI ateities sprendimas.
Intensyvi diskusija
Nuo tada, kai „ChatGPT“ pasirodė 2022 m. lapkritį, tarp AI srities dirbančiųjų, norinčių paspartinti AI plėtrą, ir tų, kurie nori sulėtinti, kilo įnirtingos diskusijos.
Žinoma, 2023 m. kovo mėn. pastaroji grupė pasiūlė šešių mėnesių dirbtinio intelekto pertrauką kuriant pažangiausias sistemas, atvirame laiške įspėdama, kad dirbtinio intelekto įrankiai kelia „didžiulį pavojų visuomenei ir žmonijai“. Šį laišką, kuriam vadovavo Future of Life institutas, paskatino OpenAI išleistas GPT-4 didžiosios kalbos modelis (LLM), praėjus keliems mėnesiams po ChatGPT paleidimo.
Iš pradžių laišką pasirašė daugiau nei 1000 technologijų lyderių ir tyrėjų, įskaitant Eloną Muską, „Apple“ įkūrėją Steve’ą Wozniaką, kandidatą į 2020 m. prezidentus Andrew Yangą, internetinių transliuotojų Lexą Fridmaną ir AI pradininkus Yoshua Bengio ir Stuartą Russellą. Laiško signatarų skaičius galiausiai išaugo iki daugiau nei 33 000. Kartu jie tapo žinomi kaip „pasmerkėjai“ – terminas, reiškiantis jų susirūpinimą dėl galimos AI keliamos egzistencinės rizikos.
Ne visi sutiko. „OpenAI“ generalinis direktorius Samas Altmanas nepasirašė. To nepadarė ir Billas Gatesas bei daugelis kitų. Priežastys, kodėl jie to nedarė, skyrėsi, nors daugelis išreiškė susirūpinimą dėl galimos dirbtinio intelekto žalos. Tai paskatino daugybę pokalbių apie AI galimybę pabėgti ir sukelti nelaimę. Daugeliui dirbtinio intelekto srityje tapo madinga kalbėti apie savo įvertintą pražūties tikimybę, dažnai vadinamą lygtimi: p(doom). Nepaisant to, dirbtinio intelekto kūrimo darbas nesustojo.
Beje, mano p(doom) 2023 m. birželį buvo 5 proc. Tai gali atrodyti mažai, bet tai nebuvo nulis. Jaučiau, kad pagrindinės dirbtinio intelekto laboratorijos nuoširdžiai stengėsi griežtai išbandyti naujus modelius prieš išleidžiant ir suteikdamos svarbius apsauginius turėklus jų naudojimui.
Daugelis stebėtojų, susirūpinusių dėl dirbtinio intelekto pavojų, egzistencinę riziką įvertino daugiau nei 5%, o kai kurie – daug aukštesnius. DI saugos tyrinėtojas Romanas Yampolskis įvertino tikimybę, kad AI baigs žmoniją daugiau nei 99%. Tačiau šių metų pradžioje, gerokai prieš rinkimus, atliktas tyrimas, kuriame dalyvavo daugiau nei 2700 DI tyrėjų nuomonės, parodė, kad „itin blogų padarinių, tokių kaip žmonių išnykimas, mediana buvo 5 proc.“. Ar sėstumėte į lėktuvą, jei būtų 5% tikimybė, kad jis sudužtų? Su tokia dilema susiduria dirbtinio intelekto tyrinėtojai ir politikos formuotojai.
Turi eiti greičiau
Kiti atvirai atmetė nerimą dėl dirbtinio intelekto, vietoj to atkreipdami dėmesį į tai, ką jie suprato kaip didžiulį technologijos pranašumą. Tai Andrew Ng (kuris įkūrė ir vadovavo „Google Brain“ projektui) ir Pedro Domingosas (Vašingtono universiteto kompiuterių mokslo ir inžinerijos profesorius ir knygos „Pagrindinis algoritmas“ autorius). Vietoj to jie teigė, kad AI yra sprendimo dalis. Kaip teigia Ng, iš tiesų egzistuoja egzistenciniai pavojai, tokie kaip klimato kaita ir būsimos pandemijos, o dirbtinis intelektas gali būti jų sprendimo ir mažinimo dalis.
Ng teigė, kad dirbtinio intelekto plėtra neturėtų būti pristabdyta, o turėtų vykti greičiau. Šį utopinį požiūrį į technologijas pakartojo kiti, kurie bendrai vadinami „efektyviais akseleratoriais“ arba trumpiau „e/acc“. Jie teigia, kad technologijos – ir ypač AI – yra ne problema, o daugelio, jei ne visų, pasaulio problemų sprendimas. Paleisties greitintuvo „Y Combinator“ generalinis direktorius Garry Tanas kartu su kitais žymiais Silicio slėnio lyderiais įtraukė terminą „e/acc“ į savo X naudotojų vardus, kad parodytų atitikimą vizijai. Žurnalistas Kevinas Roose’as iš „New York Times“ užfiksavo šių akceleratorių esmę sakydamas, kad jie turi „visų dujų, be stabdžių metodą“.
Prieš porą metų išleistame „Substack“ informaciniame biuletenyje buvo aprašyti veiksmingo akceleracijos principai. Pateikiame jų siūlomą santrauką straipsnio pabaigoje ir „OpenAI“ generalinio direktoriaus Samo Altmano komentarą.
Laukia AI pagreitis
2024 m. rinkimų rezultatai gali būti vertinami kaip lūžio taškas, dėl kurio akceleracijos vizija gali formuoti JAV AI politiką kelerius ateinančius metus. Pavyzdžiui, išrinktasis prezidentas neseniai paskyrė technologijų verslininką ir rizikos kapitalistą Davidą Sacksą „AI caru“.
Sacksas, garsus AI reguliavimo kritikas ir rinkos skatinamų naujovių šalininkas, savo, kaip technologijų investuotojo, patirtį įneša į šį vaidmenį. Jis yra vienas iš pirmaujančių AI industrijos balsų, ir didžioji dalis to, ką jis pasakė apie AI, sutampa su naujos partijos platformos išsakytais akceleracijos požiūriais.
Atsakydamas į Bideno administracijos 2023 m. AI vykdomąjį įsakymą, Sacksas tviteryje parašė: „JAV politinė ir fiskalinė padėtis yra beviltiškai palaužta, bet mes turime vieną neprilygstamą turtą kaip šalis: pažangiausias dirbtinio intelekto naujoves, kurias skatina visiškai nemokama ir nereguliuojama programinės įrangos kūrimo rinka. Tai ką tik baigėsi.” Nors Sackso įtaka dirbtinio intelekto politikai dar nepastebėta, jo paskyrimas rodo perėjimą prie politikos, skatinančios pramonės savireguliaciją ir greitas inovacijas.
Rinkimai turi pasekmių
Abejoju, ar dauguma balsuojančių visuomenės daug galvojo apie AI politikos pasekmes, balsuodami. Nepaisant to, labai apčiuopiamu būdu po rinkimų laimėjo akceleracijos šalininkai, galbūt nustumdami į šalį tuos, kurie pasisako už atsargesnį federalinės vyriausybės požiūrį siekiant sumažinti ilgalaikę AI riziką.
Akseleratoriams nubrėžus kelią į priekį, statymas negalėjo būti didesnis. Ar ši era atneš neprilygstamą pažangą, ar nenumatyta katastrofa, dar reikia pamatyti. DI plėtrai spartėjant, vis svarbesnis tampa informuoto viešojo diskurso ir budrios priežiūros poreikis. Tai, kaip pereisime šioje eroje, nulems ne tik technologijų pažangą, bet ir mūsų bendrą ateitį.
Kaip atsvara veiksmų stokai federaliniu lygiu, gali būti, kad viena ar kelios valstijos priims įvairius reglamentus, o tai jau tam tikru mastu įvyko Kalifornijoje ir Kolorado valstijoje. Pavyzdžiui, Kalifornijos AI saugos sąskaitose daugiausia dėmesio skiriama skaidrumo reikalavimams, o Koloradas sprendžia DI diskriminaciją samdant praktiką, siūlydamas valstijos lygio valdymo modelius. Dabar visų žvilgsniai bus nukreipti į savanoriškus Anthropic, Google, OpenAI ir kitų dirbtinio intelekto modelių kūrėjų testavimus ir pačių sukurtus apsauginius turėklus.
Apibendrinant galima pasakyti, kad akceleracininkų pergalė reiškia mažiau apribojimų dirbtinio intelekto naujovėms. Padidėjęs greitis iš tiesų gali paskatinti greitesnes naujoves, bet taip pat padidina nenumatytų pasekmių riziką. Dabar peržiūriu savo p(doom) iki 10%. Kas yra tavo?
Gary Grossman yra Edelman technologijų praktikos EVP ir pasaulinis Edelman AI kompetencijos centro vadovas.
DataDecisionMakers
Sveiki atvykę į VentureBeat bendruomenę!
„DataDecisionMakers“ yra vieta, kur ekspertai, įskaitant techninius žmones, atliekančius duomenų darbą, gali dalytis su duomenimis susijusiomis įžvalgomis ir naujovėmis.
Jei norite sužinoti apie pažangiausias idėjas ir naujausią informaciją, geriausią praktiką ir duomenų bei duomenų technologijų ateitį, prisijunkite prie mūsų „DataDecisionMakers“.
Jūs netgi galite apsvarstyti galimybę parašyti savo straipsnį!
Skaitykite daugiau iš DataDecisionMakers
Source link