Diskusijos dėl atvirojo kodo: kodėl selektyvus skaidrumas kelia rimtą riziką


Prisijunkite prie mūsų kasdienių ir savaitinių informacinių biuletenių, kad gautumėte naujausius atnaujinimus ir išskirtinį turinį apie pramonės šakos pirmaujančią AI aprėptį. Sužinokite daugiau


Kai technologijų milžinai skelbia, kad jų AI išleidimai yra atviri – ir netgi įdėkite žodį į savo vardus – kadaise viešai neatskleistas terminas „atvirasis kodas“ įsiveržė į šiuolaikinį zeitgeistą. Šiuo nestabiliu metu, kai vienos įmonės klaidos galėjo atgauti visuomenės komfortą AI per dešimtmetį ar daugiau, atvirumas ir skaidrumo sąvokos yra naudojamos atsitiktinai, o kartais ir nesąžiningai, veisti pasitikėjimą.

Tuo pačiu metu, kai naujoji Baltųjų rūmų administracija laikėsi labiau atsargų požiūrio į technologijų reguliavimą, buvo nubrėžtos mūšio linijos-naujovės prieš reguliavimą ir numatant skaudžias pasekmes, jei vyrauja „neteisinga“ pusė.

Tačiau yra trečias būdas, kuris buvo išbandytas ir įrodytas per kitas technologinių pokyčių bangas. Remiantis atvirumo ir skaidrumo principais, tikrasis atvirojo kodo bendradarbiavimas atrakina greitesnį naujovių procentą, net jei tai suteikia pramonei plėtoti neobjektyvią, etišką ir naudingą visuomenei.

Suprasti tikrojo atvirojo kodo bendradarbiavimo galią

Paprasčiau tariant, atvirojo kodo programinės įrangos funkcijos yra laisvai prieinamas šaltinio kodas, kurį galima peržiūrėti, modifikuoti, išpjaustyti, priimti ir pasidalyti komerciniais ir nekomerciniais tikslais-ir istoriškai tai buvo monumentali veisimo naujovėms. Pavyzdžiui, atvirojo kodo pasiūlymai „Linux“, „Apache“, „MySQL“ ir PHP išlaisvino internetą, kaip mes jį žinome.

Dabar, demokratizuodama prieigą prie AI modelių, duomenų, parametrų ir atvirojo kodo AI įrankių, bendruomenė gali dar kartą išleisti greitesnes naujoves, užuot nuolat atkurianti ratą-todėl neseniai atliktas IBM tyrimas, kuriame dalyvavo 2400 IT sprendimų priėmėjų, atskleidė didėjantį susidomėjimą naudoti atvirojo patalpų AI įrankius IG. Nors greitesnis vystymasis ir inovacijos buvo sąrašo viršuje, kai reikėjo nustatyti IG AI, tyrimas taip pat patvirtino, kad atviri sprendimai gali būti susiję su didesniu finansiniu gyvybingumu.

Vietoj trumpalaikio pelno, kuris palaiko mažiau kompanijų, atvirojo kodo AI kviečia sukurti įvairesnes ir pritaikytas programas įvairiose pramonės šakose ir srityse, kurios kitaip gali neturėti išteklių patentuotų modelių.

Galbūt svarbu, kad atvirojo kodo skaidrumas leidžia savarankiškai tikrinti ir tikrinti AI sistemų elgesį ir etiką – ir kai mes pasinaudosime esamu masių susidomėjimu ir skatinimu, jie suras problemas ir klaidas, kaip tai darė su „LaIon 5B DataSet Fiasco“.

Tokiu atveju minia įsišaknijo daugiau nei 1000 URL, kuriose yra patikrinta vaikų seksualinės prievartos vaikų, paslėpta duomenyse, kurie skatina generuotus AI modelius, tokius kaip stabili difuzija ir „Midjourney“-kurie sukuria vaizdus iš teksto ir vaizdų raginimų ir yra pagrindiniai daugelyje internetinių vaizdo įrašų sukuriamų įrankių ir programų.

Nors ši išvada sukėlė šurmulį, jei tas duomenų rinkinys būtų uždarytas, kaip ir „Openai’s Sora“ ar „Google’s Gemini“, pasekmės galėjo būti kur kas blogesnės. Sunku įsivaizduoti, koks atsilikimas atsirastų, jei įdomiausi AI vaizdo įrašų kūrimo įrankiai pradėtų kelti trikdantį turinį.

Laimei, atviras „LaIon 5B“ duomenų rinkinio pobūdis įgalino bendruomenę motyvuoti savo kūrėjus bendradarbiauti su pramonės budėtojais, kad būtų galima rasti taisymą ir išleisti „Re-Laion 5B“-tai parodo, kodėl tikrosios atvirojo kodo AI skaidrumas ne tik naudingas vartotojams, bet ir pramonei bei kūrėjams, kurie kuria pasitikėjimą su vartotojais ir plačiąja visuomene.

Atviro šaltinio pavojus AI

Nors vien tik šaltinio kodas yra gana lengvai dalijamasi, AI sistemos yra daug sudėtingesnės nei programinė įranga. Jie priklauso nuo sistemos šaltinio kodo, taip pat modelio parametrų, duomenų rinkinio, hiperparametrų, mokymo šaltinio kodo, atsitiktinių skaičių generavimo ir programinės įrangos sistemų – ir kiekvienas iš šių komponentų turi veikti kartu, kad AI sistema veiktų tinkamai.

Dėl susirūpinimo dėl AI saugos, tapo įprasta teigti, kad išleidimas yra atviras arba atviras. Tačiau kad tai būtų tiksli, novatoriai turi pasidalyti visais galvosūkio dalimis, kad kiti žaidėjai galėtų visiškai suprasti, analizuoti ir įvertinti AI sistemos savybes, kad galų gale atkurtų, modifikuotų ir išplėstų savo galimybes.

Pvz., Meta pripažino „Lla 3.1 405b“ kaip „pirmąjį pasienio lygio atvirojo kodo AI modelį“, tačiau tik viešai pasidalino sistemos iš anksto išmokytais parametrais arba svoriais bei šiek tiek programinės įrangos. Nors tai leidžia vartotojams atsisiųsti ir naudoti modelį valia, pagrindiniai komponentai, tokie kaip šaltinio kodas ir duomenų rinkinys, lieka uždaryti – o tai tampa nerimą kelia dėl pranešimo, kad meta įšvirkštins AI BOT profilius į eterį, net jei jis nustos tikinti turinį tikslumui.

Kad būtų sąžininga, tai, kas dalijamasi, neabejotinai prisideda prie bendruomenės. Atviros svorio modeliai siūlo lankstumą, prieinamumą, naujoves ir skaidrumo lygį. „Deepseek“ sprendimas atvirai šaldyti jo svorius, paskelbti R1 technines ataskaitas ir, pavyzdžiui, laisvai naudotis, leido AI bendruomenei ištirti ir patikrinti jos metodiką bei įtraukti ją į savo darbą.

Vis dėlto tai klaidina vadinti AI sistemos atvirojo kodo, kai niekas iš tikrųjų negali žiūrėti, eksperimentuoti ir suprasti kiekvieną galvosūkio gabalą, kuris jį sukūrė.

Šis klaidingas nukreipimas daugiau nei kelia grėsmę visuomenės pasitikėjimui. Užuot įgalinę visus bendruomenės narius bendradarbiauti, kurti ir tobulinti tokius modelius kaip „Llama X“, jis verčia novatorius naudoti tokias AI sistemas, kad galėtų aklai pasitikėti komponentais, kuriais nėra dalijamasi.

Priimdamas iššūkį prieš mus

Kai savarankiškai važiuojantys automobiliai eina į gatves didžiuosiuose miestuose ir AI sistemose padeda chirurgams operacinėje, mes tik pradedame leisti šiai technologijai paimti patarlės ratą. Pažadas yra didžiulis, kaip ir klaidų potencialas – todėl mums reikia naujų priemonių, ką reiškia būti patikimam AI pasaulyje.

Net kaip Anka Reuel ir kolegos Stanfordo universitete neseniai bandė sukurti naują AI etalonų, naudojamų įvertinti, kaip gerai, kaip gerai veikia, pavyzdžių, pavyzdžiui, peržiūros praktika, kuria pramonė ir visuomenė pasikliauja, dar nepakanka. Lyginamojoje analizėje neatsižvelgiama į tai, kad duomenų rinkiniai, esantys mokymosi sistemų branduolyje, nuolat keičiasi ir kad tinkama metrika skiriasi, atsižvelgiant į naudojimo atvejį, atsižvelgiant į naudojimo atvejį. Lauke taip pat vis dar trūksta turtingos matematinės kalbos, apibūdinančios šiuolaikinės AI galimybes ir apribojimus.

Dalindamiesi ištisomis AI sistemomis, kad būtų galima sudaryti atvirumą ir skaidrumą, užuot pasikliaudami nepakankamomis apžvalgomis ir mokėdami lūpų paslaugas už „Buzzwords“, galime skatinti didesnį bendradarbiavimą ir ugdyti naujoves saugiai ir etiškai išsivysčiusiems AI.

Nors tikras atvirojo kodo AI siūlo įrodytą pagrindą šiems tikslams pasiekti, tačiau pramonėje trūksta skaidrumo. Be drąsaus vadovavimo ir technologijų kompanijų bendradarbiavimo iki savivaldos, šis informacijos spragos gali pakenkti visuomenės pasitikėjimui ir priėmimui. Atvirumo, skaidrumo ir atvirojo kodo apėmimas nėra tik stiprus verslo modelis – tai taip pat pasirinkimas tarp AI ateities, kuri naudinga visiems, o ne tik nedaugeliui.

Jasonas Corso yra Mičigano universiteto profesorius ir „Voxel51“ įkūrėjas.



Source link

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -