Prisijunkite prie mūsų kasdienių ir savaitinių naujienlaiškių, kad gautumėte naujausių naujienų ir išskirtinio turinio apie pramonėje pirmaujančią AI aprėptį. Sužinokite daugiau
Mano, kaip greitai lentelės sukasi technologijų pasaulyje. Vos prieš dvejus metus AI buvo giriamas kaip „kita transformacinė technologija, kuri valdys juos visus“. Ironiška, kad dirbtinis intelektas, užuot pasiekęs „Skynet“ lygį ir užvaldęs pasaulį, degraduoja.
Kadaise buvęs naujos intelekto eros pradininkas, dirbtinis intelektas dabar užkliūva už savo kodo ir stengiasi įgyvendinti žadėtą blizgesį. Bet kodėl būtent? Paprastas faktas yra tas, kad mes netenkame dirbtinio intelekto vieno dalyko, dėl kurio jis yra tikrai protingas: žmogaus sukurtų duomenų.
Norėdami pamaitinti šiuos duomenų ištroškusius modelius, mokslininkai ir organizacijos vis dažniau kreipiasi į sintetinius duomenis. Nors ši praktika jau seniai buvo pagrindinė DI kūrimo dalis, dabar pereiname į pavojingą teritoriją, per daug ja pasikliaudami, o tai sukelia laipsnišką AI modelių degradaciją. Ir tai nėra tik nedidelis susirūpinimas, kad „ChatGPT“ duoda prastesnių rezultatų – pasekmės yra daug pavojingesnės.
Kai dirbtinio intelekto modeliai mokomi pagal ankstesnių iteracijų generuojamus išėjimus, jie linkę skleisti klaidas ir įnešti triukšmą, dėl ko pablogėja išvesties kokybė. Šis rekursyvus procesas paverčia pažįstamą ciklą „šiukšles įvežti, šiukšles išvežti“ į savaime besitęsiančią problemą, ženkliai sumažinusią sistemos efektyvumą. Kadangi dirbtinis intelektas vis labiau nutolsta nuo žmonėms būdingo supratimo ir tikslumo, jis ne tik kenkia našumui, bet ir kelia didelį susirūpinimą dėl ilgalaikio pasikliavimo savarankiškai sugeneruotais duomenimis tolesniam AI vystymuisi.
Tačiau tai ne tik technologijų pablogėjimas; tai tikrovės, tapatybės ir duomenų autentiškumo pablogėjimas, keliantis rimtą pavojų žmonijai ir visuomenei. Poveikis gali būti didžiulis, todėl gali padidėti kritinių klaidų skaičius. Kadangi šie modeliai praranda tikslumą ir patikimumą, pasekmės gali būti siaubingos – pagalvokite apie klaidingą medicininę diagnozę, finansinius nuostolius ir net gyvybei pavojingus nelaimingus atsitikimus.
Kita svarbi pasekmė yra ta, kad AI plėtra gali visiškai sustoti, todėl AI sistemos negalės gauti naujų duomenų ir iš esmės „užstrigs laike“. Šis sąstingis ne tik trukdytų pažangai, bet ir įstrigtų AI mažėjančios grąžos cikle, o tai gali turėti katastrofiškų padarinių technologijoms ir visuomenei.
Tačiau, praktiškai, ką įmonės gali padaryti, kad užtikrintų savo klientų ir vartotojų saugumą? Prieš atsakydami į šį klausimą, turime suprasti, kaip visa tai veikia.
Kai modelis žlunga, patikimumas išeina už lango
Kuo daugiau AI sukurtas turinys plinta internete, tuo greičiau jis prasiskverbs į duomenų rinkinius, o vėliau ir į pačius modelius. Ir tai vyksta sparčiai, todėl kūrėjams vis sunkiau atfiltruoti viską, kas nėra gryni, žmogaus sukurti treniruočių duomenys. Faktas yra tas, kad sintetinio turinio naudojimas treniruotėse gali sukelti žalingą reiškinį, žinomą kaip „modelio žlugimas“ arba „modelio autofagijos sutrikimas (MAD).
Modelio žlugimas yra degeneracinis procesas, kurio metu AI sistemos palaipsniui praranda suvokimą apie tikrąjį duomenų paskirstymą, kurį jos turi modeliuoti. Taip dažnai nutinka, kai dirbtinis intelektas yra rekursyviai mokomas su jo sugeneruotu turiniu, todėl kyla daugybė problemų:
- Niuansų praradimas: modeliai pradeda pamiršti išskirtinius duomenis arba mažiau pateikiamą informaciją, kuri yra labai svarbi norint visapusiškai suprasti bet kokį duomenų rinkinį.
- Sumažėjusi įvairovė: Pastebimas modelių pagamintų rezultatų įvairovės ir kokybės sumažėjimas.
- Šališkumo stiprinimas: Esamas šališkumas, ypač prieš marginalines grupes, gali sustiprėti, nes modelyje neatsižvelgiama į niuansuotus duomenis, kurie galėtų sušvelninti šiuos paklaidas.
- Nesąmoningų išėjimų generavimas: Laikui bėgant modeliai gali pradėti gaminti visiškai nesusijusius arba beprasmiškus rezultatus.
Pavyzdys: tyrimas, paskelbtas m Gamta pabrėžė greitą kalbos modelių, treniruojamų rekursyviai ant AI sukurto teksto, degeneraciją. Devintoje iteracijoje buvo nustatyta, kad šie modeliai gamina visiškai nereikšmingą ir nesąmoningą turinį, o tai rodo greitą duomenų kokybės ir modelio naudingumo mažėjimą.
AI ateities apsauga: žingsniai, kurių įmonės gali imtis šiandien
Įmonių organizacijos turi unikalią galimybę atsakingai formuoti AI ateitį, todėl jos gali imtis aiškių ir veiksmingų veiksmų, kad dirbtinio intelekto sistemos būtų tikslios ir patikimos:
- Investuokite į duomenų kilmės įrankius: įrankiai, atsekantys, iš kur gaunami visi duomenys ir kaip jie keičiasi laikui bėgant, suteikia įmonėms pasitikėjimo savo dirbtinio intelekto įvestimis. Aiškiai matydami duomenų kilmę, organizacijos gali išvengti modelių tiekimo nepatikimos ar šališkos informacijos.
- Įdiekite dirbtinio intelekto filtrus, kad aptiktumėte sintetinį turinį: Išplėstiniai filtrai gali užfiksuoti dirbtinio intelekto sukurtą arba žemos kokybės turinį, kol jis nepatenka į mokymo duomenų rinkinius. Šie filtrai padeda užtikrinti, kad modeliai mokytųsi iš autentiškos, žmogaus sukurtos informacijos, o ne iš sintetinių duomenų, kuriems trūksta realaus sudėtingumo.
- Bendradarbiaukite su patikimais duomenų teikėjais: Stiprūs ryšiai su patikrintais duomenų teikėjais organizacijoms suteikia nuolatinį autentiškų, aukštos kokybės duomenų tiekimą. Tai reiškia, kad dirbtinio intelekto modeliai gauna realią, niuansuotą informaciją, atspindinčią tikrus scenarijus, o tai padidina našumą ir aktualumą.
- Skatinkite skaitmeninį raštingumą ir sąmoningumą: Mokydamos komandas ir klientus apie duomenų autentiškumo svarbą, organizacijos gali padėti žmonėms atpažinti dirbtinio intelekto sukurtą turinį ir suprasti sintetinių duomenų riziką. Informuotumo apie atsakingą duomenų naudojimą didinimas skatina kultūrą, kuri vertina AI kūrimo tikslumą ir vientisumą.
DI ateitis priklauso nuo atsakingų veiksmų. Įmonės turi realią galimybę išlaikyti AI pagrįstą tikslumu ir vientisumu. Pasirinkdamos tikrus, žmogaus gautus duomenis, o ne nuorodas, pirmenybę teikdamos įrankiams, kurie fiksuoja ir išfiltruoja žemos kokybės turinį, ir skatindamos suvokti skaitmeninį autentiškumą, organizacijos gali nustatyti dirbtinį intelektą saugesniu ir išmanesniu keliu. Sutelkime dėmesį į ateities kūrimą, kurioje AI būtų galingas ir tikrai naudingas visuomenei.
Rickas Songas yra „Persona“ generalinis direktorius ir vienas iš įkūrėjų.
DataDecisionMakers
Sveiki atvykę į VentureBeat bendruomenę!
„DataDecisionMakers“ yra vieta, kur ekspertai, įskaitant techninius žmones, atliekančius duomenų darbą, gali dalytis su duomenimis susijusiomis įžvalgomis ir naujovėmis.
Jei norite sužinoti apie pažangiausias idėjas ir naujausią informaciją, geriausią praktiką ir duomenų bei duomenų technologijų ateitį, prisijunkite prie mūsų „DataDecisionMakers“.
Jūs netgi galite apsvarstyti galimybę parašyti savo straipsnį!
Skaitykite daugiau iš DataDecisionMakers
Source link