AI pasakojime daugiausia vyravo modelio našumas pagal pagrindinius pramonės etalonus. Tačiau šiai sričiai bręstant ir įmonėms iš pažangos dirbtinio intelekto srityje pasisemti tikros vertės, lygiagrečiai stebime metodų, padedančių kurti DI programas, tyrimus.
„VentureBeat“ stebime AI tyrimus, kurie gali padėti suprasti, kur link juda praktinis technologijų įgyvendinimas. Nekantriai laukiame laimėjimų, susijusių ne tik su neapdorotu vieno modelio intelektu, bet ir su tuo, kaip kuriame juos supančias sistemas. Artėjant 2026 m., pateikiame keturias tendencijas, kurios gali būti naujos kartos patikimų, keičiamo dydžio įmonių programų planas.
Nuolatinis mokymasis
Nuolatinis mokymasis sprendžia vieną iš pagrindinių dabartinių dirbtinio intelekto modelių iššūkių: išmokyti juos naujos informacijos ir įgūdžių nesunaikinant turimų žinių (dažnai vadinamas „katastrofišku pamiršimu“).
Tradiciškai yra du būdai tai išspręsti. Vienas iš jų yra perkvalifikuoti modelį naudojant senos ir naujos informacijos derinį, o tai brangu, atima daug laiko ir nepaprastai sudėtinga. Dėl šios priežasties ji nepasiekiama daugumai modelius naudojančių įmonių.
Kitas sprendimas yra pateikti modeliams kontekstinę informaciją naudojant tokius metodus kaip RAG. Tačiau šie metodai neatnaujina modelio vidinių žinių, o tai gali sukelti problemų, kai nutolstate nuo modelio žinių ribos, o faktai pradeda prieštarauti tam, kas buvo tiesa modelio mokymo metu. Jie taip pat reikalauja daug inžinerijos ir yra ribojami modelių konteksto langų.
Nuolatinis mokymasis leidžia modeliams atnaujinti savo vidines žinias be perkvalifikavimo. „Google“ šiuo klausimu dirbo su keliomis naujomis modelių architektūromis. Vienas iš jų yra Titans, kuris siūlo kitokį primityvų: išmoktą ilgalaikės atminties modulį, kuris leidžia sistemai įtraukti istorinį kontekstą išvados metu. Intuityviai tai perkelia tam tikrą „mokymąsi“ nuo svorio atnaujinimo neprisijungus prie internetinės atminties proceso, artimesnio to, kaip komandos jau galvoja apie talpyklas, indeksus ir žurnalus.
Įdėtas mokymasis tą pačią temą perkelia kitu kampu. Modelis traktuojamas kaip įdėtųjų optimizavimo problemų rinkinys, kurių kiekviena turi savo vidinę darbo eigą, ir naudoja tą kadravimą katastrofiško pamiršimo problemai spręsti.
Standartiniai transformatoriais pagrįsti kalbos modeliai turi tankius sluoksnius, kuriuose saugoma ilgalaikė atmintis, gauta treniruočių metu, ir dėmesio sluoksnius, kuriuose yra tiesioginis kontekstas. „Nested Learning“ pristato „nepertraukiamą atminties sistemą“, kurioje atmintis suvokiama kaip modulių, kurie atnaujinami skirtingais dažniais, spektras. Tai sukuria atminties sistemą, kuri labiau prisitaiko prie nuolatinio mokymosi.
Nuolatinis mokymasis papildo darbą, atliekamą siekiant suteikti agentams trumpalaikę atmintį pasitelkiant konteksto inžineriją. Kai ji bręsta, įmonės gali tikėtis modelių, kurie prisitaikys prie besikeičiančios aplinkos, dinamiškai nuspręsdami, kurią naują informaciją internalizuoti, o kurią išsaugoti trumpalaikėje atmintyje, kartos.
Pasaulio modeliai
Pasaulio modeliai žada suteikti AI sistemoms galimybę suprasti savo aplinką, nereikalaujant žmonių pažymėtų duomenų ar žmogaus sukurto teksto. Naudodamos pasaulinius modelius, dirbtinio intelekto sistemos gali geriau reaguoti į nenuspėjamus ir nepaskirstomus įvykius ir tapti tvirtesnės prieš realaus pasaulio neapibrėžtumą.
Dar svarbiau, kad pasaulio modeliai atveria kelią dirbtinio intelekto sistemoms, kurios gali pereiti už teksto ribų ir išspręsti užduotis, susijusias su fizine aplinka. Pasaulio modeliai fizinio pasaulio dėsningumus bando išmokti tiesiogiai iš stebėjimo ir sąveikos.
Yra įvairių pasaulio modelių kūrimo būdų. „DeepMind“ kuria „Genie“ – generatyvių nuo galo iki galo modelių šeimą, kuri imituoja aplinką, kad agentas galėtų numatyti, kaip aplinka vystysis ir kaip veiksmai ją pakeis. Jis paima vaizdą arba raginimą kartu su vartotojo veiksmais ir generuoja vaizdo kadrų seką, atspindinčią, kaip keičiasi pasaulis. Genie gali sukurti interaktyvias aplinkas, kurios gali būti naudojamos įvairiems tikslams, įskaitant treniruojančius robotus ir savarankiškai važiuojančius automobilius.
„World Labs“, naujas startuolis, kurį įkūrė AI pradininkas Fei-Fei Li, laikosi šiek tiek kitokio požiūrio. „Marble“, pirmoji „World Labs“ dirbtinio intelekto sistema, naudoja generatyvųjį AI, kad iš vaizdo ar raginimo sukurtų 3D modelį, kurį vėliau gali naudoti fizikos ir 3D variklis, kad atvaizduotų ir imituotų interaktyvią aplinką, naudojamą robotams mokyti.
Kitas metodas yra „Joint Embedding Predictive Architecture“ (JEPA), kurį palaiko Turingo apdovanojimo laureatas ir buvęs Meta AI vadovas Yann LeCun. JEPA modeliai iš neapdorotų duomenų išmoksta latentinius vaizdus, kad sistema galėtų numatyti, kas bus toliau, negeneruodama kiekvieno pikselio.
JEPA modeliai yra daug efektyvesni nei generatyvieji modeliai, todėl jie tinka greito tempo realaus laiko AI programoms, kurios turi veikti ribotų išteklių turinčiuose įrenginiuose. V-JEPA, vaizdo architektūros versija, yra iš anksto apmokyta naudoti nepažymėtą internetinį vaizdo įrašą, kad būtų galima stebėti pasaulio modelius. Tada jis prideda nedidelį kiekį sąveikos duomenų iš roboto trajektorijų, kad palaikytų planavimą. Šis derinys rodo kelią, kai įmonės naudojasi gausiu pasyviu vaizdo įrašu (mokymai, patikrinimai, prietaisų kameros, mažmeninė prekyba) ir prideda ribotus, didelės vertės sąveikos duomenis, kai joms reikia kontrolės.
Lapkričio mėn. LeCunas patvirtino, kad paliks „Meta“ ir pradės naują AI startuolį, kuris sieks „sistemų, kurios supranta fizinį pasaulį, turi nuolatinę atmintį, gali mąstyti ir planuoti sudėtingas veiksmų sekas“.
Orkestravimas
Pasienio LLM ir toliau siekia labai sudėtingų etalonų, dažnai pralenkdami žmonių ekspertus. Tačiau kalbant apie realaus pasaulio užduotis ir kelių etapų agentų darbo eigas, net stiprūs modeliai sugenda: jie praranda kontekstą, iškviečia įrankius su netinkamais parametrais ir daro mažas klaidas.
Orkestracija tuos gedimus traktuoja kaip sistemos problemas, kurias galima išspręsti naudojant tinkamus pastolius ir inžineriją. Pavyzdžiui, maršrutizatorius renkasi greitą mažą modelį, didesnį modelį sunkesniems žingsniams, paieškos įžeminimą ir deterministinių veiksmų įrankius.
Dabar yra kelios sistemos, kurios sukuria orkestravimo sluoksnius, kad pagerintų AI agentų efektyvumą ir tikslumą, ypač kai naudojami išoriniai įrankiai. Stanfordo „OctoTools“ yra atvirojo kodo sistema, kuri gali suderinti kelis įrankius, nereikia tobulinti ar koreguoti modelių. „OctoTools“ naudoja modulinį metodą, kuris suplanuoja sprendimą, parenka įrankius ir perduoda papildomas užduotis skirtingiems agentams. „OctoTools“ gali naudoti bet kokį bendrosios paskirties LLM kaip pagrindą.
Kitas būdas yra parengti specializuotą orkestro modelį, galintį paskirstyti darbą tarp skirtingų AI sistemos komponentų. Vienas iš tokių pavyzdžių yra „Nvidia Orchestrator“ – 8 milijardų parametrų modelis, koordinuojantis įvairius įrankius ir LLM sudėtingoms problemoms spręsti. Orkestras buvo apmokytas naudojant specialią sustiprinimo mokymosi techniką, skirtą modelių orkestravimui. Jis gali pasakyti, kada naudoti įrankius, kada deleguoti užduotis mažiems specializuotiems modeliams ir kada panaudoti didelių bendrųjų modelių samprotavimo galimybes ir žinias.
Viena iš šių ir kitų panašių sistemų ypatybių yra ta, kad jos gali gauti naudos iš pagrindinių modelių pažangos. Taigi, kai ir toliau matome pažangą pasienio modeliuose, galime tikėtis, kad orkestravimo sistemos vystysis ir padės įmonėms kurti patikimas ir efektyviai išteklius naudojančias agentines programas.
Patikslinimas
Tobulinimo metodai „vieną atsakymą“ paverčia kontroliuojamu procesu: siūlykite, kritikuokite, peržiūrėkite ir patikrinkite. Darbo eiga apibrėžiama taip, kaip naudojant tą patį modelį, kad būtų generuojamas pradinis rezultatas, pateikiamas atsiliepimas apie jį ir nuolat tobulinamas be papildomo mokymo.
Nors savaiminio tobulinimo metodai buvo naudojami jau keletą metų, galime pastebėti, kad jie iš esmės keičia agentų programas. Tai buvo visapusiškai parodyta ARC prizo, kuris 2025-ieji buvo pavadinti „Patobulinimo ciklo metais“, rezultatuose ir parašė: „Žvelgiant iš informacijos teorijos perspektyvos, tobulinimas yra intelektas“.
ARC išbando sudėtingų abstrakčių samprotavimo galvosūkių modelius. Pačios ARC analizė praneša, kad geriausiai patikrintas tobulinimo sprendimas, sukurtas pagal pažangų modelį ir sukurtas Poetiq, pasiekė 54 % ARC-AGI-2, aplenkdamas antrąją vietą, Gemini 3 Deep Think (45 %), už pusę kainos.
„Poetiq“ sprendimas yra rekursyvi, save tobulinanti sistema, kuri yra LLM agnostinė. Jis sukurtas taip, kad panaudotų pagrindinio modelio argumentavimo galimybes ir žinias, kad atspindėtų ir patobulintų savo sprendimą ir prireikus iškviestų įrankius, pvz., kodo interpretatorius.
Modeliams stiprėjant, pridedant savaiminio tobulinimo sluoksnius bus galima išgauti daugiau iš jų. „Poetiq“ jau dirba su partneriais, siekdamas pritaikyti savo metasistemą „sudėtingoms realaus pasaulio problemoms, kurias ribiniai modeliai stengiasi išspręsti“.
Kaip sekti AI tyrimus 2026 m
Praktinis būdas perskaityti tyrimus ateinančiais metais yra stebėti, kurie nauji metodai gali padėti įmonėms perkelti agentines programas iš koncepcijų įrodymo į keičiamo dydžio sistemas.
Nuolatinis mokymasis nukreipia dėmesį į atminties kilmę ir išsaugojimą. Pasaulio modeliai perkelia jį į patikimą realaus pasaulio įvykių modeliavimą ir prognozavimą. Orkestravimas perkelia jį į geresnį išteklių panaudojimą. Patikslinimas perkelia jį į protingą apmąstymą ir atsakymų taisymą.
Nugalėtojai ne tik rinks stiprius modelius, bet ir sukurs valdymo plokštumą, kuri išlaikytų teisingus, naujausius ir ekonomiškus modelius.