Programul NIPS 2018

învățarea continuă (CL) este capacitatea unui model de a învăța continuu dintr-un flux de date, bazându-se pe ceea ce a fost învățat anterior, prezentând astfel un transfer pozitiv, precum și posibilitatea de a-și aminti sarcinile văzute anterior. CL este un pas fundamental către inteligența artificială, deoarece permite agentului să se adapteze la un mediu în continuă schimbare, un semn distinctiv al inteligenței naturale. De asemenea, are implicații pentru învățarea supravegheată sau nesupravegheată. De exemplu, atunci când setul de date nu este amestecat corespunzător sau există o derivă în distribuția de intrare, modelul depășește datele văzute recent, uitând restul-fenomene denumite uitare catastrofală, care face parte din CL și este ceva ce sistemele CL își propun să abordeze.
învățarea continuă este definită în practică printr-o serie de deziderate. O listă non-completă include:
* învățare Online-învățarea are loc în fiecare moment, fără sarcini fixe sau seturi de date și fără limite clare între sarcini;
* prezența transferului ( înainte / înapoi) – modelul ar trebui să poată transfera de la date sau sarcini văzute anterior la altele noi, precum și, eventual, o nouă sarcină ar trebui să contribuie la îmbunătățirea performanței celor mai vechi;
* rezistența la uitarea catastrofală – învățarea nouă nu distruge performanța datelor văzute anterior;
* dimensiunea sistemului delimitată – capacitatea modelului ar trebui fixată, forțând sistemul să-și folosească capacitatea în mod inteligent, precum și să uite grațios informații, astfel încât să;
* fără acces direct la experiența anterioară-în timp ce modelul își poate aminti o cantitate limitată de experiență, un algoritm de învățare continuă nu ar trebui să aibă acces direct la sarcinile anterioare sau să poată derula înapoi mediul;
în ediția anterioară a atelierului, accentul a fost pus pe definirea unei liste complete de deziderate, a ceea ce ar trebui să poată face un sistem activat de învățare continuă (CL). Credem că în această ediție ar trebui să constrângem în continuare discuția cu accent pe modul de evaluare a CL și modul în care aceasta se raportează la alte subiecte existente (de ex. învățarea pe tot parcursul vieții, învățarea prin transfer, meta-învățare) și modul în care ideile din aceste subiecte ar putea fi utile pentru învățarea continuă.
diferite aspecte ale învățării continue sunt în opoziție unele cu altele (de exemplu, capacitatea modelului fix și uitarea), ceea ce ridică, de asemenea, problema modului de evaluare a sistemelor de învățare continuă. Pe de o parte, care sunt compromisurile corecte între aceste forțe opuse diferite? Cum comparăm algoritmii existenți având în vedere aceste dimensiuni diferite de-a lungul cărora ar trebui să le evaluăm (de exemplu, uitarea, transferul pozitiv)? Care sunt valorile corecte pe care ar trebui să le raportăm? Pe de altă parte, compromisurile optime sau semnificative vor fi bine definite de datele sau cel puțin tipul de sarcini pe care le folosim pentru a testa algoritmii. O sarcină predominantă folosită de multe lucrări recente este PermutedMNIST. Dar, deoarece MNIST nu este un set de date fiabil pentru clasificare, așa că PermutedMNIST ar putea fi extrem de înșelător pentru învățarea continuă. Care ar fi reperele, seturile de date sau sarcinile potrivite pentru exploatarea fructuoasă a acestui subiect?
în cele din urmă, vom încuraja, de asemenea, prezentarea atât a abordărilor noi ale CL, cât și a sistemelor implementate, ceea ce va ajuta la concretizarea discuției despre ce este CL și cum să evaluăm sistemele CL.

Lasă un răspuns

Adresa ta de email nu va fi publicată.