NIPS 2018 Schedule

Continual learning (CL) Er evnen til en modell å lære kontinuerlig fra en strøm av data, bygge på det som ble lært tidligere, og dermed vise positiv overføring, samt å kunne huske tidligere sett oppgaver. CL er et grunnleggende skritt mot kunstig intelligens, da det gjør at agenten kan tilpasse seg et kontinuerlig skiftende miljø, et kjennetegn for naturlig intelligens. Det har også implikasjoner for overvåket eller uovervåket læring. For eksempel, når datasettet ikke er riktig blandet eller det eksisterer en drift i inngangsfordelingen, overfits modellen de nylig sett dataene, glemmer resten-fenomener referert til som katastrofalt glemme, som er en del AV CL og ER NOE cl-systemer tar sikte på å adressere.
Kontinuerlig læring defineres i praksis gjennom en rekke desiderata. En ikke-komplette lister inkluderer:
* Online læring-læring skjer i hvert øyeblikk, uten faste oppgaver eller datasett og ingen klare grenser mellom oppgaver;
* tilstedeværelse av overføring (fremover/bakover) – modellen skal kunne overføre fra tidligere sett data eller oppgaver til nye, så vel som muligens ny oppgave skal bidra til å forbedre ytelsen på eldre;
* Motstand mot katastrofal glemme-ny læring ødelegger ikke ytelsen på tidligere sett data;
* Begrenset systemstørrelse – modellkapasiteten skal løses, og tvinger systemet til å bruke sin kapasitet intelligent, så vel som grasiøst å glemme informasjon for å sikre maksimal fremtidig belønning;
* Ingen direkte tilgang til tidligere erfaring – mens modellen kan huske en begrenset mengde erfaring, bør en kontinuerlig læringsalgoritme ikke ha direkte tilgang til tidligere oppgaver eller kunne spole tilbake miljøet;
i forrige utgave av verkstedet har fokuset vært på å definere en komplett liste over desiderata, av hva et kontinuerlig læring (CL) aktivert system skal kunne gjøre. Vi mener at i denne utgaven bør vi ytterligere begrense diskusjonen med fokus på hvordan man vurderer CL og hvordan DET relaterer seg til andre eksisterende emner (f. eks. livslang læring, overføringslæring, meta-læring) og hvordan ideer fra disse emnene kan være nyttige for kontinuerlig læring.
Ulike aspekter ved kontinuerlig læring står i motsetning til hverandre (f. eks. fast modellkapasitet og ikke-glemme), som også reiser spørsmålet om hvordan man vurderer kontinuerlige læringssystemer. En hånd, hva er de riktige avveiningene mellom disse forskjellige motsatte kreftene? Hvordan sammenligner vi eksisterende algoritmer gitt disse forskjellige dimensjonene som vi bør vurdere dem(f. eks. Hva er de riktige beregningene vi bør rapportere? På den annen side vil optimale eller meningsfulle avveininger bli tett definert av dataene eller i det minste typen oppgaver vi bruker til å teste algoritmene. En utbredt oppgave som brukes av mange nyere papirer Er PermutedMNIST. MEN SOM MNIST ikke er et pålitelig datasett for klassifisering, kan PermutedMNIST være ekstremt misvisende for kontinuerlig læring. Hva ville være de riktige benchmarks, datasett eller oppgaver for fruktbart å utnytte dette emnet?
Til Slutt vil Vi også oppmuntre til presentasjon av både nye tilnærminger TIL CL og implementerte systemer, noe som vil bidra til å konkretisere diskusjonen om HVA CL er og hvordan man evaluerer CL-systemer.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert.