NIPS 2018 Menetrend

a folyamatos tanulás (Cl) a modell azon képessége, hogy folyamatosan tanuljon egy adatfolyamból, építve a korábban tanultakra, ezáltal pozitív transzfert mutatva, valamint képes emlékezni a korábban látott feladatokra. A CL alapvető lépés a mesterséges intelligencia felé, mivel lehetővé teszi az ügynök számára, hogy alkalmazkodjon a folyamatosan változó környezethez, amely a természetes intelligencia jellemzője. Ennek következményei vannak a felügyelt vagy felügyelet nélküli tanulásra is. Például, ha az adathalmaz nincs megfelelően megkeverve, vagy a bemeneti eloszlásban eltolódás van, a modell túllépi a nemrégiben látott adatokat, elfelejtve a többit-a jelenségeket katasztrofális elfelejtésnek nevezik, ami a CL része, és a CL rendszerek célja.
a folyamatos tanulást a gyakorlatban egy sor desiderata határozza meg. A nem teljes listák a következőket tartalmazzák:
* Online tanulás – a tanulás minden pillanatban megtörténik, nincsenek rögzített feladatok vagy adatkészletek, és nincsenek egyértelmű határok a feladatok között;
* átvitel jelenléte (előre/hátra) – a modellnek képesnek kell lennie a korábban látott adatokról vagy feladatokról az újakra történő átvitelre, valamint az esetleges új feladatoknak segíteniük kell a régebbi adatok teljesítményének javítását;
* a katasztrofális felejtéssel szembeni ellenállás – az új tanulás nem rontja a korábban látott adatok teljesítményét;
* Korlátozott rendszerméret – a modell kapacitását rögzíteni kell, arra kényszerítve a rendszert, hogy intelligensen használja a kapacitását, valamint kecsesen elfelejtse az információkat, így biztosítva a jövőbeni jutalom maximalizálását;
* nincs közvetlen hozzáférés a korábbi tapasztalatokhoz — míg a modell korlátozott mennyiségű tapasztalatra képes emlékezni, a folyamatos tanulási algoritmusnak nem szabad közvetlen hozzáférést biztosítania a múltbeli feladatokhoz, vagy képesnek kell lennie a környezet visszatekerésére;
a műhely előző kiadásában a hangsúly azon volt, hogy meghatározza a desiderata teljes listáját, hogy mit kell tudnia egy folyamatos tanulásra (CL) képes rendszernek. Úgy gondoljuk, hogy ebben a kiadásban tovább kell korlátoznunk a vitát, különös tekintettel arra, hogy hogyan értékeljük a CL-t, és hogyan kapcsolódik más meglévő témákhoz (pl. élethosszig tartó tanulás, transzfertanulás, meta-tanulás), és hogy az ezekből a témákból származó ötletek hogyan lehetnek hasznosak a folyamatos tanuláshoz.
a folyamatos tanulás különböző aspektusai ellentétesek egymással (pl. rögzített modellkapacitás és nem felejtés), ami felveti a folyamatos tanulási rendszerek értékelésének kérdését is. Egyrészt, melyek a megfelelő kompromisszumok e különböző ellentétes erők között? Hogyan hasonlíthatjuk össze a meglévő algoritmusokat, figyelembe véve ezeket a különböző dimenziókat, amelyek mentén értékelnünk kell őket (pl. felejtés, pozitív transzfer)? Melyek a megfelelő mutatók, amelyeket jelentenünk kell? Másrészt az optimális vagy értelmes kompromisszumokat szorosan meghatározzák az algoritmusok teszteléséhez használt adatok vagy legalább a feladatok típusa. Az egyik elterjedt feladat, amelyet sok közelmúltbeli cikk használ, a PermutedMNIST. De mivel az MNIST nem megbízható adatkészlet az osztályozáshoz, ezért a PermutedMNIST rendkívül félrevezető lehet a folyamatos tanulás szempontjából. Melyek lennének a megfelelő referenciaértékek, adatkészletek vagy feladatok a téma eredményes kiaknázásához?
végül bátorítani fogjuk mind a CL, mind a megvalósított rendszerek újszerű megközelítéseinek bemutatását, amelyek segítenek konkretizálni a CL-ről és a CL-rendszerek értékeléséről szóló vitát.

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé.