Nips 2018 schema

kontinuerligt lärande (CL) är förmågan hos en modell att lära sig kontinuerligt från en ström av data, bygga på vad som lärt sig tidigare, därmed uppvisar positiv överföring, samt att kunna komma ihåg tidigare sett uppgifter. CL är ett grundläggande steg mot artificiell intelligens, eftersom det gör det möjligt för agenten att anpassa sig till en ständigt föränderlig miljö, ett kännetecken för naturlig intelligens. Det har också konsekvenser för övervakat eller oövervakat lärande. Till exempel, när datauppsättningen inte är korrekt blandad eller det finns en drift i ingångsfördelningen, överfittar modellen de nyligen sett data, glömmer resten-fenomen som kallas katastrofal glömma, som är en del av CL och är något CL-system syftar till att ta itu med.
kontinuerligt lärande definieras i praktiken genom en serie desiderata. En icke-kompletta listor innehåller:
* online-lärande-lärande sker vid varje ögonblick, utan fasta uppgifter eller datamängder och inga tydliga gränser mellan uppgifter;
* närvaro av överföring (framåt/bakåt) – modellen ska kunna överföra från tidigare sett data eller uppgifter till nya, liksom eventuellt ny uppgift bör bidra till att förbättra prestanda på äldre;
* motstånd mot katastrofal glömska – nytt lärande förstör inte prestanda på tidigare sett data;
* begränsad systemstorlek – modellkapaciteten bör fixas, vilket tvingar systemet att använda sin kapacitet intelligent och graciöst glömma information för att säkerställa maximal framtida belöning;
* ingen direkt tillgång till tidigare erfarenhet-även om modellen kan komma ihåg en begränsad mängd erfarenhet, bör en kontinuerlig inlärningsalgoritm inte ha direkt tillgång till tidigare uppgifter eller kunna spola tillbaka miljön;
i föregående utgåva av workshopen har fokus varit på att definiera en fullständig lista över desiderata, av vad ett kontinuerligt lärande (CL) – aktiverat system ska kunna göra. Vi anser att vi i denna utgåva ytterligare bör begränsa diskussionen med fokus på hur man utvärderar CL och hur den relaterar till andra befintliga ämnen (t. ex. livslångt lärande, överföringsinlärning, meta-lärande) och hur ideer från dessa ämnen kan vara användbara för kontinuerligt lärande.
olika aspekter av kontinuerligt lärande står i motsats till varandra (t.ex. fast modellkapacitet och inte glömma), vilket också väcker frågan om hur man utvärderar kontinuerliga inlärningssystem. Å ena sidan, Vilka är de rätta avvägningarna mellan dessa olika motsatta krafter? Hur jämför vi befintliga algoritmer med tanke på dessa olika dimensioner som vi bör utvärdera dem (t. ex. glömma, positiv överföring)? Vilka är de rätta mätvärdena vi bör rapportera? Å andra sidan kommer optimala eller meningsfulla avvägningar att definieras tätt av data eller åtminstone typ av uppgifter vi använder för att testa algoritmerna. En vanlig uppgift som används av många nya papper är PermutedMNIST. Men eftersom MNIST inte är en tillförlitlig dataset för klassificering, så kan PermutedMNIST vara extremt vilseledande för kontinuerligt lärande. Vilka är de rätta riktmärkena, datamängderna eller uppgifterna för att på ett fruktbart sätt utnyttja detta ämne?
slutligen kommer vi också att uppmuntra presentation av både nya tillvägagångssätt för CL och implementerade system, vilket kommer att hjälpa till att konkretisera diskussionen om vad CL är och hur man utvärderar CL-system.

Lämna ett svar

Din e-postadress kommer inte publiceras.