NIPS 2018 Schedule

Continual Learning (CL) ist die Fähigkeit eines Modells, kontinuierlich aus einem Datenstrom zu lernen, auf dem zuvor Gelernten aufzubauen und somit einen positiven Transfer zu zeigen sowie sich an zuvor gesehene Aufgaben erinnern zu können. CL ist ein grundlegender Schritt in Richtung künstlicher Intelligenz, da es dem Agenten ermöglicht, sich an eine sich ständig ändernde Umgebung anzupassen, ein Markenzeichen natürlicher Intelligenz. Es hat auch Auswirkungen auf überwachtes oder unbeaufsichtigtes Lernen. Wenn der Datensatz beispielsweise nicht richtig gemischt wird oder eine Drift in der Eingabeverteilung vorliegt, passt das Modell die kürzlich gesehenen Daten an und vergisst den Rest – Phänomene, die als katastrophales Vergessen bezeichnet werden und Teil von CL sind CL-Systeme zielen darauf ab, dies zu beheben.
Kontinuierliches Lernen wird in der Praxis durch eine Reihe von Desideraten definiert. Eine nicht vollständige Liste enthält:
* Online-Lernen – Lernen findet in jedem Moment statt, ohne feste Aufgaben oder Datensätze und ohne klare Grenzen zwischen Aufgaben;
* Vorhandensein von Übertragung (vorwärts / rückwärts) – Das Modell sollte in der Lage sein, von zuvor gesehenen Daten oder Aufgaben auf neue zu übertragen, und möglicherweise sollten neue Aufgaben dazu beitragen, die Leistung älterer Daten zu verbessern;
* Widerstand gegen katastrophales Vergessen – neues Lernen zerstört die Leistung zuvor gesehener Daten nicht;
* Begrenzte Systemgröße – Die Modellkapazität sollte festgelegt sein, wodurch das System gezwungen wird, seine Kapazität intelligent zu nutzen und Informationen elegant zu vergessen, um eine Maximierung;
* Kein direkter Zugriff auf frühere Erfahrungen – Während sich das Modell an eine begrenzte Menge an Erfahrungen erinnern kann, sollte ein kontinuierlicher Lernalgorithmus keinen direkten Zugriff auf vergangene Aufgaben haben oder in der Lage sein, die Umgebung zurückzuspulen;
In der vorherigen Ausgabe des Workshops lag der Schwerpunkt darauf, eine vollständige Liste von Desideraten zu definieren, was ein System mit kontinuierlichem Lernen (CL) können sollte. Wir glauben, dass wir in dieser Ausgabe die Diskussion weiter darauf beschränken sollten, wie CL zu bewerten ist und wie es sich auf andere bestehende Themen bezieht (z. b. lebenslanges Lernen, Transferlernen, Meta-Lernen) und wie Ideen aus diesen Themen für kontinuierliches Lernen nützlich sein könnten.
Verschiedene Aspekte des kontinuierlichen Lernens stehen sich gegenüber (z. B. feste Modellkapazität und Nicht-Vergessen), was auch die Frage aufwirft, wie Systeme des kontinuierlichen Lernens bewertet werden können. Einerseits, was sind die richtigen Kompromisse zwischen diesen verschiedenen gegensätzlichen Kräften? Wie vergleichen wir bestehende Algorithmen angesichts dieser unterschiedlichen Dimensionen, entlang derer wir sie bewerten sollten (z. B. Vergessen, positiver Transfer)? Was sind die richtigen Metriken, die wir melden sollten? Auf der anderen Seite werden optimale oder sinnvolle Kompromisse eng durch die Daten oder zumindest die Art der Aufgaben definiert, mit denen wir die Algorithmen testen. Eine weit verbreitete Aufgabe, die von vielen neueren Papieren verwendet wird, ist PermutedMNIST. Da MNIST jedoch kein zuverlässiger Datensatz für die Klassifizierung ist, kann PermutedMNIST für das kontinuierliche Lernen äußerst irreführend sein. Was wären die richtigen Benchmarks, Datensätze oder Aufgaben, um dieses Thema fruchtbar zu nutzen?
Schließlich werden wir auch die Präsentation sowohl neuartiger Ansätze für CL als auch implementierter Systeme fördern, was dazu beitragen wird, die Diskussion darüber, was CL ist und wie CL-Systeme bewertet werden können, zu konkretisieren.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.