Programa NIPS 2018

El aprendizaje continuo (CL) es la capacidad de un modelo para aprender continuamente a partir de un flujo de datos, basándose en lo aprendido anteriormente, exhibiendo una transferencia positiva, así como ser capaz de recordar tareas vistas anteriormente. La CL es un paso fundamental hacia la inteligencia artificial, ya que permite que el agente se adapte a un entorno en constante cambio, un sello distintivo de la inteligencia natural. También tiene implicaciones para el aprendizaje supervisado o no supervisado. Por ejemplo, cuando el conjunto de datos no está correctamente barajado o existe una desviación en la distribución de entrada, el modelo sobreutiliza los datos vistos recientemente, olvidando el resto, fenómenos conocidos como olvido catastrófico, que es parte de CL y es algo que los sistemas CL pretenden abordar.
El aprendizaje continuo se define en la práctica a través de una serie de desideratas. Una lista no completa incluye:
* Aprendizaje en línea: el aprendizaje ocurre en todo momento, sin tareas fijas o conjuntos de datos y sin límites claros entre las tareas;
* Presencia de transferencia (adelante / atrás) * Resistencia al olvido catastrófico new el nuevo aprendizaje no destruye el rendimiento de los datos vistos anteriormente;
* Tamaño limitado del sistema the la capacidad del modelo debe ser fija, forzando al sistema a usar su capacidad de manera inteligente y olvidando información con gracia para garantizar la maximización de la recompensa futura;
* Sin acceso directo a la experiencia previa while mientras que el modelo puede recordar una cantidad limitada de experiencia, un algoritmo de aprendizaje continuo no debe tener acceso directo a tareas pasadas ni ser capaz de rebobinar el entorno;
En la edición anterior del taller, el enfoque se ha centrado en definir una lista completa de deseos, de lo que un sistema habilitado para aprendizaje continuo (CL) debe ser capaz de hacer. Creemos que en esta edición debemos limitar aún más la discusión con un enfoque en cómo evaluar la CL y cómo se relaciona con otros temas existentes (p. ej. aprendizaje permanente, aprendizaje de transferencia, metaprendizaje) y cómo las ideas de estos temas podrían ser útiles para el aprendizaje continuo.
Diferentes aspectos del aprendizaje continuo se contraponen entre sí (por ejemplo, capacidad de modelo fijo y no olvidar), lo que también plantea la cuestión de cómo evaluar los sistemas de aprendizaje continuo. Por un lado, ¿cuáles son las compensaciones correctas entre estas diferentes fuerzas opuestas? ¿Cómo comparamos los algoritmos existentes dadas estas diferentes dimensiones a lo largo de las cuales debemos evaluarlos (por ejemplo, olvido, transferencia positiva)? ¿Cuáles son las métricas correctas que deberíamos reportar? Por otro lado, las compensaciones óptimas o significativas estarán estrechamente definidas por los datos o al menos el tipo de tareas que usamos para probar los algoritmos. Una tarea frecuente utilizada por muchos artículos recientes es PermutedMNIST. Pero como MNIST no es un conjunto de datos confiable para la clasificación, por lo que PermutedMNIST podría ser extremadamente engañoso para el aprendizaje continuo. ¿Cuáles serían los puntos de referencia, conjuntos de datos o tareas adecuados para explotar fructíferamente este tema?
Por último, también fomentaremos la presentación de enfoques novedosos para la CL y los sistemas implementados, lo que ayudará a concretar la discusión de qué es la CL y cómo evaluar los sistemas de CL.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.