Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Recurrent Neural Networks and Related Machines That Learn Algorithms

CORDIS fournit des liens vers les livrables publics et les publications des projets HORIZON.

Les liens vers les livrables et les publications des projets du 7e PC, ainsi que les liens vers certains types de résultats spécifiques tels que les jeux de données et les logiciels, sont récupérés dynamiquement sur OpenAIRE .

Publications

The Neural Data Router: Adaptive Control Flow in Transformers Improves Systematic Generalization

Auteurs: R Csordás, K Irie, J Schmidhuber
Publié dans: ICLR 2022, 2022
Éditeur: ICLR 2022

​Linear Transformers Are Secretly Fast Weight Programmers

Auteurs: ​I. Schlag*, K. Irie*, J. Schmidhuber
Publié dans: ICML 2021, Proceedings of the 38th International Conference on Machine Learning, 2021
Éditeur: ICML 2021

Parameter-based value functions

Auteurs: F. Faccio, L. Kirsch, J. Schmidhuber
Publié dans: NeurIPS 2020 Workshop on Offline Reinforcement Learning, 2020
Éditeur: NeurIPS 2020 Workshop on Offline Reinforcement Learning

Exploring the Promise and Limits of Real-Time Recurrent Learning (s’ouvre dans une nouvelle fenêtre)

Auteurs: Irie, Kazuki; Gopalakrishnan, Anand; Schmidhuber, Jürgen
Publié dans: ICLR 2024, 2024
Éditeur: ICLR 2024
DOI: 10.48550/arxiv.2305.19044

An Investigation into the Open World Survival Game Crafter

Auteurs: A. Stanic, Y. Tang, D. Ha, J. Schmidhuber
Publié dans: ICML 2022, 2022
Éditeur: ICML 2022

​Going Beyond Linear Transformers with Recurrent Fast Weight Programmers

Auteurs: ​K. Irie*, I. Schlag*, R. Csordás, J. Schmidhuber
Publié dans: NeurIPS 2021, 2021
Éditeur: NeurIPS 2021

Images as Weight Matrices: Sequential Image Generation Through Synaptic Learning Rules (s’ouvre dans une nouvelle fenêtre)

Auteurs: Irie, Kazuki; Schmidhuber, Jürgen
Publié dans: ICLR 2023, 2023
Éditeur: ICLR 2023
DOI: 10.48550/arxiv.2210.06184

The Benefits of Model-Based Generalization in Reinforcement Learning (s’ouvre dans une nouvelle fenêtre)

Auteurs: K. Young, A. Ramesh, L. Kirsch, J. Schmidhuber
Publié dans: ICML 2023, 2023
Éditeur: ICML 2023
DOI: 10.48550/arxiv.2211.02222

General Policy Evaluation and Improvement by Learning to Identify Few But Crucial States

Auteurs: F. Faccio, A. Ramesh, V. Herrmann, J. Harb, J. Schmidhuber
Publié dans: ICML 2022 Workshop on Decision Awareness in Reinforcement Learning, 2022
Éditeur: ICML 2022 Workshop on Decision Awareness in Reinforcement Learning

Learning to identify critical states for reinforcement learning from videos

Auteurs: H. Liu, M. Zhuge, B. Li, Y. Wang, F. Faccio, B. Ghanem, J. Schmidhuber
Publié dans: ICCV 2023, 2023
Éditeur: ICCV 2023

Goal-Conditioned Generators of Deep Policies

Auteurs: F. Faccio*, V. Herrmann*, A. Ramesh, L. Kirsch, J. Schmidhuber
Publié dans: RLDM 2022, 2022
Éditeur: RLDM 2022

Topological Neural Discrete Representation Learning à la Kohonen (s’ouvre dans une nouvelle fenêtre)

Auteurs: Irie, Kazuki; Csordás, Róbert; Schmidhuber, Jürgen
Publié dans: ICML 2023 Workshop on Sampling and Optimization in Discrete Space, 2023
Éditeur: ICML 2023 Workshop on Sampling and Optimization in Discrete Space
DOI: 10.48550/arxiv.2302.07950

General Policy Evaluation and Improvement by Learning to Identify Few But Crucial States

Auteurs: F. Faccio, A. Ramesh, V. Herrmann, J. Harb, J. Schmidhuber
Publié dans: RLDM 2022, 2022
Éditeur: RLDM 2022

Continually Adapting Optimizers Improve Meta-Generalization

Auteurs: W. Wang, L. Kirsch, F. Faccio, M. Zhuge, J. Schmidhuber
Publié dans: NeurIPS 2023 Workshop on Optimization for Machine Learning, 2023
Éditeur: NeurIPS 2023 Workshop on Optimization for Machine Learning

Towards general-purpose in-context learning agents

Auteurs: L. Kirsch, J. Harrison, D. Freeman, J. Sohl-Dickstein, J. Schmidhuber
Publié dans: Foundation Models for Decision Making Workshop at NeurIPS, 2023
Éditeur: Foundation Models for Decision Making Workshop at NeurIPS

Neural Differential Equations for Learning to Program Neural Nets Through Continuous Learning Rules.

Auteurs: K. Irie, F. Faccio, J. Schmidhuber
Publié dans: NeurIPS 2022, 2022
Éditeur: NeurIPS 2022

Goal-Conditioned Generators of Deep Policies

Auteurs: F. Faccio*, V. Herrmann*, A. Ramesh, L. Kirsch, J. Schmidhuber
Publié dans: AAAI 2023, 2023
Éditeur: AAAI 2023

Goal-Conditioned Generators of Deep Policies

Auteurs: F. Faccio*, V. Herrmann*, A. Ramesh, L. Kirsch, J. Schmidhuber
Publié dans: ICML 2022 Workshop on Dynamic Neural Networks, 2022
Éditeur: ICML 2022 Workshop on Dynamic Neural Networks

​Training and Generating Neural Networks in Compressed Weight Space

Auteurs: ​K. Irie, J. Schmidhuber
Publié dans: ​ICLR 2021 Workshop on Neural Compression, 2021
Éditeur: ​ICLR 2021 Workshop on Neural Compression

The Dual Form of Neural Networks Revisited: Connecting Test Time Predictions to Training Patterns via Spotlights of Attention (s’ouvre dans une nouvelle fenêtre)

Auteurs: Irie, Kazuki; Csordás, Róbert; Schmidhuber, Jürgen
Publié dans: ICML 2022, 2022
Éditeur: ICML 2022
DOI: 10.48550/arxiv.2202.05798

Learning useful representations of recurrent neural network weight matrices (s’ouvre dans une nouvelle fenêtre)

Auteurs: V. Herrmann, F. Faccio, J. Schmidhuber
Publié dans: NeurIPS 2023 Workshop on Self-Supervised Learning - Theory and Practice, 2023
Éditeur: NeurIPS 2023 Workshop on Self-Supervised Learning - Theory and Practice
DOI: 10.48550/arxiv.2403.11998

Approximating Two-Layer Feedforward Networks for Efficient Transformers

Auteurs: R. Csordás, ​K. Irie, J. Schmidhuber
Publié dans: EMNLP-Findings 2023, 2023
Éditeur: EMNLP-Findings 2023

Accelerating Neural Self-Improvement via Bootstrapping (s’ouvre dans une nouvelle fenêtre)

Auteurs: Irie, Kazuki; Schmidhuber, Jürgen
Publié dans: ICLR 2023 Workshop on Mathematical and Empirical Understanding of Foundation Models, 2023
Éditeur: ICLR 2023 Workshop on Mathematical and Empirical Understanding of Foundation Models
DOI: 10.48550/arxiv.2305.01547

On Narrative Information and the Distillation of Stories (s’ouvre dans une nouvelle fenêtre)

Auteurs: Ashley, Dylan R.; Herrmann, Vincent; Friggstad, Zachary; Schmidhuber, Jürgen
Publié dans: NeurIPS 2022 InfoCog Workshop, 2022
Éditeur: NeurIPS 2022 InfoCog Workshop
DOI: 10.48550/arxiv.2211.12423

​A Modern Self-Referential Weight Matrix That Learns to Modify Itself

Auteurs: ​K. Irie, I. Schlag, R. Csordás, J. Schmidhuber
Publié dans: ​​NeurIPS 2021 Workshop on Deep Reinforcement Learning, 2021
Éditeur: ​​NeurIPS 2021 Workshop on Deep Reinforcement Learning

Unsupervised Musical Object Discovery from Audio

Auteurs: J. Gha, V. Herrmann, B. Grewe, J. Schmidhuber, A. Gopalakrishnan
Publié dans: NeurIPS 2023 Workshop on Machine Learning for Audio, 2023
Éditeur: NeurIPS 2023 Workshop on Machine Learning for Audio

Reward-Weighted Regression Converges to a Global Optimum

Auteurs: M. Štrupl*, F. Faccio*, D. R. Ashley, R. K. Srivastava, J. Schmidhuber
Publié dans: AAAI 2022, in press, 2022
Éditeur: AAAI 2022

Learning Associative Inference Using Fast Weight Memory

Auteurs: I. Schlag, T. Munkhdalai, J. Schmidhuber
Publié dans: ICLR 2021, 2021
Éditeur: ICLR 2021

Practical Computational Power of Linear Transformers and Their Recurrent and Self-Referential Extensions (s’ouvre dans une nouvelle fenêtre)

Auteurs: ​K. Irie, R. Csordás, J. Schmidhuber
Publié dans: EMNLP 2023, 2023
Éditeur: EMNLP 2023
DOI: 10.48550/arxiv.2310.16076

Block-Recurrent Transformers

Auteurs: D. Hutchins, I. Schlag, Y. Wu, E. Dyer, B. Neyshabur
Publié dans: NeurIPS 2022, 2022
Éditeur: NeurIPS 2022

The Devil is in the Detail: Simple Tricks Improve Systematic Generalization of Transformers

Auteurs: R Csordás, K Irie, J Schmidhuber
Publié dans: EMNLP 2021, Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, 2021, Page(s) 619–634
Éditeur: EMNLP 2021

Bayesian Brains and the Rényi Divergence

Auteurs: N. Sajid*, F. Faccio*, L. Da Costa, T. Parr, J. Schmidhuber, K. Friston
Publié dans: CNS*2021, 2021
Éditeur: CNS*2021

Sequence Compression Speeds Up Credit Assignment in Reinforcement Learning

Auteurs: A. Ramesh, K. Young, L. Kirsch, J. Schmidhuber
Publié dans: ICLR 2024 Generative Models for Decision Making, 2024
Éditeur: ICLR 2024 Generative Models for Decision Making

Goal-Conditioned Generators of Deep Policies

Auteurs: F. Faccio*, V. Herrmann*, A. Ramesh, L. Kirsch, J. Schmidhuber
Publié dans: EWRL 2022, 2022
Éditeur: EWRL 2022

Improving Stateful Premise Selection with Transformers

Auteurs: K. Prorokovic, M. Wand, J. Schmidhuber
Publié dans: CICM 2021, 2021
Éditeur: CICM 2021

​Improving Baselines in the Wild

Auteurs: ​K. Irie, I. Schlag, R. Csordás, J. Schmidhuber
Publié dans: ​NeurIPS 2021 Workshop on Distribution Shifts, 2021
Éditeur: ​NeurIPS 2021 Workshop on Distribution Shifts

Unsupervised Object Keypoint Learning using Local Spatial Predictability

Auteurs: A. Gopalakrishnan, S. van Steenkiste, J. Schmidhuber
Publié dans: ICML 2020 workshop on Object-Oriented Learning: Perception, Representation and Reasoning, 2020
Éditeur: ICML

Parameter-based value functions

Auteurs: F. Faccio, L. Kirsch, J. Schmidhuber
Publié dans: ICLR 2021, 2021
Éditeur: ICLR 2021

Self-referential meta learning

Auteurs: L. Kirsch, J. Schmidhuber
Publié dans: Workshop on Decision Awareness in Reinforcement Learning ICML 2022, 2022
Éditeur: Workshop on Decision Awareness in Reinforcement Learning ICML 2022

Mindstorms in Natural Language-Based Societies of Mind (s’ouvre dans une nouvelle fenêtre)

Auteurs: Zhuge, Mingchen; Liu, Haozhe; Faccio, Francesco; Ashley, Dylan R.; Csordás, Róbert; Gopalakrishnan, Anand; Hamdi, Abdullah; Hammoud, Hasan Abed Al Kader; Herrmann, Vincent; Irie, Kazuki; Kirsch, Louis; Li, Bing; Li, Guohao; Liu, Shuming; Mai, Jinjie; Piękos, Piotr; Ramesh, Aditya; Schlag, Imanol; Shi, Weimin; Stanić, Aleksandar; Wang, Wenyi; Wang, Yuhui; Xu, Mengmeng; Fan, Deng-Ping; Ghanem, B
Publié dans: NeurIPS 2023 Workshop on Robustness of Few-shot and Zero-shot Learning in Foundation Models, 2023
Éditeur: NeurIPS 2023 Workshop on Robustness of Few-shot and Zero-shot Learning in Foundation Models
DOI: 10.48550/arxiv.2305.17066

On the Distillation of Stories for Transferring Narrative Arcs in Collections of Independent Media

Auteurs: D. R. Ashley*, V. Herrmann*, Z. Friggstad, J. Schmidhuber
Publié dans: NeurIPS 2023 Workshop on ML for Creativity and Design, 2023
Éditeur: NeurIPS 2023 Workshop on ML for Creativity and Design

Reward-Weighted Regression Converges to a Global Optimum

Auteurs: M. Štrupl*, F. Faccio*, D. R. Ashley, R. K. Srivastava, J. Schmidhuber
Publié dans: ICML 2021 Workshop on Reinforcement Learning Theory, 2021
Éditeur: ICML 2021 Workshop on Reinforcement Learning Theory

A Modern Self-Referential Weight Matrix That Learns to Modify Itself (s’ouvre dans une nouvelle fenêtre)

Auteurs: Irie, Kazuki; Schlag, Imanol; Csordás, Róbert; Schmidhuber, Jürgen
Publié dans: ICML 2022, 2022
Éditeur: ICML 2022
DOI: 10.48550/arxiv.2202.05780

Policy Optimization via Importance Sampling

Auteurs: A. M. Metelli, M. Papini, F. Faccio, M. Restelli
Publié dans: NeurIPS 2018, 2018
Éditeur: published at the Neural Information Processing Systems Conference

Improving Differentiable Neural Computers Through Memory Masking, De-allocation, and Link Distribution Sharpness Control

Auteurs: R. Csordas, J. Schmidhuber
Publié dans: ICLR 2019, 2019
Éditeur: Published as a conference paper at ICLR 2019

Modular Networks: Learning to Decompose Neural Computation

Auteurs: L. Kirsch, J. Kunze, D. Barber
Publié dans: NeurIPS 2018, 2018
Éditeur: published at the Neural Information Processing Systems Conference

Learning to Reason with Third Order Tensor Products

Auteurs: I. Schlag, J. Schmidhuber
Publié dans: NeurIPS 2018, 2018
Éditeur: published at the Neural Information Processing Systems Conference

Recurrent World Models Facilitate Policy Evolution

Auteurs: D. Ha, J. Schmidhuber
Publié dans: NeurIPS 2018, 2018
Éditeur: published at the Neural Information Processing Systems Conference

Enhancing the Transformer with Explicit Relational Encoding for Math Problem Solving

Auteurs: I. Schlag, P. Smolensky, R. Fernandez, N. Jojic, J. Schmidhuber, J. Gao
Publié dans: Under review, 2020
Éditeur: Not disclosed yet

Improving Generalization in Meta Reinforcement Learning using Neural Objectives

Auteurs: L. Kirsch, S. van Steenkiste, J. Schmidhuber
Publié dans: ICLR 2020, 2020
Éditeur: Published as a conference paper at ICLR 2020

Learning Adaptive Control Flow in Transformers for Improved Systematic Generalization

Auteurs: R. Csordás, K. Irie, J. Schmidhuber
Publié dans: NeurIPS 2021 Workshop on Advances in Programming Languages and Neurosymbolic Systems, 2021
Éditeur: NeurIPS 2021 Workshop on Advances in Programming Languages and Neurosymbolic Systems

Learning one abstract bit at a time through self-invented experiments encoded as neural networks

Auteurs: V. Herrmann, L. Kirsch, J. Schmidhuber
Publié dans: International Workshop on Active Inference 2023, 2023
Éditeur: International Workshop on Active Inference 2023

Augmenting Classic Algorithms with Neural Components for Strong Generalisation on Ambiguous and High-Dimensional Data

Auteurs: I. Schlag, J. Schmidhuber
Publié dans: NeurIPS 2021 Workshop on Advances in Programming Languages and Neurosymbolic Systems, 2021
Éditeur: NeurIPS 2021 Workshop on Advances in Programming Languages and Neurosymbolic Systems

Learning useful representations of recurrent neural network weight matrices

Auteurs: V. Herrmann, F. Faccio, J. Schmidhuber
Publié dans: NeurIPS 2023 Workshop on Symmetry and Geometry in Neural Representations, 2023
Éditeur: NeurIPS 2023 Workshop on Symmetry and Geometry in Neural Representations

CTL++: Evaluating Generalization on Never-Seen Compositional Patterns of Known Functions, and Compatibility of Neural Representations (s’ouvre dans une nouvelle fenêtre)

Auteurs: Csordás, Róbert; Irie, Kazuki; Schmidhuber, Jürgen
Publié dans: EMNLP 2022, 2022
Éditeur: EMNLP 2022
DOI: 10.48550/arxiv.2210.06350

Self-referential meta learning

Auteurs: L. Kirsch, J. Schmidhuber
Publié dans: First Conference on Automated Machine Learning (Late-Breaking Workshop) 2022, 2022
Éditeur: First Conference on Automated Machine Learning (Late-Breaking Workshop) 2022

Exploring through Random Curiosity with General Value Functions

Auteurs: A. Ramesh, L. Kirsch, S. van Steenkiste, J. Schmidhuber
Publié dans: NeurIPS 2022, 2022
Éditeur: NeurIPS 2022

Parameter-based value functions

Auteurs: F. Faccio, L. Kirsch, J. Schmidhuber
Publié dans: NeurIPS 2020 Workshop on Deep Reinforcement Learning, 2021
Éditeur: NeurIPS 2020 Workshop on Deep Reinforcement Learning

General Policy Evaluation and Improvement by Learning to Identify Few But Crucial States

Auteurs: F. Faccio, A. Ramesh, V. Herrmann, J. Harb, J. Schmidhuber
Publié dans: EWRL 2022, 2022
Éditeur: EWRL 2022

Unsupervised Object Keypoint Learning using Local Spatial Predictability

Auteurs: A. Gopalakrishnan, S. van Steenkiste, J. Schmidhuber
Publié dans: ICLR 2021, 2021
Éditeur: ICLR 2021

Are Neural Nets Modular? Inspecting Functional Modularity Through Differentiable Weight Masks

Auteurs: R Csordás, S van Steenkiste, J Schmidhuber
Publié dans: ICLR 2021, 2021
Éditeur: ICLR 2021

Contrastive Training of Complex-Valued Autoencoders for Object Discovery

Auteurs: A. Stanić*, A. Gopalakrishnan*, K. Irie, J. Schmidhuber
Publié dans: NeurIPS 2023, 2023
Éditeur: NeurIPS 2023

Exploring through Random Curiosity with General Value Functions

Auteurs: A. Ramesh, L. Kirsch, S. van Steenkiste, J. Schmidhuber
Publié dans: ​​NeurIPS 2021 Workshop on Deep Reinforcement Learning, 2021
Éditeur: ​​NeurIPS 2021 Workshop on Deep Reinforcement Learning

Meta learning backpropagation and improving it

Auteurs: L. Kirsch, J. Schmidhuber
Publié dans: NeurIPS 2021, 2021
Éditeur: NeurIPS 2021

Continually Adapting Optimizers Improve Meta-Generalization

Auteurs: W. Wang, L. Kirsch, F. Faccio, M. Zhuge, J. Schmidhuber
Publié dans: NeurIPS 2023 Workshop on Distribution Shifts, 2023
Éditeur: NeurIPS 2023 Workshop on Distribution Shifts

Learning to Control Rapidly Changing Synaptic Connections: An Alternative Type of Memory in Sequence Processing Artificial Neural Networks (s’ouvre dans une nouvelle fenêtre)

Auteurs: Irie, Kazuki; Schmidhuber, Jürgen
Publié dans: NeurIPS 2022 Workshop on Memory in Artificial and Real Intelligence (MemARI), 2022
Éditeur: NeurIPS 2022 Workshop on Memory in Artificial and Real Intelligence (MemARI)
DOI: 10.48550/arxiv.2211.09440

Goal-Conditioned Generators of Deep Policies

Auteurs: F. Faccio*, V. Herrmann*, A. Ramesh, L. Kirsch, J. Schmidhuber
Publié dans: ICML 2022 Workshop on Decision Awareness in Reinforcement Learning, 2022
Éditeur: ICML 2022 Workshop on Decision Awareness in Reinforcement Learning

The Languini Kitchen: Enabling Language Modelling Research at Different Scales of Compute (s’ouvre dans une nouvelle fenêtre)

Auteurs: Stanić, Aleksandar; Ashley, Dylan; Serikov, Oleg; Kirsch, Louis; Faccio, Francesco; Schmidhuber, Jürgen; Hofmann, Thomas; Schlag, Imanol
Publié dans: Not disclosed yet, 2023
Éditeur: Not disclosed yet
DOI: 10.48550/arxiv.2309.11197

SwitchHead: Accelerating Transformers with Mixture-of-Experts Attentio

Auteurs: R. Csordás, P. Piękos, K. Irie, J. Schmidhuber.
Publié dans: Not disclosed yet, 2023
Éditeur: Not disclosed yet

Automatic Embedding of Stories Into Collections of Independent Media (s’ouvre dans une nouvelle fenêtre)

Auteurs: Ashley, Dylan R.; Herrmann, Vincent; Friggstad, Zachary; Mathewson, Kory W.; Schmidhuber, Jürgen
Publié dans: Not disclosed yet, 2021
Éditeur: Not disclosed yet
DOI: 10.48550/arxiv.2111.02216

Automating Continual Learning (s’ouvre dans une nouvelle fenêtre)

Auteurs: Irie, Kazuki; Csordás, Róbert; Schmidhuber, Jürgen
Publié dans: Not disclosed yet, 2023
Éditeur: Not disclosed yet
DOI: 10.48550/arxiv.2312.00276

On the Study of Catastrophic Forgetting in Artificial Neural Networks and the Choice of Optimizer

Auteurs: D. R. Ashley, S. Ghiassian, R. S. Sutton
Publié dans: Not disclosed yet, 2021
Éditeur: Not disclosed yet

All You Need Is Supervised Learning: From Imitation Learning to Meta-RL With Upside Down RL

Auteurs: K. Arulkumaran, D. R. Ashley, J. Schmidhuber, R. K. Srivastava
Publié dans: RLDM 2022, 2022
Éditeur: RLDM 2022

Learning Relative Return Policies With Upside-Down Reinforcement Learning

Auteurs: D. R. Ashley, K. Arulkumaran, J. Schmidhuber, R. K. Srivastava
Publié dans: RLDM 2022, 2022
Éditeur: RLDM 2022

Upside-Down Reinforcement Learning Can Diverge in Stochastic Environments With Episodic Resets (s’ouvre dans une nouvelle fenêtre)

Auteurs: Štrupl, Miroslav; Faccio, Francesco; Ashley, Dylan R.; Schmidhuber, Jürgen; Srivastava, Rupesh Kumar
Publié dans: RLDM 2022, 2022
Éditeur: RLDM 2022
DOI: 10.48550/arxiv.2205.06595

Bayesian Brains and the Rényi Divergence

Auteurs: N. Sajid*, F. Faccio*, L. Da Costa, T. Parr, J. Schmidhuber, K. Friston
Publié dans: Neural Computation, Numéro 34, 829–855 (2022), 2021, ISSN 1530-888X
Éditeur: Neural computation, Cambridge: MIT Press

Learning to Generalize with Object-centric Agents in the Open World Survival Game Crafter (s’ouvre dans une nouvelle fenêtre)

Auteurs: A. Stanic, Y. Tang, D. Ha, J. Schmidhuber
Publié dans: IEEE Transactions on Games, 2023, ISSN 2475-1510
Éditeur: IEEE
DOI: 10.1109/tg.2023.3276849

Recurrent Neural-Linear Posterior Sampling for Nonstationary Contextual Bandits

Auteurs: A. Ramesh, P. Rauber, M. Conserva, J.Schmidhuber
Publié dans: Neural Computation, 2023, ISSN 0899-7667
Éditeur: MIT Press

Generative Adversarial Networks are Special Cases of Artificial Curiosity (1990) and also Closely Related to Predictability Minimization (1991)

Auteurs: J. Schmidhuber
Publié dans: Neural Networks, 2020, ISSN 0893-6080
Éditeur: Pergamon Press Ltd.

Recherche de données OpenAIRE...

Une erreur s’est produite lors de la recherche de données OpenAIRE

Aucun résultat disponible

Mon livret 0 0