Skip to main content
Ir a la página de inicio de la Comisión Europea (se abrirá en una nueva ventana)
español español
CORDIS - Resultados de investigaciones de la UE
CORDIS

Elastic Coordination for Scalable Machine Learning

CORDIS proporciona enlaces a los documentos públicos y las publicaciones de los proyectos de los programas marco HORIZONTE.

Los enlaces a los documentos y las publicaciones de los proyectos del Séptimo Programa Marco, así como los enlaces a algunos tipos de resultados específicos, como conjuntos de datos y «software», se obtienen dinámicamente de OpenAIRE .

Publicaciones

On the sample complexity of adversarial multi-source PAC learning

Autores: Nikola Konstantinov, Elias Frantar, Dan Alistarh, Christoph H. Lampert
Publicado en: Proceedings of the 37th International Conference on Machine Learning (ICML 2020), 2020
Editor: PMLR

Taming unbalanced training workloads in deep learning with partial collective operations (se abrirá en una nueva ventana)

Autores: Shigang Li, Tal Ben-Nun, Salvatore Di Girolamo, Dan Alistarh, Torsten Hoefler
Publicado en: Proceedings of the 25th ACM SIGPLAN Symposium on Principles and Practice of Parallel Programming, 2020, Página(s) 45-61, ISBN 9781450368186
Editor: ACM
DOI: 10.1145/3332466.3374528

The splay-list: a distribution-adaptive concurrent skip-list (se abrirá en una nueva ventana)

Autores: Vitaly Aksenov, Dan Alistarh, Alexandra Drozdova, Amirkeivan Mohtashami
Publicado en: Proceedings of the 34th International Symposium on Distributed Computing (DISC 2020), 2020
Editor: LIPIcs
DOI: 10.4230/lipics.disc.2020.3

Non-blocking interpolation search trees with doubly-logarithmic running time (se abrirá en una nueva ventana)

Autores: Trevor Brown, Aleksandar Prokopec, Dan Alistarh
Publicado en: Proceedings of the 25th ACM SIGPLAN Symposium on Principles and Practice of Parallel Programming, 2020, Página(s) 276-291, ISBN 9781450368186
Editor: ACM
DOI: 10.1145/3332466.3374542

AC/DC: Alternating Compressed/DeCompressed Training of Deep Neural Networks

Autores: Alexandra Peste, Eugenia Iofinova, Adrian Vladu, Dan Alistarh
Publicado en: NeurIPS Proceedings, 2021
Editor: NeurIPS

Towards Tight Communication Lower Bounds for Distributed Optimisation

Autores: Janne Korhonen, Dan Alistarh
Publicado en: Proceedings of the 35th Conference on Neural Information Processing Systems (NeurIPS 2021), 2021
Editor: NeurIPS

Efficiency guarantees for parallel incremental algorithms under relaxed schedulers (se abrirá en una nueva ventana)

Autores: Dan Alistarh, Nikita Koval, Giorgi Nadiradze
Publicado en: 31st ACM Symposium on Parallelism in Algorithms and Architectures, 2019, Página(s) 145-154, ISBN 9781450361842
Editor: ACM
DOI: 10.1145/3323165.3323201

Byzantine-Resilient Non-Convex Stochastic Gradient Descent

Autores: Zeyuan Allen-Zhu, Faeze Ebrahimianghazani, Jerry Li, Dan Alistarh
Publicado en: Proceedings of the International Conference on Learning Representations (ICLR), 2021
Editor: Openreview

Powerset convolutional neural networks

Autores: Chris Wendler, Dan Alistarh, Markus Püschel
Publicado en: Proceedings of the Conference on Neural Information Processing Systems (NeurIPS), Edición 32, 2019, Página(s) 927-938
Editor: NIPS: Conference on Neural Information Processing Systems

WoodFisher: Efficient Second-Order Approximation for Neural Network Compression

Autores: Sidak Pal Singh, Dan Alistarh
Publicado en: Proceedings of the International Conference on Neural Information Processing Systems, 2020
Editor: NeurIPS

Communication-Efficient Federated Learning With Data and Client Heterogeneity

Autores: Hossein Zakerinia, Shayan Talaei, Giorgi Nadiradze, Dan Alistarh
Publicado en: Proceedings of AISTATS 2024, 2024
Editor: PMLR

Asynchronous Decentralized SGD with Quantized and Local Updates

Autores: Giorgi Nadiradze, Amirmojtaba Sabour, Peter Davies, Shigang Li, Dan Alistarh
Publicado en: NeurIPS Proceedings, 2021
Editor: NeurIPS Proceedings

Lower Bounds for Shared-Memory Leader Election under Bounded Write Contention (se abrirá en una nueva ventana)

Autores: Dan Alistarh, Rati Gelashvili, Giorgi Nadiradze
Publicado en: Proceedings of the 35th International Symposium on Distributed Computing (DISC 2021), 2021, Página(s) 4:1--4:17
Editor: "Schloss Dagstuhl -- Leibniz-Zentrum f{\""u}r Informatik"
DOI: 10.4230/lipics.disc.2021.4

Relaxed Scheduling for Scalable Belief Propagation

Autores: Vitaly Aksenov, Janne Korhonen, Dan Alistarh
Publicado en: Proceedings of the 36th International Conference on Neural Information Processing Systems, 2020
Editor: NeurIPS

L-GreCo: Layerwise-Adaptive Gradient Compression for Efficient and Accurate Deep Learning

Autores: Mohammadreza Alimohammadi, Ilia Markov, Elias Frantar, Dan Alistarh
Publicado en: Proceedings of MLSys 2024, 2024
Editor: MLSys

SparCML - high-performance sparse communication for machine learning (se abrirá en una nueva ventana)

Autores: Cedric Renggli, Saleh Ashkboos, Mehdi Aghagolzadeh, Dan Alistarh, Torsten Hoefler
Publicado en: Proceedings of the International Conference for High Performance Computing, Networking, Storage and Analysis, 2019, Página(s) 1-15, ISBN 9781450362290
Editor: ACM
DOI: 10.1145/3295500.3356222

New Bounds For Distributed Mean Estimation and Variance Reduction

Autores: Peter Davies, Vijaykrishna Gurunathan, Niusha Moshrefi, Saleh Ashkboos, Dan Alistarh
Publicado en: Proceedings of the International Conference on Learning Representations, 2021
Editor: Openreview

Dynamic averaging load balancing on cycles (se abrirá en una nueva ventana)

Autores: Dan Alistarh, Giorgi Nadiradze, Amirmojtaba Sabour
Publicado en: Leibniz International Proceedings in Informatics, Edición 168/7, 2020, ISBN 9783959771382
Editor: Schloss Dagstuhl - Leibniz-Zentrum für Informatik
DOI: 10.4230/lipics.icalp.2020.7

Breaking (Global) Barriers in Parallel Stochastic Optimization with Wait-Avoiding Group Averaging (se abrirá en una nueva ventana)

Autores: Shigang Li, Tal Ben-Nun, Giorgi Nadiradze, Salvatore Digirolamo, Nikoli Dryden, Dan Alistarh, Torsten Hoefler
Publicado en: IEEE Transactions on Parallel and Distributed Systems, 2020, Página(s) 1-1, ISSN 1045-9219
Editor: Institute of Electrical and Electronics Engineers
DOI: 10.1109/tpds.2020.3040606

Buscando datos de OpenAIRE...

Se ha producido un error en la búsqueda de datos de OpenAIRE

No hay resultados disponibles

Mi folleto 0 0