Artículos relacionados a Optimization Algorithms for Distributed Machine Learning...

Optimization Algorithms for Distributed Machine Learning (Synthesis Lectures on Learning, Networks, and Algorithms) - Tapa blanda

 
9783031190698: Optimization Algorithms for Distributed Machine Learning (Synthesis Lectures on Learning, Networks, and Algorithms)

Sinopsis

This book discusses state-of-the-art stochastic optimization algorithms for distributed machine learning and analyzes their convergence speed. The book first introduces stochastic gradient descent (SGD) and its distributed version, synchronous SGD, where the task of computing gradients is divided across several worker nodes. The author discusses several algorithms that improve the scalability and communication efficiency of synchronous SGD, such as asynchronous SGD, local-update SGD, quantized and sparsified SGD, and decentralized SGD. For each of these algorithms, the book analyzes its error versus iterations convergence, and the runtime spent per iteration. The author shows that each of these strategies to reduce communication or synchronization delays encounters a fundamental trade-off between error and runtime.

"Sinopsis" puede pertenecer a otra edición de este libro.

Acerca del autor

Gauri Joshi, Ph.D., is an Associate Professor in the ECE department at Carnegie Mellon University. Dr. Joshi completed her Ph.D. from MIT EECS. Her current research is on designing algorithms for federated learning, distributed optimization, and parallel computing. Her awards and honors include being named as one of MIT Technology Review's 35 Innovators under 35 (2022), the NSF CAREER Award (2021), the ACM SIGMETRICS Best Paper Award (2020), Best Thesis Prize in Computer science at MIT (2012), and Institute Gold Medal of IIT Bombay (2010).

"Sobre este título" puede pertenecer a otra edición de este libro.

  • EditorialSpringer
  • Año de publicación2023
  • ISBN 10 3031190696
  • ISBN 13 9783031190698
  • EncuadernaciónTapa blanda
  • IdiomaInglés
  • Número de edición1
  • Número de páginas144
  • Contacto del fabricanteno disponible

Comprar nuevo

Ver este artículo

EUR 4,65 gastos de envío desde Reino Unido a España

Destinos, gastos y plazos de envío

Otras ediciones populares con el mismo título

9783031190667: Optimization Algorithms for Distributed Machine Learning (Synthesis Lectures on Learning, Networks, and Algorithms)

Edición Destacada

ISBN 10:  3031190661 ISBN 13:  9783031190667
Editorial: Springer-Verlag GmbH, 2022
Tapa dura

Resultados de la búsqueda para Optimization Algorithms for Distributed Machine Learning...

Imagen de archivo

Joshi, Gauri
Publicado por Springer, 2023
ISBN 10: 3031190696 ISBN 13: 9783031190698
Nuevo Tapa blanda

Librería: Ria Christie Collections, Uxbridge, Reino Unido

Calificación del vendedor: 5 de 5 estrellas Valoración 5 estrellas, Más información sobre las valoraciones de los vendedores

Condición: New. In. Nº de ref. del artículo: ria9783031190698_new

Contactar al vendedor

Comprar nuevo

EUR 48,62
Convertir moneda
Gastos de envío: EUR 4,65
De Reino Unido a España
Destinos, gastos y plazos de envío

Cantidad disponible: Más de 20 disponibles

Añadir al carrito

Imagen del vendedor

Gauri Joshi
ISBN 10: 3031190696 ISBN 13: 9783031190698
Nuevo Taschenbuch
Impresión bajo demanda

Librería: BuchWeltWeit Ludwig Meier e.K., Bergisch Gladbach, Alemania

Calificación del vendedor: 5 de 5 estrellas Valoración 5 estrellas, Más información sobre las valoraciones de los vendedores

Taschenbuch. Condición: Neu. This item is printed on demand - it takes 3-4 days longer - Neuware -This book discusses state-of-the-art stochastic optimization algorithms for distributed machine learning and analyzes their convergence speed. The book first introduces stochastic gradient descent (SGD) and its distributed version, synchronous SGD, where the task of computing gradients is divided across several worker nodes. The author discusses several algorithms that improve the scalability and communication efficiency of synchronous SGD, such as asynchronous SGD, local-update SGD, quantized and sparsified SGD, and decentralized SGD. For each of these algorithms, the book analyzes its error versus iterations convergence, and the runtime spent per iteration. The author shows that each of these strategies to reduce communication or synchronization delays encounters a fundamental trade-off between error and runtime. 144 pp. Englisch. Nº de ref. del artículo: 9783031190698

Contactar al vendedor

Comprar nuevo

EUR 48,14
Convertir moneda
Gastos de envío: EUR 11,00
De Alemania a España
Destinos, gastos y plazos de envío

Cantidad disponible: 2 disponibles

Añadir al carrito

Imagen del vendedor

Gauri Joshi
ISBN 10: 3031190696 ISBN 13: 9783031190698
Nuevo Taschenbuch

Librería: AHA-BUCH GmbH, Einbeck, Alemania

Calificación del vendedor: 5 de 5 estrellas Valoración 5 estrellas, Más información sobre las valoraciones de los vendedores

Taschenbuch. Condición: Neu. Druck auf Anfrage Neuware - Printed after ordering - This book discusses state-of-the-art stochastic optimization algorithms for distributed machine learning and analyzes their convergence speed. The book first introduces stochastic gradient descent (SGD) and its distributed version, synchronous SGD, where the task of computing gradients is divided across several worker nodes. The author discusses several algorithms that improve the scalability and communication efficiency of synchronous SGD, such as asynchronous SGD, local-update SGD, quantized and sparsified SGD, and decentralized SGD. For each of these algorithms, the book analyzes its error versus iterations convergence, and the runtime spent per iteration. The author shows that each of these strategies to reduce communication or synchronization delays encounters a fundamental trade-off between error and runtime. Nº de ref. del artículo: 9783031190698

Contactar al vendedor

Comprar nuevo

EUR 48,14
Convertir moneda
Gastos de envío: EUR 11,99
De Alemania a España
Destinos, gastos y plazos de envío

Cantidad disponible: 1 disponibles

Añadir al carrito

Imagen de archivo

Joshi, Gauri
Publicado por Springer, 2023
ISBN 10: 3031190696 ISBN 13: 9783031190698
Nuevo Tapa blanda

Librería: California Books, Miami, FL, Estados Unidos de America

Calificación del vendedor: 5 de 5 estrellas Valoración 5 estrellas, Más información sobre las valoraciones de los vendedores

Condición: New. Nº de ref. del artículo: I-9783031190698

Contactar al vendedor

Comprar nuevo

EUR 55,06
Convertir moneda
Gastos de envío: EUR 6,90
De Estados Unidos de America a España
Destinos, gastos y plazos de envío

Cantidad disponible: Más de 20 disponibles

Añadir al carrito

Imagen del vendedor

Joshi, Gauri
ISBN 10: 3031190696 ISBN 13: 9783031190698
Nuevo Kartoniert / Broschiert
Impresión bajo demanda

Librería: moluna, Greven, Alemania

Calificación del vendedor: 5 de 5 estrellas Valoración 5 estrellas, Más información sobre las valoraciones de los vendedores

Kartoniert / Broschiert. Condición: New. Dieser Artikel ist ein Print on Demand Artikel und wird nach Ihrer Bestellung fuer Sie gedruckt. This book discusses state-of-the-art stochastic optimization algorithms for distributed machine learning and analyzes their convergence speed. The book first introduces stochastic gradient descent (SGD) and its distributed version, synchronous SGD, where th. Nº de ref. del artículo: 1215161127

Contactar al vendedor

Comprar nuevo

EUR 42,96
Convertir moneda
Gastos de envío: EUR 19,49
De Alemania a España
Destinos, gastos y plazos de envío

Cantidad disponible: Más de 20 disponibles

Añadir al carrito

Imagen de archivo

Joshi, Gauri
Publicado por Springer-Nature New York Inc, 2023
ISBN 10: 3031190696 ISBN 13: 9783031190698
Nuevo Paperback

Librería: Revaluation Books, Exeter, Reino Unido

Calificación del vendedor: 5 de 5 estrellas Valoración 5 estrellas, Más información sobre las valoraciones de los vendedores

Paperback. Condición: Brand New. 140 pages. 9.45x6.61x0.33 inches. In Stock. Nº de ref. del artículo: x-3031190696

Contactar al vendedor

Comprar nuevo

EUR 70,21
Convertir moneda
Gastos de envío: EUR 11,68
De Reino Unido a España
Destinos, gastos y plazos de envío

Cantidad disponible: 2 disponibles

Añadir al carrito

Imagen del vendedor

Gauri Joshi
ISBN 10: 3031190696 ISBN 13: 9783031190698
Nuevo Taschenbuch

Librería: buchversandmimpf2000, Emtmannsberg, BAYE, Alemania

Calificación del vendedor: 5 de 5 estrellas Valoración 5 estrellas, Más información sobre las valoraciones de los vendedores

Taschenbuch. Condición: Neu. Neuware -This book discusses state-of-the-art stochastic optimization algorithms for distributed machine learning and analyzes their convergence speed. The book first introduces stochastic gradient descent (SGD) and its distributed version, synchronous SGD, where the task of computing gradients is divided across several worker nodes. The author discusses several algorithms that improve the scalability and communication efficiency of synchronous SGD, such as asynchronous SGD, local-update SGD, quantized and sparsified SGD, and decentralized SGD. For each of these algorithms, the book analyzes its error versus iterations convergence, and the runtime spent per iteration. The author shows that each of these strategies to reduce communication or synchronization delays encounters a fundamental trade-off between error and runtime.Springer Verlag GmbH, Tiergartenstr. 17, 69121 Heidelberg 144 pp. Englisch. Nº de ref. del artículo: 9783031190698

Contactar al vendedor

Comprar nuevo

EUR 48,14
Convertir moneda
Gastos de envío: EUR 35,00
De Alemania a España
Destinos, gastos y plazos de envío

Cantidad disponible: 2 disponibles

Añadir al carrito