Decision-making in the face of uncertainty is a significant challenge in machine learning, and the multi-armed bandit model is a commonly used framework to address it. This comprehensive and rigorous introduction to the multi-armed bandit problem examines all the major settings, including stochastic, adversarial, and Bayesian frameworks. A focus on both mathematical intuition and carefully worked proofs makes this an excellent reference for established researchers and a helpful resource for graduate students in computer science, engineering, statistics, applied mathematics and economics. Linear bandits receive special attention as one of the most useful models in applications, while other chapters are dedicated to combinatorial bandits, ranking, non-stationary problems, Thompson sampling and pure exploration. The book ends with a peek into the world beyond bandits with an introduction to partial monitoring and learning in Markov decision processes.
"Sinopsis" puede pertenecer a otra edición de este libro.
Tor Lattimore is a research scientist at DeepMind. His research is focused on decision making in the face of uncertainty, including bandit algorithms and reinforcement learning. Before joining DeepMind he was an assistant professor at Indiana University and a postdoctoral fellow at the University of Alberta.
Csaba Szepesvári is a Professor in the Department of Computing Science at the University of Alberta and a Principal Investigator of the Alberta Machine Intelligence Institute. He also leads the 'Foundations' team at DeepMind. He has co-authored a book on nonlinear approximate adaptive controllers and authored a book on reinforcement learning, in addition to publishing over 200 journal and conference papers. He is an action editor of the Journal of Machine Learning Research.
"Sobre este título" puede pertenecer a otra edición de este libro.
EUR 12,72 gastos de envío desde Estados Unidos de America a España
Destinos, gastos y plazos de envíoEUR 9,48 gastos de envío desde Reino Unido a España
Destinos, gastos y plazos de envíoLibrería: Books From California, Simi Valley, CA, Estados Unidos de America
hardcover. Condición: Very Good. Nº de ref. del artículo: mon0003612403
Cantidad disponible: 1 disponibles
Librería: Speedyhen, London, Reino Unido
Condición: NEW. Nº de ref. del artículo: NW9781108486828
Cantidad disponible: 2 disponibles
Librería: Ria Christie Collections, Uxbridge, Reino Unido
Condición: New. In. Nº de ref. del artículo: ria9781108486828_new
Cantidad disponible: Más de 20 disponibles
Librería: California Books, Miami, FL, Estados Unidos de America
Condición: New. Nº de ref. del artículo: I-9781108486828
Cantidad disponible: Más de 20 disponibles
Librería: BargainBookStores, Grand Rapids, MI, Estados Unidos de America
Hardback or Cased Book. Condición: New. Bandit Algorithms 2.3. Book. Nº de ref. del artículo: BBS-9781108486828
Cantidad disponible: 5 disponibles
Librería: Revaluation Books, Exeter, Reino Unido
Hardcover. Condición: Brand New. 517 pages. 9.50x7.00x1.25 inches. In Stock. This item is printed on demand. Nº de ref. del artículo: __1108486827
Cantidad disponible: 1 disponibles
Librería: Kennys Bookshop and Art Galleries Ltd., Galway, GY, Irlanda
Condición: New. 2020. Hardcover. . . . . . Nº de ref. del artículo: V9781108486828
Cantidad disponible: 2 disponibles
Librería: GreatBookPrices, Columbia, MD, Estados Unidos de America
Condición: New. Nº de ref. del artículo: 40407250-n
Cantidad disponible: Más de 20 disponibles
Librería: THE SAINT BOOKSTORE, Southport, Reino Unido
Hardback. Condición: New. This item is printed on demand. New copy - Usually dispatched within 5-9 working days 1220. Nº de ref. del artículo: C9781108486828
Cantidad disponible: Más de 20 disponibles
Librería: GreatBookPricesUK, Woodford Green, Reino Unido
Condición: New. Nº de ref. del artículo: 40407250-n
Cantidad disponible: Más de 20 disponibles