Gå direkt till innehållet

Fynda 4 pocket för 3 »

Till startsidan
Böcker, spel, garn, pyssel m.m.
Bandit Algorithms
Spara

Bandit Algorithms

inbunden, Engelska, 2020
572 kr
Lägsta pris på PriceRunner
Beställningsvara. Skickas inom 6-17 vardagar
Decision-making in the face of uncertainty is a significant challenge in machine learning, and the multi-armed bandit model is a commonly used framework to address it. This comprehensive and rigorous introduction to the multi-armed bandit problem examines all the major settings, including stochastic, adversarial, and Bayesian frameworks. A focus on both mathematical intuition and carefully worked proofs makes this an excellent reference for established researchers and a helpful resource for graduate students in computer science, engineering, statistics, applied mathematics and economics. Linear bandits receive special attention as one of the most useful models in applications, while other chapters are dedicated to combinatorial bandits, ranking, non-stationary problems, Thompson sampling and pure exploration. The book ends with a peek into the world beyond bandits with an introduction to partial monitoring and learning in Markov decision processes.

Mer på Adlibris

Om Adlibris

Adlibris är Nordens största bokhandel och erbjuder över 13 miljoner boktitlar med det senaste inom spel, pyssel, garn och allt som hör en modern bokhandel till. Adlibris Campus erbjuder studenter att köpa och sälja både ny och begagnad studentlitteratur och Adlibris Pocket erbjuder ett skräddarsytt och handplockat sortiment i reselägen. Adlibris är en del av Bonnier Group.

  • Alltid bra priser

  • Fri frakt över 299 kr

  • Smidiga leveranser

Nyhetsbrev

Ta del av våra bästa lästips, erbjudanden och kampanjer. Anmäl dig nu och få 10% rabatt på ditt första köp. Erbjudandet gäller endast nya prenumeranter, privatkunder, ej kurslitteratur, digitala böcker eller presentkort.