📦Darmowa dostawa od 69 zł - do Żabki oraz automatów i punktów GLS! Przy mniejszych zamówieniach zapłacisz jedynie 4,99 zł!🚚
Darmowa dostawa od 69,00 zł
Learning Representation and Control in Markov Decision Processes - Mahadevan Sridhar

Learning Representation and Control in Markov Decision Processes - Mahadevan Sridhar

Learning Representation and Control in Markov Decision Processes describes methods for automatically compressing Markov decision processes (MDPs) by learning a low-dimensional linear approximation defined by an orthogonal set of basis functions. A unique feature of the text is the use of Laplacian operators, whose matrix representations have non-positive off-diagonal elements and zero row sums. The generalized inverses of Laplacian operators, in particular the Drazin inverse, are shown to be useful in the exact and approximate solution of MDPs. The author goes on to describe a broad framework for solving MDPs, generically referred to as representation policy iteration (RPI), where both the basis function representations for approximation of value functions as well as the optimal policy within their linear span are simultaneously learned. Basis functions are constructed by diagonalizing a Laplacian operator or by dilating the reward function or an initial set of bases by powers of the operator. The idea of decomposing an operator by finding its invariant subspaces is shown to be an important principle in constructing low-dimensional representations of MDPs. Theoretical properties of these approaches are discussed, and they are also compared experimentally on a variety of discrete and continuous MDPs. Finally, challenges for further research are briefly outlined. Learning Representation and Control in Markov Decision Processes is a timely exposition of a topic with broad interest within machine learning and beyond.

EAN: 9781601982384
Symbol
180FAG03527KS
Rok wydania
2009
Elementy
184
Oprawa
Miekka
Format
15.6x23.4cm
Język
angielski
Więcej szczegółów
Bez ryzyka
14 dni na łatwy zwrot
Szeroki asortyment
ponad milion pozycji
Niskie ceny i rabaty
nawet do 50% każdego dnia
632,95 zł
/ szt.
Najniższa cena z 30 dni przed obniżką: / szt.
Cena regularna: / szt.
Możesz kupić także poprzez:
Do darmowej dostawy brakuje69,00 zł
Najtańsza dostawa 0,00 złWięcej
14 dni na łatwy zwrot
Bezpieczne zakupy
Kup teraz i zapłać za 30 dni jeżeli nie zwrócisz
Kup teraz, zapłać później - 4 kroki
Przy wyborze formy płatności, wybierz PayPo.PayPo - kup teraz, zapłać za 30 dni
PayPo opłaci twój rachunek w sklepie.
Na stronie PayPo sprawdź swoje dane i podaj pesel.
Po otrzymaniu zakupów decydujesz co ci pasuje, a co nie. Możesz zwrócić część albo całość zamówienia - wtedy zmniejszy się też kwota do zapłaty PayPo.
W ciągu 30 dni od zakupu płacisz PayPo za swoje zakupy bez żadnych dodatkowych kosztów. Jeśli chcesz, rozkładasz swoją płatność na raty.
Ten produkt nie jest dostępny w sklepie stacjonarnym
Symbol
180FAG03527KS
Kod producenta
9781601982384
Autorzy
Mahadevan Sridhar
Rok wydania
2009
Elementy
184
Oprawa
Miekka
Format
15.6x23.4cm
Język
angielski
Learning Representation and Control in Markov Decision Processes describes methods for automatically compressing Markov decision processes (MDPs) by learning a low-dimensional linear approximation defined by an orthogonal set of basis functions. A unique feature of the text is the use of Laplacian operators, whose matrix representations have non-positive off-diagonal elements and zero row sums. The generalized inverses of Laplacian operators, in particular the Drazin inverse, are shown to be useful in the exact and approximate solution of MDPs. The author goes on to describe a broad framework for solving MDPs, generically referred to as representation policy iteration (RPI), where both the basis function representations for approximation of value functions as well as the optimal policy within their linear span are simultaneously learned. Basis functions are constructed by diagonalizing a Laplacian operator or by dilating the reward function or an initial set of bases by powers of the operator. The idea of decomposing an operator by finding its invariant subspaces is shown to be an important principle in constructing low-dimensional representations of MDPs. Theoretical properties of these approaches are discussed, and they are also compared experimentally on a variety of discrete and continuous MDPs. Finally, challenges for further research are briefly outlined. Learning Representation and Control in Markov Decision Processes is a timely exposition of a topic with broad interest within machine learning and beyond.

EAN: 9781601982384
Potrzebujesz pomocy? Masz pytania?Zadaj pytanie a my odpowiemy niezwłocznie, najciekawsze pytania i odpowiedzi publikując dla innych.
Zapytaj o produkt
Jeżeli powyższy opis jest dla Ciebie niewystarczający, prześlij nam swoje pytanie odnośnie tego produktu. Postaramy się odpowiedzieć tak szybko jak tylko będzie to możliwe. Dane są przetwarzane zgodnie z polityką prywatności. Przesyłając je, akceptujesz jej postanowienia.
Napisz swoją opinię
Twoja ocena:
5/5
Dodaj własne zdjęcie produktu:
Prawdziwe opinie klientów
4.8 / 5.0 13723 opinii
pixel