eBook.de : Ihr Online Shop für eBooks, Reader, Downloads und Bücher
Connect 01/2015 eBook-Shops: Testsieger im epub Angebot, Testurteil: gut Die Welt: Kundenorientierte Internetseiten Prädikat GOLD
+49 (0)40 4223 6096
50% und mehr sparen mit den eBook Schnäppchen der Woche² >>
PORTO-
FREI

Decision Processes in Dynamic Probabilistic Systems

Lieferbar innerhalb von 3 bis 5 Werktagen
Buch (gebunden)
Buch (gebunden) € 117,49* inkl. MwSt.
Portofrei*
Dieser Artikel ist auch verfügbar als:

Produktdetails

Titel: Decision Processes in Dynamic Probabilistic Systems
Autor/en: A. V. Gheorghe, Adrian V. Gheorghe

ISBN: 0792305442
EAN: 9780792305446
Auflage 1990.
HC runder Rücken kaschiert.
Sprache: Englisch.
Springer Netherlands

31. Juli 1990 - gebunden - 376 Seiten

'Et moi ... si j'avait su comment en revenir. One service mathematics has rendered the je n'y serais point aile: human race. It has put common sense back where it belongs. on the topmost shelf next Jules Verne (0 the dusty canister labelled 'discarded non sense'. The series is divergent; therefore we may be able to do something with it. Eric T. Bell O. Heaviside Mathematics is a tool for thought. A highly necessary tool in a world where both feedback and non linearities abound. Similarly, all kinds of parts of mathematics serve as tools for other parts and for other sciences. Applying a simple rewriting rule to the quote on the right above one finds such statements as: 'One service topology has rendered mathematical physics .. .'; 'One service logic has rendered com puter science .. .'; 'One service category theory has rendered mathematics .. .'. All arguably true. And all statements obtainable this way form part of the raison d'etre of this series.
1 Semi-Markov and Markov Chains.- 1.1 Definitions and basic properties.- 1.1.1 Discrete time semi-Markov and Markov behaviour of systems.- 1.1.2 Multi-step transition probability.- 1.1.3 Semi-Markov processes.- 1.1.4 State occupancy and waiting-time statistics.- 1.1.5 Non-homogeneous Markov processes.- 1.1.6 The limit theorem.- 1.1.7 Effect of small deviations in the transition probability matrix.- 1.1.7.1 Limits of some important characteristics for Markov chains.- 1.2 Algebraic and analytical methods in the study of Markovian systems.- 1.2.1 Eigenvalues and eigenvectors.- 1.2.2 Stochastic matrices.- 1.2.3 Perron-Frobenius theorem.- 1.2.4 The Geometric transformation (the z-transform).- 1.2.5 Exponential transformation (Laplace transform).- 1.3 Transient and recurrent processes.- 1.3.1 Transient processes.- 1.3.2 The study of recurrent state occupancy in Markov processes.- 1.4 Markovian populations.- 1.4.1 Vectorial processes with a Markovian structure.- 1.4.2 General branching processes.- 1.5 Partially observable Markov chains.- 1.5.1 The core process.- 1.5.2 The observation process.- 1.5.3 The state of knowledge and its dynamics.- 1.5.4 Examples.- 1.6 Rewards and discounting.- 1.6.1 Rewards for sequential decision processes.- 1.6.2 Rewards in decision processes with Markov structure.- 1.6.3 Markovian decision processes with and without discounting.- 1.7 Models and applications.- 1.7.1 Real systems with a Markovian structure.- 1.7.2 Model formulation and practical results.- 1.7.2.1 A semi-Markov model for hospital planning.- 1.7.2.2 System reliability.- 1.7.2.3 A Markovian interpretation for PERT networks.- 1.8 Dynamic-decision models for clinical diagnosis.- 1.8.1 Pattern recognition.- 1.8.2 Model optimization.- 2 Dynamic and Linear Programming.- 2.1 Discrete dynamic programming.- 2.2 A linear programming formulation and an algorithm for computation.- 2.2.1 A general formulation for the LP problem and the Simplex method.- 2.2.2 Linear programming - a matrix formulation.- 3 Utility Functions and Decisions under Risk.- 3.1 Informational lotteries and axioms for utility functions.- 3.2 Exponential utility functions.- 3.3 Decisions under risk and uncertainty; event trees.- 3.4 Probability encoding.- 4 Markovian Decision Processes (Semi-Markov and Markov) with Complete Information (Completely Observable).- 4.1 Value iteration algorithm (the finite horizon case).- 4.1.1. Semi-Markov decision processes.- 4.1.2 Markov decision processes.- 4.2 Policy iteration algorithm (the finite horizon optimization).- 4.2.1 Semi-Markov decision processes.- 4.2.2 Markov decision processes.- 4.3 Policy iteration with discounting.- 4.3.1 Semi-Markov decision processes.- 4.3.2 Markov decision processes.- 4.4 Optimization algorithm using linear programming.- 4.4.1 Semi-Markov decision process.- 4.4.2 Markov decision processes.- 4.5 Risk-sensitive decision processes.- 4.5.1 Risk-sensitive finite horizon Markov decision processes.- 4.5.2 Risk-sensitive infinite horizon Markov decision processes.- 4.5.3 Risk-sensitive finite horizon semi-Markov decision processes.- 4.5.4 Risk-sensitive infinite horizon semi-Markov decision processes.- 4.6 On eliminating sub-optimal decision alternatives in Markov and semi-Markov decision processes.- 4.6.1 Markov decision processes.- 4.6.2 Semi-Markov decision processes with finite horizon.- 5 Partially Observable Markovian Decision Processes.- 5.1 Finite horizon partially observable Markov decision processes.- 5.2 The infinite horizon with discounting for partially observable Markov decision processes.- 5.2.1 Model formulation.- 5.2.2 The concept of finitely transient policies.- 5.2.3 The function C(? ?) approximated as a Markov process with a finite number of states.- 5.3 A useful policy iteration algorithm, for discounted (? 2.- 5.4 The infinite horizon without discounting for partially observable Markov processes.- 5.4.1 Model formulations.- 5.4.2 Cost of a stationary policy.- 5.4.3 Policy improvement phase.- 5.4
Kundenbewertungen zu A. V. Gheorghe, Adr… „Decision Processes in Dynamic Probabilistic Systems“
Noch keine Bewertungen vorhanden
Zur Rangliste der Rezensenten
Veröffentlichen Sie Ihre Kundenbewertung:
Kundenbewertung schreiben
Unsere Leistungen auf einen Klick
Unser Service für Sie
Zahlungsmethoden
Bequem, einfach und sicher mit eBook.de. mehr Infos akzeptierte Zahlungsarten: Überweisung, offene Rechnung,
Visa, Master Card, American Express, Paypal mehr Infos
Geprüfte Qualität
  • Schnelle Downloads
  • Datenschutz
  • Sichere Zahlung
  • SSL-Verschlüsselung
Servicehotline
+49 (0)40 4223 6096
Mo. - Fr. 8.00 - 20.00 Uhr
Sa. 10.00 - 18.00 Uhr
Chat
Ihre E-Mail-Adresse eintragen und kostenlos informiert werden:
1Ihr Gutschein TASCHE gilt bis einschließlich 21.8.2020 und nur für die Kategorie tolino Zubehör. Der Gutschein kann mehrmals eingelöst werden. Sie können den Gutschein ausschließlich online einlösen unter www.ebook.de.. Der Gutschein ist nicht mit anderen Gutscheinen und Geschenkkarten kombinierbar. Eine Barauszahlung ist nicht möglich. Ein Weiterverkauf und der Handel des Gutscheincodes sind nicht gestattet.

2 Diese Artikel unterliegen nicht der Preisbindung, die Preisbindung dieser Artikel wurde aufgehoben oder der Preis wurde vom Verlag gesenkt. Die jeweils zutreffende Alternative wird Ihnen auf der Artikelseite dargestellt. Angaben zu Preissenkungen beziehen sich auf den vorherigen Preis.

4 Der gebundene Preis dieses Artikels wird nach Ablauf des auf der Artikelseite dargestellten Datums vom Verlag angehoben.

5 Der Preisvergleich bezieht sich auf die unverbindliche Preisempfehlung (UVP) des Herstellers.

6 Der gebundene Preis dieses Artikels wurde vom Verlag gesenkt. Angaben zu Preissenkungen beziehen sich auf den vorherigen Preis.

7 Die Preisbindung dieses Artikels wurde aufgehoben. Angaben zu Preissenkungen beziehen sich auf den vorherigen Preis.

* Alle Preise verstehen sich inkl. der gesetzlichen MwSt. Informationen über den Versand und anfallende Versandkosten finden Sie hier.

eBook.de - Meine Bücher immer dabei
eBook.de ist eine Marke der Hugendubel Digital GmbH & Co. KG
Folgen Sie uns unter: