Markov chain Monte Carlo
Bachelor thesis
Permanent lenke
https://hdl.handle.net/11250/3001371Utgivelsesdato
2022Metadata
Vis full innførselSamlinger
- Studentoppgaver (TN-IMF) [104]
Beskrivelse
Full text not available
Sammendrag
Denne bachelor avhandlingen går tar for seg Markovkjede og introduserer Metropolis-Hastings algoritmer. Avhandlingen går mer dypt inn i diskret tid Markovkjede. Metropolis-Hastings algoritme en type Markovkjede Monte Carlo. Markovkjeden er en stokastisk prosess, hvor den neste tilstanden er bare avhengig av den nåværende tilstanden. Når vi ikke kan bruke en enkel metode eller Monte Carlo for å løse et integral, vi kan bruke Markovkjede Monte Carlo. Vi bruker en Markovkjede som konvergerer til en stasjonær fordeling av en tetthetsfunksjon. Vi må la kjeden kjøre lenge nok for å komme til stasjonær fordelingen. This thesis addresses Markov Chain and introduces Metropolis-Hastings algorithms. The thesis goes more deeply into discrete time Markov chain. Metropolis-Hastings algorithms a type of Markov chain Monte Carlo. The Markov chain is a stochastic process, where the next state is only dependent on the current state. When we cannot use a simple method or Monte Carlo to solve an integral, we can use Markov chain Monte Carlo. We use a Markov chain which converges to a stationary distribution of a density function. We must let the chain run long enough to get to the stationery distribution.