Vis enkel innførsel

dc.contributor.advisorKleppe, Tore Selland
dc.contributor.authorNordhaug, Benjamin Hansen
dc.date.accessioned2022-06-28T15:51:11Z
dc.date.available2022-06-28T15:51:11Z
dc.date.issued2022
dc.identifierno.uis:inspera:93769091:46708721
dc.identifier.urihttps://hdl.handle.net/11250/3001371
dc.descriptionFull text not available
dc.description.abstractDenne bachelor avhandlingen går tar for seg Markovkjede og introduserer Metropolis-Hastings algoritmer. Avhandlingen går mer dypt inn i diskret tid Markovkjede. Metropolis-Hastings algoritme en type Markovkjede Monte Carlo. Markovkjeden er en stokastisk prosess, hvor den neste tilstanden er bare avhengig av den nåværende tilstanden. Når vi ikke kan bruke en enkel metode eller Monte Carlo for å løse et integral, vi kan bruke Markovkjede Monte Carlo. Vi bruker en Markovkjede som konvergerer til en stasjonær fordeling av en tetthetsfunksjon. Vi må la kjeden kjøre lenge nok for å komme til stasjonær fordelingen.
dc.description.abstractThis thesis addresses Markov Chain and introduces Metropolis-Hastings algorithms. The thesis goes more deeply into discrete time Markov chain. Metropolis-Hastings algorithms a type of Markov chain Monte Carlo. The Markov chain is a stochastic process, where the next state is only dependent on the current state. When we cannot use a simple method or Monte Carlo to solve an integral, we can use Markov chain Monte Carlo. We use a Markov chain which converges to a stationary distribution of a density function. We must let the chain run long enough to get to the stationery distribution.
dc.languageeng
dc.publisheruis
dc.titleMarkov chain Monte Carlo
dc.typeBachelor thesis


Tilhørende fil(er)

FilerStørrelseFormatVis

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel