Markov analysis merupakan suatu bentuk metode kuantitatif yang digunakan
untuk menghitung probabilitas perubahan-perubahan yang terjadi berdasarkan
probabilitas perubahan selama periode waktu tertentu. Menurut Siagian (2006),
rantai markov (markov chain) adalah suatu metode yang mempelajari
sifat-sifat suatu variabel pada masa sekarang yang didasarkan pada
sifat-sifatnya di masa lalu dalam usaha menaksir sifat-sifat variabel tersebut
di masa yang akan datang. Rantai markov atau yang sering disebut dengan markov
chain ini biasa digunakan untuk melakukan pembuatan model (modelling)
bermacam-macam sistem dan proses bisnis.
Markov analysis digunakan untuk mencari probabilitas yang akan muncul
dimasa depan, dengan menganalisa probabilitas pada saat ini. Salah satu tujuan
metode ini adalah untuk memprediksi masa depan (Render, 2006). Teknik ini
memiliki beragam aplikasi dalam dunia bisnis, diantaranya analisis pangsa
pasar, prediksi kerugian, prediksi penerimaan mahasiswa baru di universitas,
dan menentukan apakah sebuah mesin akan mengalami kerusakan dimasa mendatang. Markov
analysis bukan merupakan teknik optimasi, melainkan merupakan teknik deskriptif
yang menghasilkan informasi probabilita. Markov analysis dapat
diterapkan ke keadaan lainnya, sepanjang waktu. Analisa markov hampir sama
dengan decision analysis, bedanya adalah analisa rantai markov tidak
memberikan keputusan rekomendasi, melainkan hanya informasi probabilitas
mengenai situasi keputusan yang dapat membantu pengambil keputusan mengambil
keputusannya.
Asumsi-Asumsi Markov
Analysis
Penggunaan Markov analysis
terhadap suatu masalah memerlukan pengetahuan tentang 3 keadaan, yaitu keadaan
awal, keadaan transisi, dan keadaan steady state. Diantara ketiga
kejadian ini, maka keadaan transisi merupakan keadaan yang terpenting. Oleh
karena itu, asumsi-asumsi dalam metode ini hanya berhubungan dengan keadaan
transisi.
Asumsi-asumsi dalam Markov
analysis adalah sebagai berikut:
- Jumlah probabilitas transisi keadaan (baris matriks) adalah 1.
- Probabilitas transisi tidak berubah selamanya.
- Probabilitas transisi hanya tergantung pada status sekarang, bukan pada periode sebelumnya.
Keadaan Transisi dan Probilitasnya
Keadaan transisi adalah perubahan
dari suatu keadaan (status) ke keadaan (status) lainnya pada periode
berikutnya. Keadaan transisi ini merupakan suatu proses random dan dinyatakan
dalam bentuk probabilitas. Probabilitas ini dikenal sebagai probabilitas
transisi. Probabilitas ini dapat digunakan untuk menentukan probabilitas
keadaan atau periode berikutnya.
Keadaan Steady State dan
Probabilitasnya
Keadaan steady state adalah
keadaan keseimbangan setelah proses berjalan selama beberapa periode.
Probabilitas pada keadaan ini disebut probabilitas steady state yang
nilainya tetap.
Apabila keadaan steady state
terjadi, maka probabilitas status periode i akan sama dengan probabilitas pada
status berikutnya (i +1).
JJ (i) = JJ (i + 1) dan TJ (i) = TJ
(i+1)
dimana: JJ (i) + TJ (i) = 1
atau JJ (i) = 1-TJ (i)
TJ (i) = 1-JJ (i)
• Analisa Rantai Markov
adalah suatu metode yang mempelajari sifat -sifat suatu variabel pada masa
sekarang yang didasarkan pada sifat -sifatnya di masa lalu dalam usaha menaksir
sifat-sifat variabel tersebut dimasa yang akan datang.
• Analisis Markov adalah
suatu teknik matematik untuk peramalan perubahan pada variable-variabel
tertentu berdasarkan pengetahuan dari perubahan sebelumnya.
• Model Rantai Markov
dikembangkan oleh seorang ahli Rusia A.A. Markov pada tahun 1896. Dalam
analisis markov yang dihasilkan adalah suatu informasi probabilistik yang dapat
digunakan untuk membantu pembuatan keputusan, jadi analisis ini bukan suatu
teknik optimisasi melainkan suatu teknik deskriptif . Analisis
Markov merupakan suatu bentuk khusus dari model probabilistik yang lebih umum
yang dikenal sebagai proses Stokastik (Stochastic process).
• Konsep dasar analisis
markov adalah state dari sistem atau state transisi,
sifat dari proses ini adalah apabila diketahui proses berada dalam suatu
keadaan tertentu, maka peluang berkembangnya proses di masa mendatang hanya
tergantung pada keadaan saat ini dan tidak tergantung pada keadaan sebelumnya,
atau dengan kata lain rantai Markov adalah rangkaian proses kejadian dimana
peluang bersyarat kejadian yang akan datang tergantung pada kejadian
sekarang.
• Jadi, Informasi
yang dihasilkan tidak mutlak menjadi suatu keputusan, karena sifatnya
yang hanya memberikan bantuan dalam proses
pengambilan keputusan.
Syarat-Syarat Dalam
Analisa Markov
Untuk mendapatkan
analisa rantai markov ke dalam suatu kasus, ada beberapa syarat yang harus dipenuhi yaitu sebagai berikut:
1. Jumlah probabilitas transisi
untuk suatu keadaan awal dari sistem sama dengan 1.
2. Probabilitas-probabilitas
tersebut berlaku untuk semua partisipan dalam sistem.
3. Probabilitas transisi konstan
sepanjang waktu.
4. Kondisi merupakan kondisi
yang independen sepanjang waktu.
Penerapan analisa markov bisa dibilang cukup
terbatas karena sulit menemukan masalah yang memenuhi semua syarat yang diperlukan untuk
analisa markov, terutama persyaratan bahwa probabilitas transisi harus konstan
sepanjang waktu (probabilitas
transisi adalah probabilitas yang terjadi dalam pergerakan perpindahan kondisi
dalam sistem).
Keadaan
Probabilitas Transisi
Keadaan transisi
adalah perubahan dari suatu keadaan (status) ke keadaan (status) lainnya pada
periode berikutnya. Keadaan transisi ini merupakan suatu proses random dan
dinyatakan dalam bentuk probabilitas. Probabilitas ini dikenal sebagai
probabilitas transisi. Probabilitas ini dapat digunakan untuk menentukan
probabilitas keadaan atau periodeberikutnya.
Tidak ada komentar:
Posting Komentar