Senin, 09 Juli 2018

Markov . Riset Operasional

Markov analysis merupakan suatu bentuk metode kuantitatif yang digunakan untuk menghitung probabilitas perubahan-perubahan yang terjadi berdasarkan probabilitas perubahan selama periode waktu tertentu. Menurut Siagian (2006), rantai markov (markov chain) adalah suatu metode yang mempelajari sifat-sifat suatu variabel pada masa sekarang yang didasarkan pada sifat-sifatnya di masa lalu dalam usaha menaksir sifat-sifat variabel tersebut di masa yang akan datang. Rantai markov atau yang sering disebut dengan markov chain ini biasa digunakan untuk melakukan pembuatan model (modelling) bermacam-macam sistem dan proses bisnis.
Markov analysis digunakan untuk mencari probabilitas yang akan muncul dimasa depan, dengan menganalisa probabilitas pada saat ini. Salah satu tujuan metode ini adalah untuk memprediksi masa depan (Render, 2006). Teknik ini memiliki beragam aplikasi dalam dunia bisnis, diantaranya analisis pangsa pasar, prediksi kerugian, prediksi penerimaan mahasiswa baru di universitas, dan menentukan apakah sebuah mesin akan mengalami kerusakan dimasa mendatang. Markov analysis bukan merupakan teknik optimasi, melainkan merupakan teknik deskriptif yang menghasilkan informasi probabilita. Markov analysis dapat diterapkan ke keadaan lainnya, sepanjang waktu. Analisa markov hampir sama dengan decision analysis, bedanya adalah analisa rantai markov tidak memberikan keputusan rekomendasi, melainkan hanya informasi probabilitas mengenai situasi keputusan yang dapat membantu pengambil keputusan mengambil keputusannya.
Asumsi-Asumsi Markov Analysis
Penggunaan Markov analysis terhadap suatu masalah memerlukan pengetahuan tentang 3 keadaan, yaitu keadaan awal, keadaan transisi, dan keadaan steady state. Diantara ketiga kejadian ini, maka keadaan transisi merupakan keadaan yang terpenting. Oleh karena itu, asumsi-asumsi dalam metode ini hanya berhubungan dengan keadaan transisi.
Asumsi-asumsi dalam Markov analysis adalah sebagai berikut:
  1. Jumlah probabilitas transisi keadaan (baris matriks) adalah 1.
  2. Probabilitas transisi tidak berubah selamanya.
  3. Probabilitas transisi hanya tergantung pada status sekarang, bukan pada periode sebelumnya.
Keadaan Transisi dan Probilitasnya
Keadaan transisi adalah perubahan dari suatu keadaan (status) ke keadaan (status) lainnya pada periode berikutnya. Keadaan transisi ini merupakan suatu proses random dan dinyatakan dalam bentuk probabilitas. Probabilitas ini dikenal sebagai probabilitas transisi. Probabilitas ini dapat digunakan untuk menentukan probabilitas keadaan atau periode berikutnya.
Keadaan Steady State dan Probabilitasnya
Keadaan steady state adalah keadaan keseimbangan setelah proses berjalan selama beberapa periode. Probabilitas pada keadaan ini disebut probabilitas steady state yang nilainya tetap.
Apabila keadaan steady state terjadi, maka probabilitas status periode i akan sama dengan probabilitas pada status berikutnya (i +1).
JJ (i) = JJ (i + 1) dan TJ (i) = TJ (i+1)
dimana: JJ (i) + TJ (i) = 1
atau JJ (i) = 1-TJ (i)
TJ (i) = 1-JJ (i)
•      Analisa Rantai Markov adalah suatu metode yang mempelajari sifat -sifat suatu variabel pada masa sekarang yang didasarkan pada sifat -sifatnya di masa lalu dalam usaha menaksir sifat-sifat variabel tersebut dimasa yang akan datang.
•      Analisis Markov adalah suatu teknik matematik untuk peramalan perubahan pada variable-variabel tertentu berdasarkan pengetahuan dari perubahan sebelumnya.
•      Model Rantai Markov dikembangkan oleh seorang ahli Rusia A.A. Markov pada tahun 1896. Dalam analisis markov yang dihasilkan adalah suatu informasi probabilistik yang dapat digunakan untuk membantu pembuatan keputusan, jadi analisis ini bukan suatu teknik optimisasi melainkan suatu teknik deskriptif . Analisis Markov merupakan suatu bentuk khusus dari model probabilistik yang lebih umum yang dikenal sebagai proses Stokastik (Stochastic process).
•      Konsep dasar analisis markov adalah state dari sistem atau state transisi, sifat dari proses ini adalah apabila diketahui proses berada dalam suatu keadaan tertentu, maka peluang berkembangnya proses di masa mendatang hanya tergantung pada keadaan saat ini dan tidak tergantung pada keadaan sebelumnya, atau dengan kata lain rantai Markov adalah rangkaian proses kejadian dimana peluang bersyarat kejadian yang akan datang tergantung pada kejadian sekarang.
•      Jadi, Informasi yang dihasilkan tidak mutlak menjadi suatu keputusan, karena sifatnya yang hanya memberikan bantuan dalam proses pengambilan keputusan.

Syarat-Syarat Dalam Analisa Markov
Untuk mendapatkan analisa rantai markov ke dalam suatu kasus, ada beberapa syarat  yang harus dipenuhi yaitu sebagai berikut:
1.     Jumlah probabilitas transisi untuk suatu keadaan awal dari sistem sama dengan 1.
2.     Probabilitas-probabilitas tersebut berlaku untuk semua partisipan dalam sistem.
3.     Probabilitas transisi konstan sepanjang waktu.
4.     Kondisi merupakan kondisi yang independen sepanjang waktu.
Penerapan analisa markov bisa dibilang cukup terbatas karena sulit menemukan masalah yang memenuhi semua syarat yang diperlukan untuk analisa markov, terutama persyaratan bahwa probabilitas transisi harus konstan sepanjang waktu (probabilitas transisi adalah probabilitas yang terjadi dalam pergerakan perpindahan kondisi dalam sistem).

Keadaan Probabilitas Transisi
Keadaan transisi adalah perubahan dari suatu keadaan (status) ke keadaan (status) lainnya pada periode berikutnya. Keadaan transisi ini merupakan suatu proses random dan dinyatakan dalam bentuk probabilitas. Probabilitas ini dikenal sebagai probabilitas transisi. Probabilitas ini dapat digunakan untuk menentukan probabilitas keadaan atau periodeberikutnya.

Tidak ada komentar:

Posting Komentar