Contoh 1
Kasus khas adalah penandaan dalam konteks pemrosesan bahasa alami. Lihat di sini untuk penjelasan terperinci. Idenya pada dasarnya adalah untuk dapat menentukan kategori leksikal dari sebuah kata dalam kalimat (apakah itu kata benda, kata sifat, ...). Ide dasarnya adalah bahwa Anda memiliki model bahasa Anda yang terdiri atas model markov tersembunyi ( HMM ). Dalam model ini, status tersembunyi sesuai dengan kategori leksikal, dan status yang diamati dengan kata-kata yang sebenarnya.
Model grafis masing-masing memiliki bentuk,
di mana adalah urutan kata-kata dalam kalimat, dan x = ( x 1 , . . . , x N ) adalah urutan tag.y=(y1,...,yN)x=(x1,...,xN)
Setelah dilatih, tujuannya adalah untuk menemukan urutan kategori leksikal yang sesuai dengan kalimat input yang diberikan. Ini dirumuskan sebagai menemukan urutan tag yang paling kompatibel / paling mungkin dihasilkan oleh model bahasa, yaitu
f(y)=argmaxx∈Yp(x)p(y|x)
Contoh ke-2
Sebenarnya, contoh yang lebih baik adalah regresi. Bukan hanya karena lebih mudah dipahami, tetapi juga karena membuat perbedaan antara kemungkinan maksimum (ML) dan maksimum a posteriori (MAP) jelas.
t
y(x;w)=∑iwiϕi(x)
ϕ(x)w
t = y( x ; w ) + ϵ
p ( t | w ) = N( t | y( x ; w ) )
E( w ) = 12∑n( tn- bTϕ ( xn) )2
yang menghasilkan solusi kesalahan kuadrat terkecil yang terkenal. Sekarang, ML sentitive terhadap noise, dan dalam kondisi tertentu tidak stabil. MAP memungkinkan Anda untuk mengambil solusi yang lebih baik dengan memberi batasan pada bobot. Sebagai contoh, kasus tipikal adalah regresi ridge, di mana Anda menuntut bobot untuk memiliki norma sekecil mungkin,
E( w ) = 12∑n( tn- bTϕ ( xn) )2+ λ ∑kw2k
N( w | 0 , λ- 1Saya )
w = a r g m i nwp ( w ; λ ) p ( t | w ; ϕ )
Perhatikan bahwa dalam MAP bobot bukan parameter seperti dalam ML, tetapi variabel acak. Namun demikian, baik ML dan MAP adalah penaksir titik (mereka mengembalikan set bobot optimal, bukan distribusi bobot optimal).