課件為人工智能講師葉梓人工智能基礎課程之一,接上一篇,更多課程,及老師資料可點選 個人首頁
(人工智能基礎課件31頁)
EM手算示例
![](https://img.laitimes.com/img/9ZDMuAjOiMmIsIjOiQnIsICM38FdsYkRGZkRG9lcvx2bjxiNx8VZ6l2cs0TPn10drpWT1kEROBDOsJGcohVYsR2MMBjVtJWd0ckW65UbM5WOHJWa5kHT20ESjBjUIF2X0hXZ0xCMx81dvRWYoNHLrdEZwZ1Rh5WNXp1bwNjW1ZUba9VZwlHdssmch1mclRXY39CXldWYtlWPzNXZj9mcw1ycz9WL49zZwpmL2MTO5MzMzAjMzATNwAjMwIzLc52YucWbp5GZzNmLn9Gbi1yZtl2Lc9CX6MHc0RHaiojIsJye.jpg)
如果取哪一枚硬币是不可觀測的,
通過初始參數計算分布:
0.6^9*0.4^1/(0.6^9*0.4^1+0.5^10)=0.805
0.6^4*0.4^6/(0.6^4*0.4^6+0.5^10)=0.352
0.6^8*0.4^2/(0.6^8*0.4^2+0.5^10)=0.733
(32頁)
EM示例的解釋
- 隐變量Z為每次實驗中選擇A或B的機率,則第一個實驗選擇A的機率為
- 按照上面的計算方法可依次求出隐變量Z,然後計算極大化的θ(i)。
3、經過10次疊代,最終收斂。
(33頁)
EM的另一個例子——GMM
- 給定一些觀察資料y,假設y符合如下的高斯分布
2、需要求出混合高斯分布的三組參數
3、下圖中的GMM,一共有K個分布函數
對于每一個觀察到的樣本y,如果知道它屬于K中的哪個分布,那麼求它的這些參數就比較容易。
(未完,下一篇繼續)課件為人工智能講師葉梓人工智能基礎課程之一,接上一篇,更多課程,及老師資料可點選 個人首頁
由于小編專業能力有限,無法将老師課件編輯成文章。供一定基礎的同學将系列課件下載下傳整理
————————————————