(邪教fsd推廣)我想我猜到邪教的fsd如何達成「模型可解釋」這個重要的里程碑,我們現在說nn是個黑箱,就是因為nn輸出的結果,我們無從去推回「哪個參數出錯」
以前的程式寫法,我們可以找出「哪幾行程式寫錯於是最後結果出錯」,參考那個iphone天線缺陷問題的報導,寫程式的人總有方法找到最關鍵出問題的哪幾行
但是一個幾十億,上百億參數的nn算法,你再強的工程師作不到除錯(後續)
https://images.plurk.com/3jscSjzxyWEdxrFUCMdSAf.png
掰噗~ 好奇
1 weeks ago
哪一位聰明的人來回答一下吧?
(繼續)答案其實很簡單:當算法進行推論的時候,「先輸出」可視化的影像,讓我們可以很直觀的看到「演算法」看到了什麼,預測四周的用路人做哪些行動,這樣我們就能知道,算法輸出的「推論」正不正確
(繼續)而這也是特斯拉花時間去做3d環境生成圖像影片的原因,越快越精準的環境,讓人更容易發現,電腦算法程式在哪裡做了錯誤的決策
立即下載
(繼續)於是這兩年雖然沒有另一次ai day,邪教工程師們並沒有閒著沒事,而是去做出他們自家的「數字孿生世界環境」,讓車子的算法nn在那個環境裡面自由行動,以確認99.999999....%的狀況下,車的決策是安全的決策