Login
Sign Up For Free
English
中文 (繁體)
中文 (香港)
中文 (简体)
日本語
Filipino
Bahasa Indonesia
Bahasa Melayu
Pусский
Português (Brasil)
Magyar
Français
Español
Deutsch
Čeština
العربية
Català
Dansk
Ελληνικά
فارسی
Suomi
Gaeilge
Hindi
עברית
Hrvatski
Italiano
Norsk bokmål
Nederlands
한국어
Polski
Română
Slovenský
Svenska
Türkçe
українська
беларуская
ไทย
Standard view
三腳貓型地痞rice_b
1 weeks ago
(邪教fsd推廣)我想我猜到邪教的fsd如何達成「模型可解釋」這個重要的里程碑,我們現在說nn是個黑箱,就是因為nn輸出的結果,我們無從去推回「哪個參數出錯」
以前的程式寫法,我們可以找出「哪幾行程式寫錯於是最後結果出錯」,參考那個iphone天線缺陷問題的報導,寫程式的人總有方法找到最關鍵出問題的哪幾行
但是一個幾十億,上百億參數的nn算法,你再強的工程師作不到除錯(後續)
掰噗~
好奇
1 weeks ago
哪一位聰明的人來回答一下吧?
三腳貓型地痞rice_b
1 weeks ago
(繼續)答案其實很簡單:當算法進行推論的時候,「先輸出」可視化的影像,讓我們可以很直觀的看到「演算法」看到了什麼,預測四周的用路人做哪些行動,這樣我們就能知道,算法輸出的「推論」正不正確
三腳貓型地痞rice_b
1 weeks ago
(繼續)而這也是特斯拉花時間去做3d環境生成圖像影片的原因,越快越精準的環境,讓人更容易發現,電腦算法程式在哪裡做了錯誤的決策
立即下載
三腳貓型地痞rice_b
1 weeks ago
(繼續)於是這兩年雖然沒有另一次ai day,邪教工程師們並沒有閒著沒事,而是去做出他們自家的「數字孿生世界環境」,讓車子的算法nn在那個環境裡面自由行動,以確認99.999999....%的狀況下,車的決策是安全的決策
delete
reply
edit
cancel
cancel