Dagon 分享
9 years ago
Google 開始做自己的晶片了,Intel、nVidia誰該比較擔心? Google 開始做自己的晶片了,Intel、nVidia誰該比較擔心? | T客邦 - 我只推薦好東西
latest #32
Dagon
9 years ago
誰來解釋一下深度神經網路是三小
BJ494BJ4
9 years ago
那高通呢?
BJ494BJ4
9 years ago
其實仔細想想,現在的CPU對大家來講都是over power,就算是現在出的intel雙核心也是,除了我們這種玩遊戲的神經病才會買頂裝
立即下載
BJ494BJ4
9 years ago
如果你的手機是一台電腦的話,文書機綽綽有餘,你看手機的CPU和電腦效能的天差地遠
BJ494BJ4
9 years ago
但是你可以在手機上做很多事
BJ494BJ4
9 years ago
我覺得這方面要取得一個平衡點
BJ494BJ4
9 years ago
不過提CPU高頻率對手機來講也是障礙啦,發熱der磚塊
BJ494BJ4
9 years ago
innocent_no_limit 應該知道什麼是神經網路
Dagon
9 years ago
CPU跑模擬的話就很吃吧
Dagon
9 years ago
不是說模擬器喔 雖然模擬器也很吃
BJ494BJ4
9 years ago
我指的一般大眾的需求,其實手機的CPU等級真的很夠用
BJ494BJ4
9 years ago
其他需求的當然要用不一樣的
123
9 years ago
查了wiki: The TPU is a programmable AI accelerator concentrating on a high volume of low-precision (e.g. 8bit) arithmetic; and is more applicable for actually using models ('inference') rather than training them.
123
9 years ago
大概是說 因為TPU在算的時候都亂算(low-precision) 所以可以比現行CPU更快
123
9 years ago
反正有些AI演算法並不需要精準度 常常都是亂試 找到一個夠好的解 而不是最佳解
123
9 years ago
深度神經網路是deep learning用的演算法 是machine learning的一種
123
9 years ago
目前很多資料中心會用deep learning
123
9 years ago
目前看起來 FPGA比較有機會做起來
123
9 years ago
google的TPU只是他們自己內部在搞 外面的人沒機會玩到QQ
123
9 years ago
主要是因為文章裡講到的 研發TPU的時程太久了 現在晶片3.4個月就要出下一代QQ
123
9 years ago
只有像google這樣 資金夠多的公司可以這樣搞
燒仙草
9 years ago
特殊用途用ㄉ
BJ494BJ4
9 years ago
有錢就是任性
123
9 years ago
恩恩TPU專門給資料中心用的
123
9 years ago
以後如果無線網路速度繼續加快的話 就不需要買PC了 全部給資料中心算就好了
123
9 years ago
有點像google doc那樣 全部雲端化
123
9 years ago
google是預測這點 才會大幅投資資料中心
123
9 years ago
IBM其實也是 業務重心轉到資料中心
燒仙草
9 years ago
應該是pc只要有螢幕鍵盤顯卡就好ㄌ
BJ494BJ4
9 years ago
讓我想到傳說中的串流遊戲,感覺很燒,伺服機房熱熱der
Dagon
9 years ago
他散熱應該也會弄很好啦
123
9 years ago
冷氣費 電費 爆炸~
back to top