噗趴
6 months ago @Edit 6 months ago
[地方羊駝LLM] 心血來潮(?)想說如果平板可以跑類似GPT的語言模型(LLM)多好啊!資料都會留在平板硬碟上,想放什麼就放什麼上去,不用擔心隱私選項有天沒注意讀更新條款的時候變成奉獻所有的資料,於是就找地方羊駝(LocalLlama)論壇爬,對電腦其實還算很白癡的我,就這麼誤打誤撞在平板上裝了地方羊駝......
噗趴
6 months ago
流程是這樣>>

爬完論壇,決定好要試怎麼樣的組合,再去問GPT。千萬不能叫GPT幫忙決定這種事,絕對會繞圈子。因為一開始GPT就是叫我自己裝llama.ccp,最高效率的引擎但是我的平板就是很討厭它。而且要自備使用者介面UI。

後來我試用LMStudio,是一個從引擎到介面都幫你弄好的完整程式,羊駝也可以從程式裡面直接抓,非常方便。只是想玩的話基本上用LM Studio就可以自己開小農場了。

LM Studio我用來測試到底可以跑多大的羊駝。
噗趴
6 months ago @Edit 6 months ago
羊駝(LLM)們除了有各種模型,每一種模型也有不同大小,現在一般筆電或高性能桌機可用款大約從6億參數(0.6B)到320億(32B)參數──就想像是羊駝大腦裡的神經元數量,越大就越聰明。相較於GPT-3大約有1750 億參數,現在大家用的GPT-4據推測是1.8兆。

因為LM Studio本身還是有點笨重,平板能順暢跑的只有到4B。另外就是LM Studio不支援網路搜尋功能,我本身很希望的一個功能是讓羊駝去網頁上面找資料然後抓回來給我,附上參考連結。尤其是工作上常常需要爬一些政府寫的那種折磨人的網站,如果羊駝能幫我爬就好了啊!因為沒有這個功能我就繼續回去爬地方羊駝論壇。

雖然我的平板實在超討厭llama.ccp,但是另一個引擎Ollama(開源)倒是可以跑。於是就決定是它了。較輕巧所以現在可以跑到8B。
噗趴
6 months ago
就像電腦也有一個就佔整個房間的年代,現在的GPT4也是一隻就要占掉廠房的不少空間,所以打算要養地方羊駝,絕對要有你的羊駝不是天才的心理準備。畢竟自家桌機筆電就是比不上人家的廠房和無限多的處理器。另一方面,家用也不需要當天才,只要能符合自身需求就行了。

目前我的需求是希望可以快速正確找網頁資料,還有英文/繁中翻譯。所以之後都是在往這兩方面想辦法。

已經有引擎之後,就需要一個介面可以比較方便的處理資料,而不是一直開cmd打ollama run xx羊駝。一開始我是裝了Open WebUI,就.......很陽春,很開放所以你愛加什麼就加什麼,只是要自己寫而已(!) Nooooo等我學會寫程式新增功能的時候輪子不知已經被發明幾千次啦!
立即下載
噗趴
6 months ago @Edit 6 months ago
陽春使用者介面(開源)>>Open WebUI 適合高手
AI引擎(開源)>>Ollama 普通人OK
AI引擎(開源)>>llama.ccp 高手用的,需要寫程式的環境

總之我就只好回去爬論壇,上班只要能偷懶都在爬論壇(欸) 找到一個適合我這種電腦白痴的現成介面,是個網頁瀏覽器外掛,叫做Page Assist,完成度相當高,功能和自由度都不再話下,雖然用起來還是有點卡卡,但那說不定是因為我的平板養起羊駝很吃力。
噗趴
6 months ago @Edit 6 months ago
Page Assist的功能基本上符合我的網頁搜索需求,可以在網頁旁邊開小視窗,然後叫羊駝啃回答問題,這個功能速度有點慢,因為啃需要時間。此外也有類似GPT的網路搜索功能。甚至可以用系統提示來大略限定先去找哪些網站。系統提示包括「你是個住在台灣的下廚小幫手,專門幫忙尋找美味的食譜,請優先從以下網站搜索icook.tw巴拉巴拉。」後者是我覺得比較好用的,而且小型的羊駝就能很快做到,並不遜於GPT。

Page Assist有一個分享頁面的功能,這部分就會傳到網路上,可以關掉功能,或是自己裝Docker自己當伺服器。

玩了很多羊駝之後,現在去蕪存菁剩下兩隻跑得動又堪用,和剩下那些蠢笨可愛或好玩的。

試用羊駝介紹看這邊