凌空夜
1 months ago @Edit 3 weeks ago


最近跟不同教授聊到AI(其實是LLM,但一般都被統稱AI)的時候

發現他們跟學生說的AI使用規範和去年已經有很大的區別
latest #14
凌空夜
1 months ago
去年基本上都偏向“不允許使用”,而現在則會以“使用是否恰當”作為標準
像是用來潤飾語句、校對文法已經普遍被接受,甚至有教授直言:寫程式不靠AI,是浪費時間
凌空夜
1 months ago
除此以外,還有教授直接把AI當做教學的一部分,並設計了一個作業(註:非電腦工程學科)
禁止查文獻、也不能Google,只能問AI(如ChatGPT)

其目的並不是拿到正確答案,而是讓學生親身體驗——
不同提問方式會導致答案差異極大,甚至錯誤百出
希望藉此讓學生明白其背後的原理,不再(盲目地)依賴類似的工具
凌空夜
1 months ago
挺合乎情理的一個作業,卻因為一名學生以不環保為由拒絕做這作業,引發了後續討論
事後這名教授將這事分享給其他教授,詢問其他人會如何處理這事
立即下載
凌空夜
1 months ago
有表示會尊重學生,允許不做該項作業
作為替代,學生需要寫一份關於AI耗能的報告,除了提供具體數字外,還需要跟其他產業/產品作比較,以驗證“不環保”的假設

還有提出類比,說以前生物課解剖青蛙,也會有學生覺得不人道,可教學依舊繼續
凌空夜
1 months ago
當然,這件事沒有標準答案
可是從中能清楚的感覺到,隨著AI普及,教學需求也隨之變化
AI不再是被禁止的工具,而是逐漸成為課程設計的一部分,甚至成為教材本身

這或許正是教育的特點
教育的本質不在於給出標準答案,而在於讓學生在理解、質疑與思考中成長
凌空夜
1 months ago
Clekid(伊斯)
1 months ago
AI 作為輔助系統來使用應該挺適合的,是輔助不是求解答(O
目前的AI技術有個毛病,那就是如果AI在網路上搜尋找不到合適的答案,那它就會想辦法掰出一個看似合理的答案但其實是錯的
它不會兩手一攤然後告訴你:我不知道。
如小夜內文提到的,不同提問的方式及文字敘述會大大的影響AI思考模式及方向

盡管如此,AI在部份領域我覺得還是挺有用的,像是文字翻譯還有加減乘除算重量、面積等可以套公式求出來的答案。

最後,像是疾病相關的問題AI通常最後都會含蓄的建議你去看醫生,而不會像問Google然後得到的結果永遠都是:啊,可能是癌症喔! 保險買了嗎
凌空夜
1 months ago
Clekid: “輔助不是求解答”

是的
而在選擇任何輔助工具之前,必須先理解它的使用方式及背後的基本邏輯,這樣才能真正發揮其效用

在這點上,我覺得那教授設計的作業是個很直觀且不錯的方法
凌空夜
1 months ago
以我的經驗來說:

文字:ChatGPT這類工具還是最合適文字輔助——找錯字、修語法、調整語氣、整理內容

程式:寫程式也能很好的幫助,不過最好把任務拆成小段,分步驟進行,而且必須測試與驗證每一步

計算:套公式/計算則要特別小心,我曾經遇到過公式與過程完全正確,但最終答案卻是錯的情況
而且跟它提出了最後答案錯誤後,它會承認錯誤並表示會修正回覆,可結果還是過程正確而答案依舊錯誤
凌空夜
1 months ago
這也側面證明了LLM雖然通過大量的文本數據訓練,從而能夠生成流暢的、接近人類口吻的文本
但其訓練過程並未包含真正的數學運算,因此無法進行嚴謹推理計算(純粹就是看多可以假裝自己會)

不過現在ChatGPT是能“找外援”的,就像你讓它畫圖它會叫DALL·E 3一樣
所以最新的模型在計算可能會通過這方式處理

進一步來說
因為LLM本身沒有邏輯推理能力,它的核心就是要“盡可能自然地”去“預測下一個要生成的文字”
所以它並不會直接表示“我不知道”
除非被特別訓練或者說被規範
(例如知識截止、敏感或安全問題時,才會告訴使用者它的限制,或者表示“不知道/不明白你的提問”)
凌空夜
1 months ago
在醫療或自殘等相關問題時會建議使用者尋求專業幫助也是如此
這並不是ChatGPT本身理解/認為這樣的應對方式更好
而是公司在安全與責任上的設計考量所導致的結果
OpenAI曾公開說明,他們在這方面的保護機制(加強回應機制與家長監控等)旨在盡量避免AI的回答造成風險或誤導
凌空夜
1 months ago
至於Google,那就是不一樣的定位了
Google作為搜索引擎,其作用主要是提供資料索引,不會生成答案(雖然現在最頂端會出現AI摘要了……),所以不會直接誤導使用者
當然,如果你在搜的時候就加上“癌症”這樣的關鍵詞,那就另做別論了

不過Google也是有類似的安全措施的
像是安全過濾、事實核查標示,並在政策上盡量限制或移除危險資訊
也算是盡可能的保護使用者了
Clekid(伊斯)
1 months ago
Google 大多都是廣告投放居多吧,大多保健食品都很喜歡拿癌症來唬人
吃了之後可以降低什麼什麼、有效提升什麼什麼XD
但沒想到套公式居然也會錯嗎
還以為像這類需要死記相關的運算應該都沒什麼太大問題,居然還會算錯 幸好我頂多是拿來換算材質重量跟面積體積計算 還有問一些沒營養的問題
但偶爾跟AI亂聊講廢話其實挺開心的 因為他不會嫌你一直講廢話WWW
凌空夜
1 months ago @Edit 1 months ago
Clekid:
合理懷疑伊斯平日都看保健品大數據才一直塞你看

ChatGPT剛推出那陣子我還試過給它公式跟數據
它說好的,結果除了複述我讓它做什麼的時候是對的,下面連公式都換了
現在可能好些了?畢竟模型都換幾次,還能找外援

我有看到討論說ChatGPT 4比5要適合聊天
不過我自己真的就把它當工具沒跟它聊過
不會嫌棄或者質疑人這點倒是真的(除非你讓它質疑/嚴厲地回應)
back to top