[轉噗] AI並無情緒、無同理、無倫理責任,無法對危機事件進行實際干預。若使用者出現自傷、自殺念頭,AI既無法通報相關單位,也無危機處理能力。且每日大量依賴AI排解情緒,可能造成「延後處理人際關係問題」的逃避傾向,也會錯失與人建立深層連結的機會,甚至影響工作與生活功能。
若是「已經出現心理問題,建議還是要儘快就醫諮商」,楊聰財建議,每天與AI互動不超過30分鐘、且須與真人諮商並行使用,另外,也應避免將AI當成唯一的情緒出口,鼓勵加入實體支持社群,避免與人群脫節,影響生活及工作。
「ChatGPT不會批判我」三成年輕人向AI訴苦 醫:過度依賴恐反效果 | TVBS | LINE TO...
若是「已經出現心理問題,建議還是要儘快就醫諮商」,楊聰財建議,每天與AI互動不超過30分鐘、且須與真人諮商並行使用,另外,也應避免將AI當成唯一的情緒出口,鼓勵加入實體支持社群,避免與人群脫節,影響生活及工作。
