详细调试信息 - getPostsByCategory:
当前 cat_name: 吉米-專欄
传入的 cat_slugs: %e5%90%89%e7%b1%b3-%e5%b0%88%e6%ac%84
当前页码: 1
is_lifetime: false
时间条件: 其他欄目 Default - 2023年1月1日后
查询结果:
找到文章数: 110
最大页数: 11
当前返回文章ID数: 10
文章IDs: 7409929, 7401430, 7392536, 7328572, 7320760, 7296035, 7288081, 7281855, 7273491, 7267167
第1页第一篇文章日期: 2026-02-05
第1页最后一篇文章日期: 2025-09-10

【評論】AI會掌控人類嗎?在幻錯中成長的人工智能...

AI ethics and legal concepts artificial intelligence law and online technology of legal regulations Controlling artificial intelligence technology is a high risk. AI ethics and legal concepts artificial intelligence law and online technology of legal regulations Controlling artificial intelligence technology is a high risk.

【吉米言法】熟悉並熟練使用人工智能工具可以幫助我們有效地提高工作效率,但是這往往發生在使用者有能力對人工智能工具所提供答案進行批評和修正的情況下。一旦你接受的回答超越了你的認知範疇,人工智能的答案真偽就會無從得知。

從2023年1月的52%的幻錯率(Hallucination Rate),到2024年5月法律人工智能最低17%的幻錯率, 再到2025年3月GPT4.5的15%幻錯率 1 , 人工智能進步迅速,但是若要完全消除幻錯率,路途仍舊漫長。

2023年1月,美國最高法院部落格( scotusblog.com ) 發表了著名的《不,金斯伯格 (Ruth BaderGinsburg) 在奧貝格費爾 (Obergefell) 案中並沒有提出反對意見,以及 ChatGPT 對最高法院的其他錯誤看法》一文 (“No, Ruth Bader Ginsburg did not dissent in Obergefell — and other things ChatGPT gets wrong about the Supreme Court”)。

作者羅莫瑟(Romoser)要求ChatGPT列出金斯伯格大法官的3個重要意見,ChatGPT的答案有對有錯,它錯誤聲稱金斯伯格大法官在Obergefell案中寫下過反對意見。

不僅如此,羅莫瑟還創建了一份圍繞美國最高法院的50個問題清單,讓ChatGPT回答。 當時ChatGPT的表現並不令人鼓舞,僅正確回答了其中的21個問題。錯了26個問題,在其他的3個問題中,ChatGPT的答案表面是正確的,但不完整或具有潛在的誤導性。

在2024年11月初於加拿大滿地可所舉辦的第九屆全國公益法律雙年會上,有一起卑詩省的判例在談到人工智能時被提及。在卑詩高等法院2024年2月的案件Zhang v. Chen, 2024 BCSC 285中,一名Ke姓律師使用人工智能的聊天工具ChatGPT, 在未“核實資訊來源”的情況下,引用了兩樁不存在的判例(Ke姓律師有誠懇道歉)。

Ke姓律師表示,“無論Al輔助工具的可靠性水平如何,本人都應該使用更可靠的平台進行法律研究,並且應該驗證將在法庭上提供和/或與對方律師交換的資訊的來源。”

到了2024年5月,斯坦福大學的政策,評估以及治理實驗室(REGLab)聯合以人為中心的人工智能(HAI)發表文章,表示有75%的律師計畫使用人工智能來幫助他們的工作。在他們所實驗的一對常用法律人工智能工具中,一個工具的錯誤率高於17%,另外一個工具的錯誤率超過
34%。

在一般公眾眼裏,官司的結果往往只有黑白兩分的輸跟贏。在此情況下,20%的錯誤率和50%的錯誤率差別並不顯著,因為都會大大增加當事人在觀感上輸掉官司的可能性。50%意味著開盲盒;20%則預示著你還是需要花額外或重複的代價去找錯。

律師之所以能成為律師是因為他們有著大學研究生(Post-graduate)的學歷,有著法律行業監管組織的嚴格監管。人工智能不會完全取代法律的專業工作者,特別是出庭訴訟律師的工作,但是人工智能的產品會更廣泛地協助受認證的專業人士來提升服務的效率,從而在確保質量的前提下,間接地減低司法服務的成本。

1 https://research.aimultiple.com/ai-hallucination/?utm_source=chatgpt.com

目前ChatGPT 會使用1)交叉核對資訊,2) 情境意識,3)誠實透明原則,以及4)持續學習的態度來減低幻錯率,確保相關性和正確性。正如ChatGPT告訴筆者,“我會承認【自己的】限制”。我想當人工智能哪天能自我意識到其實“自己一無所知”的時候,才是人工智能真正閃現智慧光芒的時刻。

撰文:吉米言 (卑詩公益法律服務社團 Access Pro Bono Society of BC 法律義診服務總管及資訊官)

網路圖片

---------------------------------------------

>>>星島網WhatsApp爆料熱線(416)6775679,爆料一經錄用,薄酬致意。

>>>立即瀏覽【移民百答】欄目:新移民抵埗攻略,老華僑也未必知道的事,移民、工作、居住、食玩買、交通、報稅、銀行、福利、生育、教育。
點擊以下6大平台 接收加拿大新聞及生活資訊

延伸閱讀

延伸閱讀

愛民頓經營戶外用餐區開始收費 商家抱怨太貴會吃不消

【入稟狀曝光】李家誠控周秀娜誹謗 指引發虛假傳聞 強調不認識周秀娜、絕無任何關係

跨越80年等待 108歲二戰女兵終獲英國戰功勳章

【投資專欄-跟楓走046】真正卡死 AI 與基建擴張的 ---- 其實是人