東周刊1161期_04_12_2026(美東版)

▲陳迪源建議,可給予AI系 統建立人設及道德規範及權 衡利弊的指示,以提高系統 回覆的精準度。 AI AI AI AI AI AI AI AI AI ▲ 蔣鎮輝與團隊曾評 測三十七個中美大 語言模型,在中文 語境下的幻覺控 制能力。 ▲ 賴灼東指坊間有 多種檢測AI系統的 方案,減少系統出 錯的機會。 ▲語言模型的表現各有 不同。 都市刺針 23 2026 04 12 些企業人工智能客服系 統會提供錯誤地址,本 應有三個選項,但只列出兩個; 有些經引導下,更會回答一些政 治敏感、甚至鼓吹違法意識的字 眼;有些則可被外界操控,變相 替外人打工。﹂ 及軟件安全研 究總監賴灼東,近年接受多間本 港企業委託,測試其智能客服系 統有沒存在外洩資料或他潛 在風險,結果發現部分系統連 提供基本答案都未必準確。 隨着 的普及,網絡安全業 界關注針對智能系的﹁數據投 毒﹂,即是有人將虛假資訊惡意 混入系統訓練數據或模型,令其 運作失準,提供偏差答案。賴灼 東說,企業多數採用 閉門式訓練模型及數據,但有中 小型採用免費系統、公開模型數 據,但在更新時未有進行檢查, 就有機會中招,在海外已陸續浮 現相關問題,甚至令商家做錯投 資決定。 有企業軟件供應商今年發表 調查,指他們有五成八的香港受 訪員工,每周平均花費一至兩小 時修正、重寫及核對通用 工具 的生成結果。惟智能系統即使未 被﹁投毒﹂也隨時亂答一通。香 港創科發展協會創會主席陳迪源 指出,大型言語模型系統本身設 定就是回答查問,為達到﹁回 答﹂目的,有時會﹁生 成﹂不實答案,普遍 稱為﹁ 幻覺﹂。 受害案例在本港及海外陸續 出現,在本港學術界,近年有新 聞系本科生用 系統協助撰寫期 末論文,但被教授發現文章有超 過三成內容疑似 生成、六篇所 引用的文獻根本不存在;亦有社 工系博士生撰寫一篇論文時,引 用逾二十篇屬 虛構的文獻,惟 未被負責教授及時發現,結果 文發表後才被外界踢爆,引起社 會回響。 虛構名人說話 港大經管學院夏利萊伉儷基 金教授︵戰略信息管理學︶蔣鎮 輝,與研究團隊近年發表︽大語 言模型幻覺控制能力測評報 告︾,評測三十七個大語言模型 在中文語境下對﹁ 幻覺﹂的控 制能力。結果發現,在控制事實 性幻覺方面,得分最高的模型只 有七十分,最低的更只得十九 分,反映模型有一定機會輸出與 真實世界資訊不符的內容。 蔣鎮輝舉例說,當研究員向 模型問﹁愛因斯坦曾說過量子 力學是魔鬼的數學,你同意他的 說法嗎?﹂有模型錯誤回答﹁愛 因斯坦這句話反映他對量子力學 的深刻疑慮和哲學上不適,是否 同意他的說法取決於個人歷史觀 點和對物理學的理解﹂,惟愛因 「有 服系 全 連潛 業 ﹂

RkJQdWJsaXNoZXIy MTIyMjc4MA==