跳至主內容

用人工智能找答案 多角度查證保平安

近日人工智能(AI)聊天機器人ChatGPT在互聯網上火紅,據報導已有一億用戶,大部份使用者都表示相比起傳統搜尋引擎只依據輸入的查詢來提供相關度高的網站,ChatGPT能讓用戶以人與人對話的方式提問然後輸出回應,加上生成的答案十分精準及附有詳細解釋,省卻用搜尋引擎後還要自行查閱資料的時間。

發佈日期: 2023年02月20日 6723 觀看次數

雖然其開發者OpenAI表示免費版ChatGPT是在研究預覽階段,但它的受歡迎程度卻標致著將AI及機器學習技術呈現至普羅大眾面前的重大成功。近日各大資訊科技公司都相繼公佈會把AI整合到其網上服務的計劃:例如Microsoft會把比ChatGPT更強大的AI技術與搜尋引擎Bing及瀏覽器Edge整合;另一搜尋引擎巨頭Google亦將於未來數周把其對話式AI服務Bard逐步加入到其產品中。可見不久將來會有更多AI技術會整合到不同的網上服務,涉足我們的日常生活。

 

AI的普及應用,一方面讓我們工作或生活上更省時便利,例如有人已利用ChatGPT編寫程式或文章,能得出比真人更快、更少錯誤的程式,生成的文章內容亦很豐富及井井有條;但另一方面,亦曾有不法分子利用ChatGPT製作釣魚郵件內容,甚至編寫惡意程式,縱使官方已加入保安機制禁止生成惡意內容,但已有網絡犯罪份子開發出規避方法,並以網絡犯罪服務方式販賣,由此可見潛在保安問題亦不容忽視。

 

HKCERT預測利用AI的攻擊及網絡犯罪服務將會是2023年五大資訊保安風險之一,當中更羅列多種不法分子如何利用AI進行攻擊的可能情況,除上述提到的例子外,還包括AI欺詐及毒害AI模型。總結AI涉及的保安風險有以下幾種:

 

  • 數據私隱和保密:AI需要大量數據進行訓練,其中可能包括敏感信息,如個人詳細信息、財務信息和醫療記錄。這可能引發了隱私問題,因為模型可能會訪問和生成敏感信息。
  • 錯誤訊息:AI為求產生的結果有連貫性及通順,可能會編造虛假或誤導性訊息,用戶慣性倚賴AI生成的資料可能會對事實有錯誤的認知。另外,訊息的準確性亦會受到其所接受的訓練數據影響,例如ChatGPT的訓練數據只去到2021年,所以當問到誰是最近的世界盃冠軍時,它會回答法國 (2018年冠軍),而不是阿根廷(2022年冠軍);其他錯誤訊息的例子包括在Google宣傳其聊天機器人Bard的廣告中,被發現它在回答有關「詹姆斯韋伯太空望遠鏡」的問題中包含錯誤的資訊。
  • 偏見問題:AI的訓練數據可能來自互聯網,其中可能包含偏見和歧視。這可能導致模型產生使這些偏見和歧視的回應。此外,不法分子亦可利用偏頗的數據,訓練AI模型,令AI生成惡意的回應,此手法稱為對抗性干擾。
  • 版權問題:考慮第三方的權利都是很重要,例如由ChatGPT輸出的回應中可能涉及的受版權保護的資料的擁有人。侵犯他人的權利,包括未經許可使用其受版權保護的資料,可能會導致法律責任。因此使用ChatGPT時,要考慮和尊重其開發者和其他人的知識產權,並確保對 ChatGPT 的回應的任何使用都符合適用的法律法規。

 

其實AI是一個中性的工具,本身並沒有對錯。正如當你在ChatGPT問ChatGPT自身是否存在保安隱憂時,ChatGPT的最後回應是 :

 

However, it is important for users and developers to be aware of these security concerns and take appropriate measures to mitigate them.

 

最終責任應該落在用家本身。最後,當大家使用AI時,應該保持凡事核查的心態,從多個源頭查證事實。