首頁 > 基金 > 正文

猶豫不決時AI幫你做決策!DeepMind讓AI更懂人類思維

2023-08-11 18:55:24來源:智東西  

智東西

編譯 | 銘滟


(資料圖片)

編輯 | 徐珊

智東西8月10日消息,據TechXplore報道,劍橋大學、普林斯頓艾倫圖靈研究所和Google DeepMind的研究人員聯合發布了一項新型人工智能系統。該系統可以在人類給出模糊反饋的情況下,訓練機器學習系統給出確定的決策。

研究人員的目的是讓人工智能能夠更好地理解人類的思維方式,從而提高人機協同效率。此前機器學習的設定前提是以人類的確定答案為基礎,但是以人類的正常思維模式而言,在多數情況下,人類是難以給出確定答案的。這一點正是此前的研究空白。

圖為該論文摘要

該研究有助于降低人工智能系統風險并提高人工智能的可靠性,這一點在類似醫療診斷等高安全需求的情景下尤為重要。

一、模糊決策訓練可提升人工智能性能

許多人工智能系統無法“接受”人的錯誤和不確定性,這一點在人類與機器學習模型反饋的系統中體現的尤為明顯。許多人工智能系統的編程基礎為假定人類總能給出正確答案,但這只是人類日常思維的一部分,另一部分則包含許多不確定性和錯誤的結論。所以,研究人員試圖通過模糊決策(與確定決策相對)訓練機器學習系統。

圖為圖片識別反饋日志

研究人員采用通用的圖像分類數據集,讓實驗人員在標記特定圖像時提供反饋并標明其決策的模糊程度。

研究人員使用了三個基礎機器學習數據集:一個是數字分類,一個是對胸部X光片進行分類,一個是對鳥類圖像進行分類。對于前兩個數據集,實驗人員需要給出模糊反饋。但對于鳥類圖像數據集,實驗人員需要給出確定反饋:例如,鳥是紅色還是橙色。

這些由實驗人員提供的特定反饋可以讓研究人員追蹤機器學習的決策過程,并確定其最終輸出結果是如何改變的。

研究人員發現,盡管模糊決策訓練會導致人工智能系統的整體性能下降,但是,使用模糊標簽進行訓練可以提高這些系統處理模糊反饋的性能。

二、優化人工智能新思路:從人類思維出發

該項研究解決的核心問題即為,當人類猶豫不決時,人工智能應該怎么辦?

“人類對待世界天然具有不確定性,但許多人工智能系統未能考慮到這一點,”劍橋大學工程系的第一作者Katherine Collins說。“許多開發人員都在努力讓模型變得確定且可靠。但很少有人從人類思維模式角度出發,思考人工智能系統應該如何優化。”

研究人員表示,許多人工智能系統的預設前提是人類總能給出確定的答案。但這是不可能的,因為人都會犯錯,都會猶豫。他們想知道當人類給出模糊反饋時,人工智能系統會怎么辦?這一點在應用于安全需求較高的環境中時尤為重要,比如臨床醫生使用醫療人工智能系統的場景。

圖為哮喘患者反饋日志

“我們需要更好的工具和數據來重新校準這些模型,這也是為了提高未來人機協作的效率。”研究人員Matthew Barker說。“機器學習模型就是在與人類的真實思維模式相處。”

研究人員表示,他們正在發布用于機器學習的數據集,以便未來讓人工智能能夠更好地理解人類的思維方式。

“在某些方面,這項研究發現的問題比回答的問題多。”Barker說。

結語:人工智能系統或可更接近人類真實思維模式

研究人員曾表示,基于他們數十年的人類行為學研究,他們認為人類天然具有不確定性,他們也正在努力彌合人類的真實思維方式與機器學習這兩個領域,以便機器學習可以更接近人類的真實思維。

從人工智能訓練的角度而言,或許也可以通過細化分析人的行為決策路徑,將模糊決策轉化為概率問題,從而進一步優化人機交互系統。

來源:TechXplore

關鍵詞:

責任編輯:hnmd003

相關閱讀

推薦閱讀