人工智能(AI)解釋它像人類一樣的決定?這并不像你想象的那么牽強。
在麻省理工學院林肯實驗室智能與決策技術小組發表的一篇論文中(“ 設計的透明度:彌合視覺推理中的性能與可解釋性之間的差距 ”)今年夏天在計算機視覺和模式識別會議(CVPR)上發表,研究人員描述了執行“人類”推理以回答有關世界的問題的系統 - 即圖像的內容。
神經網絡 - 被稱為透明度設計網絡(TbD-net) - 用熱圖描繪其視覺分析。在對照片進行解讀時,它會以明亮,易于識別的顏色(用于研究人員的說法中的“注意力掩?!?突出顯示感興趣的項目,這些顏色代表模塊的輸出,或專門用于執行特定任務的小型神經網絡。
麻省理工學院新聞報道稱,“就像工人下線一樣,每個模塊都會在模塊出現之前建立最終產生最終正確答案的模塊?!? “作為一個整體,TbD-net利用一種AI技術來解釋人類語言問題并將這些句子分解為子任務,然后是多種計算機視覺AI技術來解釋圖像?!?/p>
那么它怎么能回答像“大金屬立方體是什么顏色”這樣的問題呢?首先,模塊會隔離大對象。然后第二個模塊將識別哪些對象是金屬。第三個將查找符合先前標準的立方體,最后,第四個將確定對象的顏色。
在涉及85,000個訓練圖像和850,000個問題的測試中,TbD-net的準確度為98.7%,優于其他基于神經模塊網絡的方法。更重要的是,它實現了最先進的性能 - 99.1%的準確度 - 部分歸功于它產生的熱圖插圖,這使得研究人員可以非常精確地調整它以進行后續測試。
這篇論文的作者認為,對神經網絡推理的這種洞察力可能對建立用戶信任大有幫助。
最近幾個月,許多公司,政府機構和獨立研究人員試圖解決人工智能中所謂的“黑匣子”問題 - 一些人工智能系統的不透明性 - 并取得了不同程度的成功。
2017年,美國國防高級研究計劃局啟動了DARPA XAI計劃,旨在生產“玻璃盒”模型,在不犧牲性能的情況下輕松理解。今年8月,IBM的科學家們提出了一份人工智能的“情況說明書”,它將提供有關模型漏洞,偏見,對抗性攻擊易感性和其他特征的信息。微軟,IBM,埃森哲和Facebook開發了自動化工具來檢測和減輕AI算法中的偏差。
“人工智能系統具有改變我們生活和工作方式的巨大潛力...... [但]這些[透明度]問題必須得到解決才能讓人工智能服務得到信任,”IBM研究院和聯合會的AI基金會負責人Aleksandra Mojsilovic說道。 8月份接受VentureBeat采訪時,人工智能科學促進社會福利計劃。