人工智能的發展還有一段較長的路要走,現有人工智能研究主要側重于性能方面的突破,但可靠性是一個不可忽視的問題,下面列舉幾個典型問題:
(1)第三方刻意攻擊對語音識別準確率的影響
據《新科學家》報道,來自以色列巴伊蘭大學的研究人員和 Facebook 的人工智能團隊已經表明,可以對音頻剪輯進行細微地調整,使語音識別系統理解出與音頻完全不同的內容,但是這些細微的調整并不會影響人類對音頻的正確理解。
實際上,這樣的情況并不僅限于語音識別,在圖像識別等領域同樣存在。在訓練人工智能系統的過程中,在正常的輸入樣本中故意添加細微的干擾以誤導機器學習算法,使人工智能系統產生錯誤的結果,這種添加了細微的干擾以誤導機器學習模型的樣本,就是“對抗樣本”。
(2)第三方刻意攻擊對無人駕駛可靠性安全性的影響
無人駕駛安全性應該是無人駕駛研發的突出問題。如果有人惡意使用對抗樣本,它可以用來欺騙自動駕駛汽車,使其不能識別道路上的停車標志,進而引發事故;可以欺騙語音識別系統,讓系統聽到虛假的命令;可以將一只貓識別成一條狗;可以將惡意軟件誤分類為良性軟件,也可以阻止閉路電視監控系統在人群中找出嫌犯。而由對抗樣本引發的欺騙策略也就是常說的“對抗性攻擊”。
Cissé 發現,自動駕駛汽車中的圖片分類算法可能會忽略行人和停放的車輛。他說:“我認為我們應該擔心我們如何確保汽車中使用的神經網絡是安全的”。 Cissé 的團隊將少量的數字噪音引入到一個人的錄音片段,并將該錄音播放給谷歌語音(Google Voice)這款語音識別應用程序。在這個對抗性的示例中,該應用程序聽到了一個與事實完全不同的句子。
但是,并不是所有人都認為對抗性攻擊將會在現實世界中發揮作用。伊利諾伊大學香檳分校的大衛?福塞斯(David Forsyth)建立了一個經數字化改變的虛假的停車標志試圖欺騙這種算法。
雖然沒有證據表明對抗性攻擊已經被用于現實世界中,但是牛津大學的 Marta Kwiatkowska 說,這只是時間問題;機器學習可能會被用于攻擊系統。需要做出更多的研究去發明新的機器學習技術抵御對抗性攻擊。
或許最有趣的是,找到一種避免人工智能系統被對抗樣本欺騙的方法是相當困難的。正如我們過去解釋的那樣,我們并不理解深度神經網絡的內在工作方式,這也意味著,我們并不知道為什么神經網絡能夠接受聲音片段和圖像中的細微特征,而人類卻不能覺察到。
(3)信息內容的可靠性
基于大數據的智慧城市,離不開網絡信息的提取與支撐?,F代社會網絡信息極度豐富,作為當前網絡信息檢索的主要工具,搜索引擎已成為人們訪問互聯網資源的有效途徑。其中,用戶反饋是算法優化、系統維護和性能評估的重要手段,也是網絡搜索和知識挖掘的重要研究領域之一,已越來越受到研究人員和系統開發者的關注。作為用戶反饋的傳統模式,手工評價需要耗費大量的人力和時間資源,難以大規模地實時開展。因此,如何有效挖掘和利用網絡用戶檢索反饋的群體智慧信息已受到研究界的廣泛關注。
真實網絡檢索環境下的用戶點擊行為信息往往含有大量噪音,其中摻雜了包括網絡爬蟲等非正常的網絡用戶。Joachims展開了一項稱為眼睛跟蹤研究,結果表明個體用戶的點擊信息由于搜索引擎結果排序、內容展示等多方面原因而具有偏向性,搜索查詢和點擊文檔之間沒有明顯的絕對相關性。上述相關研究表明,有必要對網絡用戶的行為日志進行分析,進而提煉網絡用戶點擊的有效信息,過濾噪音。當前用戶行為信息的研究方法主要基于大規模用戶點擊行為的宏觀統計分析,此類分析方法適用于處理用戶訪問頻度高的熱門詞查詢,不適合處理用戶訪問量較小但數量眾多的長尾詞查詢,也不適合應用于用戶的個性化搜索,針對不同興趣的用戶有區別地返回搜索結果。
上面列舉的三個問題是僅僅近期網絡上關注的,在此僅作拋磚引玉之用。任何產品的研發,質量與可靠性方面是產品的核心競爭力之一。若要提高人臉識別、語音識別、無人駕駛汽車等人工智能產品的可靠性水平,不僅僅要關注硬件,更為關鍵的將是軟件。
參考了以下文章:
https://www.technologyreview.com/s/608381/ai-shouldnt-believe-everything-it-hears/
http://www.sohu.com/a/168112664_505819