http://www.bt12349.cn

谷歌和OpenAI研發新工具,深入了解AI如何識別圖片

人工智能的世界到底是什么樣子的?

幾十年來,研究人員一直對此感到困惑,但近年來,這個問題變得愈加緊迫。機器視覺系統正被越來越多地應用于生活的各個領域,從醫療保健到自動駕駛。

但通過機器的眼睛“看”世界,仍然是一個不小的挑戰,比如我們該怎么理解為什么它把有些人歸為行人,而把有些人歸為路標。如果我們無法做到這一點,就有可能會造成嚴重的,甚至是致命的后果。比如前段時間已經發生的,自動駕駛汽車撞上行人致死的事件。

雖然,神經網絡在識別圖像中的物體等任務上取得了巨大的成功,但它們是如何做到的在很大程度上仍是一個謎。它們的內部工作方式被屏蔽,隱藏在層層計算中,不讓人看到,使得人類很難診斷錯誤或偏差。

來自谷歌和非盈利實驗室open Ai的新研究希望通過繪制系統來了解世界的視覺數據,進一步撬開人工智能視覺的黑匣子。

這種被稱為“激活圖集”的方法,可以讓研究人員分析出各個算法的工作原理,不僅能揭示它們識別的抽象形狀、顏色和模式,還揭示了它們如何結合這些元素來識別特定的對象、動物和場景。

這項工作的主要研究者,谷歌的Shan Carter說,如果以前的研究就像在算法的視覺字母表中顯示單個字母,那么激活圖集提供了一個更接近整個詞典的東西,它顯示出字母是如何組合成實際單詞的??ㄌ卣f:“例如,在像‘鯊魚’這樣的圖像中,會由很多激活碼構成,比如‘牙齒’和‘水’?!?/p>

雖然這不一定是一個巨大的突破,但它是在被稱為“功能可視化”的更廣泛的研究領域向前邁出的一步。佐治亞理工大學的博士生Ramprasaath Selvaraju表示,這項研究“非常吸引人”,并結合了許多現有的想法,創造了一個新的極其有用的工具。

Selvaraju說,這樣的工作將有很多用途,幫助我們建立更高效和先進的算法,并通過讓研究人員深入研究來提高安全性和消除偏差。“由于神經網絡固有的復雜性,它們有時缺乏可解釋性,”但他說,在未來,當網絡被廣泛用于自動駕駛汽車和引導機器人時,這將是必不可少的一步。Open Ai的Chris Olah也參與了這個項目,他說:“這有點像制作顯微鏡。至少,這是我們所設想的?!?/p>

要了解激活圖集和其他功能可視化工具的工作原理,首先需要了解一點人工智能系統如何識別對象。實現這一點的基本方法是使用神經網絡:一種與人腦大致相似的計算結構(盡管它在復雜程度上落后了一個光年)。

每一個神經網絡內部都是人工神經元層,它們像網一樣連接在一起。就像你大腦中的細胞一樣,這些細胞會響應刺激,這一過程稱成為激活。重要的是,它們不僅可以啟動或關閉,它們可以在一個頻譜上注冊,給每個激活一個特定的值或“權重”。

谷歌和OpenAI研發新工具,深入了解AI如何識別圖片

要把神經網絡變成有用的東西,你必須給它大量的訓練數據。這意味著數十萬甚至數百萬張圖像,每一張都標有特定的類別。在谷歌和Openai的研究人員為這項工作測試的過程中,這些圖像涉及面廣泛:從羊毛到溫莎領帶,從安全帶到空間加熱器。

當它輸入這些數據時,神經網絡中的不同神經元會響應每個圖像而亮起。此模式連接到圖像的標簽。一旦經過訓練后,您就可以向網絡展示一張以前它從未見過的圖片,并且神經元將激活,將輸入內容與特定類別相匹配。恭喜你!剛剛成功訓練了機器學習視覺算法。

這讓研究人員可以觀察到網絡的一些情況,通過在不同信息層之間切換,他們可以看到網絡是如何從構建到最終決策的,從形狀和紋理等基本視覺概念開始到具體的對象。

例如,Olah注意到,狗的品種在很大程度上是以耳朵的下垂程度來區分的。圖集還展示了網絡是如何聯系不同的物體和想法的,比如說,把狗耳朵放在離貓耳朵不太遠的地方,看隨著層級的發展,這些區別是如何變得清晰的。

該研究還發現了一些驚喜,例如,Olah拍攝了一張魚鰭的照片,一條魚鰭劃過了洶涌的海水,那么它到底是屬于灰鯨還是大白鯊?作為一個沒有釣魚經驗的人,我不會冒險猜測,但是作為曾經看到過大量鯊魚和鯨魚鰭的神經網絡不應該有問題。

谷歌和OpenAI研發新工具,深入了解AI如何識別圖片

然后Olah展示了在神經網絡的特定層面上與兩只動物相關的圖集圖像,但其中一個鯊魚圖像特別奇怪。如果你仔細一看,你可能會看到一排排潔白的牙齒和牙齦,樣子卻同棒球的接縫十分相似。

事實證明,他們研究的神經網絡也有這樣的視覺隱喻的天賦,這可以作為愚弄系統的廉價技巧。通過改變魚鰭照片,比如說,在一個角落放置一個棒球郵票圖像,Carter和Olah發現可以很容易地說服神經網絡鯨魚實際上是一條鯊魚。

谷歌和OpenAI研發新工具,深入了解AI如何識別圖片

Olah說,這種方法不太可能被網絡破壞者所使用,因為其實有更簡單更微妙的方式來制造混亂。比如他們可以自動生成所謂的對抗性補丁,使網絡混淆,把貓當作是一碗鱷梨醬,甚至導致自動駕駛汽車誤讀停止標志。

但令人興奮的是,有了這個工具,人類可以充分了解網絡的內部深度,使得它最終幫助我們識別混淆或偏差,并及時糾正。

但是錯誤也是時有發生的,比如說,把不同種族的人類識別成大猩猩而非人。有了這樣的可視化工具,研究人員可以查看是什么外來信息或視覺相似性導致了錯誤的發生。

也就是說,試圖預測神經網絡的內核是存在風險的?!叭藗兂3哪憧赡茉谄垓_你自己,”奧拉說,風險在于我們可能試圖強加我們熟悉的視覺概念或尋找有意義的簡單解釋。

這就是包括人工智能先驅Hinton在內的一些人物一直反對人類解釋AI運作規律的原因之一,正如人類無法解釋他們的大腦如何做出決定一樣,計算機也是同樣。他最近在接受WIRED采訪時說道:“如果你非要要求他們解釋所做的決定,你就會強迫他們編造一個故事?!?/p>

雖然爭議不斷,但“激活圖集”的研究者們始終認為:每一代新工具的研發都在讓我們更接近這些在網絡中發生事情的真相。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯系我們修改或刪除,多謝。

狼群视频在线观看,韩国无码一区二区三区免费视频,婷婷网色偷偷亚洲男人的天堂甘肃_首页