AI何時從人類助手進化到完全智能
【翻譯:嶺南客】
原文:When Will AI Graduate from Assisted to Autonomous?
思想學院
自大型計算機以來,人們已經設想出機器的未來潛力,可以幫助他們更快、更準確、更方便地執行不同的任務。 直到最近,這是通過軟件完成的(這些軟件是用布爾代數、邏輯和透明的方式創建的),條件執行(if / then / else)和循環(for / do)是我們所知道的軟件的基石。 理解和改變代碼的只是一個培訓問題。
隨著神經網絡和深度學習的引入,一切都發生了變化。 即使是最好的專家也很難理解在經過消化大量數據的過程之后,機器能夠獲得驚人的答案。 這更接近人類大腦工作的方式,基于直覺超過邏輯推論。 雖然令人印象深刻,但也可以說是可怕的。 它提出這個問題,我們應該允許這樣的機器更自主決策嗎?
人與AI:勝利的組合
到目前為止,AI智能等級第四級仍然是一個不可及的烏托邦,我們不應該擔心機器人很快接管世界。 然而,進步是顯著的,應該得到很好的利用,即使情報仍然需要人為因素的幫助和支持。
目前等級
現在,使用AI有3個可行的選擇:讓機器自己處理簡單的重復性任務,使用人工智能作為人類專家的值得信賴的助手,或讓任何人隨時接手,但鼓勵AI學習更多、并進化發展。
最后兩個案例是最有趣和值得發展的,因為第一種情況下的大多數情況僅僅是自動化的例子,而不是真正的AI。
人工輔助人類通常是那些專家,他們可以在工作中使用輔助的觀測或第二意見。想象一位放射科醫生看著可能是惡性腫瘤的東西。在做出這樣的診斷之前,將樣品與更為已知的實例進行比較是非常好的。那就是AI正在玩的地方。人與機器組合得到的結果超過了每個人的個人表現。
進一步的步驟是允許深度學習算法來監督決策,并且只有當AI產生明顯的錯誤時,才能對其進行糾正。這就是在方向盤后坐一個人的自動駕駛汽車正在做的事情。為了安全起見,對車輛進行全面控制是不明智的,盡管它與一個無聊,可預測和謹慎的駕駛員相比,具有足夠的性能。同樣的邏輯適用于公司聊天室,照顧可以將對話升級到人類客戶服務代表的客戶關系。
算法黑箱
AI開發面臨的最大挑戰是:算法對于如何決策是不透明(不顯性的)。 這意味著無法足夠快的速度調整機器,來使它在發生錯誤時能以正確的方式進行響應。 唯一的辦法就是教它這樣做,就是讓孩子從錯誤中學習,通過給予許多(如上千或者數百萬)好的例子,希望下次能夠正確地執行。
隔離故障
在條件算法中,分離導致錯誤并糾正錯誤的代碼是很直接和明顯的,計算機就是程序本身。 但從用于訓練的數據指出導致不當行為的元素幾乎是不可能的,因為進入第一神經元層的信息被處理,進入下一層,并且還有反饋機制。 為AI設備提供自主性需要相信他們是不犯錯誤的。
強化學習
如上所述,為了變得更加自主,AI應該能夠糾正自己的錯誤,而不是進一步傳播。 想象一下,一次不會停在紅色交通信號燈上的汽車。 沒有改正,再次犯錯誤的機會很高。 甚至可以相信這是正常的,記得TAY嗎? 人類使用的這種類型的學習意味著大量的嘗試和錯誤。 人工智能仍然處于協助狀態,專家組通過提供更多的“正確”數據集來監控結果并糾正機器。
誤判
一個AI的最大問題之一是錯誤診斷。 雖然有些情況并不重要,比如在某些可能障礙物之前放慢自駕車,但其他的則會危及生命,例如當病人看起來有癥狀時為病人提供治療,但實際上可能沒有病。
應用
對于涉及模式,客戶習慣和最佳實踐的學習的項目,建議使用神經網絡。 InData Labs最近發表的一篇文章提出了在移動環境中AI的三個即時應用。 推薦服務是第一個被亞馬遜發展的靈感,這些服務是無副作用的、足以采用全自動算法。 另一個例子是學習行為模式,可以從個人禮賓服務到個人助理機器人甚至機器人會計師使用,這可能需要一些人為干預。 最后和最重要的一種將是能夠思考和決定最佳行動方案的應用程序,如個人法律顧問,個人醫生或無法駕駛的無人駕駛汽車,但是我們目前還沒有達到這個水平。
總結
現在,在人工智能的成長中、把它置于適當的人為干預范圍內,才是安全的。 下一步是通過喂它許多優秀例程、并開發逐漸取代人類的“導師”算法來教導其糾正錯誤。 AI的最重要的特征是知識傳遞特點, 一旦機器學到了一些東西,它就能在另一臺機器上被復制和傳遞,訓練不需要從每個計算機的第0點開始,它只要從上一級繼續。 這個功能使AI能夠在短短幾年內發展到人類的水平。
人類已為此做好準備嗎?
更多文章,請關注微信公眾號:嶺南天問閣 (公眾號ID:edmoon_cai)