李開復老師最近說:“如果在座有孩子想去讀醫(yī)學影像的識別,就是幫助你看片子的那些醫(yī)生,千萬不要,五年以后沒有人會做這個行業(yè)了,全部被機器取代”。伊隆·馬斯克(Elon Musk)做過一個大膽的預測,稱全自動駕駛即將在幾年內實現。正是這一類的宣言和信念在推動風險資本對AI領域的高度期望和投資,并已經達到了史無前例的程度。
因此,一個關鍵問題是:機器會很快(比如說,5年內)在一些關鍵任務上替代人類嗎?比如全自主駕駛,或全面替換放射科醫(yī)生?如果答案是否定的,或者時間框架是在十年或者二十年之外,而不是五年,那么許多風險投資人將會大大失望,有些甚至可能會馬上撤資。
即使在這10-20年內,AI帶來驚人的技術進步,幫助人類完成許多高難度的任務,并為投資者帶來大量的利潤,所有這些可能都不足以匹配當前投資界對AI的既高又廣的期望。
那么,今天的主要障礙或挑戰(zhàn)到底是什么,會阻止計算機算法在5年內實現全自動化駕駛和自動閱讀所有CAT(計算軸向斷層掃描)圖像的宏偉夢想?
1、小貓(cat)還沒搞定,就想挑戰(zhàn)“大貓”(CAT:computedaxi altomography計算軸向斷層掃描)?
學會在照片中找到貓是深度學習的一個標志性的成功故事。該算法確實比人類快,但是它明顯比人類好嗎?這種算法是真的能夠找到“所有的貓,而且只有貓”(“allthecats,nothingbutthecats”)嗎?谷歌相冊,通過深度學習,把我妻子的一張照片放到了“貓”的文件夾中(見下圖)。所以,要么是我不小心娶了貓女,要么就是今天的深度學習算法仍然會犯愚蠢的錯誤。事實上類似的錯誤還很多,不管是找貓還是找其他的東西。
如果小貓(cat)都還沒有搞定,我們真的可以把所有的“大貓”(CAT?computd axial tomography計算機軸向斷層掃描)圖像都完全托付給AI嗎?再次強調一下,我們在此討論的是“所有CAT圖像”和“5年之內”。我可以設想“小貓算法”在5年內會有大幅度的提高,達到接近完美的敏感性和特異性。我也可以設想,在5年內,會快速的出現一批醫(yī)學圖像分析的任務是由機器來完成,而且不需要放射科醫(yī)生來監(jiān)督。但是,絕對不會是所有的任務。
同時我也認為這只是一個“進化”而不是“革命”,因為多年來,計算機已經可以完全自動地閱讀心電圖,半自動地閱讀宮頸刮片圖,和獨立承擔許多實驗診斷學的測試項目。
2、AI從第L2級到第L3級的飛躍尚未實現
雖然我們有雄心勃勃的愿景,還有商業(yè)界強力的推動,第L3級的自動駕駛今天還沒有真正實現。第L3級的自動駕駛是允許司機不用再看著前方的道路的,可以寫寫電子郵件,讀讀書,或者甚至打個盹(你必須要考慮到很多人一讀書就可能打瞌睡)。我覺得這很有可能在5年內實現,但是只會在一些特定的駕駛條件下才會工作,比如說高速公路,并且沒有特別惡劣的天氣。
不管怎么樣,光保險公司就可能需要五年才能琢磨出來怎么樣量化各種各樣的風險:AI犯錯的機會必須要足夠小,以至于從汽車制造商或車主那里收集來的保險費可以足夠彌補。
或者,也可以想象一些新的商業(yè)化方法,例如使用人來遠程監(jiān)視100輛汽車,萬一某個打瞌睡的客戶沒有及時被AI的“請立即接管駕駛任務?。╬lease take over now!)”的請求鬧醒,監(jiān)視中心的人可以隨時遠程接管駕駛任務,讓汽車安全地脫離危險。這個商業(yè)模式有點像今天的一些家庭安全公司的做法,或者可以看成為一種“實時的道路救援服務”(real-time road side assistance service)。
Mobileye的Amnon Shashua博士預測第L3級自動駕駛的到來會在2018-2020年左右,而BMW則好像是把第L3級預計在2020年以后上市,第L4/L5級則被推到了2025年之后。任何在工業(yè)界或金融領域工作的人都知道,長期預測通常帶有很大的誤差,且常常是偏于樂觀的。
回到放射學領域,現有的CAD(計算機輔助檢測)算法已經商業(yè)化很久了,但還停留在對應于自動駕駛的第L1/L2級上,只是擔當“第二讀者”(second reader):醫(yī)生需要對圖像的采集和分析負全部的法律責任,算法僅僅是提供幫助/輔助。
第L3級的AI意味著算法需要開始負起責任來,成為“第一讀者”(first reader),而且經常會是“唯一讀者”。再次強調前述觀點:這算不上是一場“革命”,因為它在諸如心電圖監(jiān)測,宮頸涂片和一些病理圖像自動分析的任務中已經被用了很長時間了。利用深度學習的力量,我可以想象在未來5年中會涌現出一大批新的“第一讀者”產品。
肺結節(jié)或結腸息肉檢測算法將首先全面地分析所有的圖像,而放射科醫(yī)生只需要審核一下那些算法找到的可疑的病變區(qū)域。計算機將分析所有的胸部X射線圖像,并且直接向臨床醫(yī)生指出哪一些人可能有病變,而把那些看上去正常的健康的人直接送回家。
與第L3級的自動駕駛的情況類似,商業(yè)化成功的關鍵在于對算法出錯風險的量化和控制:每一個錯過的結節(jié)或息肉的成本是多少?或者錯誤地把一個病人當做健康人送回了家的風險成本又是多少?錯誤率不需要為零,但必須足夠低——至少得低到保險單能夠支付得起的地步。
或者,我們可以給那些由計算機送回家的“健康患者”們提供一個“專家確認”的服務:如果他們真的想要更確定的話,他們可以付額外的費用請人類專家再看一遍。但是這種額外收費的方法,盡管經濟上是合理的,可能會面臨“政治正確”的挑戰(zhàn):“你是說富人可以得到人類專家的悉心呵護,而窮人就可以死在機器人的冰涼冷酷的手里嗎?!”如果所有圖片都要人類專家過目一遍的話,那我們就又退回到第L2級去了。
多年來,我們一直在尋找計算機視覺和模式識別的“殺手級應用程序(KillerApplication)”?,F在我們至少有兩個:自動駕駛和放射學。這兩個都是真正的“殺手(Killer)”級應用程序:如果機器犯個嚴重的錯誤(例如,將白色卡車誤認為白云,或將肺癌誤認為是肝臟的一部分),它可能真的會“殺人”。
如果你經常開車的話,我建議你選一天,一路上不斷地有意識地問自己:“這一段路能讓AI開嗎?”一天下來,你可能就會覺得AI五年之內不可能完全自己開車。同樣的道理,如果你跟蹤一個臨床醫(yī)生或者一個放射科醫(yī)生一整天的話,你同樣可能意識到他們的很多任務都是不可能被AI在五年內代替的,二十年都不可能。
一個非常有趣的民意調查顯示,人們往往相信其他人的工作可能會被AI替代,但不包括他們自己的工作!這可以解釋“每個工作都將被AI替代,每個工作都不會被AI替代”的“AI預測悖論”:你會聽到許多預言家講許多工作將被AI替代,所有這些預言的總和就是“所有工作都會被AI替代”;但是當你去逐一分析每個工作的時候——如果你可以相信那些做這個工作的、熟悉該工作的人——同樣的預言家會告訴你這個工作將不會被AI替代,至少不會在5年之內,或者甚至不會在二十年之內。
無論事實如何,有一點是肯定的:如果你不了解一個工作的細節(jié),不要輕易預測“它將在5年內被AI取代”。
3、“只要有足夠的數據,任何問題都會迎刃而解!”這是真的嗎?“Give me data,I can do anything!”Really?
因為它強大的“端到端(end-to-end)”的學習功能,深度學習正帶來一場革命。“只要收集到足夠的數據,并告訴它你想要什么結果,深度學習都能學到”已成為很多人的期望。這個說法在很多情況下是成立的,但不是所有的情況——讓人擔憂的是有一些極其簡單的問題都會難倒它。
下面這個例子就是這個情況:
這個例子我們稍微仔細看一下就會發(fā)現其中的邏輯其實很簡單:第一類是“不同形狀的組合”,而第二類是“單一形狀的組合”。所以答案應該是“第一類”。
有意思的是,如果直接應用深層神經網絡,以端到端的方式來解決這個問題,不管你用多少訓練數據都訓練不出來。那么人是怎么解決這個問題的呢?我們是先看到形狀,識別了各個形狀,然后再做邏輯推理。所以算法上只要加一兩個簡單的算法模塊,首先做圖像分割和形狀識別,接下來這個問題就迎刃而解了。
人類一些疾病也有類似的復雜邏輯在里面:某些CT圖像的一些形態(tài)(例如,肺中的“蜂窩”病灶)可能預示某一種疾病A(例如,UIP普通間質性肺炎),然而,另一些圖像形態(tài)(例如GGO或磨玻璃樣病灶)的共存可能排除疾病A,并大大提升另一疾病B的可能性(例如,NSIP或非特異性間質性肺炎)。
在我們最近的針對間質性肺病的CAD工作中,端到端訓練完全不能解決問題。而添加了一些分步邏輯模塊之后,例如肺部分割和對局部疾灶模式的學習,我們開始找到解決問題的眉目了。我們做了一個算法的原型,可以達到一個剛入門的放射科醫(yī)生的水平,并且可以幫助他們檢測到更多的疾病病例。我預計,在5年內,這個算法應該能夠達到或超過專家級的放射科醫(yī)生的水平,并且許多類似的算法和工具也將陸續(xù)上市。
但是這種手工定制邏輯模塊的做法,不容易實現有工業(yè)規(guī)模的快速成長(industrializedscale-up)。如果我們再考慮到人類疾病的總數是如此之大(約30000),我們就會意識到“人工智能在五年內會全面替換放射科醫(yī)生”的說法確實是太過于樂觀了——我認為二十年都不太可能。因為我們都知道啃不動的硬骨頭都會留到最后,所以最后百分之五的工作往往會花掉我們百分之五十的總預算,甚至更多!
4、AI的軟肋:威諾格拉德模式挑戰(zhàn)(Winograd Schema Challenge)
威諾格拉德教授(谷歌創(chuàng)始人拉里·佩奇的博導)早在七十年代就提出了一個挑戰(zhàn)AI的簡單方法,比圖靈測試更加有效也更加難。一個經典的問題是這樣的:
鎮(zhèn)議員拒絕給示威者許可證,因為他們害怕(或倡導)暴力。誰害怕(或倡導)暴力?答0:鎮(zhèn)議員;答1:示威者。正確的答案當然是0或1。也就是說鎮(zhèn)議員害怕暴力,而示威者倡導暴力。
但這種類型的問題對計算機來說是非常難的。去年(2016年),最好的計算機程序只有58%的成功率。這是非常低的,簡直令人沮喪,因為隨便丟丟硬幣就可以達到50%。這說明一個問題,就是計算機還不能很好的掌握人類的常識和進行基本的邏輯推理。
在放射科里的一個類似問題是患者的心臟有一個植入的二尖瓣閥,它有運動減退(hypokinetic)(或逆流)。什么有運動減退(或逆流),是心臟還是閥?
這個問題所有的放射科醫(yī)生都知道答案。
放射科醫(yī)生在看圖像的時候通常都會把病人以前的歷史報告拿來讀一下作為比較。如果連病史報告都看不懂,AI怎么代替醫(yī)生呢?
讓我們一起來關注一下下次的威諾格拉德模式挑戰(zhàn)賽吧??纯碅I能夠達到什么樣的水平,然后再討論AI獨立自主做疾病診斷(CAD-computer aided diagnosis)以及代替放射科大夫的事吧。
綜上所述,我們可以對最開始提出來的幾個問題有如下答案:
Q:搞機器學習的科學家是否應該擔心她/他的工作(例如,因為開源)?
A:不用擔心!我們面臨足夠的問題和挑戰(zhàn),很多工作要做,不需要去賣紅薯或黃瓜。
Q:醫(yī)生或放射科醫(yī)生是否應該因為AI而擔心她/他的工作?
A:不用。至少20年內不用。
Q:患者是否應該擔心醫(yī)療質量(由于AI可能犯錯誤)?
A:統(tǒng)計上講:不用。(從長期看,AI統(tǒng)計上應該比人類更準確。)
Q:具體情況?
A:建議多了解多問。(AI的錯誤會和人的錯誤不一樣。)
(文章來源:億歐網)
第三十四屆CIO班招生
國際CIO認證培訓
首席數據官(CDO)認證培訓
責編:houlimin
免責聲明:本網站(http://www.www.gypb.net/)內容主要來自原創(chuàng)、合作媒體供稿和第三方投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
本網站刊載的所有內容(包括但不僅限文字、圖片、LOGO、音頻、視頻、軟件、程序等)版權歸原作者所有。任何單位或個人認為本網站中的內容可能涉嫌侵犯其知識產權或存在不實內容時,請及時通知本站,予以刪除。