去(qù)年六月,Facebook人工(gōng)智能研究部門的五位研究員(yuán)聯名發表了一(yī)份研究報告,主要介紹了機器人如何能夠模拟談判性質的對話(huà)。
雖然在很大(dà)程度上,機器人确實能夠保證對話(huà)的連貫性,但研究員(yuán)發現那些軟件也會偶爾說出一(yī)些奇怪的話(huà),比如“對我(wǒ)(wǒ)來說、對我(wǒ)(wǒ)來說、對我(wǒ)(wǒ)來說、對我(wǒ)(wǒ)來說,球沒什麽用。”
看到這些研究結果之後,Facebook人工(gōng)智能團隊便清楚地意識到,他們沒有能夠在日常口語的參數範圍内,對機器人說出的話(huà)語進行有效限制。換句話(huà)說,他們隻是研發出了一(yī)種僅限于機器人相互之間使用的獨特機器語言。而對于這些研究結論,或許身處其他領域的人會覺得比較有趣,但其實在專業人士看來,根本就是毫無新意可言,也算不上是突破性發現。
就在那份研究報告發表之後的一(yī)個月,國外(wài)知(zhī)名新聞媒體(tǐ)又(yòu)發表了一(yī)篇名爲《人工(gōng)智能正在投資(zī)那些人類無法聽(tīng)懂的語言,我(wǒ)(wǒ)們是否應該阻止這種趨勢?》的文章。具體(tǐ)看來,文章主要講了機器人時常出現的偏離(lí)日常英語交流的問題。雖然這并不是上述研究報告的主要結論,但外(wài)媒文章表示,在發現機器人已經開(kāi)始以一(yī)種全新的語言進行交流時,研究人員(yuán)認爲它們發展到了一(yī)種失去(qù)控制的地步,從而決定叫停整個實驗。
該文章一(yī)經發表,便迅速傳遍了整個網絡,導緻大(dà)量缺少創新報道内容的出版商(shāng)開(kāi)始跟風,紛紛說Facebook的工(gōng)程師是因爲機器人以一(yī)種獨特語言進行自主交流出現了恐慌,從而叫停了人工(gōng)智能項目的研究。甚至還有媒體(tǐ)指出,這一(yī)現象簡直就是電(diàn)影《終結者》在現實生(shēng)活中(zhōng)的重現。因爲在這部電(diàn)影中(zhōng),有一(yī)個機器人在有了自主意識之後就對人類發起了戰争。
Zachary Lipton是卡耐基梅隆大(dà)學機器學習部門的助理教授,看到這篇本來還算有點兒意思的文章逐漸成爲各家媒體(tǐ)博得關注的噱頭,他不禁産生(shēng)了一(yī)絲沮喪之情。
根據Lipton的介紹,近些年來,廣大(dà)民衆對“機器學習”和“深度學習”這類話(huà)題是越來越感興趣。但與此同時,也導緻了不少“趁虛而入”的低質新聞報道現象出現,對人們正确理解相關研究報告以及行業發展前景帶來了負面影響。用他的話(huà)說,這就是人工(gōng)智能錯誤信息的蔓延。其實,除了Lipton,還有很多該領域的研究人員(yuán)也是感同身受。他們擔心關于人工(gōng)智能的猜測性虛假報道,将會促使人們對該行業的發展前景抱有錯誤預期,最終威脅到該行業的發展進步以及相關新興技術在現實生(shēng)活中(zhōng)的高效應用。
事實上,媒體(tǐ)對于計算機智能的誇張報道,并不是我(wǒ)(wǒ)們這個時代獨有的,早在計算這個概念最開(kāi)始出現時就已經有了。
1946年2月,校車(chē)大(dà)小(xiǎo)的電(diàn)子數字積分(fēn)計算機(即Electronic Numerical Integrator and Computer,以下(xià)簡稱Eniac)正式在一(yī)次新聞發布會上亮相。當時,記者們紛紛将其稱作“電(diàn)子大(dà)腦”、“數學怪人”以及“天氣預測者與控制者”。爲了讓大(dà)衆真正理解這一(yī)新機器,不再受虛假誇張新聞的誤導,英國著名物(wù)理學家DR Hartree在《自然》雜(zá)志(zhì)上發表了一(yī)篇文章,以一(yī)種直接、真實、簡單的方式講述了Eniac的運作方式。
但讓他感到沮喪的是,《倫敦時報》在他的研究基礎之上,又(yòu)刊登了一(yī)篇名爲《電(diàn)子大(dà)腦:解決深奧問題、帶有記憶閥門》的文章。随即,他便給《倫敦時報》的編輯寫了一(yī)封信,說是“電(diàn)子大(dà)腦”這一(yī)術語會誤導讀者,并且聲明機器是無論如何不能代替人類大(dà)腦思維的。但可惜的是,他的努力最終還是徒勞。在媒體(tǐ)眼中(zhōng),Eniac的身份以及定義,永遠都停留在“大(dà)腦機器”上。
同樣在美國,情況也相當類似。Frank Rosenblatt是康奈爾航空實驗室的工(gōng)程師和心理學家。1958年,他在《紐約時報》上發表文章,正式提出了一(yī)種名爲“感知(zhī)器(perceptron)”的基本機器學習算法。雖然按照設計,這種算法隻能夠識别出來少數幾種模式,但《紐約時報》卻将其稱爲“電(diàn)子大(dà)腦”,說是它可以實現自我(wǒ)(wǒ)教學,用不了多長時間就能走路、說話(huà)、寫作、繁殖再生(shēng),同樣也能充分(fēn)意識到自己的存在。
固然,人工(gōng)智能可以帶來令人陶醉的喜悅,也可以爲大(dà)學和軍隊中(zhōng)的研究人員(yuán)帶來大(dà)量資(zī)金支持。但到上世紀60年代,不少人工(gōng)智能行業先驅就已經很明顯能夠看到,一(yī)直以來他們都低估了在機器中(zhōng)模拟人類大(dà)腦這件事的困難程度。1969年,曾經公開(kāi)表示機器智能終将會超越人腦的Marvin Minsky,與計算機科學家Seymour Papert聯名出版了一(yī)本書(shū),以證明Rosenblatt的感知(zhī)器算法無法完全實現之前相關專家們的設想,而且還表示其智能程度遠不及媒體(tǐ)所宣傳報道的那樣。
二人的書(shū)一(yī)經出版,便迅速在人工(gōng)智能研究領域和其他領域傳播開(kāi)來,猝不及防地掀起了一(yī)股揭開(kāi)人工(gōng)智能真實面目的全新潮流。1972年,知(zhī)名哲學家Hubert Dreyfus針對這一(yī)技術和行業的發展,發表了一(yī)篇影響深遠的長文,名爲《計算機所無法勝任的事情》。一(yī)年後,英國知(zhī)名數學家James Lighthill又(yòu)針對機器智能的發展現狀公開(kāi)了一(yī)份調查報告,并且得出結論說在整個人工(gōng)智能和機器智能領域,所有截至當時的創新發現都沒能像預期那樣産生(shēng)重大(dà)影響。
自此,人工(gōng)智能迎來了自己的第一(yī)個蕭條期,也就是首個寒冬。在那期間,幾乎所有的相關研究都無法順利拿到資(zī)金支持。就連一(yī)直以來熱衷于用“電(diàn)子大(dà)腦”博得大(dà)衆關注的新聞媒體(tǐ),也失去(qù)了報道興趣。雖然後來在80年代到90年代期間,人工(gōng)智能出現了略微的回暖迹象,但還是在一(yī)定程度上擺脫不了過時、科幻的标簽。要知(zhī)道,一(yī)直以來,計算機科學家都在努力避免人工(gōng)智能與這些詞語沾上邊,因爲他們擔心大(dà)衆将自己當成白(bái)日空想家。
直到新一(yī)代研究人員(yuán)開(kāi)始發表文章,介紹一(yī)項名爲“深度學習”的新技術在現實生(shēng)活實現了成功應用時,人工(gōng)智能才算是真正順利度過了自己的首個寒冬。
雖然從本質上來說,“深度學習”仍然是一(yī)種與感知(zhī)器算法高度類似的數據統計技術,但它在計算能力和數據集容量上均得到了大(dà)幅提高,所以在諸如話(huà)語識别、圖像識别和語言翻譯這類實際任務上,有了廣闊的應用前景。随着關于深度學習的正面研究報告越來越多,選擇學習機器學習課程的大(dà)學生(shēng)也越來越多。各家企業也紛紛開(kāi)始斥資(zī)數十億甚至數百億美元來尋求高端技術人才,與之同時小(xiǎo)型初創企業也開(kāi)始積極拓寬深度學習的應用領域,包括交通運輸、醫療健康以及金融财務等。
伴随着深度學習的火(huǒ)熱,各家新聞媒體(tǐ)又(yòu)在寂靜了相當長一(yī)段時間之後,開(kāi)始了之前那種對人工(gōng)智能的狂熱報道。2013年,John Markoff在《紐約時報》上發表了一(yī)篇關于深度學習和神經網絡的文章,标題爲《像人腦的計算機:從經驗中(zhōng)學習》。Markoff表示:“在未來幾年中(zhōng),深度學習将會催生(shēng)新一(yī)代人工(gōng)智能系統,完成一(yī)些簡單的人工(gōng)任務,包括看、聽(tīng)、說和操控等等。”
自那以後,我(wǒ)(wǒ)們幾乎每天都能在新聞媒體(tǐ)上看到一(yī)些關于“人工(gōng)智能世界末日”、“人造大(dà)腦”、“超人工(gōng)智能”以及“Facebook驚悚人工(gōng)智能機器人”的誇張報道。
爲了挑戰自己,Lipton當時就決定繼續攻讀機器學習的博士學位。他介紹說,随着越來越多的新聞媒體(tǐ)開(kāi)始報道一(yī)些誇張的内容,研究人員(yuán)心中(zhōng)的失望和沮喪之情也就越來越明顯。因爲在他們看來,那些記者對深度學習這項技術的了解着實非常淺薄。
抛開(kāi)記者在深度學習技術方面的淺薄了解不說,Lipton發現最令人生(shēng)氣的地方在于,那些一(yī)無所知(zhī)的社交媒體(tǐ)居然都自稱是“人工(gōng)智能影響者”。事實上,他們所做的,無非就是在自家網站上介紹介紹埃隆·馬斯克,内容質量低下(xià)卻吹得天花亂墜。用他的話(huà)說:“想要在人工(gōng)智能領域取得實質上的進步,首先需要保證廣大(dà)受衆了解最爲真實、最爲正确的信息。但很可惜,現階段,呈現在大(dà)衆面前的,完全是一(yī)些與真實情況不符的信息。因此,他們根本就沒有辦法徹底區分(fēn)哪些是重要的信息,哪些是不重要的信息。”
當然,Lipton也不是第一(yī)個對人工(gōng)智能發展泡沫表示擔憂的人。去(qù)年,美國機器人制造頂級專家Rodney Brooks撰寫了一(yī)篇文章,批評了人工(gōng)智能行業對于未來發展前景的過度臆想。2013年,紐約大(dà)學教授Gary Marcus也寫了一(yī)篇文章,指出不真實的泡沫會導緻人們對該行業的發展前景産生(shēng)虛假預期,從而導緻另一(yī)個寒冬的到來。
不過,在這個問題上,Lipton持有不同态度。他認爲,現階段的誇張泡沫還不太會導緻下(xià)一(yī)個寒冬的出現,但卻會誤導人們的認知(zhī),緻使最爲重要、最爲迫切的問題遭到掩蓋。他表示:“對于錯誤的事情,大(dà)家都很害怕。我(wǒ)(wǒ)們能看到,不少政策制定者都會非常急切地開(kāi)會讨論機器人的權利問題,而不是歧視問題,就因爲後者過于泛泛,感興趣的人比較少。”
去(qù)年三月,Lipton開(kāi)通了自己的博客,希望能夠通過自己的力量來“反抗”那些帶來較大(dà)負面影響的不真實的人工(gōng)智能新聞,比如關于埃隆·馬斯克以及Anthony Levandowski人工(gōng)智能教堂的低質新聞消息。
目前,Lipton的博客已經收到了一(yī)些新聞媒體(tǐ)的關注,也培養了一(yī)批固定讀者。但他清楚地知(zhī)道,自己能夠産生(shēng)的影響終究還是有限的。用他的話(huà)說:“其實,這個行業真正需要的是大(dà)量訓練有素、誠實正直的記者。在實現這一(yī)點之前,我(wǒ)(wǒ)自己的博客永遠都像是滄海一(yī)粟,像是一(yī)粒無法激起千層浪的微小(xiǎo)石子。”
Joanne McNeil是一(yī)位專注于新興技術的專欄作家,她也認爲科技行業新聞記者的專業素質确實有待提高。雖然她經常在Twitter上取笑一(yī)些帶有《終結者》風格的文章,但還是會避免言辭尖銳地直接批判科技記者。因爲在她看來,人工(gōng)智能的虛假泡沫之所以會出現,其中(zhōng)一(yī)個原因就是資(zī)源分(fēn)配的不均衡。
她表示:“如果你将一(yī)位記者的收入與一(yī)位研究人員(yuán)的收入相比,就會很快發現記者無法寫出具有專業深度文章的原因所在,畢竟他們終究不能與研究人員(yuán)相提并論。說實話(huà),具有專業技術素質的記者和編輯,數量少之又(yòu)少。如果人工(gōng)智能研究人員(yuán)真的在乎記者寫出來報道的内容,那至少應該共同參與到新聞撰寫、報道或出版的過程中(zhōng)去(qù)。同時,适當提高記者的收入,畢竟他們要花大(dà)量的時間和精力,去(qù)深度挖掘與之相關的專業知(zhī)識。”
就像澳大(dà)利亞國立大(dà)學工(gōng)程學和計算機科學教授Genevieve Bell所說,隻有新聞記者和研究人員(yuán)進一(yī)步加強彼此之間的合作,才能夠有效引導整個行業往正确的方向發展。純靠暴力壓制人工(gōng)智能虛假泡沫,根本就是一(yī)件不可能的事情。Bell解釋道,因爲關于電(diàn)子大(dà)腦或Facebook惡意機器人的文章,并未切實關注真正的技術,隻是大(dà)衆文化希望和焦慮的反映。
她介紹說:“數千年來,我(wǒ)(wǒ)們所講述的都是一(yī)些關于無生(shēng)命事物(wù)的故事,這也就影響了我(wǒ)(wǒ)們對當下(xià)行業發展現狀的認知(zhī)方式。或許專家可以不考慮他們所進行研究給大(dà)衆留下(xià)的印象,但那些不現實的期望或無由來的恐懼,總歸是存在的。所以,說到底,誇張和泡沫就是一(yī)種文化表現形式,我(wǒ)(wǒ)們沒有辦法徹底不予考慮。”
最後,Lipton表示,現階段,不真實的猜想和真實的研究之間,界限非常模糊。但曆史告訴我(wǒ)(wǒ)們,這種模糊的界限終究是要明确起來,以便我(wǒ)(wǒ)們合理區分(fēn)哪些是重要之事,哪些隻是虛幻。