2016年3月18日 星期五

紐約時報:AlphaGo推廣用於解決從醫療到科學領域的各種問題;谷歌AlphaGo戰勝李世石 (sic); AlphoGo 的"深層學習" (The Economist)

(谷歌已經表示,計劃將100萬美元的獎金捐給聯合國兒童基金會等慈善機構。)

谷歌旗下DeepMind公司的首席執行官戴米斯·哈薩比斯(Demis Hassabis)表示,和李世石的對弈暴露出AlphaGo的幾個弱點,而他的團隊會努力應對這些問題。AlphaGo使用的計算機算法,「有一天將能被用於解決從醫療到科學領域的各種問題,」他說。
哈薩比斯稱,總共有超過1億人觀看了AlphaGo和李世石的對決。他表示,希望這種關注會鼓勵更多人學習圍棋,它是「人類發明的最為深奧的棋類遊戲」。
李世石表示,AlphaGo與他以前碰到過的所有人類棋手都不同。「它可以始終保持心理平靜和精神專註,」他說。「就這方面而言,我覺得人類比不過它,儘管我還不大願意承認,AlphaGo在棋藝上勝過人類。」





Deep Blue developer speaks on how to beat Go and crack ...

www.theverge.com/.../ibm-deep-blue-murray-campbell-alphago-deepmi...

2 days ago - IBM's supercomputer beat Garry Kasparov nearly 20 years ago .... a general mechanism, had it been created in AlphaGo and applied to chess, ...

人工智能再顯身手,谷歌AlphaGo戰勝李世石

韓國首爾——計算機,1分。人類,0分。
本周三,谷歌的一個計算機程序令一名世界頂尖圍棋手措手不及。圍棋被認為是有史以來最複雜的棋類遊戲。

相关文章

這場比賽在谷歌DeepMind的AlphaGo與韓國棋手李世石(Lee Se-dol)之間展開,被視為一次重大測試:在創建比人類更聰明的機器方面,人工智能研究目前達到了何種水平。
「我很驚訝,因為我從未想過會失敗,」李世石在韓國首爾的新聞發佈會上說。「我不知道AlphaGo下圍棋下得這麼好。」
李世石在比賽開始三個半小時後投子認輸。
AlphaGo的創造者、谷歌的人工智能團隊DeepMind的創始人兼首席執行官戴米斯·哈薩比斯(Demis Hassabis)說,程序的這個勝利是「歷史性的時刻」。
這是五盤比賽中的第一盤,本周二在首爾的一家酒店裡進行,受到了新聞媒體的熱切關注。有數百名記者到場報導,其中很多來自有千年圍棋歷史的中、日、韓三國。數以萬計的人在YouTube上觀看了比賽直播。
圍棋是一種由兩名棋手對弈的策略型棋類遊戲,據說3000年前起源於中國。棋手在縱橫各19條直線組成的方格棋盤上擺放黑色和白色的棋子,以圍地多者為勝。
與國際象棋相比,圍棋更加複雜,落子的可能性遠遠更多,需要棋手有最出類拔萃的直覺和評估技能。由於這個原因,很多研究者認為,計算機要精通圍棋仍需10年時間。
AlphaGo對李世石來說是一個獨特的挑戰。他說,在人與人對弈中,棋手會「感知」對方,評估對方的風格和心理。這種比賽通常會持續數小時。
「這一次,就好像是一個人在下棋,」李世石在比賽前夕說。「人類會犯一些錯誤,因為他們是人類。如果這種事發生在我身上,我可能會輸掉比賽。」
對於把下棋當作人工智能測試平台的研究者來說,1997年IBM超級計算機「深藍」(Deep Blue)在戰勝國際象棋世界冠軍加里·卡斯帕羅夫(Garry Kasparov)之後,圍棋就一直是最大的挑戰。
「的確,在國際象棋之後,唯一剩下的棋類遊戲就是圍棋了,」哈薩比斯周三表示。
去年10月,AlphaGo以5-0擊敗了三界歐洲圍棋冠軍樊麾,成為一大新聞。
但現年33歲的李世石是世界上成就最高的職業圍棋選手之一,擁有18個國際冠軍頭銜。他曾說歐洲冠軍的圍棋水平「在業餘棋手中幾乎是頂尖的」。
AlphaGo的開發者說,自從戰勝樊麾之後,它又有了很大的進步。哈薩比斯說,挑戰李世石是因為它已經準備好與一個「偶像級的」、「傳奇的」棋手對弈。如果李世石能夠五盤三勝,谷歌將付給他100萬美元。
哈薩比斯說,與深藍那樣的傳統人工智能機器不一樣,AlphaGo不會嘗試考慮一盤棋中所有可能的走法。它會根據自己與自己對弈數百萬盤棋的經驗,以及網上提供的10萬個棋局來縮小選項。
哈薩比斯說,AlphaGo的核心優勢是「它永遠不累,也不會被嚇倒。」
本周三對比賽進行解說的韓國圍棋高手金成龍(Kim Sung-ryong)說,AlphaGo在比賽開始不久出現了一個明顯失誤,但和大多數人類棋手不一樣,AlphaGo並沒有失去「從容」。
「它不像人類那樣下圍棋,」他說。「這是剔除了人類情感因素的一盤棋。」
翻譯:土土

經濟學人:AlphoGo是怎麼深層學習的?

2016-03-13 19:48:53 經濟日報 記者任中原╱即時報導


南韓棋王李世乭與AlphaGo於13日對弈第四戰。圖取自YouTube

分享
「經濟學人」雜誌報導,與南韓棋士李世對戰的AlphaGo軟體,是採用「深層學習」技術,藉由複雜的統計方法,讓電腦從龐大且雜亂的資料中淬取出通用的法則,對於如何下棋發展出本身的直覺反應。電腦未來的戰力將不斷增強,不過距離一般通用的「人工智慧(AI)」還非常遙遠。
「深層學習」需要大量的處理能力、與可供學習的資料等兩項要件。DeepMind公司訓練電腦時,從網路上挑選出3,000萬種業餘及職業棋士對奕的棋譜,來與AlphaGo對戰。
這些資料被輸入到兩種「深層學習」演算模式中。其一稱為「政策網路」,訓練電腦模擬真人的下法;在觀察數以百萬計的對局之後,電腦學會如何找出各種特點、原則及法則,並產生且建議多種似乎可靠的下法。
第二套演算模式稱為「價值網路」,係依據「政策網路」的建議,評估每種下法的作用,及對手可能的反制,可能的情況達數千種。「價值網路」只評估後幾手的可能情況,而從過去的棋譜中尋找出最可能的勝著。「政策網路」與「價值網路」結合了真人棋手們多年來所累積的經驗。
AlphaGo的表現會隨著資料處理能力的增加而提升。這次的版本共使用1,920枚標準處理器晶片,及280枚原本用於電玩繪圖的特殊晶片。AlphaGo目前之所以能領先李世,是因為使用的硬體更有力。另外在程式碼中還隱藏著一、兩項「純手工」的特點,直接暗示電腦該如何下棋,而非讓電腦自行落子。AlphaGo的自我教學方式,使電腦能夠更像真人般下棋。
「深層學習」也是建立一般「人工智慧(AI)」的要件,即使電腦具有如人類般靈活的智慧,但目前科技還差得遠。「深層學習」演算模式的型態辨能力雖佳,但電腦仍缺乏許多人類普遍具備的心智工具。其中之一是「轉移學習」,AI研究人員稱之為「序列推理」,即將此處所學到的東西用於彼處。
「深層學習」也用來與電玩對戰。DeepMind去年發表的報告中,說明電腦能玩49種雅達利傳統電玩,包括「太空侵略者」及「爆發」,不需要任何輔助指令,成績超過任何真人玩家。

沒有留言:

張貼留言