alphago演算法
❶ Alphago屬於人工智慧應用領域中的() a計算機博弈 b專家系統 c模式識別 d機器翻譯
Alphago屬於人工智慧應用領域中的計算機博弈。
阿爾法圍棋(AlphaGo)是第一個擊敗人類職業圍棋選手、第一個戰勝圍棋世界冠軍的人工智慧機器人,由谷歌(Google)旗下DeepMind公司戴密斯·哈薩比斯領銜的團隊開發。其主要工作原理是「深度學習」。
2017年7月18日,教育部、國家語委在北京發布《中國語言生活狀況報告(2017)》,「阿爾法圍棋」入選2016年度中國媒體十大新詞。
(1)alphago演算法擴展閱讀:
AlphaGo的基本原理:
在具體演算法上,AlphaGo用深度卷積神經網路(CNN)來訓練價值網路和策略網路。棋盤規模是(19×19),棋盤每個位置編碼48種經驗特徵。把這些特徵輸入模型進行訓練,經過層層卷積,更多隱含特徵會被利用。
基於類似的卷積神經網路結構,AlphaGo先做策略學習(學習如何下子),再做價值學習(學習評估局面);策略學習也分為兩步。第一步是有監督學習,即「打譜」,學習既往的人類棋譜。第二步是強化學習,即「左右互搏」,通過程序的自我博弈來發現能提高勝率的策略。
❷ ALPHAGO沒有涉及到以下哪個演算法
A。出自自考專升本計算機考試,Deepmin研製的ALPHAGO沒有涉及到以下哪個演算法,A、強化學習。B、深度學習。C、蒙特卡洛樹搜索。D、邏輯推理。正確答案是A強化學習。
❸ AlphaGo的勝利=人工智慧已經超越人類了
說到深度學習,大家第一個想到的肯定是AlphaGo,通過一次又一次的學習、更新演算法,最終在人機大戰中打敗圍棋大師李世石。那麼AlphaGo的勝利真的意味著人工智慧已經超越人類了嗎?
答案是否定的。雖然我們看到了AlphaGo連連擊敗李世石,然而,AlphaGo只不過是在模擬專業圍棋選手的走子方案,而且這種模擬依賴於歷史比賽的記錄。
AlphaGo在演算法層面上並沒有太多新的東西,主要是通過把已有的技術整合在一起,並利用大量的訓練數據和計算資源來提高准確性。歸根結底,強大的計算平台和工程能力是核心。
深度學習作為人工智慧領域的一個應用分支,不管是從市面上公司的數量還是投資人投資喜好的角度來說,都是一個重要應用領域。目前深度學習在圖像識別和語音識別上得到了不錯的發展,也有不少專家非常看好在自然語言處理上的發展,比如智能助手等。
❹ alphago用了哪些人工智慧的技術 知乎
人機對戰更像人工智慧一場科技秀
雖然整場對弈還沒有結束,但是目前的情況顯然有些讓人出乎意料。有人認為,這是圍棋冠軍的一個挫敗,但卻是人類文明的勝利。因為人類是一個善於發明工具去協助自己變得更強大的生物。但是,這場人機對弈似乎有點被神話的意味。事實上,雖然人類在圍棋項目輸了,但這從本質上講,僅僅意味著人類單項競技智慧的頹敗,並不代表人工智慧已經全面超越人類。甚至,僅僅就圍棋這一單行競技中,人工智慧能夠對人類提供的幫助也是有限的。
在這場依舊正在進行中的人機博弈,結果依舊是難以預料的。但是不論最終結果如何,有一個事實是改變不了,那就是,圍棋作為一項競技項目,是有規則可尋的,而這些規則計算機的數據足夠全面,其實也可以在這些數據的基礎上找出規律,形成演算法。而機器的演算法早就已經超越了人類,即使是李世石處在圍棋巔峰,其邏輯運算能力到了計算機面前也根本是難以逾越的。像之前的國際象棋早已經被計算機的邏輯運算完全打敗,所以棋手都會和計算機下棋訓練,如今看來,圍棋這種人類競技項目也難逃這種宿命。
真正的人工智慧首先要有真正的分析推理能力,能夠協助人類去提高分析和決策效率。雖然有別於傳統計算機窮舉計算方式,「阿爾法狗」採用的是利用「價值網路」去計算局面,用「策略網路」去選擇下子。但是,阿爾法狗依舊處於一個弱人工智慧的水平。什麼是弱人工智慧?簡單的說,所謂弱人工智慧就是僅在單個領域比較牛的人工智慧程序。比如我們熟悉的蘋果Siri,就是一個會賣萌的弱人工智慧程序。而阿爾法狗根據這個標准,依舊在這個范圍以內。充其量,最多是人類圍棋的陪練。而這場人際對決,本質上更像是谷歌的一場科技秀。
❺ alphago 用到 什麼 演算法
AlphaGo依靠精確的專家評估系統(value network)、基於海量數據的深度神經網路(policy network),及傳統的人工智慧方法蒙特卡洛樹搜索的組合,以及可以通過左右互搏提高自己的水平,這個真的是有的恐怖了有木有。李世石九段固然厲害,可人類畢竟是動物,機器軟體程序是無休止的工作,這一點也是客觀因素了。圍棋九段李世石目前已經一比三了落後alphago了,還有一場15日今天的比賽可以關注一下(比賽規定即使是在分出勝負的情況下,也要下滿五局)。
❻ 最強alphago怎樣煉成
最強alphago怎樣煉成
Q: Deepmind Zero的訓練為什麼如此穩定?深層次的增強學習是不穩定和容易遺忘的,自我對局也是不穩定和容易遺忘的,如果沒有一個好的基於模仿的初始化狀態和歷史檢查點,二者結合在一起應該是一個災難...但Zero從零開始,我沒有看到論文中有這部分的內容,你們是怎麼做到的呢?
David Silver:在深層增強學習上,AlphaGo Zero與典型的無模式演算法(如策略梯度或者Q學習)採用的是完全不同的演算法。通過使用AlphaGo搜索,我們可以極大改進策略和自我對局的結果,然後我們會用簡單的、基於梯度的更新來訓練下一個策略及價值網路。比起基於簡便的基於梯度的策略改進,這樣的做法會更加穩定。
Q:我注意到ELO等級分增長的數據只與到第40天,是否是因為論文截稿的原因?或者說之後AlphaGo的數據不再顯著改善?
David Silver:AlphaGo已經退役了!這意味著我們將人員和硬體資源轉移到其他AI問題中,我們還有很長的路要走吶。
Q:關於論文的兩個問題:
Q1:您能解釋為什麼AlphaGo的殘差塊輸入尺寸為19x19x17嗎?我不知道為什麼每個對局者需要用8個堆疊的二進制特徵層來描述?我覺得1、2個層就夠了啊。雖然我不是100%理解圍棋的規則,但8個層看起來也多了點吧?
Q2:由於整個通道使用自我對局與最近的/最好的模型進行比較,你們覺得這對於採用參數空間的特定SGD驅動軌跡對否會有過擬合的風險?
David Silver:說起來使用表徵可能比現在用的8層堆疊的做法更好!但我們使用堆疊的方式觀察歷史數據有三個原因:1)它與其他領域的常見輸入一致;2)我們需要一些歷史狀態來表示被KO;3)如果有一些歷史數據,我們可以更好地猜測對手最近下的位置,這可以作為一種關注機制(註:在圍棋中,這叫「敵之要點即我之要點」),而第17層用於標注我們現在究竟是執黑子還是白子,因為要考慮貼目的關系。
Q:有了強大的棋類引擎,我們可以給玩家一個評級——例如Elo圍棋等級分就是通過棋手對局的分析逐步得出的,那麼AlphaGo是否可以對過去有等級分前的棋手的實力進行分析?這可能為研究人類的認知提供一個平台。
Julian Schrittwieser:感謝分享,這個主意很棒!
我認為在圍棋中這完全可以做到,或許可以用最佳應對和實際應對的價值差異或者政策網路給每一手位置評估得到的概率來進行?我有空的時候試一下。
Q: 既然AlphaGo已經退役了,是否有將其開源的計劃?這將對圍棋社區和機器學習研究產生巨大的影響。還有,Hassabis在烏鎮宣稱的圍棋工具將會什麼時候發布?
David Silver:現在這個工具正在准備中。不久後你就能看到新的消息。
Q:AlphaGo開發過程中,在系統架構上遇到的最大障礙是什麼?
David Silver:我們遇到的一個重大挑戰是在和李世石比賽的時候,當時我們意識到AlphaGo偶爾會受到我們所謂的「妄想」的影響,也就是說,程序可能會錯誤理解當前盤面局勢,並在錯誤的方向上持續許多步。我們嘗試了許多方案,包括引入更多的圍棋知識或人類元知識來解決這個問題。但最終我們取得了成功,從AlphaGo本身解決了這個問題,更多地依靠強化學習的力量來獲得更高質量的解決方案。
圍棋愛好者的問題
Q:1846年,在十四世本因坊跡目秀策與十一世井上幻庵因碩的一盤對局中,秀策下的第127手讓幻庵因碩一時驚急兩耳發赤,該手成為扭轉敗局的「耳赤一手」。如果是AlphaGo,是否也會下出相同的一首棋?
Julian Schrittwieser:我問了樊麾,他的回答是這樣的:
當時的圍棋不貼目,而AlphaGo的對局中,黑棋需貼7.5目。貼目情況不同造成了古今棋局的差異,如果讓AlphaGo穿越到當年下那一手,很有可能下的是不同的另一個地方。
Q:從已發布的AlphaGo相互對局看,執白子的時間更為充裕,因而不少人猜測,7.5目的貼目太高了(註:現代圍棋的貼目數也在不斷變化,如在30年前,當時通行的是黑子貼白子5.5目)。
如果分析更大的數據集,是否可以對圍棋的規則得出一些有趣的結論?(例如,執黑或者執白誰更有優勢,貼目應該更高還是更低)
Julian Schrittwieser:從我的經驗和運行的結果看,7.5目的貼目對雙方來說是均勢的,黑子的勝率略高一些(55%左右)。
Q:你能給我們講一下第一手的選擇嗎?ALphaGo是否會下出我們前所未見的開局方式?比如說,第一手下在天元或者目外,甚至更奇怪的地方?如果不是,這是否是一種「習慣」,或者說AlphaGo有強烈的「信念」認為星位、小目、三三是更好的選擇?
David Silver:在訓練中我們看到ALphaGo嘗試過不同方式的開局——甚至剛開始訓練的時候有過第一手下在一一!
即便在訓練後期,我們仍然能看到四、六位超高目的開局,但很快就恢復到小目等正常的開局了。
Q:作為AlphaGo的超級粉絲,有一個問題一直在我心中:AlphaGo可以讓職業棋手多少子?從論文中我們知道AlphaGo可以下讓子棋,我也知道AlphaGo恐怕讓不了柯潔兩子,但我想你們一定很好奇,你們是否有做內部測試?
David Silver:我們沒有和人類棋手下讓子棋。當然,我們在測試不同版本的時候下過讓子棋,在AlphaGo Master>AlphaGo Lee>ALphaGo Fan這三個版本中,後一個版本均可讓三子擊敗前一個版本。但是,因為AlphaGo是自我訓練的,所以尤其擅長打敗自己的較弱的前一版本,因此我們不認為這些訓練方式可以推廣到和人類選手的讓子棋中。
Q:你們有沒有想過使用生成對抗網路(GAN)?
David Sliver:從某種意義來講,自我對弈就是對抗的過程。每一次結果的迭代都是在試圖找到之前版本的「反向策略」。
傳言終結者
Q:我聽說AlphaGo在開發初期被引導在某一個具體的方向訓練以解決對弈中展現出的弱點。現在它的能力已經超過了人類,是否需要另外的機制來進一步突破?你們有做了什麼樣的工作?
David Silver:實際上,我們從未引導過AlphaGo來解決具體的弱點。我們始終專注於基礎的機器學習演算法,讓AlphaGo可以學習修復自己的弱點。
當然你不可能達到100%的完美,所以缺點總會存在。 在實踐中,我們需要通過正確的方法來確保訓練不會落入局部最優的陷阱,但是我們從未使用過人為的推動。
關於DeepMind公司
Q:我這里有幾個問題:在DeepMind工作是什麼感受?AlphaGo團隊成員都有誰?你能介紹一下AlphaGo團隊工作分配的情況嗎?下一個重大挑戰是什麼?
David Silver:在DeepMind工作感覺好極了:)——這不是一個招聘廣告,但我感覺每天可以在這里做我喜歡的事實在是太幸運了。有很多(多到忙不過來!:))很酷的項目去參與。
我們很幸運有許多大牛在AlphaGo工作。您可以通過查看相應的作者列表來獲取更詳細的信息。
Q: 你覺得本科生是否可以在人工智慧領域取得成功?
Julian Schrittwiese:當然。我本人就只有計算機科學學士學位,這一領域變化迅速,我認為您可以從閱讀最新的論文和試驗中來進行自學。另外,去那些做過機器學習項目的公司實習也是很有幫助的。
關於演算法的擴展和其他項目
Q:Hassabis今年三月份在劍橋的一個演講中表示,AlphaGo項目未來目標之一是對神經網路進行解釋。我的問題是:ALphaGo在神經網路結構上取得了什麼樣的進展,或者說,對AlphaGo,神經網路仍然是神秘的黑盒子?
David Silver:不僅僅是ALphaGo,可解釋性是我們所有項目的一個非常有意思的課題。Deepmind內部有多個團隊從不同方式來探索我們的系統,最近有團隊發表了基於認知心理學技術去嘗試破譯匹配網路內部發生了什麼,效果非常不錯!
Q: 很高興看到AlphaGo Zero的好成績。我們的一篇NIPS論文中也提到了對於深度學習和搜索樹之間效率的相似問題,因此我對於在更長的訓練過程中的行為尤其感興趣。
AlphaGo的訓練過程中,創建學習目標的蒙特卡洛樹搜索的貪心演算法、策略網路的貪心演算法、以及在訓練過程中價值功能變化的貪心演算法之間的相對表現如何?這種自我對局學習的方法是否可以應用在最近的星際爭霸 II API中?
David Silver:感謝介紹您的論文!真不敢相信這篇論文在我們4月7日投稿的時候已經發布了。事實上,它與我們的學習演算法的策略組件非常相似(盡管我們也有一個值組件),您可以參考我們的方法和強化學習中的討論,也很高興看到在其他游戲中使用類似方法。
Q:為什麼早期版本的AlphaGo沒有嘗試自我對弈?或者說,AlphaGo之前也嘗試過自我對弈但效果不好?
我對這個領域的發展和進步程度感到好奇。相比起今天,在兩年前在設計一個自主訓練的AlphaGo的瓶頸在哪裡?今天我們見到的「機器學習直覺」又是經歷了什麼樣的系統迭代過程?
David Silver:創建一個可以完全從自我學習的系統一直是加強學習的一個開放性問題。 我們最初的嘗試包括你能查到的許多類似的演算法,是相當不穩定的。 我們做了很多嘗試,最終AlphaGo Zero演算法是最有效的,而且似乎已經破解了這個特定的問題。
Q:你認為機器人什麼時候能夠有效解決現實世界關於高度、尺寸方面的問題(例如,自己學習如何抓取任何形狀、尺寸、位置垃圾的設備)?策略梯度方法是否是實現這一目標的關鍵點?
Julian Schrittwieser:這主要是由於價值/政策網路上的雙重改進,包括更好的訓練和更好的架構。具體參見論文圖4對不同網路架構的比較。
Q:據說擊敗柯潔的ALphaGo Master的功耗只是擊敗李世石的AlphaGo Lee的1/10。你們做了什麼樣的優化呢?
Julian Schrittwieser:這主要是由於價值/政策網路上的雙重改進,包括更好的訓練和更好的架構。具體參見論文圖4對不同網路架構的比較。(你確認不是上一個問題的答案嗎)
Q:看起來在增強學習中使用或模擬Agent的長期記憶是一個很大的障礙。 展望未來,您覺得我們是否能以一種新的思維方式解決這一點? 還是說需要等待我們技術可以實現一個超級網路?
Julian Schrittwieser:是的,長期記憶可能是一個重要的因子,例如在「星際爭霸」游戲中,你可能已經做出了上千個動作,但你還要記住你派出的偵察兵。
我認為現在已經有了令人振奮的組件(神經圖靈機!),但是我認為我們在這方面仍有很大的改進空間。
Q:David,我看過你的演講視頻,你提到增強學習可以用於金融交易, 你有沒有真實世界的例子? 你會如何處理黑天鵝事件(過去沒有遇到過的情況)?
David Silver:已經發表增強學慣用於現實世界的財務演算法的論文非常少見,但有一些經典論文值得一看,例如Nevmyvaka、Kearns在2006寫的那篇和Moody、Safell在2001年寫的那篇。
Q:你們和Facebook幾乎同時研究圍棋問題,你們能更快獲得大師級表現的優勢是什麼?
對於那些無法獲得像AlphaGo如此多的訓練數據的領域如何開展機器學習或者增強學習?
David_Silver:Facebook更側重於監督學習,我們選擇更多地關注強化學習,因為我們認為AlphaGo最終將超越人類的知識。 我們最近的結果實際上表明,監督學習方法可以讓人大吃一驚,但強化學習絕對是遠遠超出人類水平的關鍵之處。
❼ alphago之前棋類最強的人工智慧演算法是哪類演算法
蒙特卡洛搜索樹
蒙特卡洛方法的解題過程可以歸結為三個主要步驟:構造或描述概率過程;實現從已知概率分布抽樣;建立各種估計量。
❽ 谷歌alphago用的什麼演算法
AlphaGo依靠精確的專家評估系統(value network)、基於海量數據的深度神經網路(policy network),及傳統的人工智慧方法蒙特卡洛樹搜索的組合,以及可以通過左右互搏提高自己的水平,這個真的是有的恐怖了有木有。李世石九段固然厲害,可人類畢竟是動物,機器軟體程序是無休止的工作,這一點也是客觀因素了。圍棋九段李世石目前已經一比三了落後alphago了,還有一場15日的比賽可以關注一下(比賽規定即使是在分出勝負的情況下,也要下滿五局)。