【引言】李世石如何挽回人類尊嚴?李世石評價?映森情感整理,獲取情感知識“李世石如何挽回人類尊嚴”的內容如下:
情感目錄一覽:
- 1、韓國棋手李世石已經退役,其職業(yè)生涯究竟有何傲人戰(zhàn)績?
- 2、100:0,新AlphaGo放棄了人類?
- 3、18年后,無人幸免?
- 4、AlphaGo的認輸界面,當人類拋開了勝負 什么情況
- 5、李世石第四局為什么能戰(zhàn)勝阿爾法狗?
韓國棋手李世石已經退役,其職業(yè)生涯究竟有何傲人戰(zhàn)績?
在24年的職業(yè)生涯中,李世石共獲得了50個冠軍,生涯收獲獎金總額大約98億韓元(約合人民幣5900萬元)。其中包括18個世界各級大賽的冠軍,以及32個韓國國內比賽的冠軍。此外,還八次奪得韓國棋院MVP,四次奪得連勝王、多勝王稱號,三次奪得勝率王稱號。在2016年3月在首爾舉辦的人機大戰(zhàn)中,史上第一次戰(zhàn)勝了“AlphaGo”,贏得了人類棋手對抗圍棋AI的唯一一局。
李世石九段,1983年出生于韓國全羅道,在他12歲那年便通過了定段考試,成為了正式棋手。在2002年的第十五屆富士通杯決賽,李世石以半目的微弱優(yōu)勢擊敗了對手劉昌赫,創(chuàng)造了圍棋世界大賽的更低段位記錄,拿下了他棋手生涯的第一個世界冠軍。此時,拿下世界冠軍的李世石年僅19歲!1998年升為2段,1999年升為三段,2003年韓國棋院升段制度改革,由職業(yè)升段賽變?yōu)槁殬I(yè)棋戰(zhàn)勝局累計,同年李世石連續(xù)奪下LG杯、KT杯、富士通杯冠軍,直接升為九段棋手,顛覆了韓國乃至世界的段位體系。
2000年,李世石九段豪奪76勝,成為當年勝率更高的棋手,獲得年度更佳MVP獎。2006年豪奪84勝,2008年豪奪82勝,2010年豪奪72勝,李世石九段的更高勝場為2007年的90勝,可謂是圍棋界偉大的勝負師。他在任何情況下都表現出了極度的冷靜,典型的力戰(zhàn)型棋風,“快”、“準”、“狠”的力量,他是僵尸流的先行者,是翻盤術的引路人。
2016年3月的韓國,掀起了一場轟轟烈烈的人機大戰(zhàn)。李世石九段代表人類出戰(zhàn),對戰(zhàn)谷歌人工智能AlphaGo進行五番棋人機大戰(zhàn)。雖然前三局的鏖戰(zhàn),均以李世石九段的失敗告終,但在第四局78手中,李世石九段下出了被古力稱之為“神之一手”的挖棋。這一妙手,瞬間讓AlphaGo陷入混亂,下了幾步臭棋后,立即投子認輸。這一刻,李世石九段超越了強大的AlphaGo,贏得了人類棋手對抗圍棋AI的第一局,用自己堅韌的意氣和頑強的斗志,捍衛(wèi)了人類棋手的尊嚴。
100:0,新AlphaGo放棄了人類?
01
2017年10月19日,谷歌子公司DeepMind發(fā)布了AlphaGo的新版本。很多人知道AlpoaGo是一個人工智能程序,卻不知道它其實是一個家族,早期戰(zhàn)勝韓國選手李世石的是AlphaGo Lee。在烏鎮(zhèn)擊敗世界冠軍柯潔的是AlphaGo Master。本次發(fā)布的是AlphaGo Zero(阿爾法零),它經過3天的訓練便以100:0的戰(zhàn)績擊敗了他的哥哥AlphoGo Lee,經過40天的訓練便擊敗了它的另一個哥哥AlphoGo Master。
AlphaGo Zero與之前版本相比,更大的區(qū)別在于,它不再依靠人類的指導來成長,即之前的AlphaGo Lee是依賴于人工錄入的大量棋譜來幫助其學習如何下棋,說白了,它是在人的指導下學習,可以理解為是人類千年圍棋經驗教出的學生。
而AlphaGo Zero使用了強化學習算法,即不再依賴任何棋譜,編程人員輸入圍棋基本規(guī)則后,不再進行任何教導,完全由其自己進行摸索,總結走棋方法,相當于人工智能完全按照自己的方法學習。AlphaGo Lee完敗于摒棄了人類經驗的AlphaGo Zero,這說明人類的經驗可能誤導了AlphaGo Lee,進而限制了它的發(fā)展。
AlphaGo Zero的行棋方式在開局和收官階段,與人類選手有較大的相似之處,而盤中的行棋風格的確與人類選手和之前版本的AlPhaGo有較大不同,而正是這種不同讓其可以在100次與AlphaGo Lee的交戰(zhàn)中立于不敗,換個說法,如果當初AlphaGo Lee沒有拜人類為師,而是向機器學習,那么對于擁有更強計算能力的AlphaGo Lee來說,勝負還未可知。
除了零經驗學習外,AlphaGo Zero的另一大特點是將之前版本AlphaGo的兩個神經網絡融為一體,在之前版本的AlphaGo上,如何走棋是由“策略網絡”和“價值網絡”兩個神經網絡來計算如何行棋的,即首先由“策略網絡”利用之前累積的經驗,判斷在當前棋型下哪些位置適合行棋,之后由“價值網絡”對在這些位置行棋后的種種可能進行模擬,計算勝率,更終選擇出行棋位置。
而AlphaGo Zero將二者融為了一體,對之前兩個網絡的特征提取等模塊進行了共用,可以在計算出可能行棋的位置時便給出相應的“勝率”,大幅提高效率,減少了訓練所需的時間。這也是AlphaGo Zero在訓練了三天就打敗了訓練了幾個月的AlphaGo Lee的主要原因之一。
人工智能不僅是計算機科學領域發(fā)展的制高點,在所有行業(yè)都具有無限潛力和應用價值,目前世界各國普遍看好,人工智能技術將成長為下一次技術革命契機。即便更終人工智能沒有達到革命級別的顛覆程度,AI已經在逐漸改變我們的生活。
以往人工智能的進步都是建立在軟件與硬件同步發(fā)展的基礎上,神經網絡算法更早在上個世紀中葉就被提出,然而受限于計算能力,神經網絡算法一直發(fā)展緩慢。
之后隨著硬件計算速度的不斷提高,已有的軟件算法不斷被實現并改進,改進的算法對硬件要求更高,從而進一步促進了硬件的發(fā)展,而AlphaGo Zero的出現完全建立在算法更新的基礎上。
前一版本的AlphaGo需要在48個TPU(谷歌專為加速深層神經網絡運算能力而研發(fā)的芯片,一塊成本即達500萬美元)上進行幾個月學習,而AlphaGo Zero只需要4個TPU加上幾天的時間便可完成學習。這種零經驗學習能力非常適合在蛋白質折疊和其它缺少樣本的*領域進行應用,可以很好地解決因缺少試驗樣本而導致研究進展緩慢的問題。未來的相關研究中完全可以輸入規(guī)則后利用AlphaGo Zero的能力進行模擬,更后利用有限的樣本進行驗證即可。
AlphaGo逐漸升級之路
故事講到這里,實在不得不佩服谷歌深厚的技術實力與精明的商業(yè)頭腦。AlphaGo從誕生伊始,就得到了deepmind團隊的精心包裝,仔細回想起來,可謂是“城里套路深”。
從更初戰(zhàn)勝低段位職業(yè)棋手開始預熱或者說炒作,到戰(zhàn)勝人類頂尖高手李世石,AlphaGo的登場已經足夠華麗。不過4比1的比分還是給了人類一線希望,這僅有的勝局中,李世石劍走偏鋒,直接把AlphaGo逼出了“大腦短路”的癥狀,可見此時AlphaGo雖已經足夠強大,但尚不完美。此后各路人類高手開始臥薪嘗膽,精研AlphaGo的套路,寄希望于重新捍衛(wèi)人類尊嚴。
隨后,一個神秘的“master”在圍棋界頂級棋手的對戰(zhàn)平臺上取得了60勝0負的驕人戰(zhàn)績,這位master到底是何方神圣,是人是妖可謂是賺足了吃瓜群眾的眼球。直到華麗的60勝達成,謎底才更終揭曉。
此后便是吸引了全世界目光的烏鎮(zhèn)對決,AlphaGo Master把柯潔打到毫無還手之力。雖然柯潔已經表現出了真正的人類更強者戰(zhàn)力,卻仍然被AlphaGo完全壓制,只要出招有任何一點閃失,立刻會陷入AlphaGo“更小優(yōu)勢勝”策略的陷阱,再無翻身余地。
烏鎮(zhèn)對決之后,人類在圍棋領域已經徹底甘拜下風,別說柯潔一人,五大高手聯手作戰(zhàn)比柯潔輸得更快,AlphaGo一時風光無限。
如今,烏鎮(zhèn)硝煙剛要散盡,谷歌又搞了個大新聞出來!人工智能在摒棄人類經驗后,用三天時間自學的AlphaGo Zero打敗了人類幾千年的經驗。AlphaGo的進化版打敗了原始版,不禁叫人想起《鐵甲鋼拳》里叫人熱血賁張的機甲肉搏,一個AI輸給另一個更牛的AI,中國AI戰(zhàn)勝美國AI,這很有可能是未來棋類競技中的真實場景。
18年后,無人幸免?
1
AI,真的覺醒了?
人工智能,會蘇醒嗎?
這是一個古老而又新奇的話題。
“ 深度學習 ”天生的 不可預測 ,加深了這種憂慮。
“ 神經網絡 ”的 生物性類比 ,讓“AI黑匣子”更讓人擔心。
更近,一個谷歌工程師再次引爆該話題:AI覺醒了?
2022年6月 ,谷歌工程師 Lemoine 表示,自己在與AI“ LaMDA ”聊天中,發(fā)現了后者的回答已經 高度人格化 ,認為該AI已經“ 覺醒 ”。
為此,Lemoine寫了一篇長達 21頁的調查報告 ,試圖讓高層認可AI的人格。
不過,谷歌高層暫未表態(tài),希望獲得更清晰的認定。
但Lemoine仿佛化身科幻電影主角,他沒有放棄,將自己和AI的 聊天記錄 公布于眾,引發(fā)軒然大波。《 華盛頓郵報 》跟進報道后,更是在全球炸圈。
AI真的覺醒了嗎? 爭議不斷。
不管真相如何,有一點可以肯定:
因為 深度學習 和 神經網絡 的加持,人工智能已經越來越“ 不可捉摸 ”。
2
那一夜,人類安然睡去
關于AI覺醒,讓人想起了6年前的另一件事。
2016年3月13日 ,人類和AI在圍棋上進行一場 智力的終極較量 。
在此之前,AI與人類較量屢屢得手。
但人類認為, 圍棋是AI不可突破的天花板 。
因為可測宇宙原子總數約為 10^80 ,而圍棋走法有 2.08*10^170 ,AlphaGo不可能依靠 計算量 和 算力枚舉 來獲勝,那么,擁有創(chuàng)造力的人類,怎么可能敗給AI。如果圍棋上敗給了AI,那么說明它已經完成了“ 圖靈測試 ”。
然而,前三局,李世石 一敗再敗 ,全世界震驚了。
第四局,李世石判斷黑空中有棋,下出白 78挖 。李世石這史詩級的“ 神之一手 ”,體現了人類巔峰的 直覺、算力和創(chuàng)造力 。這也是人類 更后的尊嚴之戰(zhàn)。
當年一個作者寫下上段內容(有修改),并提到“ 23年后,無人幸免 ”,科學家建立了一個數學模型,判斷 2040年 人工智能可能會達到普通人的智能水平,并引發(fā) 智力爆炸 。
面對越來越普遍的AI, 機器即將代替人類,AI正在迅速擴張 。
五年過去了,人類朝著“黑客帝國”大步邁進。
那么 18年 后,真的 無人幸免 ?
3
AI的另一面:不夠穩(wěn)定
以上兩件事,本質上都是對 AI覺醒 的擔憂。
一個擁有 自由意志 的AI不可信,更終會威脅到人類。
霍金 警告人類要正視人工智能帶來的威脅。
比爾·蓋茨 認為人工智能是“召喚惡魔”。
《 2001太空漫游 》中,超級電腦 HAL9000 在宇宙中將人類無情抹殺。
《 黑客帝國 》中,人類被AI禁錮在 矩陣 之中。
不過,實事求是地講,對AI覺醒的不可信,仍然只是人類臆測。
雖然科幻電影里描寫得殘酷冰冷,也還沒有得到普遍證實。
但AI的另一個“不可信”,卻是真實存在的。
它不是太聰明太智慧或者產生意識,而是不夠穩(wěn)定 。
這種不穩(wěn)定,產生的后果才真的“瘆人”。
關于人工智能“ 失靈 ”的例子還有很多很多,這是AI 不夠沉穩(wěn) 的一面。
這才是實實在在“ 不可信 ”的地方,也是AI對人類真正的威脅。
我們不愿意看到 AI 的 “覺醒”, 但更不能接受 人工智能 的 “輕率” 。
4
人類需要的是一個可信的AI
所以,人類需要一個“ 可信AI ”。
AI是聰明還是愚蠢,也許并不重要。
AI是進化還是退化,可能暫時只是一個偽命題。
人類需要的是一個可靠的助手,一個值得信任的機器助理 。
我是你的創(chuàng)造者,你得聽我的吧,不能瞎搗亂。
阿西莫夫在七十年前就提出了“ 機器人學三大定律 ”:
這是人類在 AI倫理 思考中的方向。
可以把它稱為是 人工智能 社會 的道德準則 。
對于人類來說,可信,才是我們對AI更重要的需求。
如果從“ 貝葉斯-拉普拉斯 ”定理開始溯源人工智慧,目標是解決“ 逆向概率 ”問題,其實本質就是解決AI的 可信賴度 。
如果不能做到可信,AI就有可能反噬人類。
更起碼AI與我們相伴要保證人類兩點: 生命安全 與 財產安全 。
以 自動駕駛 為例,如果人工智能以準確率為 99.99% 概率推算, 0.01% 的失誤率依舊會讓人心驚膽戰(zhàn)。如果未來城市有 一百萬輛 自動駕駛 汽車 ,即便是 0.01% 的失誤率,對人類生命安全造成威脅的隱患車輛仍有 一百輛 。
如果我們不能擁有可信AI,我們自然無法確定,人工智能給我們帶來的到底是技術的進步,還是無數潛在的威脅。
但實際上 它才是人工智能領域更有價值的航燈,也是現在 科技 公司追求的方向 。
5
什么是可信AI,
這16個技術小哥在做什么?
所以,什么是可信AI?
可能很多人還不知道,先得把這個定義弄清楚。
我們可以先看一檔節(jié)目《 燃燒吧,天才程序員2·可信AI 》。
這款綜藝節(jié)目第一季在 豆瓣評分8.0 ,讓人腦洞大開。
在第二季中,1 6個AI技術小伙 分為四個團隊待在“小黑屋”中 四天三夜 ,完成 60個小時 任務挑戰(zhàn)。
比賽中,他們需要與“ 黑產 ”進行無數次較量,培養(yǎng)出與幫助人類的“可信AI”,打敗“黑產”,更終決出 更強團隊 。
關于程序技術的綜藝節(jié)目,在中國乃至世界都非常稀缺 。
一方面程序與代碼本身過于硬核,普通人難以理解。
另一方面則是節(jié)目腳本設置沖突相比其他綜藝要更難一些。
但《燃燒吧,天才程序員2·可信AI》通過“ 反詐騙 ”這一實際場景需要,以此構建起節(jié)目的比賽邏輯。
16個AI技術小伙需要直面欺詐交易識別、聯合反詐等關卡的挑戰(zhàn) 。
通過AI與攻防互相協(xié)作,覆蓋反詐全鏈路。
比賽之中,程序員們通過創(chuàng)造“可信AI”,完成“ 科技 反詐”。
哪一個團隊產出的 算法和模型 在數據的 識別準確率 和 覆蓋率 更好,就能贏得比賽勝利。
雖然不如《 黑客帝國 》那般深刻宏大,也不如《 人工智能 》那樣發(fā)人深省。
但《燃燒吧,天才程序員》卻通過 真實的應用場景 ,解決現實生活存在的實際問題。
當你看完整個節(jié)目時就會明白,原來這就是可信AI:依照 現有數據 構建 智能模型 ,非常穩(wěn)定地解決 現實難題 。
可信AI的 技術應用范圍 非常廣泛, 反詐 是其中一個重要應用場景。
可信AI沒有那么遙遠,它近在咫尺。它也沒有那么神秘,很多時候它就是你身邊的小助理。
當前基于 神經網絡 的AI技術非常酷,同時占據AI話題至高點,以創(chuàng)造力和神秘性提供太多想象空間,也是許多AI技術員仰視的圣殿。但它面臨的問題也非常多: 具有不可解釋、魯棒性差、過于依賴數據等缺陷,隱藏著許多潛在危害 。
而可信AI的存在,就是為了解決這些“ 信任危機 ”問題。
如果說基于 神經網絡 的AI技術有著 強烈的理想主義 ,那么基于 大數據整理 的AI技術則是一個 腳踏實地的現實執(zhí)行者。
6
可信AI的技術特點
要真正了解可信AI對人類的幫助,需要從技術底層入手。
可信AI有四大技術特點:魯棒性、隱私保護、可解釋性、公平性 。
01
魯棒性
魯棒性指 在異常和危險情況下系統(tǒng)生存的能力和算法穩(wěn)定 。
1、前者指的是 系統(tǒng)抗打擊的能力 ,如計算機軟件在 輸入錯誤 、磁盤故障、 網絡過載 或惡意攻擊情況下,能否 不死機 、 不崩潰 。打個比方,如果把一個 AI模型 比喻成 萬里長城 ,那么其魯棒性便是長城在面對惡劣天氣(如臺風)、自然災害(如地震)時,人工轟炸時仍然可以做到 不輕易倒塌 。
2、后者指的是 AI模型中算法本身的穩(wěn)定性 ,如果添加擾動的熊貓照片,輕易就繞開了AI模型的“眼睛”,則說明其魯棒性比較差;比如在 欺詐交易 中,由于 作案手法 不斷升級,可能導致基于既往數據訓練的模型,面臨著新風險數據帶來的 穩(wěn)定性考驗 ,需要 不斷迭代 來保障模型的 分析和識別能力 。
以 支付寶 為例。支付寶每天都有 上億筆交易 ,其 對抗的不是散戶,而是專業(yè)的黑產團伙 。他們可能有兩種攻擊方式:
為了保障資金安全,螞蟻集團引入“ 博弈智能攻防 ”技術,該技術具有對 風險知識 和 模型 的 提前模擬、提前訓練、提前補防 的能力。應用該技術的AI模型魯棒性有大幅提升,實現“ 左右互搏 ”,既能夠更智能地“攻”,也能更安全地“防”。
02
隱私保護
傳統(tǒng)的數據保護方法客觀上形成了「 數據孤島 」,影響了如*、金融等領域的協(xié)同作戰(zhàn),也制約 AI 技術以及行業(yè)發(fā)展。
所以, 拓展數據價值的隱私計算技術,對實現「數據不動價值動」顯得尤為重要 。
在AI領域, 聯邦學習 作為一種新的機器學習模型和算法,就是為解決數據孤島問題而提出的。在保證每個參與方不泄露原始數據,即 數據不出域 的前提下,用多方的數據聯合建模,實現數據 可用不可見 ,進而實現「數據不動價值動」。
03
可解釋性
人類對一切未知的東西,始終都會有一種莫名的恐懼。
如果人工智能的行為無法進行解釋,只有結果沒有過程,那么它就像是一個盲盒,你永遠不知道放出來的是“阿拉丁”,還是“潘多拉”。
AI 模型是許多重要決策的重要依據,在很多應用里它的思考過程不能是黑盒 。
人類希望知道模型 背后的邏輯 、收獲新的知識,并在它出現問題時踩好剎車,確保 AI 思考的過程和結果 合規(guī)合法 。
這背后需要 數據驅動 與 模型推理能力 結合起來,產生 可解釋的結果 。
04
公平性
AI公平性是可信AI的重要組成部分。
只有實現“ 公平性 ”,才能真正推動技術 造福 于整個 社會 。
一方面,公平性需要重視 弱勢人群 、兼顧 落后地區(qū)發(fā)展 ,在重視 社會 倫理原則下進行 AI 調優(yōu) ,通過 AI 技術,讓老年人、殘障人士、欠發(fā)達地區(qū)用戶,享受到 數字經濟時代 的價值。
另一方面,公平性要思考如何從技術上思考如何減少算法、數據等因素可能帶來的 AI 決策偏見 。
魯棒性、隱私保護、可解釋性、公平性 。
這是可信AI的 四大基本原則 。
今天,發(fā)展可信AI,已經成為 全球共識 。
特別是對于領先的 科技 公司來講,他們是要服務用戶且不能犯錯誤的。
微軟 、谷歌、 螞蟻 、京東、 騰訊 、曠世等 科技 企業(yè),都在積極開展可信AI的研究和 探索 。
其中,螞蟻在可信AI上已有很多 技術優(yōu)勢 ,自 2015年 開始投入研究起,已經完成了 長達7年 的 可信AI技術積累之路 。
據 2021年 權威專利機構 IPR daily 發(fā)布的《 人工智能安全可信關鍵技術專利報告 》顯示,螞蟻集團旗下的 支付寶 在該領域的 專利申請數 和 授權數 ,均位列全 球第一 。
7
可信AI的應用 探索
基于可信AI的以上特點,應用場景多種多樣。
AI在 * 、教育、 工業(yè) 、金融等多個領域的廣泛應用,算法安全性、數據濫用、數據歧視等問題也層出不窮。當前AI技術的 主要矛盾, 已經轉化為 人們對AI日益增長的應用范圍需求和AI不可信不夠穩(wěn)的發(fā)展之間的矛盾 。
2018年,IBM開發(fā)了多個AI可信工具,以評估測試人工智能產品在研發(fā)過程中的公平性、魯棒性、可解釋性、可問責性、價值一致性。之后IBM將這些工具捐獻給Linux Foundation并成為了開源項目,幫助開發(fā)人員和數據科學家構建可信、安全、可解釋的人工智能系統(tǒng)。
作為可信AI領域的先行者之一,螞蟻也做了不少 探索 。
螞蟻的可信AI技術應用更好的實踐結果是,自研了一套 智能風控解決方案 ,定名 IMAGE 。這套技術體系實現了用可信AI技術保障風控業(yè)務安全的問題,且達到了非常好的效果。
它能將支付寶 資損率 控制在 千萬分之0.098, 解決了 風控場景 中的諸多 世界難題 。
還有一個例子,是支付寶的“ 叫醒熱線 ”——從系統(tǒng)識別到用戶遇到詐騙風險,到AI機器人向用戶呼出“ 叫醒電話 ”,它能把整個過程控制在 0.1秒 內 。
螞蟻集團基于可信AI的IMAGE風控體系
另外在可信AI的公平性方面,螞蟻也有自己的實際應用。
目前業(yè)內廣泛使用的“ 圖形滑塊驗證碼 ”一直是視障人群接入數字化服務的巨大障礙。但許多 APP 為了防范機器批量操作,又不得不保留驗證碼服務。
為此,螞蟻開發(fā)了一套“ 空中手勢 ”驗證碼方案,可以利用“ 行為識別 ”技術幫助視障群體通過“ 驗證碼 ”關卡。
可信AI的應用 探索 ,并不會讓AI技術失去它的可能性。
它更像是一種倫理規(guī)范的約束條約,讓AI在正確的軌道上前行 。
8
18年后,人類真的無人幸免?
讓我們回到一開始的問題。
AI真的會覺醒嗎?
一百年前的人類,很難想象我們如今生活的這個高度數字化世界 。
那么,一百年后,人工智能會發(fā)生什么變革,我們真的無法預測。
但AI對人類是福是禍,是一個攸關人類命運的重要課題。
按照現在AI發(fā)展的模式來看,未來的AI可能會分為兩大派:
一派是自我獨立的智能AI,一派是追隨人類的可信AI 。
當然,還有人在問,AI真的會存在 獨立意志 嗎?
這要看從科學上如何去解釋,一個AI系統(tǒng)是可以“坎陷”到具有“ 自我意識 ”的狀態(tài),差別只在于“坎陷”的深度和魯棒性,這可以解釋AlphaZero為什么能夠自我“坎陷”到圍棋大師,如果再 “ 坎陷 ”下去呢? 這 一派AI,可能會對人類造成我們認定的“威脅” 。
另一派AI,即可信AI,它們會在 四大基本原則 的架構中不斷完善自我 ,幫助人類解決更多實際問題,成為人類可靠的助手,并與人類共存共生 。那么,它們會一直幫助和保護人類嗎?
但無論未來如何發(fā)展,不同的技術方向或許帶來不同的悲劇或者喜劇,但有一點可以確定:
AI技術在四面突擊,不論是可信AI還是智能AI,更終會落地深入到我們生活的方方面面 。它會滲透到世界的每一個角落,在很多方面取代“無用之人”。
不管我們如何擔憂,AI只會變得越來越強大,而人類的進化又顯得如此龜速,甚至退化墮落。
那么, 18年后,有多少人可以幸免?
AlphaGo的認輸界面,當人類拋開了勝負 什么情況
AlphaGo的認輸界面,當人類拋開了勝負 什么情況。
人機大戰(zhàn)第四盤在韓國首爾戰(zhàn)罷。賽前0比3的局面,讓比賽的性質已經從勝負對決轉為科學實驗了。沒有包袱的韓國棋手李世石一掃陰霾,他用一記令AlphaGo疑似死機的妙招,替人類挽回了尊嚴。盡管1比3的比分無法改變這次人機大戰(zhàn)的整體結果,但這盤勝利也讓棋界為之興奮,高呼:“人類圍棋未被完全攻克?!?/p>
人機大戰(zhàn)前三盤0比3的結果,令賽前曾對人工只能不屑一顧的棋界啞口無言,各路高手紛紛意識到了AlphaGo的超強實力,轉而以學習的心態(tài)正確看待AlphaGo。而李世石本人,也在承認“錯估了AlphaGo的實力”后,終于拋開了全部壓力,開始享受自己的圍棋之道。
沒有了前面三盤的緊張和糾結,李世石開始走出自己的風格,他利用絞殺與AlphaGo進行爭奪。反觀AlphaGo依舊“冷血”,它在第四盤開局的招數,依然沒有任何破綻——看上去勝負仍然傾向于AlphaGo這邊。
本局中腹激戰(zhàn)中,李世石敏銳捕捉到戰(zhàn)機,尤其第78手挖更是被贊為“神之一手”。從這招之后,AlphaGo的程序疑似出現了“BUG”,它此后連出數招“臭棋”,比賽的局勢瞬間轉向李世石這邊。
在負責解說的曹大元九段看來,李世石的妙招很可能走出了AlphaGo的計算范圍,隨后的幾招屬于明顯的自我放棄了。此后AlphaGo經過調整回到正軌,但李世石沒有讓之前建立的優(yōu)勢溜走,更終他180手中盤艱難取勝。
對于棋界人士而言,正如第四盤賽后新聞發(fā)言人所講:“李世石的努力得到了證明,證明人類還有更高明的棋法?!?/p>
對于科技人士而言,AlphaGo出現的疑似“BUG”,也是這次科學實驗的更大收獲。谷歌的發(fā)言人賽后表示,AlphaGo也不是萬能的,它只是一個原型機,或者說只是個程序,還有待進一步完善。
這真是一場皆大歡喜的勝利。
李世石第四局為什么能戰(zhàn)勝阿爾法狗?
和前幾局對決相比,李世石第四局更多次陷入“長考”,導致耗時太多,在比賽進行到2個半小時后李世石僅剩下17分鐘,比AIphGo剩余時間足足少了1小時。隨后,李世石白78挖,下出一招妙手,成為本場比賽的轉折點。AIphGo黑93立,下出一步常理上的廢棋,令所有人大惑不解?,F場英文解說員麥克雷蒙九段表示,AIphGo后面跟的這步一下子把局面弄復雜了。雖然AIphGo出現一次“bug”,但李世石任然不敢松懈在打吃右側黑子時還是非常謹慎。在比賽進行到3小時20分鐘時。李世石計時全部用完,進入讀秒落子階段。此后Alpha由于判斷局面對自己不利,每步耗時明顯增長,都超出了3分鐘。到3小時40分鐘時,比賽大局已定,AlphaGo(白)投子認輸只剩時間問題,李世石只需要冷靜收官即可獲得勝利。可以肯定的是,阿爾法狗再次證明了人工智能不是以人類思維下棋。它只是在計算,而且也會有算錯的時候。而李世石面對不可戰(zhàn)勝之敵,用韌性與智慧贏得了尊嚴,這是人工智能“算”不出來的。
【綜述】李世石如何挽回人類尊嚴?李世石評價?不懂就看,不知就學,更多關于“李世石評價”的答案關注映森:http://m.b4i118.com/