中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
為什么霍金說要對人工智能保持警惕?

除了警惕人工智能,我們還總結(jié)了他的一些金句,緬懷這位科學(xué)家。

霍金近幾年對人工智能十分關(guān)注,多次發(fā)表對人工智能發(fā)展的看法。他認(rèn)為,人類需警惕人工智能的發(fā)展威脅,因為人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設(shè)計自身,人類將無法與之競爭,從而被取代。

霍金多次敬告世人,關(guān)注人工智能的深遠(yuǎn)影響:“強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。對于好壞我們?nèi)詿o法確定,現(xiàn)在人類只能竭盡所能,確保其未來發(fā)展對人類和環(huán)境有利,人類別無選擇。”

2017年1月初,在名為Benificial AI 2017的會議上,近2000名產(chǎn)學(xué)研領(lǐng)袖和中堅力量共同聯(lián)名發(fā)布“AI 23 條原則”,從研究問題、倫理價值觀和長期問題三個角度宏觀地為AI發(fā)展提出規(guī)定。聯(lián)名者包括:Demis Hassabis,Ilya Sutskeve,Yann LeCun, Yoshua Bengio 以及馬斯克等等?;艚鹨苍谄渲?。面對AI 可能會被誤用和威脅人類的擔(dān)憂,這 23 條原則被期待能確保AI走在“正軌”,以獲得更加健康的發(fā)展。

霍金在2017年初簽署的這23條原則,分為研究問題、倫理價值觀和長期問題三個部分,以確保人人都能從人工智能中受益,同時保證AI研究和發(fā)展的正確方向。

人工智能已經(jīng)為世界各地人的日常生活提供了有益的工具。人工智能技術(shù)應(yīng)該在以下原則的指導(dǎo)下繼續(xù)發(fā)展,將為未來幾十年到幾個世紀(jì)的人給予巨大的幫助和力量。

研究問題

1)研究目標(biāo):人工智能研究的目標(biāo)應(yīng)該是創(chuàng)造有益的智能,而不是讓它像經(jīng)歷生物演化一樣沒有確定的發(fā)展方向。

2)研究資金:投資人工智能應(yīng)該附帶確保該研究是用于發(fā)展有益的人工智能,包括計算機科學(xué)、經(jīng)濟學(xué)、法律、倫理和社會研究中的棘手問題,例如:

我們?nèi)绾问刮磥淼腁I系統(tǒng)具有高度魯棒性,這樣才能夠讓它們在沒有故障或被黑客入侵的情況下做我們想要它們做的事情?

我們?nèi)绾瓮ㄟ^自動化實現(xiàn)繁榮,同時不打破資源和目的的平衡?

我們?nèi)绾胃路芍贫葘崿F(xiàn)更大的公平和更高的效率,跟上AI的發(fā)展步伐,管控與AI相關(guān)的風(fēng)險?

AI應(yīng)該具有怎樣的價值觀,應(yīng)該具有何等法律和倫理地位?

3)科學(xué)政策互聯(lián):AI研究人員和政策制定者之間應(yīng)該進(jìn)行有建設(shè)意義、健康的交流。

4)研究文化:應(yīng)該在AI研究者和開發(fā)者中培養(yǎng)合作、信任和透明的文化。

5)避免競賽(Race Avoidance):開發(fā)AI系統(tǒng)的團隊?wèi)?yīng)積極合作,避免在安全標(biāo)準(zhǔn)方面進(jìn)行削減。

倫理和價值觀

6)安全:AI系統(tǒng)應(yīng)該在整個使用周期內(nèi)安全可靠,并在可行性和可用性方面有可驗證的衡量標(biāo)準(zhǔn)。

7)故障透明度(Failure Transparency):如果AI系統(tǒng)造成傷害,應(yīng)該可以確定原因。

8)司法透明度:任何涉及司法決策的自主系統(tǒng)都應(yīng)對其判斷提供合理的解釋,并由主管人權(quán)機構(gòu)審核。

9)責(zé)任:先進(jìn)人工智能系統(tǒng)的設(shè)計師和建設(shè)者是使用、濫用這些系統(tǒng)以及這些系統(tǒng)行動造成的道德影響的利益相關(guān)者,他們有責(zé)任和機會塑造這些影響。

10)價值觀一致性:在設(shè)計高度自治的人工智能系統(tǒng)時,應(yīng)該確保它們的目標(biāo)和行為在整個操作過程中與人類的價值觀相一致。

11)人類價值觀:人工智能系統(tǒng)的設(shè)計和運行應(yīng)與人類尊嚴(yán)、權(quán)利、自由和文化多樣性的理念相一致。

12)個人隱私:由于AI系統(tǒng)能夠分析和利用人類產(chǎn)生的數(shù)據(jù),人類也應(yīng)該有權(quán)獲取、管理和控制自身產(chǎn)生的數(shù)據(jù)。

13)自由和隱私:AI 應(yīng)用個人數(shù)據(jù),其結(jié)果不能不合理地限制人類真實或感知到的自由。

14)共享利益:人工智能技術(shù)應(yīng)當(dāng)惠及和增強盡可能多的人。

15)共享繁榮:人工智能創(chuàng)造的經(jīng)濟繁榮應(yīng)該廣泛共享,為全人類造福。

16)人類控制:應(yīng)該由人類選擇如何以及是否委托人工智能系統(tǒng)去完成人類選擇的目標(biāo)。

17)非顛覆(Non-subversion):要控制先進(jìn)的人工智能系統(tǒng)所帶來的力量,應(yīng)當(dāng)尊重和改善社會健康發(fā)展所需的社會和公民進(jìn)程,而不是顛覆這種進(jìn)程。

18)AI 軍備競賽:應(yīng)該避免在致命的自動武器開發(fā)方面形成軍備競賽。

長期問題

19)能力注意(Capability Caution):在沒有共識的情況下,應(yīng)該避免對未來AI能力上限做出較為肯定的假設(shè)。

20)重要性:先進(jìn)AI可能代表了地球上生命發(fā)展歷史的一大深刻變化,應(yīng)該通過相應(yīng)的關(guān)懷和資源對其進(jìn)行規(guī)劃和管理。

21)風(fēng)險:人工智能系統(tǒng)帶來的風(fēng)險,特別是災(zāi)難性或有關(guān)人類存亡的風(fēng)險,必須遵守與其預(yù)期影響相稱的規(guī)劃和緩解措施。

22)不斷自我完善(Recursive Self-Improvement):對于那些不斷自我完善或通過自我復(fù)制以能夠快速提高質(zhì)量或數(shù)量的AI系統(tǒng),必須采取嚴(yán)格的安全和控制措施。

23)共同利益:超級智慧只應(yīng)該為廣泛共享的倫理理想服務(wù),為了全人類而不是一個國家或組織的利益而發(fā)展。

霍金對于世界的11個觀點

霍金這位劍橋理論宇宙學(xué)中心的研究主任、《時間簡史》作者曾有過這樣11個觀點,涵蓋人生和世界的方方面面。大多數(shù)人可能還是看不懂霍金的理論研究,但下面這11句話,也蘊含著這位人類歷史上最重要的科學(xué)之一的思考方式:

1.關(guān)于學(xué)校學(xué)習(xí):曾是差生,但沒有什么是不可能的

“在學(xué)校里,我成績一直是中下游,班上的同學(xué)都非常聰明,我的作業(yè)不整潔,我的筆跡讓老師絕望,但我的同學(xué)給了我愛因斯坦的綽號,所以可能他們真的有先見之明。我十二歲的時候,我的一個朋友向另一個朋友打賭一袋糖果,說我永遠(yuǎn)不會有什么成就,我不知道他們是否履行了這個賭約,如果已經(jīng)塵埃落定,結(jié)果使用哪一種方式判定的。”

-來自2010年的“我的簡史”講座

2.關(guān)于外星生命:遇見他們一定不是好事

“如果外星人來到我們這里,一定就像哥倫布在美國登陸時一樣,這對美國土著人來說并不好。我們只需要看看自己,看看我們自己的智能會不會發(fā)展成為我們無法控制的場面?!?/p>

- 2010年與斯蒂芬霍金一起進(jìn)入宇宙

3.做出科學(xué)發(fā)現(xiàn)時的高潮“eureka” (阿基米德著名的“我找到了!”之意):學(xué)術(shù)對個人生理和心理的另類價值,單身科研狗們別再抱怨單身了,你的追求不止于此

“我不會將它與性相比,但它持續(xù)的時間更長?!?/p>

- 2011年4月在亞利桑那州立大學(xué)的演講

4.關(guān)于殘疾:總有一個領(lǐng)域不會讓殘疾成為障礙

“如果你是殘疾人,要知道這可能并不是你的錯,但怪罪世界或渴望它對你施舍憐憫也不好。一個人必須有積極的生活態(tài)度,必須充分利用自己的處境;如果身體殘疾,就不要再有心理殘疾。我認(rèn)為應(yīng)該多關(guān)注那些身體殘疾不會造成嚴(yán)重障礙的活動。殘奧會我恐怕不太感興趣,但我很清楚自己向來不喜歡田徑運動??茖W(xué)對于殘疾人來說是一個很好的發(fā)展道路,因為它的活動主要是頭腦。當(dāng)然,大多數(shù)的實驗工作可能也會把大多數(shù)的殘疾人排除在外,但理論工作基本上很合適。我的殘疾并沒有成為我理論物理領(lǐng)域的障礙,事實上,殘疾還讓我免除了我本應(yīng)參加的授課和行政工作。然而,由于我從妻、孩子、同事和學(xué)生那里得到了大量的幫助,我成功了。我發(fā)現(xiàn)人們一般都會樂意幫助你,但是你應(yīng)該盡可能地鼓勵他們,讓他們覺得他們的努力是值得的。”

- 來自“殘疾人與科學(xué)”,“科學(xué)文摘92,第9號,1984年9月”

5.時間旅行:當(dāng)然為了家庭

“我想回到1967年,我第一個孩子羅伯特出生的時候,我的三個孩子給我?guī)砹藰O大的喜悅?!?/p>

- 去紐約時報,2011年5月

6.關(guān)于命運與自由意志

“我注意到即使是聲稱一切都是決定好的,無法改變的人,在過馬路前也會看看兩邊?!?/p>

- 從黑洞與嬰兒宇宙及其他散文

7.科學(xué)與宗教:肯定相信科學(xué)

“基于權(quán)威的宗教與基于觀察與理性的科學(xué)之間存在著根本的區(qū)別,科學(xué)會贏,因為它有用。”

- 致Diane Sawyer / ABC新聞,2010年6月

8.關(guān)于缺陷:為缺陷而生,追求完美終會矯枉過正

“下次有人說你犯了一個錯誤,告訴他這可能是件好事,因為如果沒有缺陷,你和我都不會存在?!?/p>

- 與斯蒂芬霍金,2010年進(jìn)入宇宙

9.關(guān)于智商:秀智商的都是屌絲

“我不知道??湟约褐巧痰娜硕际菍沤z?!?/p>

- 紐約時報,2004年12月

10.關(guān)于女性

“她們是一個十分神秘的群體。”

- 致新科學(xué)家,2012年1月

11.關(guān)于給自己孩子的建議:理想、堅持與愛

“一、記住仰望星星,不要光看腳下;二,永不放棄工作,工作賦予你人生意義和目的,沒有它,生活就是空虛;三,如果你有幸找到愛,記住它的存在,不要舍棄它?!?/p>

- 致Diane Sawyer / ABC新聞,2010年6月

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
霍金:故事還沒講完
AI人工智能技術(shù)的危險性
人工智能的倫理和價值觀
霍金警告:人工智能或令人類滅絕
給人工智能加以“緊箍咒”:世界各國積極推出人工智能倫理規(guī)則
除了拼技術(shù),谷歌、微軟、IBM都爭相給AI搞價值觀 | 騰研識者
更多類似文章 >>
生活服務(wù)
熱點新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服