【網(wǎng)易智能訊 3月20日消息】 現(xiàn)在,有的人工智能可以以類似人類的方式進行對話,有的機器人看起來像我們,而深度學習機器則是專門用來像我們一樣學習、思考和行動。專家認為,到2030年,人工智能將與人類不相上下;到2045年,人工智能的能力將超越人類智能。
鑒于該領域的發(fā)展速度和資源為實現(xiàn)持續(xù)發(fā)展所投入的資源,研究人員相信,我們比以往任何時候都距離“會思考的”機器更近。
牛津大學數(shù)學家Marcus du Sautoy表示:“人工智能正在逐漸獲得自己的感覺,也許有一個閾值時刻,意識突然就出現(xiàn)了。如果我們了解到人工智能有一定程度的意識,可能就得引入權利。這是一個激動人心的時刻?!?/p>
前景很令人興奮,但同時也具有爭議。一旦AI可以像人一樣思考、說話、行動,那么,它們是否應該擁有與我們相同的權利這一問題將會迫在眉睫。
爭議:AI機器人能不能擁有意識?
隨著人工智能的發(fā)展,機器人是否應該擁有權利這一問題變得更加緊迫。是否賦予機器人這些權利可能會對人類的生存產(chǎn)生直接影響,因此必須仔細考慮。
媒體經(jīng)常提醒我們,機器人革命即將發(fā)生。電影或電視節(jié)目以哄笑開場,以閑談的方式講述機器人是如何“愚蠢”,最后卻以更嚴肅的語氣結束?!稒C械姬》、《終結者》和《西部世界》都是人類第一次遇見機器人時,忽視了它們的感知能力的絕佳例子。但如果我們在現(xiàn)實生活中忽略它呢?我們現(xiàn)在就應該承認這一點嗎?
一些人認為,機器人永遠不會真正實現(xiàn)意識,因為人類甚至還不理解意識的本質(zhì)。我們對“人權”的概念是一種相對哲學的概念,建立在疼痛和苦難的概念上。通常情況下,機器人不需要通過編程來感知這些情緒,從而實現(xiàn)它們的功能,所以這個觀點是沒有實際意義的。
爭論的另一方觀點是:人類進化到能夠理解痛苦,是為了我們自己的利益。如果我們知道觸摸火苗時會感到疼痛,我們就不會去碰它。然而,先進的人工智能可能只是為了達到更高程度的自我意識而把痛苦編程到自己的意識中。在這一點上,否認機器人的權利僅僅是一個經(jīng)濟問題,就像人類的各個派系曾經(jīng)剝奪了其他人和動物的權利一樣。
機器權利的問題已經(jīng)與隱私和各種意識閾值有關,但“人類例外主義”的觀點值得考慮。我們不想讓人類滅絕,我們決定賦予其他物種的權利也會對我們的生存產(chǎn)生直接的影響。
人工智能能否擁有投票的特權?
未來可能有一天,AI擁有(或要求擁有)眾多權利,其中包括人類所享有的社會特權和責任,比如投票。
正如Zoltan Istvan在《新科學家》的一篇文章中指出的那樣:
授予AI投票權將帶來許多棘手的問題和道德困境,特別是因為地球上有幾十億臺計算機。 即使只有其中10%可以得到人格和相應的權利,它們也將大規(guī)模膨脹某個黨派的投票人口。
在美國,這樣的事情可能會讓選舉團制度容易受到AI對選舉結果的操縱,并引發(fā)人們對選舉合法性的擔憂。例如,如果一個機器人的服務器在一個州,而它的實體在另一個州,那么它的選票應該被計算在哪里呢?AI會被要求在和人類相同的盒子上做標記嗎?如果AI能夠克隆自己,該怎么辦?它們的復制品會被確認為合法的投票實體嗎?
監(jiān)管和法律先行:保護人類,也保護機器人
就目前來看,這些問題還只是純粹的假設。但是,正如研究人員指出的那樣,盡管我們?nèi)杂袝r間認真考慮技術對我們的生活方式產(chǎn)生的可能性和影響,對于我們?yōu)橐粋€與機器人并肩行走的世界所做的準備是必不可少的。
人工智能已經(jīng)在我們的生活中扮演著重要的角色。在未來的歲月里,它將繼續(xù)扮演更加復雜多樣的角色。為了實現(xiàn)這一目標,許多監(jiān)管機構都在立法,不僅保護人類,也保護機器人。
例如,歐洲議會法律事務委員會(JURI)投票通過了一份報告,該報告敦促起草相關法規(guī),監(jiān)管機器人和人工智能的使用和制造。報告指出:無論未來如何,人工智能都將與我們在一起,甚至可能與我們平權。我們將如何在這樣一個社會中發(fā)揮作用,這是我們今天必須要確定的路線。
聯(lián)系客服