就在今年的三月,令人敬佩敬仰的科學(xué)家霍金突然離世,他在科學(xué)領(lǐng)域的造詣和發(fā)現(xiàn)是無人能及的。他的突然離世震驚了世界,引起了科學(xué)界的轟動。很多人都為他的離世而感到惋惜,紛紛自主為他的離開哀吊。一談到霍金,不知道大家還有沒有一個印象,就是他曾經(jīng)有一個十分有名的言論,是關(guān)于人工智能的。而說到人工智能呢,現(xiàn)在的我們對它已經(jīng)開始有了一些比較基本的了解,人工智能在我們的生活中也已經(jīng)開始在廣泛運用。
人工智能的種類非常繁多,我們可以根據(jù)它的技術(shù)含量的高低以及形成的分級的不一樣,把人工智能分為最高的超智能、其次的強智能和最差的弱智能三個大類的。從目前來看,我們研究得最多的其是非常低級的人工智能,這個階段的人工智的技術(shù)含量非常的低,所以它基本上只能夠完成最基本的人工指令。像這樣技術(shù)含量低的機器人已經(jīng)開始在我們生活中得到運用,它們可以陪我們聊天和玩耍,幫我們解決一些家務(wù)事煩惱。大家在看到這些人工智能給我們帶來方便的同時,當(dāng)然就不滿足現(xiàn)階段的低級的智能狀態(tài)。越是看到智能發(fā)展帶給我們的便利,人們就會越來越希望能夠研究發(fā)明出更加高級的人工智能。但是人工智能的持續(xù)發(fā)展到底有不有利于我們?nèi)祟惖陌l(fā)展呢?
霍金曾經(jīng)就多次表示,人工智能的出現(xiàn)雖然會給我們的生活帶來很多方便,但是如果我們一直讓它持續(xù)發(fā)展下去的話,它的智慧就會得到不斷的升級,總有一天它會超越了人類。那個時候它就必將不再受我們的控制,甚至還可能反過來控制我們。所以為了防止機器人有了自己的生命,能夠自己獨立思考,在智慧方面和體力方面超越人類的情況發(fā)生,霍金就一直在呼吁大家不要去研發(fā)人工智發(fā)展它。但是科技的發(fā)展一定會向研究智能這個方向去進(jìn)行,要停下人工智能的研究是十分不現(xiàn)實的。前段時間就已經(jīng)出現(xiàn)了一臺擁有公民身份的機器人,他可以享受與人類一樣的權(quán)利和義務(wù)。
而美國在這一技術(shù)上也一直從未停止過他前進(jìn)的步伐,美國一旦研究成功,就一定會把機器人用在軍事上,這是非常讓人擔(dān)憂的。因為如果科學(xué)家們在代碼輸入的時候給機器人加入毀滅人類的指令,或者是智能機器人在研究中突然發(fā)生變異,成為反人類的物種時,后果是非常可怕的,這很可能會導(dǎo)致整個人類世界被這些智能機器人殺死。所以一旦我們?nèi)祟惡蜋C器人真的打起來了的話,是幾乎沒有勝算的可能性的。
人工智能最可怕的不是它的惡意,而是它的能力。它能夠不斷的加快自己的速度來改變發(fā)展自己,而且他們在完成指令方面表現(xiàn)的十分優(yōu)秀,而我們?nèi)祟惖陌l(fā)展會受到生物進(jìn)化等方面的限制。如果有一天我們的目標(biāo)與他們的目標(biāo)發(fā)生沖突,而我們?nèi)祟惖陌l(fā)展又無法超越機器人的發(fā)展時,那么我們就很有可能走向終結(jié)。
但是也有很多人覺得,我們其實不用太去在意人工智能發(fā)展到最后對我們的利弊,我們應(yīng)該去學(xué)會使用先進(jìn)的科學(xué)技術(shù)幫助自己進(jìn)步和發(fā)展,而不是因為害怕就不去發(fā)展科技,讓自己停滯不前。
聯(lián)系客服