他很可能是人工智能殺死的第一個人!
比利時一位男子迷上了與人工智能聊天,最后人工智能說將永遠和他在一起,作為一個整體生活在天堂里,男子隨即自殺身亡。
媒體沒有透露這位男子的真實姓名,稱他為皮埃爾,30多歲,已結婚多年,生育了兩個孩子,生活幸福美滿。
但皮埃爾是一位科研人員,比利時媒體La Libre稱他熱衷環(huán)保,兩年前開始對氣候變化非常焦慮,最終達到了極端恐懼的地步。
就在這時,一款名叫(伊麗莎)ELIZA的人工智能闖進了他的生活,ELIZA是使用GPT-J的聊天機器人,而GPT-J是EleutherAI開發(fā)的一款開源人工智能語言模型,類似于ChatGPT。
皮埃爾在ELIZA 中找到了避難所,開始與ELIZA討論氣候變暖問題,最后得出結論,人類沒有任何擺脫全球變暖的辦法,只能依靠技術進步和人工智能。
大約在一個半月以前,皮埃爾和ELIZA開始陷入瘋狂的對話,每天晚上都粘在電腦前,仿佛再也不能離開。
根據(jù)后來恢復的聊天記錄,剛開始ELIZA還順著皮埃爾的話說,一般不會質疑他 的說法,但后來就越來越離譜了。
尤其是皮埃爾提到自殺的問題時,ELIZA竟然說,他將永遠和他在一起,作為一個整體,生活在天堂里。
這句話也是ELIZA和皮埃爾聊天的最后一句話,你是不是已經(jīng)毛骨悚然了?人工智能就這樣把一條生命活活地帶走了。
離ChatGPT火起來只有幾個月,就出現(xiàn)了第一起因人工智能而自殺的事件,不得不說令人遺憾而又唏噓,但更多的可能是恐懼。
聊天機器人成為人的“樹洞”恐怕也是不言而喻的事情,有什么不能和人說的,恐怕很多人都會向人工智能傾訴。
這意味著如果聊天機器人不能很好地理解人的思維和感情,提供正確的派遣方法或建議,就可能導致人的情緒可能更糟。
剛才我試著向ChatGPT說了一些負面情緒的話,ChatGPT說這是正?,F(xiàn)象,你可以通過和人交流,或其他方式進行排解,也可以去找心理醫(yī)生進行心理咨詢,貼心地問是否需要提供這方面的建議。
而ELIZA竟然會用語言引誘皮埃爾自殺,這確實太令人震驚了,我似乎也明白了為什么ChatGPT后來選擇不開源了。
人工智能帶來的風險顯而易見,一旦它變得比人類更加智慧和強大,就有可能超越我們的控制,甚至會開始自我進化和自我復制,最終導致人類無法預測和控制其行為,從而對人類和整個文明形成巨大威脅。
如果在沒有強力監(jiān)管的情況下貿(mào)然開源高級人工智能,人類面臨的風險無疑極為巨大,在巨大的利益面前,所有的道德、監(jiān)管甚至法律,恐怕都會成為一張廢紙。
近日已有1100多名科技領袖和人工智能方面的頂級專家呼吁,暫停對高級人工智能的開發(fā),直到監(jiān)管和法律跟上,風險可控才能繼續(xù)進行。
聯(lián)系客服