問題一:人工智能創(chuàng)業(yè)倫理的新特征
創(chuàng)業(yè)與倫理是內(nèi)在融合的,人工智能創(chuàng)業(yè)倫理與一般的創(chuàng)業(yè)倫理相比,有一些新的特征。一方面,相比于傳統(tǒng)創(chuàng)業(yè)項(xiàng)目的產(chǎn)品,人工智能產(chǎn)品的開發(fā)過程對公眾而言,更加復(fù)雜,更難以理解。一些較為高級的人工智能產(chǎn)品,本身就有了自我學(xué)習(xí),自我開發(fā)進(jìn)化的能力,其發(fā)展進(jìn)化的過程,即使是開發(fā)者都難以理解。因此,人工智能產(chǎn)品質(zhì)量的可追溯性很難得到保障;就有點(diǎn)類似于人類智能,你看某個人面無表情,可能內(nèi)心卻正百轉(zhuǎn)千回。高級人工智能也會這樣,他們的決策基礎(chǔ)是海量數(shù)據(jù),然后在海量數(shù)據(jù)中做關(guān)聯(lián)、推理。雖然大數(shù)據(jù)本身是自然形成的,但這個數(shù)據(jù)生成的過程中其實(shí)有人的心理因素在里面,這就可能會導(dǎo)致基于大數(shù)據(jù)的關(guān)聯(lián)與推理可能是錯誤的。這種錯誤可能導(dǎo)致對用戶權(quán)利的侵犯,還可能導(dǎo)致決策的不公平。
舉一個例子,某人父親這一段時間后背持續(xù)疼痛,他上網(wǎng)一搜,發(fā)現(xiàn)肺癌的早期征兆與此相同,于是他就又搜過了肺癌。他在網(wǎng)上搜索瀏覽的足跡被相關(guān)的公司采集到了,并共享給了保險公司。這個人去買保險,把所有的疾病都已經(jīng)告知,但其中沒有肺部疾病。但保險公司通知他去指定地點(diǎn)體檢,重點(diǎn)檢查肺部。這里,就存在一個基于大數(shù)據(jù)做決策對人權(quán)的侵害以及決策不公平的問題。
另一方面,人工智能產(chǎn)品的應(yīng)用更為廣泛,由于產(chǎn)品具有一定的智能,但這種智能又是開發(fā)者和制造者所賦予的,而智能的使用權(quán)又歸屬于客戶,而到了強(qiáng)人工智能時代,人工智能產(chǎn)品本身就能決策。一旦在使用過程中由于安全故障出現(xiàn)傷害,責(zé)任的分擔(dān)問題很難解決,傳統(tǒng)的法律與倫理框架很難有效約束。因此,相比于傳統(tǒng)的創(chuàng)業(yè)項(xiàng)目,創(chuàng)業(yè)潛在的社會風(fēng)險更大、不確定性更強(qiáng),倫理規(guī)范更難確立。
我們可以把這個問題進(jìn)一步細(xì)分。人工智能創(chuàng)業(yè)倫理,既有創(chuàng)業(yè)倫理的共性,是一切創(chuàng)業(yè)者在創(chuàng)業(yè)過程和活動中都可能面對的倫理情境,倫理議題、倫理沖突與倫理選擇。人工智能與人類智能相對應(yīng),是由人類創(chuàng)造的智能,隨著技術(shù)的進(jìn)步,人工智能很可能自我進(jìn)化,逐漸由當(dāng)前的弱人工智能轉(zhuǎn)變?yōu)閺?qiáng)人工智能,在這個過程中,人工智能產(chǎn)品從概念的生成、到研發(fā)、中試、量產(chǎn)、銷售、應(yīng)用和報廢的全生命周期中會出現(xiàn)許多其它產(chǎn)品領(lǐng)域未曾出現(xiàn)的問題,這為人工智能創(chuàng)業(yè)倫理增加了新的特性,也給創(chuàng)業(yè)者帶來了新的挑戰(zhàn)。比如自動駕駛汽車,在系統(tǒng)設(shè)計的時候,要考慮是僅僅遵守交通法規(guī)就足夠了嗎?如果正確行駛的道路上有障礙物,是否需要逆向行駛在對面的車道上以避開障礙物?假使對面車道 上有人呢?在行人與乘客之間,應(yīng)該先救誰?這些都應(yīng)該是人工智能創(chuàng)業(yè)應(yīng)該思考的問題。
問題二:人工智能創(chuàng)業(yè)倫理對領(lǐng)導(dǎo)者的新要求
倫理決策要求
一個倫理行為的形成需要具備四個組份,分別是倫理敏感性,也被稱為倫理意識,倫理判斷能力,倫理意圖與倫理品質(zhì)。作為創(chuàng)業(yè)者,擁有倫理決策與行為能力是非常重要的。人工智能創(chuàng)業(yè),創(chuàng)造出的人工智能應(yīng)該是創(chuàng)造有益于人類而不是不受人類控制的人工智能,這是人工智能創(chuàng)業(yè)者的倫理底線。創(chuàng)業(yè)者也有義務(wù)保證所創(chuàng)造出來的人工智能產(chǎn)品高度健全,具有魯棒性,不會發(fā)生故障或受到黑客攻擊。假使一輛無人駕駛汽車正行駛在路上,突然遭遇黑客攻擊,四處亂撞,那將是一個非??膳碌膱雒妗S只蛘咭粋€陪伴機(jī)器人,在所陪伴的老人突然暈倒時,機(jī)器人在報警時出了故障,可能就延誤了治療。所以,創(chuàng)業(yè)者要保證人工智能產(chǎn)品的質(zhì)量與安全性。
作為創(chuàng)業(yè)者,是一個組織的靈魂,整個組織的倫理氛圍由創(chuàng)業(yè)者來塑造。尤其是人工智能創(chuàng)業(yè),對研發(fā)人員,制造者的倫理素質(zhì)要求更高。不管是算法歧視,還是數(shù)據(jù)的有偏性,都會導(dǎo)致對特定群體的不公平。如果由于制造過程的工人的不負(fù)責(zé)任導(dǎo)致的產(chǎn)品缺陷,還可能對顧客造成傷害,甚至引發(fā)安全問題。甚至對于人工智能產(chǎn)品的使用者,創(chuàng)業(yè)者都應(yīng)該提前考慮到產(chǎn)品應(yīng)用上可能會出現(xiàn)的誤用乃至惡意應(yīng)用,而在技術(shù)中想辦法提前避免事情的發(fā)生。所以,一家創(chuàng)業(yè)公司,僅僅創(chuàng)業(yè)者具有倫理決策與行為能力是遠(yuǎn)遠(yuǎn)不夠的。還需要創(chuàng)業(yè)者具備相應(yīng)的倫理領(lǐng)導(dǎo)力。
倫理領(lǐng)導(dǎo)要求
所謂倫理領(lǐng)導(dǎo),是指管理者個體不僅能夠自己做出倫理決策,而且能夠培育組織的倫理氛圍,帶動他人做出倫理決策。要成為倫理領(lǐng)導(dǎo),必須進(jìn)行倫理管理——向組織的其他人傳達(dá)能夠引起下屬關(guān)注并影響下屬思想和行為的倫理信息,成為一名倫理型經(jīng)理。倫理型經(jīng)理應(yīng)為下屬制定現(xiàn)實(shí)的目標(biāo),如果目標(biāo)高不可及,下屬就可能會選擇游走在法律與倫理之外行事,以實(shí)現(xiàn)高目標(biāo);以一種對下屬清晰可見的方式從事倫理行為,起著模范帶頭作用;他們定期與員工交流倫理標(biāo)準(zhǔn)、原則和價值觀;他們持續(xù)地利用獎懲系統(tǒng)使員工遵從倫理標(biāo)準(zhǔn);在組織內(nèi)部開展倫理培訓(xùn),事先控制;進(jìn)行倫理審計,事后矯正;組織中設(shè)立倫理熱線,幫助員工解決倫理沖突。海爾張瑞敏當(dāng)前讓下屬怒砸質(zhì)量不合格的冰箱,傳達(dá)的就是質(zhì)量第一的理念。這種道德垂范的作用非常強(qiáng)大。創(chuàng)業(yè)者作為一個組織的靈魂,需要具備倫理決策與行為能力,塑造組織倫理氛圍;還要具備倫理領(lǐng)導(dǎo)力,進(jìn)行倫理管理,發(fā)揮道德垂范作用。
問題三:提升人工智能創(chuàng)業(yè)倫理領(lǐng)導(dǎo)的途徑
人工智能創(chuàng)業(yè)倫理要求領(lǐng)導(dǎo)者不僅要“獨(dú)善其身”,更要“兼濟(jì)天下”。首先,在創(chuàng)業(yè)者成為創(chuàng)業(yè)者之前,就應(yīng)該在學(xué)校教育或各種管理與領(lǐng)導(dǎo)力培訓(xùn)中加上倫理方面的內(nèi)容。2018年3月,教育部工程碩士專業(yè)指導(dǎo)委員會將工程倫理設(shè)為工程碩士的必修課,這對于學(xué)生倫理敏感性和倫理判斷能力的提升是至關(guān)重要的。我們假設(shè),這些碩士研究生群體中有部分將來創(chuàng)業(yè),那么在學(xué)期間的工程倫理教育對他們在創(chuàng)業(yè)過程中做倫理決策和行為是非常有益的。所以,在創(chuàng)業(yè)教育中增加倫理方面的教育內(nèi)容,在人工智能教育中增加倫理方面的教育內(nèi)容,都可能會較大幅度提升人工智能創(chuàng)業(yè)者的倫理意識與倫理判斷能力。
著名哲學(xué)家布貝爾曾經(jīng)也說過“名副其實(shí)的教育,本質(zhì)上就是品格教育”,學(xué)校教育對于一個人世界觀與價值觀的確立有非常大的影響,所以非常有必要在當(dāng)前的教育體系中增加倫理教育的內(nèi)容。學(xué)校在各種創(chuàng)業(yè)竟賽區(qū)中強(qiáng)制加入倫理維度或倫理環(huán)境,以提高潛在創(chuàng)業(yè)者的倫理敏感性,這也有助于提高人工智能創(chuàng)業(yè)者的倫理決策和倫理領(lǐng)導(dǎo)力。就像不少創(chuàng)業(yè)比賽團(tuán)隊(duì)的創(chuàng)業(yè)計劃書,一般都會有專門的一個章節(jié)來論述“企業(yè)社會責(zé)任”,這也與倫理維度和倫理環(huán)境直接相關(guān)。
人工智能創(chuàng)業(yè)也是創(chuàng)業(yè),創(chuàng)的也是企業(yè),所以人工智能創(chuàng)業(yè)倫理必然包括傳統(tǒng)的企業(yè)社會責(zé)任,既要履行一個企業(yè)的經(jīng)濟(jì)責(zé)任,同時要超越經(jīng)濟(jì)責(zé)任,履行社會責(zé)任、環(huán)境責(zé)任。除了對企業(yè),對員工負(fù)責(zé),還要對公眾,社區(qū)與環(huán)境負(fù)責(zé)。但人工智能創(chuàng)業(yè)倫理又不完全等同于企業(yè)社會責(zé)任,由于人工智能產(chǎn)品的復(fù)雜性及應(yīng)用的廣泛性,需要創(chuàng)業(yè)者在企業(yè)社會責(zé)任的基礎(chǔ)上,對產(chǎn)品可能引發(fā)的社會風(fēng)險、對企業(yè)倫理氛圍的培育做更多的思考,制定出更多的保障措施。
最后,即使倫理教育有了較高的普及面,人工智能創(chuàng)業(yè)者也可能在創(chuàng)業(yè)前未經(jīng)歷過任何倫理方面的教育。在缺乏教育的前提上,由創(chuàng)業(yè)者自身來培育自己的倫理敏感性和倫理判斷能力是非常難的,因?yàn)樗锌赡芨緵]有意識到行為與決策中的倫理維度。所以,可以在申辦公司時,要求創(chuàng)業(yè)者填寫一份問卷,問卷中會涉及一些與較為通過的倫理議題以及倫理領(lǐng)導(dǎo)的情境。問卷的結(jié)果并不會作業(yè)創(chuàng)業(yè)申辦公司的參考條件。但填寫問卷的過程中, 創(chuàng)業(yè)者會了解到可能會遇到的倫理情境,從而對此有了一定的敏感性。
問題四:平衡人工智能創(chuàng)業(yè)倫理治理的思考
2019年6月17日,國家新一代人工智能治理委員會發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,這里特別強(qiáng)調(diào)“負(fù)責(zé)任”這個詞。我們知道人工智能創(chuàng)新是一個高速開發(fā)迭代的過程,如果沒有倫理規(guī)范,人工智能技術(shù)最后不受人控制,那這所帶來的社會安全風(fēng)險也許對人類社會是一種毀滅。但如果倫理規(guī)范過嚴(yán),又會抑制創(chuàng)新,所以面對這樣的矛盾我們該如何破解呢?
其實(shí)這里面涉及到一個人工智能創(chuàng)業(yè)的底線倫理。哪些是人工智能創(chuàng)業(yè)的倫理紅線,是堅(jiān)決不能觸碰的。過去創(chuàng)業(yè)領(lǐng)域?qū)W者提出可持續(xù)創(chuàng)業(yè)要兼顧“生態(tài)、社會和經(jīng)濟(jì)”三重底線的原則,那今天我們所說的人工智能創(chuàng)業(yè)的“底線倫理”具體又是指什么呢?
創(chuàng)業(yè)者在創(chuàng)業(yè)過程中,應(yīng)該表現(xiàn)出職業(yè)美德,履行自己的義務(wù)責(zé)任。創(chuàng)新過程中,對產(chǎn)品的研發(fā)、生產(chǎn)、銷售、使用等各個環(huán)節(jié),盡可能地從技術(shù)、社會、環(huán)境等角度全方位去思考,不能僅僅考慮經(jīng)濟(jì)利益。創(chuàng)新也好,創(chuàng)業(yè)也好,都必然有風(fēng)險,這個風(fēng)險不僅是針對投資方或創(chuàng)業(yè)者的,還包括社會風(fēng)險,環(huán)境風(fēng)險。人工智能出現(xiàn),簡單重復(fù)性的勞動很容易被替代,相應(yīng)的從業(yè)者就會面臨失業(yè)。當(dāng)規(guī)模達(dá)到一定程度時,社會就可能會產(chǎn)生動蕩,就像工業(yè)革命時間,傳統(tǒng)紡織工人所面臨的窘境一下。另一方面,社會風(fēng)險、環(huán)境風(fēng)險的識別往往是創(chuàng)業(yè)者的思維與能力難以迄及的。比如說,從政府的角度出發(fā),應(yīng)該為創(chuàng)業(yè)者搭建信息平臺,積極構(gòu)建交流網(wǎng)絡(luò),拓展創(chuàng)業(yè)者的信息渠道,增強(qiáng)創(chuàng)業(yè)者對社會風(fēng)險、環(huán)境風(fēng)險的識別能力。
創(chuàng)業(yè)者往往會更關(guān)注于經(jīng)濟(jì)利益,這無可厚非。但創(chuàng)業(yè)者應(yīng)當(dāng)有傾聽不同意義的胸懷,能夠與不同領(lǐng)域、不同部門的人員合作,將倫理做為創(chuàng)業(yè)決策的一個維度,去共同探討在產(chǎn)品全生命周期中,可能會存在哪些社會風(fēng)險與環(huán)境風(fēng)險,其中隱含著哪些倫理問題,是否有解決的途徑等。
人工智能目前已經(jīng)成為各國科技競爭的焦點(diǎn),其勢已不可阻擋。而人工智能創(chuàng)業(yè)也是大勢所驅(qū),必然勢如破竹。由于人工智能產(chǎn)品復(fù)雜,應(yīng)用廣泛,而如今又成熱潮,難免會出現(xiàn)良莠不齊的創(chuàng)業(yè)公司,這很可能會增大由于人工智能創(chuàng)業(yè)所導(dǎo)致的社會風(fēng)險,所以對人工智能創(chuàng)業(yè)開展相應(yīng)的倫理規(guī)范研究與應(yīng)用,非常有必要。人工智能的硬技術(shù)與人文智慧的軟思想相互碰撞、融合,人工智能產(chǎn)品的開發(fā)與應(yīng)用才更能順應(yīng)我們這個時代的發(fā)展浪潮,才能滋生出更多優(yōu)秀的人工智能創(chuàng)業(yè)公司,為人類謀求更多的福祉。
【尾聲】結(jié)束了與姜卉教授關(guān)于人工智能創(chuàng)業(yè)倫理四個問題的探討,下周我們繼續(xù)探索人工智能創(chuàng)業(yè)實(shí)踐以及教學(xué)科研中的其他問題,歡迎留言和交流。
作者簡介:
聯(lián)系客服