免费视频淫片aa毛片_日韩高清在线亚洲专区vr_日韩大片免费观看视频播放_亚洲欧美国产精品完整版

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
把握算法的倫理邊界

算法是計算機(jī)的核心運行邏輯,是一套基于設(shè)計目的的數(shù)據(jù)處理指令的總和。其主要特征是,通過規(guī)范化的輸入,經(jīng)由算法取得相應(yīng)的輸出結(jié)果。在計算機(jī)技術(shù)發(fā)展早期,算法主要被用來提升計算機(jī)軟件的運行效率。隨著互聯(lián)網(wǎng)技術(shù)尤其是移動互聯(lián)網(wǎng)和物聯(lián)網(wǎng)的迅速發(fā)展,計算機(jī)領(lǐng)域的商業(yè)模式不再是簡單地出售軟件使用權(quán),而是通過深度介入用戶的工作和生活來獲取利潤。算法的運算對象逐漸由物變成了人,其內(nèi)在的價值屬性逐漸顯現(xiàn),對其的倫理規(guī)范也變得迫切起來。

  1.算法歧視。當(dāng)人成為算法的運算對象時,算法會把人作為獲取利潤或其他“理性”目的的分析對象,人在這個過程中會被打上標(biāo)簽“分揀”。比如,根據(jù)“用戶畫像”將同類商品和服務(wù)差異化定價、對應(yīng)聘人員的簡歷經(jīng)過計算機(jī)篩選后差異化投遞等。在這個關(guān)系中呈現(xiàn)的是用戶的工具化,該歧視源于為提升攫取利潤的效率而造成的人在算法下被物化。算法的歧視有其隱蔽性,因為“算法黑箱”并不會向外界公布,而且即使公布了也并不能讓大多數(shù)人看懂。由于提供的服務(wù)和商品個性化越來越強(qiáng),被算法施加影響的不同個體之間,也不容易通過對比發(fā)現(xiàn)問題。因此,會出現(xiàn)因手機(jī)品牌、歷史購買頻次、居住區(qū)域等變量不同的用戶,在購買同樣的服務(wù)和商品時顯示的價格不同,甚至通過顯示“售罄”等方式拒絕為特定用戶服務(wù)。除消費歧視外,算法的歧視還會識別并加劇社會不公平現(xiàn)象的產(chǎn)生,即使這種不公平的影響可能并不能在當(dāng)下體現(xiàn)或者被發(fā)現(xiàn)。比如,一些美國高校的簡歷篩選系統(tǒng)會自動根據(jù)現(xiàn)有生源情況對應(yīng)試學(xué)生分門別類,這會阻礙社會結(jié)構(gòu)向著更加公平的方向變化。還有一點更需要我們警覺:算法并不總是能夠向著其設(shè)計者希望的方向運行。隨著機(jī)器學(xué)習(xí)能力的不斷強(qiáng)化,其篩選標(biāo)準(zhǔn)會變得越來越復(fù)雜。但不論標(biāo)準(zhǔn)如何,我們都不可能寄希望于機(jī)器能夠用人類的價值觀識別并處理數(shù)據(jù)——這會讓未來深度依賴算法的世界充滿晦暗不明的價值虛無主義。

  2.算法控制?;ヂ?lián)網(wǎng)企業(yè),尤其是大型平臺公司的經(jīng)營邏輯十分重視活躍用戶數(shù)量、商品交易總額等數(shù)據(jù),這使得提升用戶黏性、獲取用戶數(shù)據(jù)畫像成為算法設(shè)計的重要目標(biāo)。一是強(qiáng)化已有的社會控制。如辦公信息系統(tǒng),通過通信軟件和流程管理軟件將員工全天候鏈接在一起,以提升生產(chǎn)效率?,F(xiàn)在互聯(lián)網(wǎng)平臺公司也在逐步介入公共服務(wù),幫助行政部門提升管理效率。比如,現(xiàn)在常用的防疫相關(guān)軟件、公共發(fā)布平臺、接入公共費用交納系統(tǒng)等。二是創(chuàng)造新的控制系統(tǒng)。這主要是挖掘人類的自然需求,并用更高的效率放大該需求以產(chǎn)生路徑依賴。比如社交、消費、學(xué)習(xí)、信息檢索、導(dǎo)航定位、影視及游戲娛樂等。其中甚至不少是用虧損來滿足人們的需求。比如,維持社交軟件的運轉(zhuǎn)需要較高費用,其設(shè)計目的就是培養(yǎng)更大的用戶基數(shù)和使用習(xí)慣。與行政單位運用明示的法律法規(guī)約束人的行為不同,平臺是用效率、依賴和成癮性控制用戶。用戶在大型平臺公司面前處于實質(zhì)上的權(quán)力弱勢地位,從而被深度嵌入產(chǎn)業(yè)環(huán)節(jié)產(chǎn)生一種隱形不自由。關(guān)于此類技術(shù)的倫理問題的討論,已越發(fā)具有重要性和必要性。

  3.算法投喂?;ヂ?lián)網(wǎng)信息傳播經(jīng)歷了門戶網(wǎng)站單向展示階段、用戶主動檢索階段,目前已進(jìn)入基于算法主動提供個性化信息的階段。哈佛大學(xué)法學(xué)教授桑斯坦(Cass R. Sunstein)在《網(wǎng)絡(luò)共和國》一書中提出,“信息繭房”指人們在信息領(lǐng)域會習(xí)慣性地被自己的興趣所引導(dǎo),從而將自己的生活桎梏于像蠶繭一般的“繭房”中的現(xiàn)象。而當(dāng)前以“投其所好”為原則的算法,大大提升了“作繭自縛”的效率。人們想象中的多元融合往往沒有出現(xiàn),反而出現(xiàn)了更多的極化現(xiàn)象。在互聯(lián)網(wǎng)發(fā)展早期,學(xué)界普遍認(rèn)為信息的高效流動可以照顧到不同群體的個性化偏好,促進(jìn)多元文明的相互交流。隨著早期互聯(lián)網(wǎng)的發(fā)展,尤其是門戶媒體和搜索引擎出現(xiàn)后,文化的碰撞一直在朝著互相融合的方向演進(jìn)。但隨著算法的不斷演進(jìn),我們卻發(fā)現(xiàn)如今多元主義并沒有在全球蓬勃興起,反而出現(xiàn)了某些更為深刻的社會割裂,而且呈加速趨勢。以往是人們自己主動尋求群體和文化認(rèn)同,在尋找的過程中會不斷接觸新的信息和價值觀,逐漸呈現(xiàn)為一種開放的價值系統(tǒng)。而現(xiàn)在的算法是主動將人分類并高效率推送趨同的內(nèi)容,因此“信息繭房”導(dǎo)致極化的速度大大加快了。多元文化需要求同存異的土壤,更多是指可以不斷接受新事物,并從多元化的環(huán)境中汲取養(yǎng)分,不斷豐富和發(fā)展自身,其內(nèi)在邏輯應(yīng)該是復(fù)雜的偏好在同一個場域中同時被滿足和照顧。而現(xiàn)在算法的邏輯,是讓不同的用戶在不同的場域分別被滿足。這不是多元化,而是多極化,其最終結(jié)果是在文化層面的社會割裂。

  生命倫理學(xué)家恩格爾哈特(H. Tristram Engelhardt, Jr.)在《生命倫理學(xué)的基礎(chǔ)》一書中提出了“道德異鄉(xiāng)人”的概念,指那些持有和我們不同的道德前提的人,他們生活在不同的道德共同體中,在與他們合作時會存在基礎(chǔ)的價值取向沖突,包括但不限于對程序的適用、對善的理解、對正義的分配等,從而會導(dǎo)致對話困難?!秱惱韺W(xué)綱要》一書中提出,應(yīng)通過建立公共理性、完善現(xiàn)代社會性道德(首先是現(xiàn)代性外在倫理秩序),來使現(xiàn)代的內(nèi)容與現(xiàn)代公共理性的形式相匹配。正因如此,我們需要基于一個能夠讓大多數(shù)人都認(rèn)可的核心價值或公共理性的原則,來劃定算法的倫理邊界?,F(xiàn)代文明進(jìn)步的重要成果,就是打破了不同群體之間的界限,突出了人本身的尊嚴(yán),尊重作為人本身的自主性價值,進(jìn)而通過文化、經(jīng)濟(jì)、政治等的融合,讓人與人得以互相理解。而算法的倫理邊界,應(yīng)是促進(jìn)或至少不能破壞這些成果。

  面對算法發(fā)展導(dǎo)致的各類現(xiàn)實問題,需要我們在設(shè)計算法時嚴(yán)守非歧視性、用戶的非物質(zhì)性、個人選擇權(quán)的不可剝奪性這三條原則。非歧視性原則,指不能根據(jù)“用戶畫像”的不同實行差別化待遇,這里體現(xiàn)的是平等的價值。用戶的非物質(zhì)性,意味著算法應(yīng)尊重用戶作為人的主體性,不能對其簡單地進(jìn)行“物化”或“數(shù)據(jù)化”。同時,由于技術(shù)的演進(jìn),算法對人的控制已開始由工作的特定時間發(fā)展為充斥于人的生活的方方面面,更加快速的信息流已在逼近人的生理極限,效率提高的同時也在剝奪人的閑暇時光??萍嫉陌l(fā)展應(yīng)給人帶來便利而非控制,算法在設(shè)計之初就應(yīng)盡可能地考慮到主體之間的強(qiáng)弱勢支配關(guān)系,不能僅以技術(shù)中性為擋箭牌,間接助長“效率之惡”。個人選擇權(quán)的不可剝奪性,則是指要保障人自主獲取信息的權(quán)利,這是對人類探索精神的尊重和保護(hù)。我們不能僅用算法來判斷人們的需求和偏好,精準(zhǔn)的“個性化匹配”應(yīng)有更多的倫理考量。

  算法與很多其他科技不同的一點在于,不少科技的產(chǎn)生是基于“發(fā)明”這一人類實踐活動的,而算法則是以“設(shè)計”作為技術(shù)產(chǎn)生的呈現(xiàn)方式。發(fā)明是科技適應(yīng)人的體現(xiàn),是為了給人帶來更多的便利,補(bǔ)齊或增強(qiáng)僅依靠人的自然屬性難以滿足的需求。這從“懶是科技進(jìn)步的原動力”這一句廣為流傳的打趣便可以看出,倫理對發(fā)明往往是進(jìn)行后續(xù)的回應(yīng)和規(guī)范,不論從規(guī)范需求還是規(guī)范可能性上來看,都很難做到前置約束。從目前的實踐看來,也只有以人為對象的醫(yī)學(xué)倫理能夠做到一定程度的前置約束。但設(shè)計作為算法的前置性程序,倫理提前介入進(jìn)行評估是可行的。而且,目前算法設(shè)計的核心原則是以人為作用對象,以計算機(jī)邏輯為中心。人在設(shè)計中來適應(yīng)技術(shù),需要使用大量的時間和智力來學(xué)習(xí)、適配計算機(jī)。只要技術(shù)的作用對象是人,那么倫理的提前介入就是必要的。隨著計算機(jī)技術(shù)的滲透率不斷上升,人類社會對算法的依賴程度不斷加深是一個難以逆轉(zhuǎn)的趨勢,這也是“科技樹”不斷向效率更高的方向生長的客觀規(guī)律。正因如此,我們應(yīng)守住科技造福人類這一根本原則,并更加深入研究討論“何為人類之?!边@一深刻而又基礎(chǔ)的倫理問題,為算法的狂飆突進(jìn)戴上韁繩,守住倫理邊界。

 ?。ㄗ髡邌挝唬褐袊嗣翊髮W(xué)倫理學(xué)與道德建設(shè)研究中心)

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
信息技術(shù)教師應(yīng)該讀什么書(五)計算機(jī)、網(wǎng)絡(luò)及信
警惕人工智能的倫理缺失
AI若無人性,你我只是被任意曲解的數(shù)據(jù)碎片
機(jī)器人倫理方面的相關(guān)研究:如何進(jìn)行機(jī)器人道德建構(gòu)
發(fā)行以來經(jīng)久不衰,被全球超250所大學(xué)選做教材,它終于被引入中國
讓智能系統(tǒng)成為倫理主體
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服