算法向上向善:技術(shù)與倫理的平衡之道
2024-12-13 16:46:20 來(lái)源:法治日?qǐng)?bào)·法治周末
□王苑
從火爆全網(wǎng)的《外賣騎手,困在系統(tǒng)里》到“算法黑箱”“信息繭房”等熱詞,算法已從少數(shù)專業(yè)人士的專有領(lǐng)域,逐漸成為公眾討論的熱點(diǎn)問(wèn)題。算法帶來(lái)的便利性毋庸置疑,但其潛在的問(wèn)題也引發(fā)了廣泛擔(dān)憂,如異化現(xiàn)象、權(quán)力控制、主體性喪失以及“大數(shù)據(jù)殺熟”等歧視問(wèn)題。
為進(jìn)一步深化互聯(lián)網(wǎng)信息服務(wù)算法綜合治理,中央網(wǎng)絡(luò)安全和信息化委員會(huì)辦公室秘書(shū)局、工業(yè)和信息化部辦公廳、公安部辦公廳、國(guó)家市場(chǎng)監(jiān)督管理總局辦公廳近日聯(lián)合印發(fā)通知,部署開(kāi)展“清朗·網(wǎng)絡(luò)平臺(tái)算法典型問(wèn)題治理”專項(xiàng)行動(dòng)。此次行動(dòng)提出了“算法向上向善”的主要任務(wù),旨在增強(qiáng)算法的社會(huì)服務(wù)功能,保護(hù)用戶主體的合法權(quán)益,推動(dòng)技術(shù)和社會(huì)價(jià)值的融合。具體包括了未成年人保護(hù)、老年人保護(hù)、優(yōu)化內(nèi)容生態(tài)、生成合成信息標(biāo)識(shí)等方面。
算法為何需要向上向善
算法是一種特殊形式的技術(shù)決策工具,盡管其本質(zhì)上是人為設(shè)計(jì)的程序,但它承載了設(shè)計(jì)者的目標(biāo)和價(jià)值。傳統(tǒng)的技術(shù)中立論認(rèn)為,技術(shù)本身無(wú)所謂對(duì)錯(cuò),其善惡取決于使用者的意圖。但反對(duì)者提出,技術(shù)在設(shè)計(jì)中會(huì)被賦予價(jià)值,這種技術(shù)原理和結(jié)構(gòu)中內(nèi)嵌的價(jià)值會(huì)對(duì)社會(huì)和個(gè)人產(chǎn)生深遠(yuǎn)影響。例如,學(xué)者蘭登·溫納關(guān)于技術(shù)設(shè)計(jì)偏見(jiàn)的經(jīng)典案例表明,紐約通往長(zhǎng)島海灘的隧道高度設(shè)計(jì)過(guò)低,導(dǎo)致公交巴士無(wú)法通行。這一設(shè)計(jì)實(shí)則反映了對(duì)低收入群體的排斥,因?yàn)楦F人依賴公共交通,而富人則通過(guò)私家車暢行無(wú)阻。類似地,算法的設(shè)計(jì)也可能出于商業(yè)目的吸引戶感到乏味和疲憊,就推薦其用戶沉迷,將無(wú)限吸引用戶注意力作為營(yíng)利手段,那么其算法的邏輯必然是一旦用更感興趣的內(nèi)容以吸引其再次傾注時(shí)間和精力。
認(rèn)識(shí)到算法中蘊(yùn)含價(jià)值有助于明確設(shè)計(jì)者的責(zé)任:一方面算法的“前見(jiàn)”成為對(duì)算法設(shè)計(jì)者追責(zé)的理?yè)?jù);另一方面則提醒我們,既然算法可以設(shè)計(jì)價(jià)值,那么就可以在前端對(duì)算法植入恰當(dāng)?shù)膬r(jià)值觀,如公平、透明和隱私保護(hù)。正因如此,引導(dǎo)算法向上向善,成為解決算法潛在問(wèn)題的必要路徑。
如何實(shí)現(xiàn)算法向上向善
價(jià)值對(duì)齊(value alignment)是近年來(lái)人工智能領(lǐng)域的一個(gè)重要概念,指的是確保人工智能系統(tǒng)的目標(biāo)、行為和決策與人類的價(jià)值觀和倫理標(biāo)準(zhǔn)相一致。具體而言,算法設(shè)計(jì)需要在效率、隱私、安全和公平等價(jià)值之間找到平衡。這一概念的核心目的是避免人工智能系統(tǒng)在執(zhí)行任務(wù)時(shí)偏離人類意圖,防止其行為對(duì)社會(huì)和個(gè)人造成不可預(yù)見(jiàn)的負(fù)面影響。但人類本身價(jià)值就是多元的,很難達(dá)成價(jià)值共識(shí),部分秉持進(jìn)步史觀的技術(shù)專家選擇以隱私或安全來(lái)?yè)Q取效率,認(rèn)為只要技術(shù)持續(xù)進(jìn)步,一切可能的問(wèn)題都會(huì)迎刃而解,因此Open AI公司才會(huì)違背自己最初設(shè)立非營(yíng)利機(jī)構(gòu)的宗旨去追求技術(shù)的躍進(jìn)。而價(jià)值對(duì)齊的最低要求,是與法治對(duì)齊,也就是說(shuō)追求效率價(jià)值無(wú)可厚非,但不能違反法律的規(guī)定。
算法向上向善(AI for good)是目前主流倫理學(xué)家和法學(xué)家們所倡導(dǎo)的一種價(jià)值對(duì)齊,相較于法律基準(zhǔn)線,向上向善當(dāng)然是一種更高的追求。但算法“向上向善”不僅是道德選擇,也是法律與政策的共識(shí)。例如歐盟的《人工智能倫理指南》提出,算法設(shè)計(jì)需服務(wù)于公共利益,促進(jìn)社會(huì)的公平和可持續(xù)發(fā)展。
因此,毋寧將算法向上向善視為一項(xiàng)法律原則,相較于法律規(guī)則的確定性及可操作性,法律原則具有價(jià)值引領(lǐng)性、抽象性等等特點(diǎn)。但也正是基于此等特點(diǎn),算法向上向善才具有可執(zhí)行和可擴(kuò)容的空間。在現(xiàn)有條件下,為實(shí)現(xiàn)算法向上向善原則,設(shè)計(jì)者應(yīng)考慮的問(wèn)題包括:算法是否具有足夠的透明性?是否支持合理的信息流動(dòng)和隱私保護(hù)?是否存在歧視性的設(shè)計(jì)?是否增強(qiáng)了用戶間的信任?
要實(shí)現(xiàn)這些目標(biāo),技術(shù)專家也應(yīng)當(dāng)和倫理學(xué)家和法學(xué)家跨領(lǐng)域合作,在技術(shù)設(shè)計(jì)中融入多元價(jià)值觀,最終實(shí)現(xiàn)算法的向上向善。
守住算法的倫理底線
“人在環(huán)路”(human in the loop)是算法向上向善的重要路徑,即確保人在算法決策中保留干預(yù)權(quán),而非完全交由機(jī)器來(lái)決定。這一理念強(qiáng)調(diào)人類在決策過(guò)程中的主體地位,防止因過(guò)度依賴算法而導(dǎo)致責(zé)任轉(zhuǎn)移或倫理缺失。例如,如果招聘系統(tǒng)完全基于算法篩選簡(jiǎn)歷,可能因算法偏見(jiàn)歧視特定群體。同樣,在司法領(lǐng)域,若算法推薦的量刑建議被過(guò)度采納,法官的獨(dú)立裁量權(quán)可能被弱化。因此,“人在環(huán)路”可以有效緩解算法偏差,保障決策的公平性和責(zé)任的明確性。
作為歐盟人工智能立法的核心原則,目前,該理念已隨著歐盟立法的影響逐漸滲透到各國(guó)立法,成為解決與算法相關(guān)的透明度、偏見(jiàn)、安全和系統(tǒng)性風(fēng)險(xiǎn)問(wèn)題的標(biāo)準(zhǔn)解決方案。雖然“人在環(huán)路”很難從根本上解決價(jià)值對(duì)齊的問(wèn)題,但可以減少價(jià)值偏差的發(fā)生概率。
算法向上向善的本質(zhì),是通過(guò)技術(shù)與倫理的融合,在追求技術(shù)進(jìn)步的同時(shí)確保其服務(wù)于社會(huì)的正當(dāng)價(jià)值。實(shí)現(xiàn)這一目標(biāo)需要在法治的框架下,通過(guò)價(jià)值對(duì)齊和“人在環(huán)路”等機(jī)制,將倫理、社會(huì)責(zé)任嵌入技術(shù)設(shè)計(jì)的核心。
(作者系東南大學(xué)法學(xué)院副教授)