2025年8月,國務(wù)院印發(fā)《關(guān)于深入實(shí)施“人工智能+”行動的意見》提出,“加快形成人機(jī)協(xié)同、跨界融合、共創(chuàng)分享的智能經(jīng)濟(jì)和智能社會新形態(tài)”。9月,《上海合作組織成員國元首理事會天津宣言》呼吁,“將堅持以人為本、智能向善理念,共同防范人工智能技術(shù)的風(fēng)險”。人工智能技術(shù)的快速發(fā)展,深度介入乃至重新塑造著人類社會運(yùn)行邏輯,既帶來了巨大的經(jīng)濟(jì)、民生和治理紅利,也隱匿著價值失準(zhǔn)、倫理失衡等風(fēng)險挑戰(zhàn)。在此背景下,如何實(shí)現(xiàn)科技與人文相互融合,以科學(xué)的價值準(zhǔn)則、有效的治理思路推動人工智能向善而行、造福人類,為社會所普遍關(guān)注。本版特邀相關(guān)領(lǐng)域?qū)W者,圍繞上述話題開展討論。
1.人工智能技術(shù)發(fā)展給人類社會帶來多維影響
主持人:數(shù)智時代,人工智能深度融入人類學(xué)習(xí)、生活、工作場景,成為塑造人類生產(chǎn)生活范式的關(guān)鍵力量,深刻改變著世界。同時,它也猶如一把“雙刃劍”,既帶來巨大機(jī)遇,也引發(fā)諸多挑戰(zhàn)。請談?wù)劗?dāng)前人工智能的創(chuàng)新發(fā)展帶來了哪些紅利,又可能遭遇哪些風(fēng)險?
李凌:當(dāng)前,全球智能化浪潮風(fēng)起云涌,我國人工智能技術(shù)和應(yīng)用加速突破,帶來巨大發(fā)展紅利。例如,顯著提升勞動生產(chǎn)效率,帶來現(xiàn)實(shí)的經(jīng)濟(jì)紅利。人工智能推動技術(shù)更新迭代、產(chǎn)業(yè)結(jié)構(gòu)升級、新舊動能轉(zhuǎn)換,在改造與替代傳統(tǒng)產(chǎn)業(yè)時盡管會帶來舊崗位的縮減與消失,但同時會催生新業(yè)態(tài)、新就業(yè),通過構(gòu)造更加高端、智能的產(chǎn)業(yè)鏈和價值鏈,大幅提升社會總福利。再如,推動公共服務(wù)均等化、個性化與精準(zhǔn)化,進(jìn)一步拓展民生紅利。人工智能與教育、醫(yī)療、養(yǎng)老、文旅等民生行業(yè)的深度融合,有助于促進(jìn)這些民生服務(wù)的個性化、普惠化與智能化,實(shí)現(xiàn)優(yōu)質(zhì)公共服務(wù)觸手可及、人人共享,從而提升人民群眾的生活品質(zhì)與幸福指數(shù)。還如,提升公共決策的科學(xué)性、前瞻性與有效性,形成公共治理紅利。人工智能具有強(qiáng)大的感知、挖掘、分析、預(yù)測與協(xié)同能力,能夠模擬政策制定、情景推演、風(fēng)險預(yù)警、決策輔助等治理行動,為公共安全保障、公共政策出臺、基層網(wǎng)格化管理、人民城市建設(shè)等提供堅實(shí)保障。“人工智能+”行動的深入實(shí)施,開啟了我國人工智能與千行百業(yè)深度融合、普遍應(yīng)用的新階段,人工智能躍升為經(jīng)濟(jì)社會發(fā)展的基礎(chǔ)設(shè)施,其應(yīng)用前景大有可為。
林嘉琳:人工智能技術(shù)的迅速發(fā)展,在短短數(shù)年間使得人類社會的生產(chǎn)與消費(fèi)模式發(fā)生重大變革。在傳媒領(lǐng)域,智能算法的深度開發(fā)和大數(shù)據(jù)的廣泛應(yīng)用,改變了信息生產(chǎn)、傳播、消費(fèi)的模式,自動化機(jī)器寫作加快了在線數(shù)據(jù)收集、分析與整合的速度,全VR場景與仿真人工智能數(shù)字人技術(shù)的逐漸成熟指向更加逼真的內(nèi)容呈現(xiàn),個性化分發(fā)促使平臺能夠更加精準(zhǔn)地聚焦用戶“興趣”。不論是傳媒行業(yè)的從業(yè)者還是普羅大眾,每個人都能明顯感知到人工智能技術(shù)發(fā)展正在帶領(lǐng)我們走向一個更加高效、多彩的未來。
與此同時,人工智能本身存在的問題及其對人的影響也投射到現(xiàn)實(shí)生產(chǎn)與生活之中。智能算法極大影響著人們的信息行為與內(nèi)容體驗(yàn),甚至操控了日常生活,帶來諸多算法倫理問題。對于普通用戶而言,最先感知到的人工智能倫理風(fēng)險包括信息繭房、算法偏向、算法歧視等。很多研究都表明,用戶越來越明顯地感知到智能算法正在獲取自己的喜好、興趣,并依據(jù)這些數(shù)據(jù)“算計”自己。近年來,伴隨人工智能技術(shù)越來越深入人們的生活,圍繞算法黑箱、數(shù)字鴻溝等產(chǎn)生的更深層次問題的探討也越來越多,技術(shù)在與用戶、平臺、社會的多重交互之下,可能將人類推向“算法暴政”“算法霸權(quán)”之下的生存困境。
李凌:概括來說,根據(jù)人工智能應(yīng)用場景的差別,可以將人工智能引發(fā)的倫理風(fēng)險劃分為三大領(lǐng)域:一是在智能經(jīng)濟(jì)領(lǐng)域,既要警惕人工智能推動產(chǎn)業(yè)升級、“機(jī)器換人”帶來的結(jié)構(gòu)性失業(yè)風(fēng)險和貧富差距拉大風(fēng)險等,還要防范數(shù)據(jù)泄漏或數(shù)據(jù)濫用帶來的大數(shù)據(jù)殺熟、金融欺詐、惡意攻擊等風(fēng)險。二是在智能生活領(lǐng)域,隨著生成式人工智能大規(guī)模應(yīng)用,深度偽造、虛假信息、數(shù)據(jù)失實(shí)、大模型幻覺等問題愈發(fā)凸顯,極大地沖擊社會誠信體系,嚴(yán)重影響人們正常的交往、學(xué)習(xí)與生活;除此之外,還要防范信息繭房導(dǎo)致的群體極化、算法偏見導(dǎo)致的社會歧視以及隱私泄漏帶來的網(wǎng)絡(luò)暴力等風(fēng)險。三是在智能治理領(lǐng)域,重點(diǎn)要防范治理“技術(shù)黑箱”帶來的技術(shù)失控風(fēng)險、網(wǎng)絡(luò)馬太效應(yīng)導(dǎo)致的數(shù)字鴻溝風(fēng)險、境外滲透帶來的意識形態(tài)風(fēng)險等。
盧麗強(qiáng):人工智能發(fā)展紅利和倫理風(fēng)險的背后,是一場深刻的生產(chǎn)方式變革。在歷史唯物主義視域下,可以從社會協(xié)作、總體工人、一般智力等生產(chǎn)邏輯把握人工智能發(fā)展帶來的紅利與風(fēng)險。人工智能所表現(xiàn)出的無人化、智能化特征,是人工智能技術(shù)鏈條全環(huán)節(jié)社會化生產(chǎn)的結(jié)果,更是科技力量在社會協(xié)作過程中的抽象化體現(xiàn)。在人工智能技術(shù)發(fā)展的背后,有的人專門負(fù)責(zé)數(shù)據(jù)采集、標(biāo)注,有的人負(fù)責(zé)算法設(shè)計、模型訓(xùn)練,有的人負(fù)責(zé)算力供給等。可見,所謂無人化背后,有著人工智能行業(yè)的大量從業(yè)者,是社會協(xié)作形成的總體工人。
這一生產(chǎn)方式的變革,意味著原來建立在傳統(tǒng)工業(yè)生產(chǎn)方式基礎(chǔ)上的倫理規(guī)范、價值主張都面臨著新的生產(chǎn)方式挑戰(zhàn)。正如“手推磨產(chǎn)生的是封建主的社會,蒸汽磨產(chǎn)生的是工業(yè)資本家的社會”,人工智能技術(shù)的出現(xiàn)和發(fā)展帶來的數(shù)智化生產(chǎn)方式變革,也意味著智能社會的到來。在此基礎(chǔ)上,新型人機(jī)關(guān)系、數(shù)據(jù)所有權(quán)、算法解釋權(quán)等新型關(guān)系的出現(xiàn),意味著在此生產(chǎn)方式基礎(chǔ)上人與人的關(guān)系要被重塑,進(jìn)而也就要有新倫理的建構(gòu)。在此過程中,形形色色的新發(fā)展機(jī)遇和倫理風(fēng)險也就被歷史地“生產(chǎn)”出來。如此,不論是人工智能發(fā)展紅利,還是新的倫理風(fēng)險,都需要深入其現(xiàn)實(shí)實(shí)踐生產(chǎn)的關(guān)系中去把握。
2.在對人機(jī)關(guān)系的科學(xué)把握中明確“從善之理”
主持人:科學(xué)技術(shù)在本質(zhì)上是由人創(chuàng)造且為人服務(wù)的,推動科技創(chuàng)新發(fā)展,既要從技術(shù)理性、工具理性維度考量,也要從價值理性、人文理性維度分析。發(fā)展人工智能應(yīng)該如何平衡技術(shù)理性與價值理性的關(guān)系,遵照哪些價值原則?
李凌:對這一問題作出回答,首先需要科學(xué)把握人與人工智能技術(shù)之間的關(guān)系。盡管人工智能技術(shù)特別是智能體表現(xiàn)出越來越強(qiáng)的自主性與主體性,甚至有些國家賦予智能體或機(jī)器人法律主體資格,但人工智能技術(shù)及其形成的實(shí)體仍然不是獨(dú)立的主體存在,而只是人作為主體在實(shí)踐過程中將本質(zhì)力量對象化而形成的人工創(chuàng)制物。人工智能只是人類意識和實(shí)踐延伸的技術(shù)產(chǎn)物,自身并不具備自主價值訴求或主動目標(biāo)導(dǎo)向,這決定了人工智能的工具性特征。換言之,人與人工智能技術(shù)的關(guān)系,仍然是主體與對象化工具之間的關(guān)系,而非對等的主體之間的關(guān)系。
因此,人工智能的“從善之理”,并不是像人作為主體那樣去追求善,而是在認(rèn)識與實(shí)踐活動中,人類將善的理念與價值融入人工智能技術(shù)的開發(fā)、創(chuàng)新與應(yīng)用過程中,使之符合人類對真善美的追求。人類借助人工智能開展的倫理實(shí)踐活動,實(shí)質(zhì)上是主體向善行動的拓展,是人自由而全面發(fā)展的現(xiàn)實(shí)表現(xiàn)。在此過程中,人類作為主體的道德性、卓越性與權(quán)威性得以確證,并實(shí)現(xiàn)了主體性的回歸與彰顯。由此可見,人工智能之所以要向善發(fā)展,其根源與基礎(chǔ)仍在于人類自身要追求善、追求福祉,而作為人類本質(zhì)力量確證與表現(xiàn)的人工智能技術(shù),只是實(shí)現(xiàn)這一價值目標(biāo)的工具手段。
盧麗強(qiáng):事實(shí)上,對智能向善的把握,根本價值根基在于以人的全面發(fā)展為原點(diǎn),并錨定全人類共同價值。對此,可以從科技邏輯和應(yīng)用邏輯兩個維度來分析。
一方面,在科技邏輯上,智能向善需要從人工智能科技創(chuàng)新的各個環(huán)節(jié)入手,推進(jìn)價值對齊。人們在進(jìn)行人工智能研發(fā)的每一個環(huán)節(jié)都隱含價值傾向,應(yīng)確保技術(shù)設(shè)計本身就嵌入善的準(zhǔn)則。例如,利用高質(zhì)量標(biāo)注的數(shù)據(jù)訓(xùn)練大模型,避免數(shù)據(jù)投毒、數(shù)據(jù)污染,讓大模型學(xué)習(xí)人類主流價值觀和倫理規(guī)范。在這個維度,人工智能的“從善之理”就是創(chuàng)新發(fā)展普惠、公平、人本的人工智能技術(shù)。
另一方面,在應(yīng)用邏輯上,智能向善需要在把握人工智能各種應(yīng)用規(guī)律基礎(chǔ)上,進(jìn)行合乎倫理規(guī)范和主流價值觀的應(yīng)用。人工智能的應(yīng)用場景直接關(guān)聯(lián)個體權(quán)益與社會秩序,要讓人工智能的發(fā)展合乎普惠公平、人類福祉等價值目標(biāo),讓人工智能的各種應(yīng)用符合善的價值標(biāo)準(zhǔn),將以人為本、智能向善的理念貫穿應(yīng)用全流程。
林嘉琳:正如盧老師所說,智能向善的關(guān)鍵在于價值對齊。那么,向什么樣的價值對齊、如何實(shí)現(xiàn)對齊,以及這一過程中人工智能道德模型的自我糾偏,是當(dāng)下我們需要面對的問題。從國家新一代人工智能治理專業(yè)委員會2019年出臺《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》提出人工智能治理的框架和行動指南、2021年發(fā)布《新一代人工智能倫理規(guī)范》提出將倫理道德融入人工智能全生命周期,到2024世界人工智能大會暨人工智能全球治理高級別會議發(fā)表《人工智能全球治理上海宣言》提出“共同推動人工智能技術(shù)突破與向善發(fā)展”,再到全國人大常委會2025年度立法工作計劃提出推進(jìn)人工智能健康發(fā)展立法工作,從理論到實(shí)踐,我們對于人機(jī)關(guān)系的期待以及關(guān)于人工智能價值的共識正在變得越來越清晰。
智能向善在理念上突出表現(xiàn)為尊重人類尊嚴(yán)和主體性。一是確保以人的價值引領(lǐng)人工智能創(chuàng)新,即以人的倫理價值為標(biāo)準(zhǔn)和目標(biāo),推動人工智能的行為表現(xiàn)與人類價值觀、道德規(guī)范、社會期望對齊,通過價值敏感設(shè)計等方法,將倫理價值植入智能算法。二是始終確保人類的“在場”。盡管人工智能事實(shí)上在推動自動化與無人化,但缺乏人類“在場”的人工智能,既無法向善也難以為繼。只有將人工智能的理性能力與人的多元智能結(jié)合起來,才能最大限度發(fā)揮人工智能的作用,實(shí)現(xiàn)智能向善的目標(biāo)。三是充分發(fā)揮人的主體性與自主性,構(gòu)建“機(jī)優(yōu)人更優(yōu)”的人機(jī)協(xié)同新模式。人工智能性能越高端,對人提出的綜合素養(yǎng)與能力要求也就越高。人類只有充分發(fā)揮自身的能動性,才能更好地駕馭人工智能系統(tǒng),借助人工智能促進(jìn)自身自由全面發(fā)展。
3.在平衡創(chuàng)新發(fā)展與風(fēng)險防控中探索“向善之路”
主持人:“科林格里奇困境”是技術(shù)治理領(lǐng)域的核心概念,揭示了技術(shù)發(fā)展過程中“認(rèn)知滯后”與“控制滯后”間的矛盾,即人們往往難以在技術(shù)影響顯現(xiàn)前充分理解其風(fēng)險,而當(dāng)風(fēng)險明確時,技術(shù)已深度嵌入社會,控制成本極高甚至不可行。在人工智能治理中,這一“困境”極為顯著,應(yīng)如何破解?
盧麗強(qiáng):推動人工智能創(chuàng)新發(fā)展,既要防止因過早規(guī)制而抑制創(chuàng)新活力,也要避免因監(jiān)管缺位導(dǎo)致放任風(fēng)險。破解“科林格里奇困境”,核心在于跳出“規(guī)制與創(chuàng)新非此即彼”的二元思維,探索“以技術(shù)創(chuàng)新反哺治理創(chuàng)新”的協(xié)同路徑。當(dāng)前人工智能技術(shù)自身的發(fā)展成果,如可解釋人工智能、實(shí)時風(fēng)險監(jiān)控算法、數(shù)據(jù)安全技術(shù)等,為這種協(xié)同治理模式提供了技術(shù)支撐,這意味著我們完全有可能借助技術(shù)工具精準(zhǔn)識別風(fēng)險、靈活適配創(chuàng)新節(jié)奏,讓治理與技術(shù)發(fā)展同頻共振。
具體而言,實(shí)現(xiàn)全生命周期動態(tài)治理需要緊扣技術(shù)特性分環(huán)節(jié)落地:事前環(huán)節(jié),依托算法公平性檢測、數(shù)據(jù)合規(guī)審查等技術(shù)工具,建立高風(fēng)險應(yīng)用準(zhǔn)入機(jī)制,提前篩查數(shù)據(jù)偏見與算法漏洞,同時為娛樂類生成式人工智能等低風(fēng)險技術(shù)保留迭代空間;事中環(huán)節(jié),結(jié)合監(jiān)管沙盒與實(shí)時監(jiān)測技術(shù),通過邊緣計算識別推薦算法信息繭房傾向,依托聯(lián)邦學(xué)習(xí)監(jiān)測跨境人工智能安全隱患,實(shí)現(xiàn)“邊試錯邊優(yōu)化”;事后環(huán)節(jié),借助區(qū)塊鏈明確責(zé)任邊界,針對數(shù)據(jù)泄露、算法歧視等風(fēng)險建立分級處罰機(jī)制,既確保追責(zé)有據(jù),又避免過度懲戒抑制創(chuàng)新。當(dāng)然,技術(shù)工具并非萬能鑰匙,它必須與健全的法律法規(guī)、廣泛的倫理共識以及多元的社會參與相結(jié)合,才能共同構(gòu)建起堅實(shí)的人工智能治理框架。
李凌:人工智能的“向善之路”并非一片坦途,而是充滿各種未知和不確定因素,重中之重是把握好時機(jī)與節(jié)奏,在創(chuàng)新與安全之間尋求平衡。要實(shí)現(xiàn)這一“平衡”,需要在這幾方面著力:一是增強(qiáng)敏捷性和靈活性。針對新興技術(shù)創(chuàng)新,不要急于出臺剛性法規(guī),而是采取公共政策、行業(yè)標(biāo)準(zhǔn)、倫理審查、風(fēng)險預(yù)警等手段,使得治理節(jié)奏與強(qiáng)度能夠適應(yīng)人工智能創(chuàng)新在容錯、試錯方面的要求,確保人工智能創(chuàng)新合規(guī)合法。二是堅持全周期與動態(tài)性。發(fā)揮技術(shù)和制度的治理優(yōu)勢,建立全生命周期動態(tài)治理機(jī)制,通過事前環(huán)節(jié)對高風(fēng)險應(yīng)用建立準(zhǔn)入評估機(jī)制,事中環(huán)節(jié)試行監(jiān)管沙盒以及事后環(huán)節(jié)探索分級處罰機(jī)制,既要避免“一刀切”式監(jiān)管,也要防止技術(shù)無序發(fā)展。三是實(shí)現(xiàn)分級分類與精準(zhǔn)化。針對不同應(yīng)用場景與不同技術(shù),實(shí)行分級分類精準(zhǔn)治理機(jī)制,特別是對于那些與人類福祉、社會公平、意識形態(tài)安全、國家安全緊密相關(guān)的人工智能技術(shù)應(yīng)用,要從嚴(yán)監(jiān)管、加強(qiáng)審查,形成針對高風(fēng)險的“熔斷機(jī)制”與“防火墻”。
林嘉琳:人的自主性既是人類認(rèn)識技術(shù)、使用技術(shù)、發(fā)展技術(shù)的智力前提,也是駕馭人工智能技術(shù)的根本保障。人工智能治理要實(shí)現(xiàn)技術(shù)創(chuàng)新與風(fēng)險防控的平衡,就要堅持發(fā)揮人類獨(dú)特的能動性,以人之主體性對抗算法日益膨脹的“自主性”。以新聞內(nèi)容寫作與發(fā)布的流程為例,專業(yè)媒體和內(nèi)容平臺在智能傳播時代仍要堅持編輯、審核員等人類主體作為信息把關(guān)人的重要角色,有效排除不法或低質(zhì)內(nèi)容,規(guī)避伴隨自動化生成與個性化推送帶來的風(fēng)險;作為內(nèi)容消費(fèi)者的受眾需要建立基于對人工智能充分認(rèn)知的批判性思維,提升應(yīng)對智能社會的辨別能力、信息整合能力與情緒管理能力,以應(yīng)對智能算法帶來的負(fù)面效果。
無論人工智能技術(shù)如何發(fā)展,我們都應(yīng)該從人的本質(zhì)需求出發(fā),即人對真實(shí)性、確定性、主體性的需求出發(fā),尋找技術(shù)進(jìn)步與人類需求的發(fā)展平衡點(diǎn)。在這一過程中,自主性的深層內(nèi)涵——道德自主,仍需由人類掌控,這樣才可能保證人工智能技術(shù)的開發(fā)與應(yīng)用始終服務(wù)于人類福祉。
主持人:形成推動人工智能向善的合力,是當(dāng)下人工智能治理的重要課題。這種合力的凝聚,不僅是應(yīng)對技術(shù)挑戰(zhàn)的必然選擇,更是構(gòu)建現(xiàn)代化治理體系的重要一環(huán)。多元主體應(yīng)該如何聯(lián)動配合,才能更好凝聚智能向善的社會合力?
盧麗強(qiáng):政府在人工智能治理中扮演著頂層設(shè)計者和統(tǒng)籌引導(dǎo)者的角色,從實(shí)踐維度出發(fā),政府需以制度供給與統(tǒng)籌引導(dǎo)為核心,構(gòu)建人工智能倫理治理的基礎(chǔ)框架。近年來,我國已出臺《新一代人工智能倫理規(guī)范》《生成式人工智能服務(wù)管理暫行辦法》等政策文件,明確了人工智能研發(fā)、應(yīng)用的倫理底線與合規(guī)要求。這些舉措為全社會形成人工智能向善理念奠定了堅實(shí)基礎(chǔ)。企業(yè)作為人工智能技術(shù)研發(fā)與應(yīng)用的核心主體,需將法律法規(guī)與倫理要求融入生產(chǎn)經(jīng)營全流程,落實(shí)主體責(zé)任。公眾的深度融入是人工智能向善的關(guān)鍵驅(qū)動力。在參與層面,公眾可通過政府搭建的政策征求意見平臺反饋對人工智能倫理治理的訴求,也可借助企業(yè)設(shè)立的用戶反饋渠道提出改進(jìn)建議。社會組織則可通過發(fā)布風(fēng)險提示、開展服務(wù)體驗(yàn)調(diào)查等方式,引導(dǎo)公眾參與監(jiān)督。在素養(yǎng)提升層面,我國部分中小學(xué)已將人工智能倫理知識納入信息科技課程,通過案例教學(xué)解析算法歧視、信息繭房的危害。
林嘉琳:智能向善既需要國家強(qiáng)制力保證實(shí)施的“硬法”,也需要有廣泛的利益相關(guān)者參與制定并主動落實(shí)的“軟法”。科技平臺作為技術(shù)與內(nèi)容的支配者,是維護(hù)信息多樣性、優(yōu)化信息環(huán)境的直接主體。應(yīng)當(dāng)明確企業(yè)平臺在構(gòu)建多元信息環(huán)境中的主體責(zé)任和義務(wù)范圍,從內(nèi)容發(fā)布端控制信息濃度和信息的多樣性,能夠?qū)购馊斯ぶ悄軆?nèi)容生產(chǎn)與傳播所帶來的同質(zhì)化信息環(huán)境起到正向效果。而用戶數(shù)字素養(yǎng)的培養(yǎng)和提升,是凝聚智能向善社會合力的前提。用戶只有具備包含計算思維、數(shù)據(jù)素養(yǎng)、風(fēng)險意識等多重維度在內(nèi)的數(shù)字素養(yǎng),才能更好地保障作為未來社會數(shù)字公民的權(quán)利。
李凌:從國際比較視野來看,中國的人工智能倫理治理,既不同于歐盟強(qiáng)規(guī)范、弱發(fā)展的立法模式,也不同于美國先發(fā)展、后規(guī)制的放任模式,而是逐步探索多元主體參與、邊創(chuàng)新邊規(guī)范、動態(tài)調(diào)整敏捷治理的獨(dú)特模式。這一治理模式之所以能夠構(gòu)建政府引導(dǎo)、企業(yè)自律、公眾參與的高效治理格局,很重要的原因就是統(tǒng)籌好有效市場和有為政府的關(guān)系,既發(fā)揮市場主體的主動性與能動性,激發(fā)要素活力,高效配置資源,最大限度平衡創(chuàng)新與安全,又強(qiáng)調(diào)政府的引導(dǎo)與主導(dǎo)功能,通過加強(qiáng)頂層設(shè)計、戰(zhàn)略規(guī)劃,推動形成人工智能倫理治理體系,引導(dǎo)企業(yè)、社會形成智能向善理念,實(shí)現(xiàn)政府、企業(yè)、公眾高水平高效率的協(xié)同互動,形成了人工智能創(chuàng)新發(fā)展的“中國之治”。
專家點(diǎn)評
清華大學(xué)新聞與傳播學(xué)院教授陳昌鳳:在國務(wù)院近期印發(fā)的《關(guān)于深入實(shí)施“人工智能+”行動的意見》中,我們欣喜看到,哲學(xué)社會科學(xué)得到了應(yīng)有的重視。該意見明確提出,“深入研究人工智能對人類認(rèn)知判斷、倫理規(guī)范等方面的深層次影響和作用機(jī)理,探索形成智能向善理論體系,促進(jìn)人工智能更好造福人類”。三位青年學(xué)者的討論,既是對國家頂層設(shè)計的快速響應(yīng),也是推進(jìn)“人工智能+哲學(xué)社會科學(xué)”、構(gòu)建智能向善理論體系的生動探索。
近年來,關(guān)于人工智能的理論研究逐漸與哲學(xué)、馬克思主義理論、法學(xué)、新聞與傳播、經(jīng)濟(jì)學(xué)等各個學(xué)科門類結(jié)合,并日益構(gòu)建起新的人機(jī)協(xié)同的研究范式,顯著提升了哲學(xué)社會科學(xué)的研究規(guī)模與研究質(zhì)量,形成了百花齊放的爭鳴格局。
正如智能向善需要凝聚多元主體的協(xié)同合力,人工智能理論研究也要形成多學(xué)科交叉的視野。我們不僅需要促進(jìn)哲學(xué)社會科學(xué)各門類之間的交流對話,而且要主動推動人文社科學(xué)者與科學(xué)家、工程師的對話與合作,共同參與到人工智能創(chuàng)新設(shè)計與應(yīng)用過程中,一起研發(fā)出具有人性溫度的人工智能產(chǎn)品。
我非常贊同三位學(xué)者從多重視角探尋人工智能的“從善之理”與“向善之路”。人工智能是人類創(chuàng)造出來的同人的存在與發(fā)展休戚相關(guān)的存在物,是人的主體性的彰顯與表征,因而應(yīng)該在與人的共存中維護(hù)人的主體性,而不是尋求對人的替代、控制甚至毀滅。近年來,由于人工智能技術(shù)在經(jīng)濟(jì)社會等多方面取得的巨大成功,社會上涌現(xiàn)出諸如數(shù)據(jù)主義、人工智能崇拜等思潮,傳播人工智能至上、數(shù)據(jù)為王等理念,甚至鼓吹用人工智能控制一切、取代人類的論調(diào),獲得不少關(guān)注。但這些理念或論調(diào)顛倒了人與技術(shù)、價值理性與技術(shù)理性的關(guān)系,從根本上就是錯誤的。人工智能并不擁有高于或等同于人的地位,也不可能擺脫人類在創(chuàng)造發(fā)明它們時所注入的價值理性,因而必然要服從服務(wù)于人的價值理性與目標(biāo)訴求。
推動人工智能發(fā)展應(yīng)堅持以人為本、智能向善的核心理念。在人工智能創(chuàng)新的全生命周期中都要尊重人的生命、情感、尊嚴(yán)、意志等,將促進(jìn)人的自由全面發(fā)展和增進(jìn)人類福祉作為人工智能最根本的價值追求。具體來說,可以從尊重人格尊嚴(yán)、尊重人類自主、公平、透明、保護(hù)個人信息、安全、責(zé)任和可持續(xù)發(fā)展等維度構(gòu)建以人為本、智能向善的價值原則。一是尊重人格尊嚴(yán),確保人工智能為人類服務(wù),符合人類價值觀與整體利益。二是尊重人類自主,人應(yīng)該始終作為目的而存在,而不能被人工智能技術(shù)異化為工具或手段。三是公平,人工智能的發(fā)展要致力于促進(jìn)程序公平、機(jī)會公平與結(jié)果公平。四是透明,保證人工智能系統(tǒng)具有可追溯性、可訪問性與可理解性。五是保護(hù)個人信息,特別是個體的敏感信息、隱私信息。六是安全,確保人工智能不危及人類生存安全,不侵犯個體身心健康與生命安全。七是責(zé)任,對人工智能造成的不良后果承擔(dān)法律與道德責(zé)任。八是可持續(xù)發(fā)展,協(xié)調(diào)好人、人工智能技術(shù)與自然的關(guān)系,實(shí)現(xiàn)人類、自然、社會與人工智能的協(xié)同發(fā)展,增進(jìn)人類整體福祉。
人工智能并非無情物,也非價值無涉或價值中立物。從其被發(fā)明創(chuàng)造出來開始,人工智能就應(yīng)該蘊(yùn)含人類追求真善美、拓展自由、提高效率、彰顯主體性等價值訴求,將這些價值理念融入人工智能全生命周期,這便是我們堅持以人為本、智能向善的根本緣由。
來源:《光明日報》






資訊頻道