2025年8月,國務院印發(fā)《關于深入實施“人工智能+”行動的意見》提出,“加快形成人機協(xié)同、跨界融合、共創(chuàng)分享的智能經(jīng)濟和智能社會新形態(tài)”。9月,《上海合作組織成員國元首理事會天津宣言》呼吁,“將堅持以人為本、智能向善理念,共同防范人工智能技術的風險”。人工智能技術的快速發(fā)展,深度介入乃至重新塑造著人類社會運行邏輯,既帶來了巨大的經(jīng)濟、民生和治理紅利,也隱匿著價值失準、倫理失衡等風險挑戰(zhàn)。在此背景下,如何實現(xiàn)科技與人文相互融合,以科學的價值準則、有效的治理思路推動人工智能向善而行、造福人類,為社會所普遍關注。本版特邀相關領域?qū)W者,圍繞上述話題開展討論。
1.人工智能技術發(fā)展給人類社會帶來多維影響
主持人:數(shù)智時代,人工智能深度融入人類學習、生活、工作場景,成為塑造人類生產(chǎn)生活范式的關鍵力量,深刻改變著世界。同時,它也猶如一把“雙刃劍”,既帶來巨大機遇,也引發(fā)諸多挑戰(zhàn)。請談談當前人工智能的創(chuàng)新發(fā)展帶來了哪些紅利,又可能遭遇哪些風險?
李凌:當前,全球智能化浪潮風起云涌,我國人工智能技術和應用加速突破,帶來巨大發(fā)展紅利。例如,顯著提升勞動生產(chǎn)效率,帶來現(xiàn)實的經(jīng)濟紅利。人工智能推動技術更新迭代、產(chǎn)業(yè)結(jié)構(gòu)升級、新舊動能轉(zhuǎn)換,在改造與替代傳統(tǒng)產(chǎn)業(yè)時盡管會帶來舊崗位的縮減與消失,但同時會催生新業(yè)態(tài)、新就業(yè),通過構(gòu)造更加高端、智能的產(chǎn)業(yè)鏈和價值鏈,大幅提升社會總福利。再如,推動公共服務均等化、個性化與精準化,進一步拓展民生紅利。人工智能與教育、醫(yī)療、養(yǎng)老、文旅等民生行業(yè)的深度融合,有助于促進這些民生服務的個性化、普惠化與智能化,實現(xiàn)優(yōu)質(zhì)公共服務觸手可及、人人共享,從而提升人民群眾的生活品質(zhì)與幸福指數(shù)。還如,提升公共決策的科學性、前瞻性與有效性,形成公共治理紅利。人工智能具有強大的感知、挖掘、分析、預測與協(xié)同能力,能夠模擬政策制定、情景推演、風險預警、決策輔助等治理行動,為公共安全保障、公共政策出臺、基層網(wǎng)格化管理、人民城市建設等提供堅實保障。“人工智能+”行動的深入實施,開啟了我國人工智能與千行百業(yè)深度融合、普遍應用的新階段,人工智能躍升為經(jīng)濟社會發(fā)展的基礎設施,其應用前景大有可為。
林嘉琳:人工智能技術的迅速發(fā)展,在短短數(shù)年間使得人類社會的生產(chǎn)與消費模式發(fā)生重大變革。在傳媒領域,智能算法的深度開發(fā)和大數(shù)據(jù)的廣泛應用,改變了信息生產(chǎn)、傳播、消費的模式,自動化機器寫作加快了在線數(shù)據(jù)收集、分析與整合的速度,全VR場景與仿真人工智能數(shù)字人技術的逐漸成熟指向更加逼真的內(nèi)容呈現(xiàn),個性化分發(fā)促使平臺能夠更加精準地聚焦用戶“興趣”。不論是傳媒行業(yè)的從業(yè)者還是普羅大眾,每個人都能明顯感知到人工智能技術發(fā)展正在帶領我們走向一個更加高效、多彩的未來。
與此同時,人工智能本身存在的問題及其對人的影響也投射到現(xiàn)實生產(chǎn)與生活之中。智能算法極大影響著人們的信息行為與內(nèi)容體驗,甚至操控了日常生活,帶來諸多算法倫理問題。對于普通用戶而言,最先感知到的人工智能倫理風險包括信息繭房、算法偏向、算法歧視等。很多研究都表明,用戶越來越明顯地感知到智能算法正在獲取自己的喜好、興趣,并依據(jù)這些數(shù)據(jù)“算計”自己。近年來,伴隨人工智能技術越來越深入人們的生活,圍繞算法黑箱、數(shù)字鴻溝等產(chǎn)生的更深層次問題的探討也越來越多,技術在與用戶、平臺、社會的多重交互之下,可能將人類推向“算法暴政”“算法霸權(quán)”之下的生存困境。
李凌:概括來說,根據(jù)人工智能應用場景的差別,可以將人工智能引發(fā)的倫理風險劃分為三大領域:一是在智能經(jīng)濟領域,既要警惕人工智能推動產(chǎn)業(yè)升級、“機器換人”帶來的結(jié)構(gòu)性失業(yè)風險和貧富差距拉大風險等,還要防范數(shù)據(jù)泄漏或數(shù)據(jù)濫用帶來的大數(shù)據(jù)殺熟、金融欺詐、惡意攻擊等風險。二是在智能生活領域,隨著生成式人工智能大規(guī)模應用,深度偽造、虛假信息、數(shù)據(jù)失實、大模型幻覺等問題愈發(fā)凸顯,極大地沖擊社會誠信體系,嚴重影響人們正常的交往、學習與生活;除此之外,還要防范信息繭房導致的群體極化、算法偏見導致的社會歧視以及隱私泄漏帶來的網(wǎng)絡暴力等風險。三是在智能治理領域,重點要防范治理“技術黑箱”帶來的技術失控風險、網(wǎng)絡馬太效應導致的數(shù)字鴻溝風險、境外滲透帶來的意識形態(tài)風險等。
盧麗強:人工智能發(fā)展紅利和倫理風險的背后,是一場深刻的生產(chǎn)方式變革。在歷史唯物主義視域下,可以從社會協(xié)作、總體工人、一般智力等生產(chǎn)邏輯把握人工智能發(fā)展帶來的紅利與風險。人工智能所表現(xiàn)出的無人化、智能化特征,是人工智能技術鏈條全環(huán)節(jié)社會化生產(chǎn)的結(jié)果,更是科技力量在社會協(xié)作過程中的抽象化體現(xiàn)。在人工智能技術發(fā)展的背后,有的人專門負責數(shù)據(jù)采集、標注,有的人負責算法設計、模型訓練,有的人負責算力供給等。可見,所謂無人化背后,有著人工智能行業(yè)的大量從業(yè)者,是社會協(xié)作形成的總體工人。
這一生產(chǎn)方式的變革,意味著原來建立在傳統(tǒng)工業(yè)生產(chǎn)方式基礎上的倫理規(guī)范、價值主張都面臨著新的生產(chǎn)方式挑戰(zhàn)。正如“手推磨產(chǎn)生的是封建主的社會,蒸汽磨產(chǎn)生的是工業(yè)資本家的社會”,人工智能技術的出現(xiàn)和發(fā)展帶來的數(shù)智化生產(chǎn)方式變革,也意味著智能社會的到來。在此基礎上,新型人機關系、數(shù)據(jù)所有權(quán)、算法解釋權(quán)等新型關系的出現(xiàn),意味著在此生產(chǎn)方式基礎上人與人的關系要被重塑,進而也就要有新倫理的建構(gòu)。在此過程中,形形色色的新發(fā)展機遇和倫理風險也就被歷史地“生產(chǎn)”出來。如此,不論是人工智能發(fā)展紅利,還是新的倫理風險,都需要深入其現(xiàn)實實踐生產(chǎn)的關系中去把握。
2.在對人機關系的科學把握中明確“從善之理”
主持人:科學技術在本質(zhì)上是由人創(chuàng)造且為人服務的,推動科技創(chuàng)新發(fā)展,既要從技術理性、工具理性維度考量,也要從價值理性、人文理性維度分析。發(fā)展人工智能應該如何平衡技術理性與價值理性的關系,遵照哪些價值原則?
李凌:對這一問題作出回答,首先需要科學把握人與人工智能技術之間的關系。盡管人工智能技術特別是智能體表現(xiàn)出越來越強的自主性與主體性,甚至有些國家賦予智能體或機器人法律主體資格,但人工智能技術及其形成的實體仍然不是獨立的主體存在,而只是人作為主體在實踐過程中將本質(zhì)力量對象化而形成的人工創(chuàng)制物。人工智能只是人類意識和實踐延伸的技術產(chǎn)物,自身并不具備自主價值訴求或主動目標導向,這決定了人工智能的工具性特征。換言之,人與人工智能技術的關系,仍然是主體與對象化工具之間的關系,而非對等的主體之間的關系。
因此,人工智能的“從善之理”,并不是像人作為主體那樣去追求善,而是在認識與實踐活動中,人類將善的理念與價值融入人工智能技術的開發(fā)、創(chuàng)新與應用過程中,使之符合人類對真善美的追求。人類借助人工智能開展的倫理實踐活動,實質(zhì)上是主體向善行動的拓展,是人自由而全面發(fā)展的現(xiàn)實表現(xiàn)。在此過程中,人類作為主體的道德性、卓越性與權(quán)威性得以確證,并實現(xiàn)了主體性的回歸與彰顯。由此可見,人工智能之所以要向善發(fā)展,其根源與基礎仍在于人類自身要追求善、追求福祉,而作為人類本質(zhì)力量確證與表現(xiàn)的人工智能技術,只是實現(xiàn)這一價值目標的工具手段。
盧麗強:事實上,對智能向善的把握,根本價值根基在于以人的全面發(fā)展為原點,并錨定全人類共同價值。對此,可以從科技邏輯和應用邏輯兩個維度來分析。
一方面,在科技邏輯上,智能向善需要從人工智能科技創(chuàng)新的各個環(huán)節(jié)入手,推進價值對齊。人們在進行人工智能研發(fā)的每一個環(huán)節(jié)都隱含價值傾向,應確保技術設計本身就嵌入善的準則。例如,利用高質(zhì)量標注的數(shù)據(jù)訓練大模型,避免數(shù)據(jù)投毒、數(shù)據(jù)污染,讓大模型學習人類主流價值觀和倫理規(guī)范。在這個維度,人工智能的“從善之理”就是創(chuàng)新發(fā)展普惠、公平、人本的人工智能技術。
另一方面,在應用邏輯上,智能向善需要在把握人工智能各種應用規(guī)律基礎上,進行合乎倫理規(guī)范和主流價值觀的應用。人工智能的應用場景直接關聯(lián)個體權(quán)益與社會秩序,要讓人工智能的發(fā)展合乎普惠公平、人類福祉等價值目標,讓人工智能的各種應用符合善的價值標準,將以人為本、智能向善的理念貫穿應用全流程。
林嘉琳:正如盧老師所說,智能向善的關鍵在于價值對齊。那么,向什么樣的價值對齊、如何實現(xiàn)對齊,以及這一過程中人工智能道德模型的自我糾偏,是當下我們需要面對的問題。從國家新一代人工智能治理專業(yè)委員會2019年出臺《新一代人工智能治理原則——發(fā)展負責任的人工智能》提出人工智能治理的框架和行動指南、2021年發(fā)布《新一代人工智能倫理規(guī)范》提出將倫理道德融入人工智能全生命周期,到2024世界人工智能大會暨人工智能全球治理高級別會議發(fā)表《人工智能全球治理上海宣言》提出“共同推動人工智能技術突破與向善發(fā)展”,再到全國人大常委會2025年度立法工作計劃提出推進人工智能健康發(fā)展立法工作,從理論到實踐,我們對于人機關系的期待以及關于人工智能價值的共識正在變得越來越清晰。
智能向善在理念上突出表現(xiàn)為尊重人類尊嚴和主體性。一是確保以人的價值引領人工智能創(chuàng)新,即以人的倫理價值為標準和目標,推動人工智能的行為表現(xiàn)與人類價值觀、道德規(guī)范、社會期望對齊,通過價值敏感設計等方法,將倫理價值植入智能算法。二是始終確保人類的“在場”。盡管人工智能事實上在推動自動化與無人化,但缺乏人類“在場”的人工智能,既無法向善也難以為繼。只有將人工智能的理性能力與人的多元智能結(jié)合起來,才能最大限度發(fā)揮人工智能的作用,實現(xiàn)智能向善的目標。三是充分發(fā)揮人的主體性與自主性,構(gòu)建“機優(yōu)人更優(yōu)”的人機協(xié)同新模式。人工智能性能越高端,對人提出的綜合素養(yǎng)與能力要求也就越高。人類只有充分發(fā)揮自身的能動性,才能更好地駕馭人工智能系統(tǒng),借助人工智能促進自身自由全面發(fā)展。
3.在平衡創(chuàng)新發(fā)展與風險防控中探索“向善之路”
主持人:“科林格里奇困境”是技術治理領域的核心概念,揭示了技術發(fā)展過程中“認知滯后”與“控制滯后”間的矛盾,即人們往往難以在技術影響顯現(xiàn)前充分理解其風險,而當風險明確時,技術已深度嵌入社會,控制成本極高甚至不可行。在人工智能治理中,這一“困境”極為顯著,應如何破解?
盧麗強:推動人工智能創(chuàng)新發(fā)展,既要防止因過早規(guī)制而抑制創(chuàng)新活力,也要避免因監(jiān)管缺位導致放任風險。破解“科林格里奇困境”,核心在于跳出“規(guī)制與創(chuàng)新非此即彼”的二元思維,探索“以技術創(chuàng)新反哺治理創(chuàng)新”的協(xié)同路徑。當前人工智能技術自身的發(fā)展成果,如可解釋人工智能、實時風險監(jiān)控算法、數(shù)據(jù)安全技術等,為這種協(xié)同治理模式提供了技術支撐,這意味著我們完全有可能借助技術工具精準識別風險、靈活適配創(chuàng)新節(jié)奏,讓治理與技術發(fā)展同頻共振。
具體而言,實現(xiàn)全生命周期動態(tài)治理需要緊扣技術特性分環(huán)節(jié)落地:事前環(huán)節(jié),依托算法公平性檢測、數(shù)據(jù)合規(guī)審查等技術工具,建立高風險應用準入機制,提前篩查數(shù)據(jù)偏見與算法漏洞,同時為娛樂類生成式人工智能等低風險技術保留迭代空間;事中環(huán)節(jié),結(jié)合監(jiān)管沙盒與實時監(jiān)測技術,通過邊緣計算識別推薦算法信息繭房傾向,依托聯(lián)邦學習監(jiān)測跨境人工智能安全隱患,實現(xiàn)“邊試錯邊優(yōu)化”;事后環(huán)節(jié),借助區(qū)塊鏈明確責任邊界,針對數(shù)據(jù)泄露、算法歧視等風險建立分級處罰機制,既確保追責有據(jù),又避免過度懲戒抑制創(chuàng)新。當然,技術工具并非萬能鑰匙,它必須與健全的法律法規(guī)、廣泛的倫理共識以及多元的社會參與相結(jié)合,才能共同構(gòu)建起堅實的人工智能治理框架。
李凌:人工智能的“向善之路”并非一片坦途,而是充滿各種未知和不確定因素,重中之重是把握好時機與節(jié)奏,在創(chuàng)新與安全之間尋求平衡。要實現(xiàn)這一“平衡”,需要在這幾方面著力:一是增強敏捷性和靈活性。針對新興技術創(chuàng)新,不要急于出臺剛性法規(guī),而是采取公共政策、行業(yè)標準、倫理審查、風險預警等手段,使得治理節(jié)奏與強度能夠適應人工智能創(chuàng)新在容錯、試錯方面的要求,確保人工智能創(chuàng)新合規(guī)合法。二是堅持全周期與動態(tài)性。發(fā)揮技術和制度的治理優(yōu)勢,建立全生命周期動態(tài)治理機制,通過事前環(huán)節(jié)對高風險應用建立準入評估機制,事中環(huán)節(jié)試行監(jiān)管沙盒以及事后環(huán)節(jié)探索分級處罰機制,既要避免“一刀切”式監(jiān)管,也要防止技術無序發(fā)展。三是實現(xiàn)分級分類與精準化。針對不同應用場景與不同技術,實行分級分類精準治理機制,特別是對于那些與人類福祉、社會公平、意識形態(tài)安全、國家安全緊密相關的人工智能技術應用,要從嚴監(jiān)管、加強審查,形成針對高風險的“熔斷機制”與“防火墻”。
林嘉琳:人的自主性既是人類認識技術、使用技術、發(fā)展技術的智力前提,也是駕馭人工智能技術的根本保障。人工智能治理要實現(xiàn)技術創(chuàng)新與風險防控的平衡,就要堅持發(fā)揮人類獨特的能動性,以人之主體性對抗算法日益膨脹的“自主性”。以新聞內(nèi)容寫作與發(fā)布的流程為例,專業(yè)媒體和內(nèi)容平臺在智能傳播時代仍要堅持編輯、審核員等人類主體作為信息把關人的重要角色,有效排除不法或低質(zhì)內(nèi)容,規(guī)避伴隨自動化生成與個性化推送帶來的風險;作為內(nèi)容消費者的受眾需要建立基于對人工智能充分認知的批判性思維,提升應對智能社會的辨別能力、信息整合能力與情緒管理能力,以應對智能算法帶來的負面效果。
無論人工智能技術如何發(fā)展,我們都應該從人的本質(zhì)需求出發(fā),即人對真實性、確定性、主體性的需求出發(fā),尋找技術進步與人類需求的發(fā)展平衡點。在這一過程中,自主性的深層內(nèi)涵——道德自主,仍需由人類掌控,這樣才可能保證人工智能技術的開發(fā)與應用始終服務于人類福祉。
主持人:形成推動人工智能向善的合力,是當下人工智能治理的重要課題。這種合力的凝聚,不僅是應對技術挑戰(zhàn)的必然選擇,更是構(gòu)建現(xiàn)代化治理體系的重要一環(huán)。多元主體應該如何聯(lián)動配合,才能更好凝聚智能向善的社會合力?
盧麗強:政府在人工智能治理中扮演著頂層設計者和統(tǒng)籌引導者的角色,從實踐維度出發(fā),政府需以制度供給與統(tǒng)籌引導為核心,構(gòu)建人工智能倫理治理的基礎框架。近年來,我國已出臺《新一代人工智能倫理規(guī)范》《生成式人工智能服務管理暫行辦法》等政策文件,明確了人工智能研發(fā)、應用的倫理底線與合規(guī)要求。這些舉措為全社會形成人工智能向善理念奠定了堅實基礎。企業(yè)作為人工智能技術研發(fā)與應用的核心主體,需將法律法規(guī)與倫理要求融入生產(chǎn)經(jīng)營全流程,落實主體責任。公眾的深度融入是人工智能向善的關鍵驅(qū)動力。在參與層面,公眾可通過政府搭建的政策征求意見平臺反饋對人工智能倫理治理的訴求,也可借助企業(yè)設立的用戶反饋渠道提出改進建議。社會組織則可通過發(fā)布風險提示、開展服務體驗調(diào)查等方式,引導公眾參與監(jiān)督。在素養(yǎng)提升層面,我國部分中小學已將人工智能倫理知識納入信息科技課程,通過案例教學解析算法歧視、信息繭房的危害。
林嘉琳:智能向善既需要國家強制力保證實施的“硬法”,也需要有廣泛的利益相關者參與制定并主動落實的“軟法”。科技平臺作為技術與內(nèi)容的支配者,是維護信息多樣性、優(yōu)化信息環(huán)境的直接主體。應當明確企業(yè)平臺在構(gòu)建多元信息環(huán)境中的主體責任和義務范圍,從內(nèi)容發(fā)布端控制信息濃度和信息的多樣性,能夠?qū)购馊斯ぶ悄軆?nèi)容生產(chǎn)與傳播所帶來的同質(zhì)化信息環(huán)境起到正向效果。而用戶數(shù)字素養(yǎng)的培養(yǎng)和提升,是凝聚智能向善社會合力的前提。用戶只有具備包含計算思維、數(shù)據(jù)素養(yǎng)、風險意識等多重維度在內(nèi)的數(shù)字素養(yǎng),才能更好地保障作為未來社會數(shù)字公民的權(quán)利。
李凌:從國際比較視野來看,中國的人工智能倫理治理,既不同于歐盟強規(guī)范、弱發(fā)展的立法模式,也不同于美國先發(fā)展、后規(guī)制的放任模式,而是逐步探索多元主體參與、邊創(chuàng)新邊規(guī)范、動態(tài)調(diào)整敏捷治理的獨特模式。這一治理模式之所以能夠構(gòu)建政府引導、企業(yè)自律、公眾參與的高效治理格局,很重要的原因就是統(tǒng)籌好有效市場和有為政府的關系,既發(fā)揮市場主體的主動性與能動性,激發(fā)要素活力,高效配置資源,最大限度平衡創(chuàng)新與安全,又強調(diào)政府的引導與主導功能,通過加強頂層設計、戰(zhàn)略規(guī)劃,推動形成人工智能倫理治理體系,引導企業(yè)、社會形成智能向善理念,實現(xiàn)政府、企業(yè)、公眾高水平高效率的協(xié)同互動,形成了人工智能創(chuàng)新發(fā)展的“中國之治”。
專家點評
清華大學新聞與傳播學院教授陳昌鳳:在國務院近期印發(fā)的《關于深入實施“人工智能+”行動的意見》中,我們欣喜看到,哲學社會科學得到了應有的重視。該意見明確提出,“深入研究人工智能對人類認知判斷、倫理規(guī)范等方面的深層次影響和作用機理,探索形成智能向善理論體系,促進人工智能更好造福人類”。三位青年學者的討論,既是對國家頂層設計的快速響應,也是推進“人工智能+哲學社會科學”、構(gòu)建智能向善理論體系的生動探索。
近年來,關于人工智能的理論研究逐漸與哲學、馬克思主義理論、法學、新聞與傳播、經(jīng)濟學等各個學科門類結(jié)合,并日益構(gòu)建起新的人機協(xié)同的研究范式,顯著提升了哲學社會科學的研究規(guī)模與研究質(zhì)量,形成了百花齊放的爭鳴格局。
正如智能向善需要凝聚多元主體的協(xié)同合力,人工智能理論研究也要形成多學科交叉的視野。我們不僅需要促進哲學社會科學各門類之間的交流對話,而且要主動推動人文社科學者與科學家、工程師的對話與合作,共同參與到人工智能創(chuàng)新設計與應用過程中,一起研發(fā)出具有人性溫度的人工智能產(chǎn)品。
我非常贊同三位學者從多重視角探尋人工智能的“從善之理”與“向善之路”。人工智能是人類創(chuàng)造出來的同人的存在與發(fā)展休戚相關的存在物,是人的主體性的彰顯與表征,因而應該在與人的共存中維護人的主體性,而不是尋求對人的替代、控制甚至毀滅。近年來,由于人工智能技術在經(jīng)濟社會等多方面取得的巨大成功,社會上涌現(xiàn)出諸如數(shù)據(jù)主義、人工智能崇拜等思潮,傳播人工智能至上、數(shù)據(jù)為王等理念,甚至鼓吹用人工智能控制一切、取代人類的論調(diào),獲得不少關注。但這些理念或論調(diào)顛倒了人與技術、價值理性與技術理性的關系,從根本上就是錯誤的。人工智能并不擁有高于或等同于人的地位,也不可能擺脫人類在創(chuàng)造發(fā)明它們時所注入的價值理性,因而必然要服從服務于人的價值理性與目標訴求。
推動人工智能發(fā)展應堅持以人為本、智能向善的核心理念。在人工智能創(chuàng)新的全生命周期中都要尊重人的生命、情感、尊嚴、意志等,將促進人的自由全面發(fā)展和增進人類福祉作為人工智能最根本的價值追求。具體來說,可以從尊重人格尊嚴、尊重人類自主、公平、透明、保護個人信息、安全、責任和可持續(xù)發(fā)展等維度構(gòu)建以人為本、智能向善的價值原則。一是尊重人格尊嚴,確保人工智能為人類服務,符合人類價值觀與整體利益。二是尊重人類自主,人應該始終作為目的而存在,而不能被人工智能技術異化為工具或手段。三是公平,人工智能的發(fā)展要致力于促進程序公平、機會公平與結(jié)果公平。四是透明,保證人工智能系統(tǒng)具有可追溯性、可訪問性與可理解性。五是保護個人信息,特別是個體的敏感信息、隱私信息。六是安全,確保人工智能不危及人類生存安全,不侵犯個體身心健康與生命安全。七是責任,對人工智能造成的不良后果承擔法律與道德責任。八是可持續(xù)發(fā)展,協(xié)調(diào)好人、人工智能技術與自然的關系,實現(xiàn)人類、自然、社會與人工智能的協(xié)同發(fā)展,增進人類整體福祉。
人工智能并非無情物,也非價值無涉或價值中立物。從其被發(fā)明創(chuàng)造出來開始,人工智能就應該蘊含人類追求真善美、拓展自由、提高效率、彰顯主體性等價值訴求,將這些價值理念融入人工智能全生命周期,這便是我們堅持以人為本、智能向善的根本緣由。
來源:《光明日報》






資訊頻道