科學(xué)技術(shù),既是人工智能(AI)理論和技術(shù)發(fā)展的源頭和基礎(chǔ),也是人工智能的使用者、被影響者。近期,國務(wù)院印發(fā)《關(guān)于深入實(shí)施“人工智能+”行動(dòng)的意見》。其中,“人工智能+”科學(xué)技術(shù),列在加快實(shí)施重點(diǎn)行動(dòng)的第一位。中國科學(xué)院院士張錦日前在本版撰文指出:AI for Science(AI應(yīng)用于科學(xué)研究領(lǐng)域)已成為當(dāng)前推動(dòng)科技創(chuàng)新“破繭成蝶”的重要支撐……不僅代表了AI應(yīng)用領(lǐng)域的前沿,更成為推動(dòng)AI自身核心能力升級(jí)、最終通往通用人工智能(AGI)的關(guān)鍵驅(qū)動(dòng)力。
“人工智能+”科學(xué)技術(shù)將給科技界帶來哪些機(jī)遇與挑戰(zhàn)?又該如何保證科技向善?本期,我們邀請(qǐng)多位專家談?wù)勊麄兊目捶ā?/p>
AI正深刻地改變科研范式,成為科學(xué)發(fā)現(xiàn)與技術(shù)突破的重要驅(qū)動(dòng)力。但不少科研人員和公眾對(duì)其產(chǎn)生了不同層面的擔(dān)憂。AI,究竟是科研的加速器,還是挑戰(zhàn)者?
正視AI 是工具不是對(duì)手
過去10年,AI技術(shù)以驚人的速度發(fā)展,并逐步滲透到人類生產(chǎn)和科學(xué)發(fā)現(xiàn)的方方面面。AI進(jìn)入科學(xué)領(lǐng)域的方式非常廣泛,已經(jīng)涌現(xiàn)出一系列具有代表性的成果和應(yīng)用。例如,在蛋白質(zhì)結(jié)構(gòu)預(yù)測領(lǐng)域,AlphaFold的出現(xiàn)幾乎解決了生物學(xué)界長達(dá)半個(gè)世紀(jì)的“結(jié)構(gòu)預(yù)測難題”,大幅度加快了藥物研發(fā)和分子生物學(xué)研究的進(jìn)展。在醫(yī)療健康領(lǐng)域,除了醫(yī)學(xué)影像自動(dòng)診斷,AI還被用于藥物靶點(diǎn)預(yù)測、臨床數(shù)據(jù)分析、個(gè)性化治療方案推薦,成為醫(yī)生和科研人員不可或缺的工具。
這些例子表明,AI不僅是科研中的“助手”,更逐漸成為推動(dòng)科學(xué)前沿的重要力量。過去可能需要十年甚至數(shù)十年才能攻克的難題,如今在AI的加持下有望在幾年甚至幾個(gè)月內(nèi)得到突破。
然而,面對(duì)突如其來的AI大模型時(shí)代,不少科研人員甚至普通大眾也產(chǎn)生了不同層面的擔(dān)憂。
研究方向是否失去意義:一些原本被認(rèn)為是可以長期研究的科學(xué)難題,可能被AI在短時(shí)間內(nèi)攻克,從而讓研究者擔(dān)心自己的研究不再“有價(jià)值”。
研究資源的不平衡:由于大模型訓(xùn)練和運(yùn)行需要巨大的算力和資金支持,很多課題組或中小機(jī)構(gòu)難以參與其中,擔(dān)心被徹底邊緣化。
傳統(tǒng)科研方法的“實(shí)效”:當(dāng)AI方法能夠輕易超越傳統(tǒng)方法時(shí),一些人擔(dān)心傳統(tǒng)科研方法不再被認(rèn)可。
生成式模型的幻覺問題:大模型在生成答案時(shí)可能會(huì)出現(xiàn)事實(shí)性錯(cuò)誤,這在科學(xué)研究中可能造成誤導(dǎo)。
社會(huì)就業(yè)的焦慮:有人擔(dān)心隨著AI接管大量工作任務(wù),可能造成科研人員和技術(shù)人員大批失業(yè)。
這些擔(dān)憂在一定程度上是合理的,但也需要全面、理性地分析。筆者認(rèn)為,總體而言,AI對(duì)科學(xué)研究具有正面、積極的意義。
AI會(huì)提升科研效率,這一點(diǎn)已經(jīng)被廣泛接受,這里不再贅述。
關(guān)于資源不平衡的問題,并非所有的研究都需要依賴大模型,小模型依舊有巨大的生命力。隨著技術(shù)的發(fā)展,輕量化模型、專用化模型不斷涌現(xiàn),很多課題組即便資金有限,也能利用小模型在具體問題上發(fā)揮作用。這可以降低科研的門檻,給更多人“下場”研究的機(jī)會(huì)。
關(guān)于科研方法的問題,傳統(tǒng)方法不應(yīng)被完全拋棄。許多AI的設(shè)計(jì)靈感正來源于傳統(tǒng)的數(shù)學(xué)與物理方法。物理啟發(fā)、數(shù)學(xué)約束等思想在深度學(xué)習(xí)模型的設(shè)計(jì)中依然具有重要價(jià)值。這同時(shí)能解決人工智能的“幻覺”問題——將傳統(tǒng)科學(xué)方法與AI模型結(jié)合,可能孕育出更加穩(wěn)健、可信的成果。
生成式語言模型的幻覺問題,不應(yīng)成為“人工智能+”科學(xué)技術(shù)的阻礙。科學(xué)發(fā)現(xiàn)始終是一個(gè)多環(huán)節(jié)、多驗(yàn)證的過程,講求嚴(yán)謹(jǐn)與可驗(yàn)證性。AI提出的結(jié)果只是一個(gè)參考,最終能否成立,還要經(jīng)過實(shí)驗(yàn)驗(yàn)證、同行評(píng)議、臨床試驗(yàn)等多重檢驗(yàn)。例如,AI可以幫助發(fā)現(xiàn)一種可能具有抗癌作用的化合物,但在進(jìn)入臨床前,仍需要大量的實(shí)驗(yàn)驗(yàn)證,最終是否使用也必須由醫(yī)生和監(jiān)管機(jī)構(gòu)綜合判斷。換句話說,AI是輔助而非決策者,只要人類把握住最終的決策權(quán),就無需過度擔(dān)心幻覺問題。
至于科學(xué)家會(huì)不會(huì)被AI取代,筆者認(rèn)為,AI替代的往往是那些耗時(shí)耗力、重復(fù)性強(qiáng)的工作,例如大規(guī)模數(shù)據(jù)的清理與統(tǒng)計(jì)、冗長文獻(xiàn)的整理與初步分析等。這些工作過去需要投入大量人力,如今AI能夠快速完成,科研人員正好解放出更多時(shí)間和精力,專注于更具創(chuàng)造性、創(chuàng)新性的工作。目前來看,AI在原創(chuàng)性和真正的科學(xué)洞見上仍存在明顯不足——因?yàn)椋茖W(xué)發(fā)現(xiàn)不僅需要數(shù)據(jù)和計(jì)算,更需要問題意識(shí)、直覺判斷、跨學(xué)科聯(lián)想和價(jià)值選擇。這些能力是AI暫時(shí)無法完全替代的。因此,我們與其擔(dān)心“失業(yè)”,不如積極思考如何轉(zhuǎn)變角色,如何與AI協(xié)同工作,把AI當(dāng)作增強(qiáng)人類智慧的工具,而不是競爭對(duì)手。
毋庸置疑,AI正在重塑科學(xué)研究生態(tài)。它既帶來了前所未有的機(jī)遇,也引發(fā)了一些合理的擔(dān)憂。但從長遠(yuǎn)看,AI的積極作用遠(yuǎn)大于潛在風(fēng)險(xiǎn)。我們要做的就是,積極擁抱,探索如何與AI共同進(jìn)步。
?探索更多AI實(shí)現(xiàn)路徑、率先布局未來技術(shù),才能讓我們在包括“人工智能+”科學(xué)技術(shù)在內(nèi)的各個(gè)領(lǐng)域搶占先機(jī)。那么,AI的未來在哪里?
發(fā)展AI 融合人腦智慧
2017年問世的Transformer架構(gòu)(編者注:一種深度學(xué)習(xí)模型),被認(rèn)為是目前人工智能大模型的技術(shù)基石。其基于簡單的神經(jīng)元和復(fù)雜的網(wǎng)絡(luò)架構(gòu),在尺度定律的驅(qū)動(dòng)下,通過增加網(wǎng)絡(luò)規(guī)模、算力資源和數(shù)據(jù)量提升模型智能水平,并取得了巨大成功。
但這就是AI的未來嗎?我們是繼續(xù)沿著Transformer架構(gòu)的道路不斷擴(kuò)充參數(shù)規(guī)模,還是回過頭來,向這個(gè)世界上最精巧的智能系統(tǒng)——人類大腦,尋求啟發(fā)?
當(dāng)前學(xué)術(shù)界對(duì)此仍存在較大爭論。支持者,如諾貝爾物理學(xué)獎(jiǎng)得主、深度學(xué)習(xí)之父杰弗里·辛頓,圖靈獎(jiǎng)得主、紐約大學(xué)教授楊立昆等著名學(xué)者堅(jiān)持神經(jīng)科學(xué)是AI發(fā)展的重要靈感來源。杰弗里·辛頓曾明確表示,克服人工智能局限的關(guān)鍵在于建立計(jì)算機(jī)、科學(xué)和生物學(xué)之間的橋梁。反對(duì)者則認(rèn)為,AI的重要成果并未受到神經(jīng)科學(xué)機(jī)制的啟發(fā),將來或許也不用。
但是,單一路線的系統(tǒng)性風(fēng)險(xiǎn)不容忽視:其在效率、可解釋性等方面的內(nèi)在局限,會(huì)沿技術(shù)棧被放大并傳導(dǎo)至所有下游應(yīng)用,如Transformer架構(gòu)在處理長序列時(shí)存在二次復(fù)雜度增長的問題,嚴(yán)重限制了其在長文本、科學(xué)計(jì)算等場景中的應(yīng)用。科學(xué)家們有責(zé)任前瞻地回答這樣的問題:單純追求規(guī)模的增長是否能持續(xù)推動(dòng)AI系統(tǒng)向更高階段發(fā)展?我們是否應(yīng)該尋求其他突破性的研究方向,來進(jìn)一步優(yōu)化現(xiàn)有系統(tǒng)?
在筆者看來,類腦計(jì)算,或許將成為未來AI的發(fā)展方向。
人腦作為已知最高效的智能系統(tǒng),以約20瓦的功耗支撐千億級(jí)神經(jīng)元和千萬億級(jí)突觸的復(fù)雜動(dòng)態(tài)網(wǎng)絡(luò),其能效遠(yuǎn)超現(xiàn)有任何AI系統(tǒng)。這種高效的信息處理機(jī)制,尤其是事件驅(qū)動(dòng)、稀疏計(jì)算、多尺度動(dòng)力學(xué)等特性,為構(gòu)建下一代低功耗、高性能AI模型提供了寶貴借鑒。神經(jīng)科學(xué),尤其是其對(duì)人腦工作機(jī)制的研究,正為AI未來發(fā)展提供一條全新的路徑。
然而,神經(jīng)科學(xué)與AI技術(shù)之間存在一個(gè)明顯的鴻溝。從當(dāng)前的研究來看,神經(jīng)科學(xué)主要側(cè)重于精細(xì)的結(jié)構(gòu)和生理細(xì)節(jié),強(qiáng)調(diào)神經(jīng)元之間的復(fù)雜連接以及大腦尺度的動(dòng)力學(xué),而AI技術(shù)則更注重抽象的結(jié)構(gòu)和計(jì)算的高效性,尤其是在大規(guī)模并行計(jì)算方面。例如,GPU(圖形處理器)在處理大規(guī)模并行計(jì)算時(shí),能夠?qū)崿F(xiàn)高效的計(jì)算能力,但卻難以高效支持當(dāng)前神經(jīng)科學(xué)所關(guān)注的精細(xì)結(jié)構(gòu)和神經(jīng)元建模。這也就造成了神經(jīng)科學(xué)和AI之間的鴻溝——當(dāng)前AI模型往往難以將神經(jīng)科學(xué)中的復(fù)雜結(jié)構(gòu)融入進(jìn)來,更遑論將其擴(kuò)展到大規(guī)模的計(jì)算模型中。
盡管關(guān)于未來AI實(shí)現(xiàn)路徑的爭議仍在,盡管存在這樣那樣的困難,但AI研究者們給出了選擇——腦科學(xué)與人工智能的結(jié)合已逐漸成為現(xiàn)實(shí),各主要發(fā)達(dá)國家都把類腦計(jì)算、神經(jīng)網(wǎng)絡(luò)等的研發(fā),列為未來重點(diǎn)發(fā)展的領(lǐng)域。
想在類腦計(jì)算領(lǐng)域占據(jù)領(lǐng)先地位,就要繼續(xù)強(qiáng)化前沿交叉研究,加強(qiáng)與神經(jīng)科學(xué)、心理學(xué)、數(shù)學(xué)、計(jì)算機(jī)科學(xué)、量子科學(xué)等學(xué)科的交叉,拓展深化人工智能基礎(chǔ)理論研究范疇,推動(dòng)下一代人工智能技術(shù)在基礎(chǔ)模型架構(gòu)、高效學(xué)習(xí)范式和復(fù)雜認(rèn)知推理等方面的突破。
可喜的是,中國在這一方向上已經(jīng)取得若干突破。以筆者所在的研究組為例,我們?nèi)涨俺晒ρ邪l(fā)了類腦大模型“瞬悉1.0”(SpikingBrain)。經(jīng)過測評(píng),其在多個(gè)核心性能上實(shí)現(xiàn)了突破。首先,它在極低數(shù)據(jù)量下實(shí)現(xiàn)了高效訓(xùn)練,顯著提升了長序列訓(xùn)練效率。其次,它的推理效率得到數(shù)量級(jí)提升,特別是在超長序列處理上展現(xiàn)出顯著優(yōu)勢。這使其在“人工智能+”場景下,如法律/醫(yī)學(xué)文檔分析、復(fù)雜多智能體模擬、腦機(jī)接口、高能粒子物理實(shí)驗(yàn)等超長序列日常應(yīng)用和科學(xué)任務(wù)建模場景等,具有顯著的潛在效率優(yōu)勢。再次,它構(gòu)建了國產(chǎn)自主可控的類腦大模型生態(tài),支持將現(xiàn)有Transformer模型高效轉(zhuǎn)換為類腦脈沖架構(gòu)。最后,它設(shè)計(jì)了多尺度稀疏機(jī)制,為低功耗的類腦大模型運(yùn)行提供了有力支撐。
沿著這個(gè)方向,我們或可找到一條融合神經(jīng)元豐富動(dòng)力學(xué)特性,具有生物合理性和計(jì)算高效性的神經(jīng)網(wǎng)絡(luò)新路徑,構(gòu)建新一代通用智能模型,從而探索腦科學(xué)與人工智能基礎(chǔ)模型架構(gòu)之間的橋梁。
AI不僅是“科研工具的革命”,更是“科研革命的工具”。那么,如何保證這把雙刃劍始終向善?
使用AI 基于原則而非利益
人工智能帶給我們的變革是全領(lǐng)域、全方位的,這個(gè)時(shí)代的人們,正在見證一場新的產(chǎn)業(yè)革命。我們面臨的問題之一,是如何讓這個(gè)被制造出來的未來既是友好的,也是體面的,這需要我們設(shè)定一些規(guī)則的“護(hù)城河”。因此,要加強(qiáng)對(duì)人工智能倫理的前瞻性研究——雖然不能一勞永逸地保證永遠(yuǎn)正確,但至少可以為人工智能的有序發(fā)展提供一些可控的防御機(jī)制。那么,具體到科技領(lǐng)域,該做些什么準(zhǔn)備呢?
我們需要清醒地意識(shí)到,隨著科技的發(fā)展與技術(shù)迭代的加速,人工智能會(huì)展現(xiàn)出更多的機(jī)會(huì)與不確定性。在剛剛結(jié)束的2025世界人工智能大會(huì)上,諾貝爾物理學(xué)獎(jiǎng)得主杰弗里·辛頓直言,AI已無法消除,人類所能做的只是:培養(yǎng)不會(huì)從人類手中奪權(quán)的“好AI”。
在AI“軍備競賽”早已展開的當(dāng)下,作為深度學(xué)習(xí)領(lǐng)域資深專家的辛頓對(duì)于人工智能略帶悲觀的論點(diǎn),絕非危言聳聽。這里,我們要談到一個(gè)現(xiàn)象——技術(shù)脫域。所謂“技術(shù)脫域”現(xiàn)象,是指技術(shù)脫離人類的控制。這一點(diǎn)在AI上表現(xiàn)得極為明顯,GPT-4、AlphaGo等技術(shù)軟件是一個(gè)又一個(gè)黑盒子,輸出的信息與做出的決定,就是基于各種不透明而又極其復(fù)雜的微小信號(hào)鏈。
面對(duì)新技術(shù)革命的到來,單純的悲觀與樂觀都于事無補(bǔ),為人類共同的未來考慮,必須未雨綢繆設(shè)計(jì)一些規(guī)范來引領(lǐng)人工智能的發(fā)展。這其中,充滿困難與挑戰(zhàn)。
比如,倫理規(guī)則的滯后性。倫理規(guī)則制定的理想狀態(tài)是先于技術(shù)迭代,但遺憾的是,人類社會(huì)中規(guī)則的變化總是慢于科技的變化。這就不可避免地會(huì)出現(xiàn)“倫理代差”,尤其是針對(duì)以AI為代表的高科技,這種滯后性愈發(fā)凸顯。因此,將不可避免地在某些領(lǐng)域出現(xiàn)“倫理失靈”與“倫理真空”現(xiàn)象,對(duì)于全局性的技術(shù)而言,這種可能性大大增加。而其一旦發(fā)生,或許將付出整個(gè)社會(huì)難以承受的代價(jià)。
比如,難以達(dá)成共識(shí)。倫理規(guī)則的制定需要共識(shí)基礎(chǔ)。但在AI倫理的制定中,一個(gè)非常困難的點(diǎn)在于,由于每個(gè)人/群體都要受到特定歷史、認(rèn)知、偏好與價(jià)值觀等因素的影響,要在規(guī)則內(nèi)容上達(dá)成共識(shí)非常困難。人與人之間的價(jià)值對(duì)齊尚且如此困難,目前的研究顯示,人—機(jī)、機(jī)—機(jī)之間的價(jià)值對(duì)齊就更加困難。瑞士社會(huì)學(xué)家海爾格·諾沃特尼曾提到,蘇黎世聯(lián)邦理工學(xué)院的研究團(tuán)隊(duì)分析了84份來自世界各地的企業(yè)、專家團(tuán)體、政府、國際組織關(guān)于AI發(fā)布的倫理文件,約半數(shù)來自私營部門,另外半數(shù)來自公共機(jī)構(gòu)。研究人員驚訝地發(fā)現(xiàn),竟然沒有一條倫理原則是每份文件都提過的。這個(gè)結(jié)論足以反映,當(dāng)下社會(huì)各界在人工智能科技倫理方面,還只能達(dá)成一些有限共識(shí)。
盡管有這樣那樣的問題,但倫理規(guī)則設(shè)計(jì)與“人工智能+”同行甚至先行,是我們的目標(biāo),是AI健康發(fā)展的必要生態(tài)。
筆者認(rèn)為,人工智能的倫理規(guī)則,一個(gè)最基本的出發(fā)點(diǎn)就是:它應(yīng)是基于原則而非基于利益的。
宏觀上,相關(guān)管理部門、科技界應(yīng)該肩負(fù)起更大責(zé)任,不能將AI倫理規(guī)則的制定完全讓位于企業(yè)。筆者發(fā)現(xiàn),目前很多AI倫理規(guī)則都是AI頭部企業(yè)率先推出的。而企業(yè)本能地會(huì)基于其自身利益制定規(guī)則,因而可能存在巨大倫理隱患。如一些人工智能產(chǎn)品的算法黏性問題。美國麻省理工學(xué)院最新研究表明,長時(shí)間用ChatGPT寫作,會(huì)讓大腦“變傻”。而從長遠(yuǎn)看,一項(xiàng)能讓人樂此不疲自愿變傻的技術(shù)顯然是不道德的。但,主要責(zé)任歸誰呢?更有甚者,研發(fā)者在算法中植入偏見,被指數(shù)級(jí)擴(kuò)散后,將可能制造社會(huì)的分裂。
針對(duì)這種倫理的脆弱性,最直接的解決辦法就是公開算法。為避免個(gè)人認(rèn)知的局限性,甚至可以采用算法民主化——只有大多數(shù)人都同意的規(guī)則,才更有普遍性,才能最大限度地遏制倫理風(fēng)險(xiǎn)的發(fā)生。
具體而言,AI倫理的制定可圍繞以下四個(gè)問題切入:公正問題、責(zé)任問題、隱私問題與安全問題。圍繞這四個(gè)問題,我們可以組織力量牽頭制定出一套可以被世界廣泛接受并具有普遍性的長效倫理規(guī)則。
可以說,在未來AI的發(fā)展中,倫理規(guī)則競爭的影響力將更長久。因?yàn)橐?guī)則的話語主導(dǎo)權(quán)一旦形成,很難轉(zhuǎn)移。從這個(gè)意義上說,借助于“人工智能+”的東風(fēng),構(gòu)建基于原則而非利益的AI倫理規(guī)則,恰逢其時(shí)。
來源:《光明日?qǐng)?bào)》






資訊頻道