【摘要】生成式人工智能大模型的發(fā)展表明,新一代人工智能通達通用人工智能的目標正在接近。而通用人工智能要實現(xiàn)通用性、人性化和廣泛應用,具有人類文化特征的屬性是其必備的要件。將意識、情感、倫理等高級認知因素嵌入人工智能系統(tǒng),也就是建構具有人性的文化人工智能,無疑是一種可能出路。如何讓人工智能成為文化人工智能這種具身人工智能是一個重大挑戰(zhàn)。從哲學方法論審視,建構文化人工智能的可能路徑包括,智能體的范疇論與語境論的整合,感性與理性的整合,通過機制進行功能建模,通過結(jié)構功能實現(xiàn)適應性表征,以及通過語境覺知應對意外情況,最終通過嚴格的“圖靈測試”。如果這些都做到了,就有望在人工智能系統(tǒng)中嵌入人類特有的文化特征,使其成為具有人性的文化人工智能。
【關鍵詞】大語言模型 通用人工智能 具身人工智能 文化人工智能 適應性表征
【中圖分類號】B15/TP18 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2024.14.004
【作者簡介】魏屹東,山西大學哲學學院教授,博導,教育部人文社會科學重點研究基地山西大學科學技術哲學研究中心學科帶頭人。研究方向為科學史與科學哲學、認知哲學和人工智能哲學。主要著作有《科學表征:從結(jié)構解析到語境建構》《科學認知:從心性感知到適應性表征》《認知哲學手冊》《認知科學哲學問題研究》《廣義語境中的科學》《愛西斯與科學史》等。
如果說生成式人工智能(Generative Artificial Intelligence, GAI)大模型是走向通用人工智能(Artificial General Intelligence, AGI)的第一步,那么文化人工智能(Cultural Artificial Intelligence, CAI)則是通用人工智能的最終目標。這意味著,人工智能更智能、更人性的策略應該是讓其具有人類特有的文化特征,[1]諸如道德、情感、責任和語境理解力等。如果能夠?qū)⑦@些人類特有的文化特征嵌入機器系統(tǒng),那么通用智能的實現(xiàn)就不僅僅停留于設想或理念上了。問題是如何嵌入呢?本文試圖闡明,在方法論上將范疇論與語境論相整合,將感性與理性相整合,通過機制進行功能建模,通過結(jié)構功能實現(xiàn)適應性表征,以及運用語境覺知應對意外事件,且在功能上完全通過“圖靈測試”,就有望在人工智能系統(tǒng)中嵌入文化特征,使其成為具有類人智能和人性的具身人工智能(Embodied Artificial Intelligence, EAI)。
路徑一:智能體的范疇論與語境論整合
范疇是人工智能解決自然語言處理和理解問題的一個核心概念。范疇是有語境的,哲學范疇論和語言范疇論天然地與語境論契合,下文談及的語境覺知(也稱態(tài)勢感知)就是范疇論的具體應用。事實上,由于范疇與概念分類相關,語境與意義相關,范疇與語境這兩個概念及其理論——范疇論與語境論——都深深地打上了人類文化的烙印??梢哉f,在人的世界里,任何可言說(如自然類)和不可言說(物自體)的東西,都可以范疇化和語境化。區(qū)別在于,可言說的東西是可觀察和檢驗的,不可言說的東西則不能,所以后者往往只存在于概念或理念中,如金山等。在表征的意義上,這些表達往往存在無實際指稱對象的問題,因而會引起爭論,如夸克等。在數(shù)學中,范疇論將統(tǒng)計的人工智能與符號的人工智能[2](基于符號邏輯的演繹方法)的結(jié)構性范疇論整合,即將歸納型人工智能與演繹型人工智能的范疇整合。[3]可以說,范疇整合的人工智能有助于解決目前人工智能研究所面臨的主要問題,使人工智能更加科學規(guī)范、可驗證、負責任、人性化,從而推動人工智能社會的發(fā)展。
從歷史角度看,范疇論經(jīng)歷了從20世紀初的集合理論(set theory,基于元素的實質(zhì)主義),到20世紀后期的范疇論(category theory,基于關系的功能主義),再到21世紀的范疇科學(category science,基于信息學、物理學、人工智能和認知科學)的演變?;诜懂牭娜斯ぶ悄芟碛蟹懂犝摰膱D解弦圖微積分(the graphical string diagram calculus of category theory)所帶來的優(yōu)點,特別是它為線性代數(shù)(基于矢量)計算提供了一種有效方法,大多數(shù)人工智能系統(tǒng)將對象表征為特征矢量,其計算可以在分類圖形微積分中有效進行。
這種范疇整合的實質(zhì)是將范疇論作為統(tǒng)一構架整合兩種人工智能,在科學哲學中是發(fā)現(xiàn)與確證的綜合,是賴欣巴哈的“發(fā)現(xiàn)的語境”和“確證的語境”在人工智能領域的應用(見圖1)。
在喬姆斯基與谷歌研究總監(jiān)諾維格(Norvig)關于智能本質(zhì)的辯論中,喬姆斯基站在符號人工智能的一方批評了統(tǒng)計人工智能,諾維格將喬姆斯基的批評表達如下:統(tǒng)計語言模型在工程上取得了成功,但這與科學無關……準確地對語言事實進行建模只是收集蝴蝶(butterfly-collecting),即收集材料;在科學(特別是語言學)中重要的是基本原則……統(tǒng)計模型是不可理解的;它們沒有提供洞察力。[4]而諾維格認為統(tǒng)計方法是必要的,因為語言的偶然性及其受制于復雜的文化演變,很難用符號方法來模擬,語言是復雜的、隨機的、偶然的生物過程,受制于進化和文化變化的奇思妙想。構成語言的東西不是一個永恒的理想形式,而是復雜過程的偶然結(jié)果,由設置的少數(shù)參數(shù)來表征。由于這種結(jié)果是偶然的,它們似乎只能用概率模型來分析。
文化因素的確對認知方式有重要影響,忽視文化因素我們就無法說明人類智能的爆發(fā)式增長。如果說生物進化是智能發(fā)展的必要自然條件,那么文化因素就是充分社會條件。在自然環(huán)境不變的前提下,文化的出現(xiàn)和演化對于智能的提升至關重要。當然,整合的人工智能是否會使人工智能更加可驗證、符合道德規(guī)范,從而更加人性化,還需要不斷驗證,但這種嘗試對于人工智能普及中的社會信任、透明度、安全和保障非常重要。而且,這種將范疇論和語境論整合的方法不僅有助于科學和知識的網(wǎng)絡化,也有助于知識和社會的可持續(xù)發(fā)展。顯然,這種范疇整合觀點是一種跨學科方法,有助于解決單一學科無法解決的問題。文化人工智能(CAI)也是這種目的,只是整合方式稍有不同:范疇整合主要采用數(shù)學和信息科學方法,文化整合還同時結(jié)合了哲學語境論方法。
事實上,范疇論業(yè)已結(jié)合了科學哲學方法。一個典型的例子是一種涌現(xiàn)邏輯的信息處理系統(tǒng)[5],它將認知作為流程圖,使用一種受流程圖和控制論表征法啟發(fā)的形式主義,其主要假設是:在自我生成的評價信號指導下,從聯(lián)結(jié)主義活動中涌現(xiàn)一個符號形式的過程。這種涌現(xiàn)邏輯的信息處理方法將所考慮的系統(tǒng)表征為一個連接在一起的處理單元的圖形,處理單元由節(jié)點表征,它們的連接由稱為路由的加權和定向弧表征。該系統(tǒng)有三種類型的單元:表征系統(tǒng)傳感器器官的源單元、表征運動器官的槽單元和既不是源也不是槽的圖節(jié)點的路由單元,這些單元共同構成了一個流動擴散網(wǎng)絡。研究表明,這種涌現(xiàn)邏輯的信息處理系統(tǒng)通過感知經(jīng)驗建立知識,在不同的發(fā)展階段其內(nèi)部結(jié)構會自我組織,并使內(nèi)部表征和感官知覺之間出現(xiàn)內(nèi)部對話;系統(tǒng)的所有經(jīng)驗都與指導學習機制和影響結(jié)果行為的情感反應有關,智能體的想法是概念的構建序列,概念表征環(huán)境感知的組合,思想則表征了它們之間的關系。
總之,對于一個自生成的智能體來說,成功通過“圖靈測試”的能力將要求系統(tǒng)被賦予與人類相同的傳感器模式(具身模式),并對世界產(chǎn)生接近于人類個體的經(jīng)驗(包括文化屬性),個體經(jīng)驗則具有了對環(huán)境(自然和社會)變化的適應性。
路徑二:智能體的感性與理性整合
人類智能是感性與理性的統(tǒng)一。人工智能通常是在兩個步驟中適應變化:一是確定與智能體或系統(tǒng)有關的變化;二是更新系統(tǒng)結(jié)構、數(shù)據(jù)、知識或決策邏輯來適應變化。識別與智能體任務有關的變化是至關重要的。如果我們認為“一個普遍的智能系統(tǒng)應該能夠處理與其創(chuàng)造者所預期的完全不同的問題和情況”,[6]那么AGI或CAI系統(tǒng)的智能體應有能力適應其環(huán)境的變化。具體來說,智能體的任務是將其表征的目標構成馬爾可夫決策的過程(Markov Decision Process, MDP)。根據(jù)這種表征,智能體不直接訪問其環(huán)境的狀態(tài),相反,它通過傳感器進行關于這些狀態(tài)的“觀察”。如果給出關于各種狀態(tài)和它們之間相互轉(zhuǎn)換的獎勵結(jié)構,智能體就能找到一個策略,使它能夠執(zhí)行一連串的行動來實現(xiàn)一些期望的狀態(tài),從而實現(xiàn)其目標。[7]比如,信息數(shù)字孿生系統(tǒng)假設智能體的輸入和輸出的概率分布抓住了其任務的變化,因而可預測其環(huán)境的變化,[8]而且它檢測到的變化可以傳達給智能體的操作者,以進行必要的修改,或者可作為智能體模型的輸入,以補償變化帶來的影響。也就是說,智能體與環(huán)境的互動與人類的交流類似,是一個交互過程。智能體的開發(fā)者根據(jù)智能體要感知的狀態(tài)和要執(zhí)行的行動來定義傳感器和效應器。智能體的任務變化將導致“輸入-輸出”特征產(chǎn)生依賴性變化,或者利用“行動-輸入”特征的相關性來捕捉智能體的任務中不可預見或未預見到的任務變化。
這個過程是人工智能體的適應性表征過程,是一種包含了推理的認知行為。[9]從哲學角度看,康德在《純粹理性批判》中區(qū)分了認知的三種基本心理能力:感性能力、理解能力和理性能力(即感性、知性和理性)。人類首先通過感性能力感知物體或世界,從而形成對它們的表征,最終實現(xiàn)更復雜的概念化并在此基礎上進行推理??档聫膬蓚€方面將三種基本心理能力區(qū)別開來:把感性能力解釋為人類和其他動物接受信息的具體方式,與理解能力和理性能力不同,后兩種能力是人類或所有理性的人的自發(fā)性形式。[10]
從康德哲學看,人工智能是一種理性的存在。這種人工存在物必須具備感性能力、理解能力和理性能力,這是其感知外部世界的基礎。統(tǒng)計的人工智能在物體識別或模式識別方面非常成功,如人臉識別、場景識別,而這對人類而言通常是由直覺完成的,因此可以說在機器認知中允許有感性的能力。符號的人工智能適合于對世界和其中的對象進行概念性推理,從而允許有理解和理性的能力。[11]在這種康德式的認知或智能概念中,感性能力、理解能力與理性能力都是理性的人不可或缺的心理能力。[12]因此,符號人工智能和統(tǒng)計人工智能都是實現(xiàn)AGI的最終目標所必需的范式。
從科學和邏輯的觀點看,統(tǒng)計人工智能是一種基于歸納的、自下而上的方法,而符號人工智能是一種基于演繹的、自上而下的方法。在科學理論的形成中,兩種方法均發(fā)揮了重要作用。比如,相對論和量子理論是以自上而下的方式誕生的,即遵循一般原則的指導,如廣義相對論中的一般協(xié)變原理;[13]另一些理論則是以自下而上的方式誕生的,如生物學和天文學,即直接考慮經(jīng)驗數(shù)據(jù)。AGI或CAI應該整合符號人工智能和統(tǒng)計人工智能,即形成兩者整合的人工智能,從而使智能體產(chǎn)生自主性。
這意味著,通用智能必須具有某種自主或自發(fā)性。沒有自主性,智能體只是被動的,只處理操作者設定的符號串等給定的信息。關于自主性的條件,IBM在關于智能體的戰(zhàn)略白皮書中作出了解釋:智能行為體(intelligent agent)是一些軟件實體,它們以某種程度的獨立性或自主性進行一些操作……,同時,采用一些關于……目標或愿望的知識或表征。[14]
在這個意義上,人工智能沒有創(chuàng)造性,創(chuàng)造性是智能的一個整體特征。為了擁有創(chuàng)造性,智能體必須是自主的,必須自發(fā)地作出判斷,并根據(jù)一些內(nèi)部目標或欲望選擇一個選項而排除其他選項。而自主性和自發(fā)性與自我意識有關:自主性意味著智能體意識到某物或自己的存在,自行設定一個無論是明確的還是隱含的目標,并朝著這個目標改進自己,這也是人工意識研究的目標。
當然,CAI并不能僅體現(xiàn)在概念中,它必須體現(xiàn)在物理基質(zhì)中,類似人的身體,即具有具身性,并嵌入環(huán)境,這是嵌入式人工智能的另一個名稱——情境人工智能或海德格爾式人工智能。[15]這里的具身性是指身體的存在對智能體來說是必不可少的,嵌入性是指與環(huán)境的互動對智能體來說是必備的。從具身性的觀點看,心智、身體和環(huán)境之間的相互作用被認為是實現(xiàn)人類水平的AGI和人性化的CAI的必要條件。
路徑三:通過機制進行功能建模
人工智能大模型的發(fā)展表明,實現(xiàn)AGI必須從功能建模開始,CAI也不例外。通用問題解決能力是指一種類人水平的、通過抽象推理解決通用問題的能力,這種能力通過適應性建模得以體現(xiàn)。比如,一種作為通用智能的功能建模框架[16](Functional Modeling Framework, FMF)表征了人類有機體的適應性過程的層次結(jié)構,其中每個適應性過程的功能是在其各自領域中實現(xiàn)一個普遍的適應屬性(機制)。FMF將一個智能體表征為一個適應性過程的層次結(jié)構,并通過這些過程使其所有的過程更加適合。也就是說,F(xiàn)MF定義了對基本生命過程和實現(xiàn)這些過程的組件的要求,讓智能體的認知架構來定義自己的實現(xiàn),以確保在執(zhí)行給定的任何任務時,任何所需功能都可以由最適合的組件從現(xiàn)實世界中獲得,同時確保整個實現(xiàn)模型更適合表征認知。換句話說,與其將通用智能定義為一個單一的適應性系統(tǒng),不如讓其中的適應性領域在其功能上受到限制,即讓其模塊化和可重復使用。因此,適應性領域可以被調(diào)整而無需改變整個系統(tǒng)。針對問題定義和問題解決的一些限制可能存在于每個適應性領域,而每個適應性領域可能缺乏改變其自身適應性功能的能力。如果要消除對其適應性的限制,則每個適應性領域必須存在于其他適應性領域的層次結(jié)構中。
顯然,F(xiàn)MF中的通用問題解決能力是指它能夠持續(xù)地瀏覽整個概念空間的能力,即瀏覽從該概念空間可定義的任何問題和可制定的任何解決方案的能力。一個非智能系統(tǒng),如目前的計算機程序,可以解決它的設計者為它選擇的問題,而一個具有類人通用問題解決能力或真正的人類智能系統(tǒng),必須有能力自己選擇解決哪個問題。這個通過認知瀏覽適應領域所定義的概念空間的好處在于:將所有認知過程的表征局限于其中,即認知過程接受一個概念作為輸入,并產(chǎn)生另一個概念作為輸出(從概念到概念),使我們能夠理解認知系統(tǒng)能做什么和不能做什么。因此,這個模型有可能具有類人的通用問題解決能力,它在定義一套最小可還原的認知功能方面也具有潛在價值。
我們不妨設想一下,如果將具有這種功能建模的智能體進行人機交互或多智能體交互,智能體的能力似乎會更強(因交互而產(chǎn)生了部分文化屬性)。皮亞杰建模器[17]就是一個應用實例。皮亞杰建模器是一個由多個異質(zhì)元素組成的認知架構,這些元素被稱為機制,它們操縱一個知識庫并與外部設備進行交流。皮亞杰建模器作為一種認知架構有四類機制[18]:觀察、協(xié)調(diào)、反思和鞏固(合并)(見圖2)。觀察機制與現(xiàn)實或虛擬世界中的設備進行通信,并對知識庫中的觀察物進行斷言;協(xié)調(diào)機制執(zhí)行簡單和復雜的關聯(lián)、信念傳播、計劃和推理,以便向知識庫添加推論;反思機制執(zhí)行動機、模擬、調(diào)節(jié)、補償、發(fā)現(xiàn)、探索、模仿和游戲,從而影響建模者的行為;鞏固機制執(zhí)行自動性、知識壓縮和遺忘??傮w來說,多智能體的認知系統(tǒng)中每個智能體均作為一個獨立的知識操縱機制發(fā)揮作用。這些機制通過連接的設備共同觀察環(huán)境、協(xié)調(diào)推理、反思和修改系統(tǒng)的行為,并鞏固由神經(jīng)符號元素組成的記憶網(wǎng)絡。作為通用智能的CAI的目標就是構建這種在推理和決策方面符合人類水平的機制系統(tǒng),這也是人工智能中的機制主義策略。[19]
預測加工是又一個實驗例子。[20]我們可將通用智能視為一個預測加工系統(tǒng),它衡量智能體在廣泛的環(huán)境中實現(xiàn)目標的能力,也就是說,通用智能衡量的是一個機制解決預測問題的能力。通用智能體一定是目標追隨(goal-following)的,或像人類智能那樣有智能的預測定義和常識-科學心理測量的定義。因此,一個離散時間通用強化學習模型可被簡化為算子歸納。這種預測加工模式很好地對應了人工智能的任何一種強化學習或目標追隨智能體,并可適用于解決其他類型的問題。比如,一種適應性多策略市場營銷智能體[21](Market Making Agent),本質(zhì)上是在有限資源和復雜環(huán)境中達到復雜目標而定義和設計的一種適應性智能體(Adaptive Agent)。該實驗側(cè)重于在集中式交易所提供流動性算法交易智能體的方法和架構中,執(zhí)行基于限價訂單網(wǎng)格的營銷策略,并不斷進行經(jīng)驗學習。該實驗將通用智能體視為一個普遍的多參數(shù)優(yōu)化,通過對歷史上的加密金融市場數(shù)據(jù)進行回測,在評估市場條件下能夠提供近100%的超額回報,這是適應性表征方法論的一個成功案例。
在對話聊天領域,通用對話智能(GCI)是通用智能體的一個核心方面。但目前只有少數(shù)通用智能架構能夠理解和生成自然語言,而大多數(shù)自然語言處理系統(tǒng)要么依賴于硬編碼的專門規(guī)則和框架,無法普及到人類語言的各種復雜領域,要么依賴于大量訓練的深度神經(jīng)網(wǎng)絡模型,無法實現(xiàn)解釋、控制或理解,[22]如GPT模型。而且,盡管大多數(shù)通用智能架構確實擁有某種程度的自然語言理解,但若沒有基于模板的定制或類似的手動、勞動密集型程序,就無法用自然語言傳達這種知識,無法對人類提出的問題進行恰當回應。不過,一種基于語境的問題回答(QA)架構建立在句子生成系統(tǒng)的擴展之上,作為一種可解釋的自然語言處理方法[23](Interpretable Natural Language Processing, INLP),它是可解釋人工智能的延伸,即通過要求可解釋的模型/知識庫和可解釋的結(jié)果來擴展可解釋人工智能。研究表明,INLP能夠以合理和透明的方式獲取自然語言,理解基于文本的信息,并生產(chǎn)語言內(nèi)容。[24]
目前最典型的通用智能莫過于ChatGPT系列。ChatGPT不僅被視為人工智能領域一個標志性的技術進步成果,而且肇始了AGI的應用。據(jù)測試,GPT-4不僅能夠與用戶對話,而且在提示下能夠自動生成各種文本,諸如劇本、論文摘要、參考文獻和企劃方案。這種人工智能生成的內(nèi)容跨越了幾乎所有學科領域,其抽象推理和思維能力在許多方面達到了人類水平,初步實現(xiàn)了AGI的一些目標。若讓大多數(shù)人都能夠使用,在普及的意義上就達成了通用性。ChatGPT這種大語言模型的關鍵創(chuàng)新在于其通過計算一個語句中每個詞之間的相關度(概率值),能夠確定每個詞在語句中的位置(語序)及準確意義。這實質(zhì)上是通過計算方法確定了每個詞在語句中的意義,最終給出文本內(nèi)容,這是將語境信息數(shù)字化的結(jié)果。所以,ChatGPT充分利用了語境原則——語境決定詞的意義,也就具有了一定的文化特性。
要言之,語言是人類獨有的,是認知智能的最高表現(xiàn)。ChatGPT作為大語言模型,盡可能地讓人工神經(jīng)網(wǎng)絡模型的行為與人類對齊,充分體現(xiàn)和展示了語言的認知功能,其應用前景非常廣泛。但其局限性也比較明顯,包括數(shù)據(jù)使用問題(僅開發(fā)者掌握)、標注者偏差問題(基于強化學習導致的標注者的偏好)、事實性和可解釋性問題(編造一些語句,內(nèi)部運作難以解釋)、資源消耗問題(巨量數(shù)據(jù)造成巨大資源的消耗)以及多模態(tài)問題(嵌入圖像、語音識別等),若將ChatGPT從通用智能提升到CAI,這些缺陷或許可克服。
路徑四:通過結(jié)構功能實現(xiàn)適應性表征
通用智能作為適應性表征系統(tǒng),同構類型理論[25]可作為其理論基礎。在人工智能中,同構類型理論為符號人工智能的經(jīng)典問題提供了框架,但表征問題是無法避免的,只能通過建設性方式來解決。有研究表明,同構類型理論適合于構建認知架構的語言,但它本身并不足以構建一個通用智能系統(tǒng)——包含基本類型和操作,以及那些以不嚴格的、可證明的方式(在可用的類型本身)改變已經(jīng)定義的類型。[26]這可能意味著,即使是基礎數(shù)學概念的語義也不夠清晰,人類自己也沒有完全理解。然而,同構類型理論仍然是有吸引力的,因為它不是單獨使用集合和邏輯的元語言,而是只使用范疇或類型,包含了對象和命題,而命題也是高級類型的對象。這對于通用智能在統(tǒng)一和建設性地表征和推理外部世界以及推理本身的知識方面是很方便的。
從結(jié)構-功能主義看,任何物體都有結(jié)構,有什么樣的結(jié)構就會有與之相應的功能表現(xiàn)。從亞原子到宇宙學的所有空間尺度的觀察表明:物質(zhì)結(jié)構,包括要素的排列和構成,產(chǎn)生了大量適應結(jié)構的自然現(xiàn)象。比如,笛子上的孔會產(chǎn)生悅耳的聲波,流體流過障礙物會導致湍流,鏡子會反射光線,金屬線會傳導電流,蛋白質(zhì)分子會折疊和振動,彈性材料會拉伸等,這些都是物質(zhì)固有的適應性表征(呈現(xiàn))行為。這些物理現(xiàn)象的發(fā)生源于物質(zhì)和能量相互作用的各種方式,如力、熱、聲、光、電、磁等,人類創(chuàng)造、發(fā)明并顯示這些自然現(xiàn)象的結(jié)構為己所用。這種以物理結(jié)構為導向的觀點證明了可解釋生物體所表現(xiàn)出的各種自然智能,包括但不限于病毒、植物和動物。因此,所有有機體都是結(jié)構化的。結(jié)構生物學業(yè)已說明:一組結(jié)構為固有現(xiàn)象提供了平衡,即維持一個穩(wěn)定的內(nèi)部環(huán)境,因為結(jié)構是生物功能的核心。同樣,生物物理學、生物化學和生物醫(yī)學,都可被看作是對適當?shù)慕Y(jié)構產(chǎn)生現(xiàn)象的研究,如假肢使用者對假肢的適應平衡。
因此,結(jié)構不僅產(chǎn)生物理行為,也產(chǎn)生認知和智能行為。若嵌入了適當物理結(jié)構的人工智能體被設計出來,那其將顯示出類似于生物形式的智能行為。這與以數(shù)字計算為中心的設計截然不同,這樣的具身智能體可能在現(xiàn)實世界中能夠有穩(wěn)健、靈活的行為,而這是迄今為止人工智能還無法做到的。如果認知智能被理解為“深思熟慮的反應”[27],那么這將意味著生命形式包含的結(jié)構所表現(xiàn)出的現(xiàn)象(如生存和繁殖)使它們表現(xiàn)出智能行為。比如,仙人掌的荊棘和厚葉的適應性幫助它們抵御捕食者并儲存水分,粘菌能夠通過感知化學梯度的變化向食物源方向遷移,人類也是如此。
在人工智能領域,這會導致一種結(jié)構化物理系統(tǒng)假說[28]:一個結(jié)構化的物理系統(tǒng)能夠具有充要條件并作出具身智能反應。這種假設可能會導致非人類物種的產(chǎn)生:它們對世界的體驗與生物的體驗基本相似,它們對世界的不同體驗足以產(chǎn)生新的、對人類有用的功能。然而,在虛擬現(xiàn)實中模擬智能體然后將其實例化為現(xiàn)實生活中的具身系統(tǒng),會不會導致生命體驗的無縫轉(zhuǎn)移?這一問題可由適應性表征來解釋,原因在于,任何系統(tǒng)(物理的、生物的或認知的),只要它們是自組織演化系統(tǒng),都具有適應性表征功能或能力,這種功能或能力表現(xiàn)為不同層次的屬性,如原子的協(xié)同、細胞的進化、生物體的行為和人類的認知。這些不同類型的表現(xiàn)或表征,類似于“柏拉圖表征假設”[29](不同的人工智能模型正趨向于一個統(tǒng)一的現(xiàn)實表征),其背后的機制是適應性表征,[30]即不同的模型表征逼近一個現(xiàn)實目標。如果這種假設被確證,那么自然認知和人工認知之間的無縫銜接中介就是適應性表征。[31]
一個典型的例子是由情感生物激發(fā)的認知架構(Emotional Biologically Inspired Cognitive Architecture, eBICA),通過兩種方式適應范式[32]:一是利用人的排名構建對象和行動評價的語義圖;二是考慮到范式的具體情況,制定道德模式。結(jié)果證實該模型對所選范式的適用性,以此表明其在實際重要情況下的可用性。這是基于情感生物的認知架構,包括7個記憶系統(tǒng)(見圖3)。這種情感生物激發(fā)的認知構架就是結(jié)構-功能表征,其中的7個記憶子系統(tǒng)及其交互構成了智能體的整體認知結(jié)構。因此,一個實體或系統(tǒng),有什么樣的結(jié)構就會有與之相對應的功能,如各種生物所表現(xiàn)的功能。人腦的結(jié)構基本相同,但每個人的神經(jīng)元連接及其激活-抑制的方式與數(shù)量可能完全不同,從而造就了不同的認知方式和理解水平。這是結(jié)構決定功能的典型,適應性表征顯然是基于結(jié)構-功能的,且具有綜合性。
路徑五:通過語境覺知應對意外情況
任何通用智能系統(tǒng)或?qū)嶓w,必須能夠應對和處理新奇情況,[33]因為通用智能的一個目標便是學習新的信息而不覆蓋先前的學習(如完全遺忘)。由于新奇總是相對于學習者的知識而言的,控制器處理新奇的方式通常是以先前有經(jīng)驗的情境作為指導。先前的經(jīng)驗就是語境知識,是一種經(jīng)驗啟示法,這就要求通用智能模型能夠應對各種已知情況和意外情況。傳統(tǒng)的機器學習方法通常會學習許多虛假的關聯(lián),當面對新的任務時,可能會導致不可預測甚至災難性的性能出現(xiàn)。因此,引入語境覺知(或態(tài)勢感知)方法是必要的,因為先驗知識是語境因素,這是由哲學語境論啟發(fā)的方法。
在機器學習領域,任何以人類水平的智能為目標的機器,必須能夠在其設計者未曾預見的新情況下自主地使用其先前的經(jīng)驗。這種知識轉(zhuǎn)移能力通常是在這樣的假設下進行的,即學習者在來源任務中接受訓練,隨后在另一個類似的目標任務中接受測試。然而,目前的人工智能方法在很大程度上依賴于人類程序員根據(jù)自己的直覺來選擇這些任務。如何給智能體提供自主轉(zhuǎn)移相關知識的方法仍然是一個難題,這實際上是預先給人工系統(tǒng)設置語境庫,然后智能體自己能夠依據(jù)具體情況自主靈活調(diào)用的問題。
從哲學上看,自主轉(zhuǎn)移知識是一種因果能力,實現(xiàn)有效的自主概括能力是建立在因果建模和推理基礎上的,同時使用與目標任務無關的知識表征。一種方法是讓控制器引導智能體干預一個動態(tài)任務,從經(jīng)驗中發(fā)現(xiàn)和學習其因果關系??刂破鲝南嚓P性的知識中引導智能體學習,通過戰(zhàn)略性的因果干預消除非直接原因的相關性,即由共同外部原因引起的、虛假的或顛倒因果關系的相關性,同時學習與任務的因果變量相關的功能。模擬實驗測試了這種控制器的知識轉(zhuǎn)移的有效性,在不同的動態(tài)任務中的結(jié)果表明:該算法使控制器能夠?qū)W習一個與任務無關的因果模型,而且該模型可以被推廣到新的場景中。[34]
另一種方法是使用生態(tài)系統(tǒng)仿真器,自然智能可給予通用智能以啟示,因為人工智能與自然智能之間存在天然的類比。[35]在生物系統(tǒng)中,動物認知是通過整合三個獨立的網(wǎng)絡來建模的:一是用于硬接線反射的反射網(wǎng)絡;二是將氧氣、水、能量和氣味等感官數(shù)據(jù)映射到一個標量的感應值網(wǎng)絡;三是用于選擇行動的策略網(wǎng)絡。在人工系統(tǒng)中,策略網(wǎng)絡是用強化學習來訓練的,其中獎勵信號被定義為從一個時步(time step)到下一個時步的感應值之差。為了生存和繁殖,動物需要感知、決策和行動等高效的信息處理來應對生活中不斷出現(xiàn)的挑戰(zhàn)。神經(jīng)系統(tǒng)幾乎存在于動物界的所有分類群中,并在動物信息處理中發(fā)揮著關鍵作用,它們通常并不是單一的。例如,人類控制消化的復雜神經(jīng)系統(tǒng)基本上與大腦分離,甚至在腦死亡的人身上也可運作。這意味著人腦本身是高度模塊化的,其在解剖學上有不同的裂片和區(qū)域,如控制反射的腦干(積極的如膝反射,消極的如潛水反射),前額葉皮層將感覺信號映射到行動上,腦島將內(nèi)部信號(如血糖水平)和外部信號(如氣味)結(jié)合成與感應和獎勵有關的信號。[36]從進化的角度看,神經(jīng)系統(tǒng)的一個巨大優(yōu)勢是它們能夠進行學習,從而有效地適應當?shù)氐沫h(huán)境。強化學習是一個突出的例子,并適用于整個動物王國,[37]即將不可訓練的反射回路與可通過強化學習訓練的回路結(jié)合起來。
相比而言,機器人的行為也應該與此類似。正由于此,模擬動物行為就成為人工智能機器學習的主要方法。有許多受生物啟發(fā)的算法或動物認知的計算模型,如細胞自動機、蜂群算法和螞蟻算法,以及由進化算法驅(qū)動的反射智能體,都屬于這一傳統(tǒng)。在強化學習傳統(tǒng)中,動物被建模為強化學習行為體(包括動物機器人),它們因快速的爬行、跑步、游泳或飛行而獲得獎勵。在生態(tài)系統(tǒng)建模的分析方法中,生物體通常用表征種群大小或生物量的數(shù)字來建模,而互動動力學則用微分方程來建模,如Lotka-Volterra捕食者-獵物動力模型。[38]
從適應性表征的角度看,一個通用智能體必須適應其環(huán)境和目標,用有限的資源解決未知問題,否則它就不會有智能。這里存在一個智能與心智(心靈)的區(qū)分及其關系的問題。如果二者不同,那么如何識別它們之間的差異呢?如果二者之間存在解釋鴻溝,那么如何填平這種鴻溝呢?一般來說,智能與意識、心智相關,意識指的是現(xiàn)象意識或主觀經(jīng)驗(感受性),心智是指有意識智能,感受性是感覺能力的綜合。如果感覺(feeling)是純粹私人的,那么它就不能被客觀地表征。這意味著,感覺與其表征是分離的。從科學表征看,一種現(xiàn)象,無論是主觀的還是客觀的,只要被認識,它就必須能被表征。因此,如何從第三人稱視角表征感覺是一個難題。事實上,人工智能必須從第三人稱視角(客觀視角)通過表征研究通用智能。畢竟,表征作為語言處理能力是一個系統(tǒng)是否有智能的重要標志![39]
這種從主觀感覺對通用智能進行的哲學分析表明:如果感覺是一種偶發(fā)現(xiàn)象,就可以直接忽略掉,因為感受是主觀的、私人的;而科學研究的是客觀現(xiàn)象(盡量排除主觀因素),如果不能測量這種感覺,就不能科學地研究它。這意味著,人工智能體不可能有第一人稱意義上的感覺,即使有,我們也不知道,這涉及心靈哲學的他心問題,這里不做討論。假設感覺是可以客觀地進行研究的(第三人稱視角),它對智能體也起著不可或缺的作用。比如有人試圖為機器擁有這種感覺給出一個可能的解決方案,即把感覺定義為“改變輸入表征的趨勢”,[40]并認為一個智能體的表現(xiàn)只要符合這個定義,就可為該智能體有感覺提供正面證據(jù)。如果這種定義是正確的,那么感覺就變得可測量了。然而,對于模擬的感覺,是否有可能找到一個計算模型來表征先天的感覺,仍然是個迷題?;蛘哒f,如果一個行為體有智能,但沒有感受性,那就是哲學上的“僵尸”或醫(yī)學上的“植物人”了,智能體很可能就是這種能對話但無自我意識的“僵尸”或“植物人”。
文化人工智能的“圖靈測試”
通過上述方法或路徑建構通用智能,也就在某種程度上創(chuàng)造了CAI。這意味著將人工智能發(fā)展到某種程度上與人類智能相當?shù)臋C器智能,或者如庫茲韋爾所說,機器智能具有人類的全部智力——各種感覺模式和認知的統(tǒng)一。我們?nèi)绾沃罊C器獲得了人類的智能呢?通常的做法就是進行“圖靈測試”或一系列類似的測試(第三人稱方法),諸如洛夫拉斯測試[41]、心理測試[42]、皮亞杰-麥格威的屋測試[43]、戈爾采爾測試[44]以及就業(yè)測試[45]。
一項研究通過分析科學、藝術、工程和商業(yè)領域的知識和認知提出新的測試方法[46]——人工智能的類人認知能力按其復雜程度遞增的測試:(1)解釋,即給出一個定義明確的科學理論和一個經(jīng)驗現(xiàn)象,對該現(xiàn)象作出解釋并計算其數(shù)量特征;(2)問題設置,即給出一個定義明確的科學理論和世界的一般知識和認知任務;(3)反駁,即給出一組經(jīng)驗現(xiàn)象的相互競爭的模型/解釋;(4)新現(xiàn)象的預測,即給出一個定義明確的科學理論,預測一個以前未知的現(xiàn)象;(5)業(yè)務創(chuàng)建,如一個成功的初創(chuàng)企業(yè);(6)理論創(chuàng)造,如產(chǎn)生人工認知理論。
可以看出,這些測試通用智能的方法比“圖靈測試”更難,要求更高。這是因為“日常知識是基于以前對重復發(fā)生的現(xiàn)象的觀察,并允許作出預測,這些預測對成功的實踐活動非常重要,盡管它們具有概率性預期的性質(zhì)。但科學可以做一些完全不同的事情:可以預測我們從未觀察過的現(xiàn)象。這些是專門的理論預測。”[47]當然,CAI也可能由整合已有的不同認知架構來實現(xiàn),比如作為人工智能統(tǒng)一架構的歐米茄(Omega)[48],該架構體現(xiàn)了通用智能的幾個關鍵原則,包括表征的多樣性、數(shù)據(jù)類型的多樣性、集成記憶、模塊化和高階認知。其中有一個稱為“人工智能內(nèi)核”的基本算法可用于問題解決、基本認知功能和一個更大的模塊化架構。事實上,這是一種開放的、模塊化的、自我提升的人工智能統(tǒng)一架構,是對阿爾法(Alpha)架構[49]的改進版本。
一般來說,人工智能體的認知能力表現(xiàn)在:它必須確定知識“是什么、何時、如何和為什么”,應該被選擇并轉(zhuǎn)移到另一個任務上。這種轉(zhuǎn)移能力既是一種適應性表征能力,也是一種自主經(jīng)驗能力。人類有五種感官和本體感覺,但人工制品可以有潛在的無限數(shù)量的傳感器,每個傳感器都可實現(xiàn)不同類型的體驗。這意味著,智能機器人也可以有執(zhí)行器,也可以有許多個特定體驗的范式(對應于人類的不同感覺方式)。AGI的出現(xiàn)表明,一個普遍接受的通用智能應該至少包括如下領域中的一個,特別是第一個[50]:
(1)基于圖像、視頻和現(xiàn)場攝像機的視覺體驗的通用智能(VIS-AGI)。
(2)基于傳感器運動體驗的通用智能(SEMO-AGI),即同質(zhì)或異質(zhì)機器人,部分由人類控制操作。
(3)基于電子文本(數(shù)字化書籍、網(wǎng)頁、源代碼)和1/0接口的符號體驗的通用智能(SYM-AGI)。
VIS-AGI將發(fā)展出直觀物理學,作出可能涉及人類行為的預測,并檢測異常情況;SEMO-AGI將為自主機器人或汽車開發(fā)有目的的行為和導航,并從對這些機器人或汽車的人類操作記錄中學習;SYM-AGI將通過語言(任何語言)和其他游戲與人類成功互動,通過數(shù)學發(fā)展自然科學,并通過機器編程進行自我提升。三種通用智能的整合可實現(xiàn)一種基于同時嵌入物理世界和由符號構成的虛擬世界的鏈接經(jīng)驗的通用智能(LINK-AGI)。[51]
然而問題是,連接感覺和符號經(jīng)驗的通用智能體不能直接創(chuàng)建,而是要對另一個通用智能體進行擴展才能形成,比如一種可能的設計是實現(xiàn)基于符號經(jīng)驗的通用智能,即符號人工智能。因此,可以預期,符號學包括生物符號學一定會在AGI和CAI的發(fā)展上發(fā)揮作用,如基于邏輯概率的由生物激發(fā)的認知架構,也必須通過“圖靈測試”。
結(jié)語
人工智能要實現(xiàn)通用、人性化和廣泛應用,CAI的設想無疑是一種可能出路,即將意識、情感、倫理等高級認知因素嵌入人工智能系統(tǒng),也就是建構具有人性的CAI,但實現(xiàn)這一設想難度極大。換句話說,如果能夠?qū)⒁庾R、情感這些非理性成分嵌入人工智能系統(tǒng),也就能夠?qū)⑽幕蛩厍度肫渲?,其難度是等同的。如何實現(xiàn)這一設想目標是新一代人工智能要著力研究的問題,這里只是從哲學上提供了一些可能的應對之策,諸如智能體的范疇論和語境論整合、感性與理性的整合、通過機制進行功能建模,通過結(jié)構功能實現(xiàn)適應性表征,以及運用語境覺知應對意外或新奇事件??梢哉f,一個通用智能系統(tǒng)應該能夠應對這些問題,能夠通過“圖靈測試”,不能通過“圖靈測試”的人工智能一定不是通用的,也不會具有文化屬性。
(本文系國家社會科學基金重大項目“人工認知對自然認知挑戰(zhàn)的哲學研究”的階段性成果,項目編號:21&ZD061)
注釋
[1]魏屹東:《論人工認知實現(xiàn)的方法論策略》,《哲學研究》,2024年第3期。
[2]兩種類型人工智能的不同是:一般來說,統(tǒng)計人工智能擅長通過模式識別預測和分類,而符號人工智能擅長推理和驗證。各自優(yōu)勢的結(jié)合或混合應該是有益的,在一定程度上取得了成功,如混合認知范式。鑒于現(xiàn)實世界的不確定性和偶然性,以及現(xiàn)實生活中的有限理性和信息的不完全性,統(tǒng)計人工智能是必要的。但符號人工智能對于無懈可擊的推理和驗證,以及對無懈可擊的知識或真理的追問也是必要的。
[3]Y. Maruyama, Categorical Artificial Intelligence: The Integration of Symbolic and Statistical AI for Verifiable, Ethical, and Trustworthy AI, Cham: Springer, 2022, pp. 127-138.
[4]P. Norvig, On Chomsky and the Two Cultures of Statistical Learning, Wiesbaden: Springer, 2017, pp. 61-83.
[5]B. Fruchart and B. L. Blanc, Cognitive Machinery and Behaviours, Cham: Springer, 2020, pp. 121-130.
[6]B. Goertzel, "Artificial General Intelligence: Concept, State of the Art, and Future Prospects," Journal of Artificial General Intelligence, 2014, 5(1).
[7]L. P. Kaelbling et al., "Planning and Acting in Partially Observable Stochastic Domains," Artificial Intelligence, 1998, pp. 99-134.
[8]W. Hafez, Information Digital Twin—Enabling Agents to Anticipate Changes in Their Tasks, Cham: Springer, 2020, pp. 183-192.
[9]魏屹東:《人工智能的適應性知識表征與推理》,《上海師范大學學報(哲學社會科學版)》,2019年第1期。
[10]C. McLear, Kant: Philosophy of Mind, Internet Encyclopedia of Philosophy, https://philpapers.org/archive/AUTKPO.pdf.
[11]Y. Maruyama, The Conditions of Artificial General Intelligence, Cham: Springer, 2020, pp. 242-251.
[12]感性是提供感覺表征的能力,它產(chǎn)生表征的基礎是受到不同于主體的實體或主體本身的影響;知性自發(fā)地產(chǎn)生概念表征;理性是一種自發(fā)的能力,主體通過這種能力可以產(chǎn)生特殊的概念。
[13]D. Dieks, Understanding in Physics: Bottom-up Versus Top-Down, Scientific Understanding: Philosophical Perspectives, 2009, pp. 230-248.
[14]IBM's Intelligent Agent Strategy White Paper, Intelligent Agents, Springer, 1996, http://activist.gpl.ibm.com:81/WhitePaper/ptc2.htm.
[15]H. L. Dreyfus, "Why Heideggerian AI Failed and How Fixing It Would Require Making It More Heideggerian," Artificial Intelligence, 2007, pp. 1137-1160.
[16]A. E. Williams, A Model for Artificial General Intelligence, Cham: Springer, 2020, pp. 357-369.
[17]M. S. P. Miller, Piagetian Autonomous Modeller, In Proceedings of the AISB 2011 Symposium on Computational Models of Cognitive Development, 2011, pp. 32-39; M. S. P. Miller, Coding Artificial Minds, Self-published, Los Angeles, CA USA, 2021.
[18]M. S. P. Miller, The Piagetian Modeler, Cham: Springer, 2022, pp. 151-162.
[19]鐘義信:《機制主義人工智能理論——一種通用的人工智能理論》,《智能系統(tǒng)學報》,2018年第1期。
[20]E. Ozkural, Measures of Intelligence, Perception and Intelligent Agents, Springer, 2022, pp. 174-183.
[21]A. Raheman et al., Adaptive Multi-Strategy Market Making Agent for Volatile Markets, Springer, 2022, pp. 204-209.
[22]Lian, Ruitin, Ke et al., Syntax-Semantic Mapping for General Intelligence: Language Comprehension as Hypergraph Homomorphism, Language Generation as Constraint Satisfaction, Heidelberg: Springer, 2012, pp. 158-167.
[23]V. Ramesh and A. Kolonin, "Unsupervised Context-Driven Question Answering Based on Link Grammar," Artificial General Intelligence, 2022, pp. 210-220.
[24]O. Baskov et al., "Programmatic Link Grammar Induction for Unsupervised Language Learning," International Conference on Artificial General Intelligence, 2019, pp. 111-120.
[25]T. U. F. Program, "Homotopy Type Theory: Univalent Foundations of Mathematics," Eprint arXiv, 2013, 38(9).
[26]A. Potapov and V. Bogdanov, "Univalent Foundations of AGI Are (Not) All You Need," International Conference on Artificial General Intelligence, Cham: Springer, 2022, pp. 184-195.
[27]S. Raghavachary, Intelligence-Consider This and Respond, Cham: Springer, 2021, pp. 400-409.
[28]S. Raghavachary, Biological Intelligence Considered in Terms of Physical Structures and Phenomena, Cham: Springer, 2022, pp. 196-203.
[29]M. Huh et al., "The Platonic Representation Hypothesis," 13 May 2024, https://arxiv.org/abs/2405.07987.
[30]魏屹東:《適應性表征是人工智能發(fā)展的關鍵》,《人民論壇·學術前沿》,2019年第21期。
[31]魏屹東:《適應性表征:架構自然認知與人工認知的統(tǒng)一范疇》,《哲學研究》,2019年第9期。
[32]A. V. Samsonovich, A Virtual Actor Behavior Model Based on Emotional Biologically Inspired Cognitive Architecture, Cham: Springer, 2022, pp. 221-227.
[33]K. Thorisson, "Seed-Programmed Autonomous General Learning," Proceedings of Machine Learning Research, 2020, pp. 32-70.
[34]A. Sheikhlar et al., Causal Generalization in Autonomous Learning Controllers, 2022, pp. 228-238.
[35]C. Strannegrd et al., The Ecosystem Path to AGI, Cham: Springer, 2022, pp. 269-278.
[36]R. Nieuwenhuys, "The Insular Cortex: A Review," Progress in Brain Research, 2012, pp. 123-163.
[37]E. O. Neftci and B. B. Averbeck, "Reinforcement Learning in Artificial and Biological Systems," Nature Machine Intelligence, 2019, 1(3).
[38]A. J. Lotka, Elements of Physical Biology, Williams & Wilkins, 1925.
[39]關于表征,從社會與情境看,就是社會表征,涉及知識在社會中的形成問題,其維度包括:誰(who)、如何(how)、為何(why)、是什么(what)和為了什么(what for)這些方面,構成了誰表征,如何表征,為什么表征,表征什么,為了什么表征(目的)這五個問題,這些問題形成了各種社會表征理論。
[40]B. Xu et al., The Gap Between Intelligence and Mind, Cham: Springer, 2022, pp. 292-305.
[41]由H設計的人工智能體A,在以下情況下通過了洛夫拉斯測試,且僅在以下情況下通過:A輸出O,O不是硬件錯誤之結(jié)果,而是A可重復過程的結(jié)果;H無法解釋A是如何產(chǎn)生O的。See S. Bringsjord et al., Creativity, the Turing Test, and the (Better) Lovelace Test, Springer Netherlands, 2000; J. H. Moor, The Turing Test: The Elusive Standard of Artificial Intelligence, Boston: Kluwer Academic Publishers, 2003.
[42]心理測量學人工智能是一個致力于建立信息處理實體的領域,這些實體至少能夠在所有既定的、經(jīng)過驗證的智力和心理能力測試中表現(xiàn)良好,這一類測試不僅包括相當嚴格的智商測試,還包括藝術和文學創(chuàng)造力、機械能力等方面的測試。See S. Bringsjord and B. Schimanski, What Is Artificial Intelligence? Psychometric AI as an Answer, San Francisco: Morgan Kaufmann, 2003, pp. 887-893.
[43]就是說,當且僅當一個信息處理的人工制品能夠在由這個房間里的成分構建的任何測試中取得成功時,它才能被可信地歸類為通用智能。關于測試的內(nèi)容,沒有提前通知有關人工制品的工程師,只有房間里的成分被提前共享。這些成分大致相當于對在神經(jīng)生物學學科中正常的學生進行測試,判斷他們在其認知發(fā)展理論中處于什么階段的公平游戲。See S. Bringsjord and J. Licato, Psychometric Artificial General Intelligence: The Piaget-MacGuyver Room, Paris: Atlantis Press, 2012.
[44]這是在通用人工智能界流傳的幾種潛在的通用智能測試方法,包括沃茲尼亞克咖啡測試、故事理解測試、學前班閱讀測試等。See B. Goertzel et al., The Architecture of Human-Like General Intelligence, Paris: Atlantis Press, 2012.
[45]是指表現(xiàn)出真正人類水平的智能的機器應該能夠做許多人類能夠做的事情,這些活動中包括人們被雇用的任務或工作。為了通過就業(yè)測試,人工智能程序必須能夠完成通常由人類完成的工作。然后,人類水平的人工智能所取得的進展可通過這些工作中可被機器所接受的部分來衡量。See N. J. Nilsson, "Human-Level Artificial Intelligence? Be Serious!" AI Mag, 2005, 26(4).
[46][47]N. Mikhaylovskiy, "How Do You Test the Strength of AI?" International Conference on Artificial General Intelligence, Springer, 2020, pp. 257-266.
[48]E. Ozkural, Omega: An Architecture for AI Unification, Springer, 2020, pp. 267-278.
[49]R. J. Solomonoff, "Progress in Incremental Machine Learning," Le Journal De Physique Colloques, 2003.
[50]V. Targon, Experience-Specifific AGI Paradigms, Springer, 2020, pp. 322-326.
[51]Silvia et al., "A Short Review of Symbol Grounding in Robotic and Intelligent Systems," KI-Künstliche Intelligenz, 2013, 27(2), pp. 129-136.
責 編∕楊 柳 美 編∕梁麗琛
Possible Paths to Constructing Cultural Artificial Intelligence
Wei Yidong
Abstract: The development of large language models of Generative Artificial Intelligence (GAI) suggests that a new generation of AI is approaching the goal of Artificial General Intelligence (AGI). In order to realize generality, humanization and wide application of general artificial intelligence, it is necessary to have the attributes of human cultural characteristics. Embedding high-level cognitive factors such as consciousness, emotion and ethics into artificial intelligence systems, that is, constructing cultural artificial intelligence with humanity, is undoubtedly a possible way out. How can AI become embodied AI such as cultural AI is a major challenge. From the perspective of philosophical methodology, the possible paths to construct cultural AI include the integration of category theory and contextual theory, the integration of sensibility and rationality, functional modeling through mechanisms, adaptive representation through structural functions, and response to unexpected situations through contextual awareness, and finally passing the rigorous "Turing test". If these are done, it is expected to embed human-specific cultural characteristics in the AI system, making it a cultural AI with humanity.
Keywords: big language model, artificial general intelligence, embodied artificial intelligence, cultural artificial intelligence, adaptive representation