首頁 >> 哲學 >> 科學技術哲學
作為人工智能自我知識匹配模型的闡釋性感覺理論
2020年01月10日 11:00 來源:《自然辯證法研究》 作者:王球 字號

內容摘要:

關鍵詞:

作者簡介:

Interpretive-Sensory Theory as a Matching Model for Self-Knowledge of Artificial Intelligence

  作者簡介:王球(1983- ),浙江淳安人,哲學博士,上海交通大學科學史與科學文化研究院副教授,主要研究方向:認知科學哲學,心智哲學,知識論。上海 200240

  原發信息:《自然辯證法研究》第20194期

  內容提要:人工智能的興起,激發了哲學家將人工智能與人類心智進行全方位的比較,但是鮮有學者思考過,一個人工智能系統,是否能夠“認識它自己”。診斷這項闕漏的根源,為此提供正當性理由便是必要的。基于當下人工智能的發展水平和技術前景,表明人工智能原則上可以擁有關于自身信念、欲望和意圖之類的命題態度的自我知識。從既有的關于人類自我知識的主流理論中,篩選出一個與人工智能相匹配的理論模型。該模型類似于卡魯瑟斯的闡釋性感覺理論,它也體現了卡薩姆所說的“實質性自我知識”的優勢。

  關鍵詞:人工智能/自我知識/闡釋性感覺理論

  標題注釋:國家社科基金青年項目“‘心靈-行動’哲學視野下的進化心理學研究”(13CZX026),上海市浦江人才計劃“基于新達爾文主義的自我知識理論研究”(18PJC078),上海交通大學文理交叉項目“認知科學視野下的技術奇點研究”(15JCZY07)。

 

  如今人工智能(AI)不僅成了科技創新的制高點、經濟轉型的驅動力和大國博弈的競技場,它更是建構了我們的時代精神,自然也成了當前哲學研究的熱點議題。本文考察的是,AI究竟有沒有自我知識?隨著計算機智能化程度越來越驚世駭俗,盡管研究者對于AI原則上能否擁有知覺、意識、情感、語義表征、自由意志等人類意義上的心理能力有過許多討論,卻鮮見有人思考AI是否擁有自我知識。無論是古希臘箴言“認識你自己”,還是中國老子說的“自知者明”,自我知識有著重要的認知價值和生存論價值。說起我們是怎樣認識到自己的內心世界,就會牽扯出復雜的哲學問題。例如,你如何識別當下的感覺與思想?如何確認自己的信念與愿望?毫無疑問,我們的確知道自身某些心理狀態,就像“我覺得牙疼”,“我想喝水”,“我相信今天是周六”之類的判斷,通常就在表達知識。自我知識是獨特的,自我似乎無需觀察就能直接知道,并且自我對自身心理狀態的識別,似乎相當可靠。有鑒于此,本文追問三個問題:第一,我們能否恰當地說,AI在某種意義上擁有自我知識?第二,當前有哪些關于人類的自我知識理論?哪個理論能為第一個問題的回答做參考?第三,如果AI有自我知識,那會是何種類型的自我知識?本文分三個部分,分別闡述這些問題。

  一、問題的正當性理由

  面對AI這個異軍突起的“他者”時,AI威脅論一時塵囂甚上。然而多數AI工程師、認知科學家和心智哲學家相信,當下亟待解決的問題,要么是研究人類各項心理能力及其結構關聯,以求為任何一種智能體所必需的知識表征系統提供有章可循的理論基礎和工程學思路,要么就得在提高計算機硬件的計算速度和革新算法上下功夫。這種態度有兩個前提預設;第一,從工程學上講,我們目前正處于且將長期處于弱AI階段,專家系統、人臉識別、自動駕駛、自然語言處理等應用領域的性能提升,很長時間內仍然是AI研究的重頭戲;第二,多數有科學素養的學者樂意接受“人是機器”的斷言,人類認知系統本質上是可計算的,但是機器不能以任意方式達到人類智能水準,秉承“人是萬物的尺度”信條,打開人類認知黑箱是實現強AI的必要途徑(如果不是唯一途徑的話)。[1]30

  在此背景下,AI工程學家錯失自我知識的問題似乎情有可原。由于自我知識是主體關于自身的感知、知覺、信念、欲望、情緒、想象等內在心理狀態的自我歸因,而AI在可見的將來,不太可能擁有主觀性的意識體驗和語義表征能力的意向性,AI連真正的“知識”都不具備,談論AI能否擁有自我知識像是空中樓閣。不過,對哲學家來說,錯失人工智能的自我知識問題則是令人遺憾的。我們并不指望對該問題給出一個全有或全無(all or nothing)的回答,然而有鑒于像大衛·查默斯這樣有影響力的哲學家,竟然也在抽象地論證人工智能超越人類智能的“技術奇點”原則上是可實現的,審視自我知識這一人類獨特的認知能力,是否能夠以及怎樣能夠在AI上實現,[2]7-65絕不是一個無足輕重的問題。

  事實上,古希臘之后,自我知識問題就幾度錯失了它原本應有的豐富意蘊。德爾菲神廟上的箴言“認識你自己”,由蘇格拉底詮釋為“未經反思的生活是不值得過的”。“認識你自己”不只是在知識論的意義上對自身內在心理狀態的把握,更是為了追求有意義、本真性和至善的生活,對自己的人格特征、道德品性和道路選擇進行一般性的實踐探索。進入基督教中世紀后,“認識你自己”的方式、意義和價值被“認識上帝”所取代。到了近代笛卡爾那里,盡管作為主體的“我思”重新擔負起了“認識你自己”的功能,但他所刻畫的“我思”與“所思”之間,由于有了第一人稱權威的直接性和確定性作為保障,自我知識就不再是個特別重要的話題。二十世紀以來,英美哲壇重新燃起了探究自我知識的熱情,但學術旨趣與過去相比有所不同。他們更關心的是:自我知識是否具有認識論上的特殊性?獲取自我知識的方式是怎樣的?自我知識究竟是內省的還是指向外部世界的?如果自我知識有助于確保其他類型的知識,那么這種作用究竟是什么?以及自我知識如何揭示自我或心智的本性?這些問題也關涉到一系列哲學爭論,例如知識辯護的內在論與外在論之爭、認識論的理性主義與經驗主義之爭、語義的寬內容與窄內容之爭、自然主義與反自然主義之爭等等。這種極具學究氣的問題意識和研究進路固然有其不可否認的內在價值,然而當我們遭遇到有可能被認為是一種有別于人類的智能主體時,如果不將這些理論資源引入到人工智能哲學的考察視野,無疑將是再一次的錯失。

  為了使這個問題在AI工程師那里同樣富有意義,我們需要表明,AI在某種意義上也具有獲取和調用自我知識能力的可能性。當代自我知識理論普遍認為,主體對于自身心理狀態的內省內容,大致分為現象性的感知和情緒,以及作為命題態度的信念和欲望。譬如關于符號AI是否擁有信念和欲望,約翰·塞爾的“中文屋論證”的目標之一就是證明,一個外在行為表現通過了圖靈測試的計算機看似理解漢語,實際上它只能根據程序進行句法操作,并沒有真正理解漢語。[3]417-457塞爾認為,計算機原則上不具備語義內容和意向性,于是就不會擁有人類意義上的信念和欲望。眾所周知,哲學家對“中文屋論證”的反駁方式很多。我們現在談論的是一個基于現有工程水平的未來AI系統是否擁有信念和欲望,因而“系統應答”、“機器人應答”和“類腦應答”都傾向于支持我們的立場。退一步講,就算關于計算機是否懂中文這個問題尚無判決性結論,我們不妨簡單思考一個自我知識版本的“中文屋論證”思想實驗。假定一切場景都如原初版本設置的那樣,不懂漢語的塞爾坐在中文屋里,屋外的測試者遞入一張寫著漢語的字條,塞爾根據手頭的符號規則轉換表“照貓畫虎”地取出一張卡片遞出去,屋外的測試者收到回應字條并認為屋里的人是懂漢語的。現在我們不再追問塞爾是否真的懂漢語,而是把問題換成:中文屋里的塞爾知道他自己在做什么嗎?一個快捷而符合直覺的答案是,由于塞爾親歷了整個操作過程,所以他知道自己在做什么,但是他只是執行了符號規則轉換表的操作要求,他并不知道符號規則表為什么要設定這樣的操作要求。這個升級版的思想實驗給我們的初步啟示是,我們甚至可以先不考慮計算機是否擁有語義理解和意向性,就一個符號AI系統在對自身的符號句法操作過程進行程序性監測的意義上而言,它可能具有程序性的自我知識。當然,這種意義上的自我知識和通常理解的自我知識似乎不同。我知道我相信外面在下雨,但我并不知道實現這個信念的大腦神經元活動是怎樣的。即使我知道這一切,那又不是原本意義上的自我知識了。無論如何,我們現在能夠得出的結論是條件性的:如果“中文屋論證”是錯的,符號AI系統也就擁有語義表征意義上的信念和欲望,AI擁有某種意義上的自我知識是可能的。

  那么“新派AI”呢?以信念為例,有趣的是,新派人工智能專家倒是常常樂意使用“信念”(belief)和“可信度”(credence)這樣的概念。信念的強度可通過統計學的概率定量表示,信念可在貝葉斯信念網絡中進行計算,該網絡中每個信念的可信度都會影響其他信念的可信度。斯坦福大學人工智能實驗室的奠基人之一,尼爾斯·尼爾森(Nils Nilsson)甚至呼吁我們放棄關于信念的人類中心主義,他認為所有儲存在一個計算機系統中的陳述性信息就構成了該系統的信念,因此機器人也有信念,比如谷歌的無人駕駛汽車和IBM的沃森。而且在形成有用信念的能力上,機器人與人類處于同一水平。[4]Ⅷ雖然他是這樣講的,但我們需要警惕語詞使用的混亂。羅伯特·哈德雷(Robert Hadley)區分了AI專家在使用“信念”這個概念時的三種涵義。有時候他們談論的,指的是大家通常所理解的基于命題與意義的信念;有時是指作為信息存貯在“信念箱”中,有待存取使用的基于邏輯學進路的信念;而當他們談論作為可信度的信念時,又把信念理解為判斷命題為真的主觀概率。[5]55-73如此看來,有鑒于作為AI自我歸因的一階內容(例如信念、欲望等)在涵義上的多樣性,當我們有條件地斷言AI原則上擁有自我知識,應該弄清楚AI的自我知識與哲學家討論的自我知識是否一致。

  除此之外,另一個有待回應的疑惑是,如果AI沒有“自我意識”或“自我”,我們還能談論它的自我知識嗎?首先,自我知識與自我意識是兩個既有關聯又有區分的問題。雖然前者包含了對自我或“我”的指稱,研究重點則是我們如何發現那些事實上是我們自己的心理狀態;后者關心的是,這種指稱是如何做到的,如何把那些心理狀態確認為是“我”的。其次,某一特定的自我知識理論,可以與不同的自我意識觀點相兼容。例如接下來馬上談及的親知理論和內感覺理論,在自我意識問題上就沒有特定的預設。[6]9-11最后,持有這種疑慮的,或多或少對“自我”抱有實在論的設定,然而至少對于AI來說,關于“自我”的本體論承諾是一個沒有必要的、工程學上無法實現的理論負擔。我們不妨采納丹尼特(Daniel Dennett)的觀點(盡管他探討的是人類的自我),把AI的“自我”當作一個物體“重心”這樣的理論虛構,這類疑問就會自行消解。無論如何,研究AI是否擁有自我知識,并非無根據無意義的空洞問題。

作者簡介

姓名:王球 工作單位:

轉載請注明來源:中國社會科學網 (責編:李秀偉)
W020180116412817190956.jpg
用戶昵稱:  (您填寫的昵稱將出現在評論列表中)  匿名
 驗證碼 
所有評論僅代表網友意見
最新發表的評論0條,總共0 查看全部評論

回到頻道首頁
QQ圖片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
內文頁廣告3(手機版).jpg
中國社會科學院概況|中國社會科學雜志社簡介|關于我們|法律顧問|廣告服務|網站聲明|聯系我們
快乐赛车pk10视频 股票好的平台 22选5定号最准的方法 陈教授平特一肖大公开 内蒙古快3专家预测 黑龙江p62开奖走势图 爱彩乐山东11选五 教我怎样炒股 北京pk赛车10官网 上海快3开奖公告 p62开奖结果双今天 腾讯分分彩开奖历史查询 1万炒股一年最多挣多少业股份股票 贵州快三最后一期什么时间 甘肃11选5前3直遗漏 福建36选7开奖结果 福建快3三开奖结果走势图