張海柱
(東北大學文法學院,遼寧 沈陽 110169)
近年來,以基因編輯、人工智能等為代表的新興科技取得了快速發展,在經濟社會領域展現出廣闊的應用前景,同時也因各種潛在風險而引發了激烈爭論。以人類基因編輯為例,它是當前生命科學領域最具代表的前沿性和顛覆性技術之一。特別是被譽為 “基因剪刀”的CRISPR-Cas9技術,使臨床實踐中可以簡單高效地對基因片段進行修剪、敲除、替換或添加操作,這在人類疾病特別是許多遺傳性疾病的精準診斷與治療方面極具前景。然而作為一種新興科技,人類基因編輯并不成熟,因其可能導致的安全、倫理與社會風險而引發了廣泛爭議,2018年 “基因編輯嬰兒”事件的發生更是使人類基因編輯的合法性遭受質疑。在此情況下,如何對這種新興科技風險進行有效治理已成為重要且緊迫的現實問題。
由于人類基因編輯涉及復雜的專業知識與技術問題,現實中的風險治理過程基本上被基于科學理性的 “技術治理”范式所主導。然而當前來看,在對人類基因編輯風險的認識上存在許多不確定領域,相關科學知識存在明顯的缺口[1]。也即,對于人類基因編輯可能造成的負面影響,既有的科學知識無法給出確定性答案,不同主體甚至科學專家之間難以達成共識。這種科學不確定性在根本上挑戰了技術治理范式的有效性,而對科學不確定性問題的忽視或否認則會造成風險的隱匿與監管遲滯, “基因編輯嬰兒”事件即是一個明顯例證。因此,當前迫切需要對新興科技風險的技術治理范式進行反思與變革,以應對科學不確定性帶來的治理挑戰。
鑒于上述理由,本文以人類基因編輯為例,在對其中的科學不確定性問題及其治理困境進行考察的基礎上,借鑒貝克等學者討論的 “反身性”理念,提出一種 “反身性治理”的新范式。反身性治理強調基于科學不確定性而對技術治理的理性基礎與實踐模式進行根本性反思與重構,本文認為這將為新興科技風險的有效治理提供新的思路。
實踐表明,基因編輯技術的發展始終伴隨著各種爭議。2015年,CRISPR-Cas9技術首次應用于人類胚胎基因的編輯,立即引發廣泛的風險論爭;2018年, “基因編輯嬰兒”事件的發生更是使相關爭議迅速升級。總體來看,當前對人類基因編輯風險的憂慮一方面體現于技術操作的不準確而對人體可能造成的各種健康危害,另一方面則體現為生殖基因編輯對后代造成的不可逆的遺傳性影響。此外,對生殖基因的編輯或 “基因增強”涉及人的自然形態的改變,因其對生命倫理的挑戰而引發激烈的倫理爭論。
針對人類基因編輯的多維風險,如何進行有效的風險監管或治理成為一個重要問題。當前來看,不同國家形成了不同的監管立場。一項針對106個國家相關立法的調查顯示,當前沒有任何國家在立法上明確允許遺傳性人類基因編輯,但是以美國、英國、日本為代表的11個國家允許非生殖目的的人類生殖系基因編輯,而澳大利亞、加拿大、德國等19個國家則完全禁止,更多國家尚未形成明確的立法態度[2]。我國在立法上同樣禁止以生殖為目的的基因編輯, “基因編輯嬰兒”事件發生后,基因編輯臨床研究的申請由原來的備案制變更為行政審批制,旨在增強監管力度。
總體來看,由于人類基因編輯這一新興科技發展迅速,相關國家的立法處于明顯的滯后狀態。包括我國在內許多國家的監管政策法律位階較低,權威性和約束性不強。而且由于不同國家的立法態度與倫理文化存在差異,一些研究人員可能會選擇存在監管空白的國家或地區進行臨床應用。針對這一問題,建立人類基因編輯全球治理框架的呼聲日益提升。這方面的典型體現是WHO于2018年12月建立了 “人類基因編輯治理與監督全球標準發展專家咨詢委員會”,并于2021年發布了 《人類基因編輯:治理框架》與建議兩個重要文件,對全球治理的推進進行了初步探索。
除了法律上的有限規定外,科學界、國際組織以及許多國家的政府部門在實踐中也采取了一系列風險監管措施或治理工具,并由此形成一種 “技術治理”的治理范式。技術治理建立在科學理性的基礎上,強調 “科學管理”與 “專家政治”原則[3]。前者是指需要應用科學技術知識來管理經濟社會事務,后者則主張應當由掌握科學技術的各類專家負責公共決策。具體到人類基因編輯風險,技術治理范式體現為以 “科學監管”為核心的治理模式,包括科學共同體內部的 “自我監管”與 “基于科學的監管”兩個方面。
科學共同體的自我監管主要體現為各種科學研究規范、倫理指南或指導原則的確立以及研究 “禁區”的劃定。事實上,早在基因編輯技術發展初期,許多科學家即強調 “科學責任”的重要性,主張在技術風險問題得到有效解決之前 “推遲某些類型的研究”[4]。2015年 《自然》和 《科學》雜志先后刊文呼吁禁止CRISPR-Cas9技術對人類生殖細胞的臨床研究與應用,這一點在同年12月召開的人類基因編輯國際峰會上被確立為學界需要遵守的 “紅線”。此后隨著 “基因編輯嬰兒”事件的發生,許多科學家呼吁對人類生殖基因編輯進行全球范圍的自愿性暫停[5],以體現科學研究與應用的謹慎性。
科學 “自我監管”約束性的實現除了依靠研究者自律外,主要體現在研究成果發表以及科研基金的申請上,寄希望于同行評審原則來進行約束。例如,一些學界專家對 “基因編輯嬰兒”事件的批評即包括 “沒先通過同行評審發表論文”[6]。在科研基金的申請上,美國國立衛生院在2015年發布了 “不得將聯邦資助經費用于人類胚胎基因編輯”的聲明,這會對相關研究者形成重要的激勵導向,因而成為美國對人類基因編輯進行監管的重要方式。總之,基于對政府外部干預可能會妨礙科學發展的憂慮,該領域一些科學家明確表示 “自我管理是最好的管理方式”[7]。
“基于科學的監管”則強調科學共同體外部主體的監管作用,主要體現為現代國家中的科學咨詢制度。在該制度下,政府監管機構高度依賴相關領域科學專家來提供監管決策所需的專業知識,以科學倫理委員會為代表的專家機構在某種程度上成為事實上的決策者。因此在現實的監管實踐中,政府監管部門的責任被虛置,只有出現諸如 “基因編輯嬰兒”事件的嚴重問題后才進行介入與問責。此外,由于人類基因編輯涉及廣泛的倫理與社會爭議,科學界也在強調公眾參與的重要性。例如,2015年與2018年的兩屆人類基因編輯國際峰會均強調要增進公眾參與,WHO專家委員會的建議報告中也將公眾賦權和參與對話視為人類基因編輯風險治理的重要措施[8]。然而就現實來看,這種公眾參與要么停留于口號,要么以擁有一定的科學知識為參與的前提條件[5],實質上并沒有改變科學專家在人類基因編輯風險監管決策中的支配地位。相反,形式意義上的公眾參與能夠為科學監管決策賦予一定的政治合法性,反而成為技術治理范式的重要構成。
技術治理范式的有效性建立在科學知識權威性的基礎之上,然而以人類基因編輯為代表的新興前沿技術領域卻存在顯著的科學不確定性問題,這對技術治理的有效性構成了直接挑戰。因此需要對人類基因編輯中的科學不確定性及其與技術治理范式的內在張力進行全面分析,以深入理解當前治理困境的根源。
對確定性知識的尋求是科學權威性建立的基礎,然而,20世紀70年代興起的科學知識社會學研究得出了科學知識具有內在的不確定性結論。科學不確定性來源于認知主體、客體以及科學研究范式等多個方面的局限性[9]。對于人類基因編輯而言,由于技術本身的不成熟等原因,不確定性問題的大量存在已經成為科學界的共識。例如,在2018年第二屆人類基因編輯國際峰會上,組委會即明確指出,臨床實踐的科學理解和技術要求仍然很不確定,無法在此時允許進行生殖細胞編輯的臨床試驗[10]。具體來講,科學不確定性有著多種類型,有學者[11]將其分為技術不確定性、方法論不確定性和認識論不確定性三個層面,這些在人類基因編輯領域中均有直接體現。
技術方面的不確定性涉及人類基因編輯技術自身的精確性、有效性以及應用的合理性等問題。科學知識向技術的轉化過程難以做到完全的準確性,因此不確定性被視為技術的固有屬性[12]。盡管CRISPR-Cas9相較于傳統技術而言其精確性已經顯著提升,然而具體操作中的 “脫靶”現象仍無法完全消除,也即真實被編輯的基因可能會與目標基因發生偏差。由于胚胎細胞具有不斷分裂的特性,因此在利用CRISPR-Cas9剪切致病基因之前細胞可能已經分裂,從而導致一些細胞得到修飾而另一些卻得不到修飾,這種多個基因型同時存在于一個受精卵中的 “鑲嵌現象”所形成的 “嵌合體”嬰兒將會面臨更多的安全風險[10]。此外,技術方面的不確定性還體現為技術可能被人為濫用的問題,許多科學工作者可能受經濟利益、科學榮譽、職業晉升等因素的誘導而對特定技術進行非必要甚至錯誤使用。例如,在 “基因編輯嬰兒”事件中,操作者宣稱其目的是幫助嬰兒免于感染源自父親的艾滋病毒,然而許多科學家指出當前已經有了較為成熟安全的方法來預防父母和未出生嬰兒之間的艾滋病毒傳播,因此基因編輯操作成為一種不必要的高風險行為。
方法論不確定性是指科學研究獲取有效知識的方法本身存在的局限性或不確定性。在這方面,實驗方法是現代科學最為依賴的方法,然而在簡化的、受控制的實驗室條件下產出的知識在說明和運用于復雜的現實條件時就可能出現未預見到的狀況,產生不確定性[9]。在人類基因編輯領域,早期研究主要以動物為實驗對象,然而從動物實驗中得出的知識在應用于人類自身的臨床實驗時必然出現 “可推廣性”難題。由于不同的細胞類型可能對基因編輯做出不同的反應,為了獲取人類基因特別是遺傳基因編輯的準確知識,必然需要以人體細胞為實驗對象,這正是當前國際科學界與許多國家允許基于科研目的而對人類胚胎細胞進行基因編輯的原因所在。為了防范安全與倫理風險,具體實驗操作一般需要遵守 “14天法則”,這種時間限制使得短期實驗所獲得的人類基因編輯操作安全性知識必然存在各種局限性。特別是遺傳基因編輯涉及對后代的影響,可能需要幾十年甚至對幾代人的觀察才能最終確定其安全性,而這已經完全偏離了操作上的可行性。
認識論不確定性是指科學知識自身的不確定性或 “無知”問題。這種 “無知”既包括 “已知的無知” (known-unknowns),也包括 “未知的無知” (unknown-unknowns)。前者是指人們已經知道技術應用可能產生危害后果 (例如CRISPR-Cas9操作中的 “脫靶”或 “鑲嵌”問題),但是在如何解決這些負面后果等問題上存在許多無知領域。后者是指對技術應用的確切影響或后果尚未實現全面性認知,即可能出現未能提前預測到的 “非預期后果”,這些在人類基因編輯領域大量存在。由于人類基因的復雜性,當前尚存在許多未知領域,例如許多基因片段同時發揮著多種功能,當基于治療特定疾病目的而剪切之后,可能引發許多難以預測的后果。 “基因編輯嬰兒”事件中基于預防艾滋病目的而敲掉了CCR5基因,然而有研究指出 “CCR5對人體免疫細胞的功能起重要作用,一旦敲除可能對機體產生難以預見的潛在威脅”[10]。近年來的一些最新研究結果揭示了諸如基因突變、染色體片段丟失等基因編輯引發的新問題,然而其確切后果尚不能確定[13],這些均表明了科學知識自身的局限性。
如前所述,人類基因編輯領域各種科學不確定性問題的存在表明了科學知識或科學理性自身的不足,這會導致技術治理的實踐困境。本文認為,這種困境涉及知識困境、責任困境與信任困境三個方面。
第一,知識困境。一般而言,隨著科學研究的持續開展,科學知識的增加有助于降低不確定性或 “無知”問題。然而,人類基因編輯中的許多 “無知”問題在很大程度上并非缺乏知識或 “尚未”獲得知識,而是由于技術復雜性所導致的人類認知能力上的根本性欠缺。這主要是由于人類基因編輯的特殊性,使得基于 “假設—實驗—檢驗”的傳統科學研究模式面臨失靈 (人體本身的臨床實驗受到嚴格限制甚至成為 “禁區”)。在此情況下,基于現有科學知識的風險治理決策在很大程度上是 “以有限的知識解釋無限的現象、以確定解釋不確定性、以安全控制之想象處理不安全的領域”[14]。在遵守現有法律和科研 “紅線”或 “禁區”的情況下,人類基因編輯科學研究的推進不僅無法完全根除各種不確定性問題,反而可能出現貝克所謂的 “更多更好的知識往往意味著更多的不確定性”這一悖論[15]。人類基因編輯的許多最新研究成果正體現了這一點,相關研究在彌補了傳統認知欠缺的同時,所揭示的更多是尚未確定的未知問題。
第二,責任困境。人類基因編輯涉及復雜的責任問題,其中科學責任已經得到了廣泛強調。然而鑒于各種科學不確定性問題, “負責任研究與創新”的實現將面臨難題。例如,人類遺傳基因編輯的操作者如何對受影響的后代或其他公眾承擔責任即是一個棘手問題。另外,當前科學界對于人類基因編輯中各種不確定性問題的存在已經有了較大共識,然而在技術治理范式下,科學專家的咨詢意見仍然在很大程度上主導了監管決策,這一現象被稱為 “不確定性悖論”[16]。之所以如此,很大程度上是因為訴諸于科學專家及其專業知識有助于政府監管部門推卸其決策責任[17]。這種行為最終將會產生貝克所謂的 “組織性的不負責任”現象[15]。在 “基因編輯嬰兒”事件中,除了賀建奎本人被嚴厲處罰外,其他科學與政府監管機構卻未被問責,即是這種責任失靈的體現。
第三,信任困境。社會公眾對科學知識以及相關領域專家與政府監管部門的信任是技術治理范式的重要構成,這種信任關系也是科學技術有效傳播與應用的重要保障,這種信任的實質是公眾相信專家所代表的科學作為可信賴之知識的形象[18]。 “基因編輯嬰兒”的父母正是基于對科學的信任而選擇接受試驗,然而由此引發的嚴重后果卻表明了科學 “可信任性”的喪失。事件發生后的各種輿論質疑與批評,更是削弱了社會公眾對人類基因編輯技術以及相關科學專家可靠性的信任。正因如此,WHO專家委員會報告中特別強調要將改善公眾信任作為人類基因編輯治理改革的重要目標[1]。由于科學共同體自我監管只有在公眾信任科學家是服務于公共利益的情況下才會奏效[19],因此,這種信任的喪失也成為技術治理面臨的重要困境。
總之,科學不確定性的存在使技術治理范式面臨嚴重挑戰,然而當前的監管制度設計表明政府部門在很大程度上忽視或回避了科學不確定性問題,加之社會層面上普通公眾往往缺乏對科技風險的警惕和認知,由此共同導致風險問題被 “隱藏”,最終將形成所謂的 “制度性隱匿風險的遲滯型高科技風險社會”[20],因此有必要推動范式變革以走出風險治理困境。
對于人類基因編輯這種新興科技而言,科學不確定性的大量存在已經成為一種 “常態”現象。針對這一問題,訴諸于 “更多的研究”有助于降低或消除部分不確定性。當前科學界與政府部門在很大程度上均持有這種 “等待科學”思維。例如,當前的科研 “紅線”禁止人類生殖基因編輯臨床應用,但仍允許相關基礎性研究。就此而言這種 “禁令”只是 “部分性”和 “暫時性”的,其背后的深層邏輯仍然是一種科學技術 “進步觀”,即認為隨著科技自身的完善必然能夠消除負面問題,并造福于人類。
如前所述,由于人類基因編輯的特殊性,很多不確定性問題無法通過科學研究完全消除。因此需要思考如何在科學不確定性長期存在的背景下提升風險治理的有效性。本文認為,需要對技術治理的邏輯基礎或 “后設”問題 (科學理性、專家主導、技術創新導向等)進行深刻反思。在這方面,貝克等學者提出的 “反身性現代化” (reflexive modernization)理論具有重要借鑒價值。在貝克看來,現代化的 “反身性”首先意味著現代化自身的 “自我對抗”。也即工業現代化的發展造成了科技風險的積累與彰顯,而這反過來構成了對工業社會結構性基礎的挑戰甚至消解。科技風險的不斷產生暴露出科學自身的 “無知”問題,這種無知正是反身性現代化的動力[21]。同時,反身性還意味著重構現代性的可能,這取決于是否能夠對科學 “無知”以及支撐工業現代化發展的基礎性結構中的各種深層次問題進行徹底反思與變革。
借鑒貝克的理論邏輯,對于以科學理性為基礎的人類基因編輯技術治理范式而言,科學不確定性或無知問題的彰顯也是其走向 “反身性”或 “自我對抗”的根本驅動因素。為了走出技術治理的困境,需要進行一種 “反身性治理”的范式變革。反身性治理強調 “反觀”技術治理自身的內在邏輯,通過將不確定性、無知、差異性、非意圖后果等因素納入治理變革的基礎而謀求重塑社會發展路徑[22]。就此而言,反身性治理的對象不再僅是人類基因編輯風險自身,而是主要指向技術治理范式,是技術治理的 “再治理”。在明確了基本理念后,下文將從理性基礎、實踐模式與目標訴求等方面對反身性治理范式的基本構成進行討論。
科學不確定性或 “無知”問題的彰顯,促使我們對科學理性原則進行反思。有研究[14]指出,科學原本就容許不確定性,從文藝復興時代開始,科學為打破神學時期的權威思維,基本上是以懷疑精神,亦即以不確定性原則來尋求真理。不過,現代科學對不確定性的承認以及懷疑原則的應用基本上指向外部對象世界,而非科學自身,貝克[23]稱其為 “簡單科學化”或 “初級科學化”。與此相對的則是 “反身性科學化”,這種科學化把科學的懷疑主義擴展到其自身的內在基礎和外在結果上,由此科學的 “真理”地位便遭到去魅。因此,真正的理性是能夠自覺地意識到自身理性能力的有限性的那種能力[24]。
鑒于科學理性自身的局限性,需要從科學 “外部”或 “非科學”領域尋找新的理性來源,社會理性即是其重要體現。重要的是,要用社會理性來 “控制”科學理性,為科學技術指引合理的發展方向。對于人類基因編輯而言,從科學角度解決其 “是否安全”的問題固然重要,但更重要的是該種科技對于社會整體而言 “是否合理”或 “是否需要”的問題。當前激烈的倫理與社會論爭表明這些問題尚未有明確結論,此時人類基因編輯的 “冒進”必然缺乏充分的正當性。正因如此,著名學者Sheila Jasanoff[25]在對人類基因編輯治理的討論中建議國際科學界采取更加 “謙遜”的姿態,科學需要充分考慮更廣泛的科學之外的訴求 “以確定人類基因編輯是否是我們應該追求的方向”。
在對科學與社會理性之間的關系進行考察的基礎上,貝克提出了 “風險理性”概念,以回應科學不確定性背景下的理性重構問題。在貝克看來,風險理性代表了一種新的思維模式,強調風險認知的整體性、開放性與彈性。也即不能只局限于科學知識對風險問題的固有認知和判斷,而要從科學與 “非科學”的各個角度全面探究風險的各種可能來源與后果,并對新的知識來源或文化差異保持彈性[26]。就此而言,這種風險理性破除了對科學 “確定性”與理性支配的迷思,體現了對科學不確定性現象的重新審視。科學不確定性不再是一種需要解決或規避的負面 “問題”,它反而會為風險的有效治理提供新的可能性。就此而言,風險理性也是一種 “學習型理性”,主張在不斷的集體反思、溝通與學習過程中完善對人類基因編輯風險問題的理解,進而實現發展與安全、科技創新與公眾接受或滿意之間的平衡。有鑒于此,本文認為這種風險理性應當成為人類基因編輯風險反身性治理的理性基礎。
隨著對科學理性權威性的反思與批判,人類基因編輯風險治理實踐中科學專家的主導地位也將面臨挑戰。基于風險理性對集體反思與學習的強調,本文認為反身性治理所對應的應當是一種 “包容性審議”的實踐模式。包容性審議意在對風險治理決策過程中的理性價值與民主價值進行調和。一方面,該模式借鑒了 “審議民主”的基本理念,強調公民在理性思考的基礎上,經由自由、充分而平等的對話、討論等方式參與公共決策。另一方面,對 “包容性”的強調意味著參與審議或溝通對話的主體應當具有廣泛性,除了專家學者外,政府管理部門、社會組織以及普通公眾也應被承認具有參與審議的資格與能力。
之所以強調非科學主體甚至普通公眾的參與審議,其原因在于反身性治理要求對人類基因編輯風險問題進行重新 “框架”。在技術治理范式下,相關風險及治理被框架為 “科學問題”,由此科學專家壟斷了問題的界定與治理方案的設計。然而科技風險及其治理決策本質上屬于 “超科學”領域,科學之外的政治社會價值、法律規范與倫理道德等均是風險認知與治理中不可或缺的重要知識資源。如前所述,當前國際科學界也在強調人類基因編輯治理中公眾參與的重要性,但是這種參與的包容性極為有限。例如,有批評指出人類基因編輯相關國際委員會中沒有一位來自患者或殘疾人群體的代表, “他們本應成為基因編輯的直接受益者”[25]。而且現有的參與更多體現在程序或形式意義上,也即參與者要接受科學專家對風險問題的界定和診斷,并在由專家給出的治理方案中進行選擇。包容性審議則強調要承認并重視普通公眾的理性認知能力,實現 “程序性民主”向 “認知性民主” (知識民主)的轉變。
對包容性審議的強調,一方面是風險治理的理性基礎拓展或重構的需要,另一方面則是應對科技風險治理中責任缺失問題的必然要求。科技風險的產生在根本上源于人的決策或主動選擇,而責任與決定是相關的,做決定者須負責[26]。在當前的 “大科學”時代,科技研發不再只是科學工作者的行為,政府、企業與社會等主體也共同參與其中,因此,這些主體應當成為風險責任的共同承擔者。
在人類基因編輯領域,科學共同體的責任已經得到較多強調,然而政府與社會主體的責任卻在很大程度上被忽視。事實上,現代科學技術的發展很大程度上受到國家政策意圖的引導,因此政府部門需要為科技發展與應用的后果承擔責任。社會公眾對科技產品或服務的消費甚至追捧,也在客觀上推動了技術的發展。例如,2018年某機構針對人類基因編輯所做的輿情調查顯示,超過60%的普通公眾支持基因編輯技術研究與開發,超過60%同意個人或孩子應用該技術防治重大遺傳性疾病[27]。因此,社會公眾在人類基因編輯風險治理中的參與不僅是一項權利,更是一種責任要求。這種對科學、政府與社會主體共同責任的明確,有助于解決前述 “組織性的不負責任”問題。
當然,在包容性審議的具體實踐模式上尚有許多問題需要解決,如參與者代表的范圍與產生方法、審議對話的組織方式、相關爭議如何解決、審議結果如何應用等。不過,近期一些學者已經針對相關問題進行了思考和倡議。例如,有學者[28]在 《美國科學院院刊》發文呼吁人類基因編輯的包容性全球治理,認為應當改變由少數發達國家科學專家主導治理決策的現狀,認真考慮來自世界各地不同文化背景下科研工作者的差異性觀點。著名政治學者John Dryzek[29]聯合多名學者在 《科學》雜志刊文,倡導由世界范圍內隨機選擇的100名普通公眾組成全球公民大會來對基因編輯技術問題進行審議,這些倡導對于包容性審議理念與實踐的發展將起到重要的推動作用。
公眾對科學與專家的信任是技術治理能夠發揮作用的重要基礎。信任之所以如此重要,是因為在許多科學知識和技術原理問題上普通公眾的 “無知”,即不具備科學專家所掌握的專業知識。信任機制的存在使得公眾可以無需 “變成專家”就可以放心地使用科技產品。如前所述,科學不確定性與 “無知”問題的彰顯使得人類基因編輯領域科學與專家的 “可信任性”面臨嚴重挑戰,會導致技術治理合法性的喪失。這種對知識、信任與技術治理內在關聯的反思正是 “反身性”的基本要求。在此基礎上,還需要對反身性治理范式中信任的作用進行重新界定。由于在人類基因編輯等新興科技風險問題上,公眾、專家與政府等主體必然會存在一定的知識缺失或知識不對稱問題 (即有合作的必要性),此時基本信任關系的存在是相關主體良性互動與合作的前提。因此本文認為,信任的重建應當成為反身性治理改革的重要目標。
公眾在科學專業知識缺失情況下對科學專家的信任在很大程度上是一種 “盲目信任”,而科學不確定性問題的凸顯則使這種盲目信任難以延續。然而基本信任關系的瓦解將會導致更多的治理沖突,因此必須思考信任的重建問題。本文認為,信任的重建不是要恢復傳統的盲目信任,而是要建立一種新的信任機制即 “批判性信任”。批判性信任預設了公眾對 “科學的風險分析”提出質疑或異議的合理性,此時信任的構建需要建立在政府、專家與公眾之間充分交流與平等互動的基礎之上。在包容性審議實踐中,相關主體的參與對話可能在短期內難以達成共識,即便如此,仍有助于信任的構建。
相較于盲目信任,批判性信任建立在對科學不確定性問題有效承認的基礎之上。就此而言,一些科學專家與政府部門往往持有一種錯誤觀念,即認為對科學不確定性的承認將會損害科學的權威性,進而造成公眾對科學的不信任。然而真實情況可能恰恰相反,正如有研究指出的,民眾并不是因為期待科學家提供其無法提供的零風險和確定性而產生負面反應,而是因為科學家常常否認缺乏控制或否認自己的無知,其實人們反倒認為這些都是可以接受的[30]。從長期來看,對科學不確定性問題的承認不僅不會削弱科學的形象,反而有助于重塑公眾對科學體制的信任。
綜上,從知識與信任的關系來看,不同于盲目信任對公眾的 “無知”假設,批判性信任的實現建立在公眾有效的理性認知能力基礎之上。批判性信任事實上是一種 “認知性信任”,它所涉及的是基于知識的信任,其中尤為重要的是少數群體所擁有的知識[31]。當公眾自身的理性認知能力得到有效承認后,信任的構建也就具有了相互性,不僅要重建公眾對政府與專家的信任,更重要的是要實現政府與專家對公眾的信任。當前人類基因編輯治理中盡管也在嘗試通過公眾參與等途徑來改善公眾信任,但是仍隱含了對公眾理性能力的不信任。例如,WHO專家委員會報告指出,為了改善決策并獲得公眾信任,人類基因編輯治理機構必須對公眾進行努力教育和吸納參與[1]。本文認為,在科學不確定性背景下,這無助于政府、專家與公眾間良性信任關系的構建和長期維系。
當前,以基因編輯、人工智能等為代表的新興科技已經深度涉入人類社會生活的多個方面,也成為國際競爭以及各國政府大力推動發展的重要領域。然而,由于新興科技發展的快速性與復雜性,很難對科技應用的各種風險后果進行準確判斷,不同主體甚至科學專家之間在特定風險問題上難以達成共識,使得人類社會面臨更多的未知、不確定以及非預期后果。因此,科學不確定性的高度彰顯是新興科技發展面臨的重要問題,如何在科學不確定性背景下進行新興科技風險的有效治理則成為政府部門需要解決的重要問題。
本文以人類基因編輯風險為例,考察了傳統基于科學理性的 “技術治理”范式與科學不確定性之間的張力問題。本文認為,技術治理對科學不確定性問題的忽視或否認會導致風險治理的知識困境、責任困境與信任困境,進而造成風險的隱匿與應對遲滯, “基因編輯嬰兒”事件的發生即是典型體現。為了走出上述困境,需要對科學理性與技術治理的支配地位進行反思,將科學不確定性的存在作為治理改革的基礎。對此,本文提出一種 “反身性治理”理念,謀求通過對技術治理的 “再治理”而為風險治理提供新的思考方向。反身性治理強調要正視科學理性自身的局限性,并在科學 “外部”尋找新的理性來源,由此凸顯了對人類基因編輯等新興科技風險議題進行包容性審議的必要性。包容性審議意在超越形式意義上的參與,而將多元主體、價值與知識之間的廣泛對話與集體學習作為風險認知與治理的基礎,本文認為這將有助于知識、責任與信任困境的破解。
當然,本文更多的是一種理念上的反思和倡導,反身性治理與包容性審議在實踐層面尚有很多問題需要解決。而且以人類基因編輯為例進行的考察也有一定的局限性,因為不同的新興科技在風險屬性、爭議類型與治理風格上可能存在較大差異,很難簡單地適用單一的治理模式。本文的主要價值可能在于對科學不確定性問題的揭示,讓我們可以從一個新的角度來對當前新興科技發展及其風險爭議進行審視,而 “反身性”理念則有助于對現有治理模式的結構性基礎進行反思,并為未來的治理變革提供新的方向。