肖 峰
腦機接口(Brain-Computer Interface,簡稱BCI)是一種在人腦和計算機及外部設備之間建立起通信連接的技術,人通過它可以邁過自己的身體(肢體)而對外周設備實施“腦控”或“意念制動”,從而幫助身體殘障的人士重拾行動的能力,所以具有特定的治療作用,在此基礎上還可以走向增強,由此對人的身體和認知等方面形成深刻的改變。對于腦機接口這樣一種可以深度影響人的生存和發展狀態的新興技術,必然包含大量的倫理問題,從而需要遵循相應的倫理原則,其中既有一般的技術倫理原則(如善用、安全、公正、代價、責任等原則),也有特定的醫學倫理原則,以及在此基礎上衍生的需要專門側重于腦機接口的倫理原則,這就是知情同意原則、隱私保護原則和治療重于增強的原則等,可以說它們是腦機接口使用和研發中需要遵循的核心原則。
知情同意是醫學倫理中的一項重要原則,它是尊重人的自主性的具體表現,而腦機接口由于是旨在恢復人的自主性的技術,是可以滿足“恢復自為權和自主權”“增強自決權”等需求的技術,只有具備這樣的能力,一個人才有權由自己決定是不是“同意”使用腦機接口技術,由此牽涉到知情同意的問題。但腦機接口的需要者通常也是一些很難表達自己意愿的病人,有的還因溝通上的困難而難于全面理解腦機接口的利弊風險,使得他們無論是對于治療效果和風險權衡關系的“知情”,還是準確地表達自己是否“同意”(包括是否是建立在“知情”基礎上的同意)或猶豫以及為什么猶豫等,都顯得尤為困難,由此成為知情同意原則落實在腦機接口使用中的難題。
先來看看“知情”的復雜性。腦機接口的使用面臨知情同意方面的特殊困難,首先在于這種醫療手段可能導致的種種后果之“情”難以被簡潔清晰地闡釋清楚以及被充分地理解,從而達到透徹的溝通。例如,相對其他方案來說,BCI技術所帶來的風險和利益是否能被清晰地闡釋并為患者所理解?患者是否被告知并接受BCI將從其大腦中提取信息這一事實?患者是否了解提取這些信息后可能導致的后果(如隱私的泄露,甚至可能引起法律后果)?對于腦機接口在知情同意問題上的復雜性,拉奧(Rajesh Rao)這樣描述:在受試者是不能交流的閉鎖綜合征患者的情況下,應由誰來代替其進行知情同意?是否征得看護人的同意就足夠了?對于有認知障礙、不能完全理解使用BCI所帶來的風險與利益的患者,能征得他們的同意嗎?
一些很復雜的可能性后果如何使患者或受試者知情?尤其是當其不具備相關知識從而不能理解某些后果的“確切含義”時如何達到知情?如人腦在接入腦機接口后對機器的適應性可能導致中樞神經系統潛在的有害變化,甚至對人的身心完整性帶來風險,使得每個腦機接口的候選用戶必須被正確告知腦機接口誘導的大腦適應性和可塑性的潛在有害影響。而理解這種可能的有害影響,必須通過細致的解釋和溝通才有可能使患者明白。
另外,個體對BCI的知情常常還會受到公眾對BCI的知情水平的影響和制約,后者構成前者的知識背景。公眾對BCI的知情通常與媒體所進行的介紹和展望有關,媒體的介紹和展望不準確使得公眾了解的腦機接口知識也不準確,從而使得接受腦機接口治療的患者也對其寄予不切實際的希望。對此,腦機接口的一些業內人士甚至對媒體常懷“避而遠之”的態度,甚至提出具體的建議:在與媒體談論BCI時,最好不要對未來(3—5年左右)或目前無法預見的突破進行任何猜測。在哈斯拉格(Pim Haselager)看來,媒體可能對科學家的發言產生誤解或進行不充分的解釋,導致上述兩個問題變得更加嚴重。正如大多數與媒體打交道的人都知道的那樣,記者們頭腦中會有一個他們想要告訴受眾的特定故事,這是很正常的。即使事實并非如此,但媒體通常還是對可能發生的事情更感興趣,而不是報道科學家的懷疑和保留意見??茖W家的話也經常被支離破碎地引用,而不是出現在他們的完整信息中,從而很可能會被誤解,這種誤解如果再加以傳播,其危害就會變得難以預期。因此,一個負責任的媒體在介紹像腦機接口之類的新技術時,要盡可能明確地關注科學“確定性”中包含的普遍局限性,特別是BCI在當前的有限性;需要將話題和說明性案例的討論限制在短期內,避免誤解或夸張的標題,不能煽動公眾對新技術的過分主張或期望。可見,媒介倫理對于實現腦機接口的知情同意也是不可缺少的一環。
就是說,鑒于BCI研究存在獨特的風險,以及受試者很難全面地想象和理解這些風險,使得向患者詳細解釋BCI的風險、缺點和益處是至關重要的,但在實踐中非常復雜。尤其是對于植入式的有創傷的BCI的研究和應用,鑒于其潛在的風險而變得更加復雜,使得知情同意在BCI研究中尤其困難(尤其是在這種研究具有侵入性時)。
再來看看患者表達“同意”的復雜情況。腦機接口用來實施治療的對象常常是那些缺乏知情同意所需要的自主表達能力的患者。腦機接口本就是用于“恢復自為權和自主權”的,而有了這樣的自為自主能力后,人才能真正做到知情同意。也就是說,腦機接口作為治療手段所面對的對象有可能是因為神經系統疾病而喪失了自主表達的能力,那么如何才能獲得他們的知情同意?可以說,知情同意“對于非殘疾人來說是不太復雜的,因為他們不存在交流的局限性和心理狀態的不確定性”,但對于殘疾人來說,尤其是對于失去自主表達能力的患者來說,要告知其治療的信息并獲取其真實的意愿,則具有極大困難和挑戰性,因為患者可能連表達他們“同意”的能力都不具備;即使有了某種模糊的表達,也很難確定是在多大程度表示了他們的同意,是一種充分的同意還是勉強的同意。當然,腦機接口本來就是可以用來“讀心”的,所以當患者失去自主表達能力時,是否可以用腦機接口來探測其真實的意愿?于是知情同意是否可以被腦機接口本身來代理?在目前的技術水平或對腦機接口“讀心”的準確性的認可度上,這一代理的方案還很難得到普遍接受。因為至少在目前,認為BCI可以使那些根本不會交流的人進行交流,不過是媒體不恰當地夸大和粉飾所造成的誤解。
哈斯拉格等人還專門探討了患者表達的信號較弱或不可靠時所導致的在獲得同意方面面臨的挑戰:如何才能確定研究人員和醫生在多大程度上正確解釋了患者的同意、需求或其他的信息請求?在可靠地識別病人“是”和“否”的特殊信號之前需要進行哪些相關的研究?一個微弱或模糊的信號是在表明生理上無法做出清楚的反應還是在表達病人心理上的矛盾、困惑或優柔寡斷?我們如何知道病人是否能聽到并理解問題、病人是否有認知能力得到正確的答案,甚至病人在任何給定的時刻都是有意識的?如果患者改變了他們的想法,如何才能準確地知道這種改變?如此等等。弗萊克(Rutger Vlek)等人則引用了一則案例提出這樣的問題:僅僅出于對醫生的信任而表達的同意是不是真正的知情同意?醫生希望一位因中風而癱瘓的患者參與一項使用腦機接口是否可以加速康復的研究,該患者同時患有輕微的認知障礙,很難全面準確地理解這一研究存在的風險,但對自己的醫生十分信任。這種情況下,即使是患者同意,也可能并不是建立在知情同意的基礎上的,而可能是基于信任的強制性,所以有可能并不適合參與這一試驗。納切夫(Parashkev Nachev)等人則看到:完全的閉鎖綜合征(CLIS)患者伴隨著知覺能力、思維能力和注意力的普遍衰退,會逐漸成為受意識障礙影響的人,而這樣的人是否具有操作腦機接口所需的心智能力,這一點還不明確;目前關于意識的哪些方面必須存在才能使用BCI,以及如何在行為無反應的患者中檢測到這些必要的意識,還是一個棘手的科學問題。這都給用于治療的腦機接口帶來了知情同意上的困難。
面對BCI背景下知情同意的難題,研究人員既提出了某些應對的原則,也有各種力圖解決這一難題的構想。前者如,對于不構成重大風險的腦機接口,被試者只要能提供知情同意(Informed Assent,能回答是或否)就可參加,無須提供復雜的知情同意書(Informed Consent,能夠問問題)。后者如,研究人員有責任盡可能清晰地與患者溝通,在最簡單的層面上,包括確保明確地提出問題,并每次提出一個問題后,都給患者留出足夠的時間來考慮和回答。如果病人在回答問題時沒有“是”和“不是”的模態,而只是保持一種狀態“是”,則必須采取適當的步驟來區分這是自愿的還是非自愿的反應。還可以精心設計一些實驗,包括使用肌電圖追蹤,來對患者的回答加以客觀的驗證,甚至量化我們對患者交流能力的解釋。顯然,迄今還沒有什么簡單的倫理程序可以推薦給患者,但與患者進行反復且仔細地對話,應該能保證他們最大限度地了解BCI系統及其局限性和可能性。研究人員應該采取一切必要的措施來驗證患者對所討論問題的理解,可能通過適當的詢問“理解”問題,或者讓患者對風險和可能的好處進行評估。如果正在考慮的手術風險很高,那么要細致地了解:在何種程度上病人的決定是基于理性的,在何種程度上是基于絕望的(鑒于目前已知的治療方法都不能帶來希望)。需要盡可能確定病人不能接受的疼痛或風險程度。應澄清對BCI的期望,并小心地解決誤解。特里(Peter Terry)指出,獲得知情同意是一個過程,而不僅僅是在一張紙上簽字。顯然,如果病人的能力隨著時間的推移而下降,盡可能早地開始這個過程是可取的,并盡一切合理的努力解釋任何可能出現的情況。
歸結起來,如何判定交流功能部分或完全喪失的患者的意愿,醫生或實驗人員如何正確理解患者的意愿,如何使腦機接口的效益與風險為患者所全面而透徹地“知情”,這些都是腦機接口在當前用于治療所面臨的難題。雖然使用腦—腦接口來與患者直接溝通仍處于概念階段,但不失為將來更好地解決這一問題的依靠?;颊咴趯砜梢酝ㄟ^“腦溝通”來表達知情同意,這種腦溝通實際上也是通過腦機接口來獲得“有效理解和處理所提供信息的能力,她/他整合所提供信息以做出連貫的個人決定的能力,以及她/他感知臨床選擇的相關性的能力”。所以,當患者從不具有到具有知情同意的能力時,也意味著他/她在這方面借助腦機接口而成了正常人。也就是說,為了使腦機接口適應癥的患者能夠充分做到知情同意,還需要開發能夠進行腦溝通的更高水平的腦機接口;而追求和堅守知情同意的醫學倫理原則,也可以成為提升腦機接口技術水平的強大動力。
隱私保護是腦機接口使用中面臨的又一個重要的倫理難題。某種意義上隱私保護也是“知情同意”的另一種表述:在沒有得到信息被采集者的知情同意之前,不能將所采集的信息用于其他目的,否則就是侵犯了被采集者的隱私。同時,腦機接口如果被有意地用來竊取他人的隱私信息,無疑是對技術的一種不正當的使用抑或就是技術的惡用。
從技術特性上看,腦機接口是可以讀懂人的內心的技術;或者說,有效使用腦機接口的前提是要通過機器準確地“讀出”使用者腦中的所思所想,即“讀心”,這一環節使得大腦的信息即人腦深處的思想可能被徹底“坦露”在機器面前,而大腦信息可能是所有信息中最隱秘的和私密的信息,所以被專門稱為“腦隱私”(Brain Privacy),它包括從大腦觀測中獲得的一個人的記憶、思想、大腦的健康狀況及其他相關的信息。腦機接口所進行的腦信號監控,無異于使腦隱私完全透明化,其中包括腦機接口的使用者并不愿意被展露出來的隱私信息。當然,這樣的隱私如果僅為機器所“知曉”,似乎還問題不大,因為無意識的機器并不會利用這些隱私信息去“有意”作惡。但記載有隱私信息的機器一旦被其他人(如醫生和研究人員)所掌握和解讀,則會因隱私泄露而面臨后患。而且,這種泄露還可能有更多的方式甚至更糟的后果發生,例如,“在BCI和大腦之間進行無線通訊時,如果沒有進行加密或所使用的加密技術不夠強大,那么信息可能被截取……個人的思想、見解和信仰可能會被犯罪分子、恐怖分子、商業企業、間諜機構以及司法機關和軍事組織竊取、記錄和利用”。如果再有“腦間諜軟件”(brain spyware)的幫助,則無論記憶于腦中的腦信息還是存儲在數據庫中的神經數據都可能被攻擊者非法訪問,從而數字存儲的神經數據可能會被黑客竊取,或被用戶授權訪問的公司不當使用。這無疑會使隱私問題成為更加嚴重的倫理問題。
腦機接口的“讀心”功能導致隱私不保的問題,尤其是當BCI被不正當使用的情況下,更可能被當作惡意收集和利用他人隱私的手段,這已為多方面的倫理研究所揭示。如阿加瓦爾(Swati Aggarwal)等人認為:用于解碼人的情緒狀態的BCI非常接近于大腦閱讀;大腦植入物與大腦直接接觸,這可能會侵犯用戶隱私,與隱私有關的問題之一是信息安全問題,如果隱私信息被別有用心地利用,就會對用戶造成損害。克萊因(Eran Klein)等人則看到:當閉環設備記錄大腦的電活動時,它可以揭示各種信息,如心理特征、態度和精神狀態,如果這種信息被黑客有意竊取,則極可能對用戶造成有害后果。弗萊克等人指出:在使用腦機接口時,受試者可能沒有意識到從自己大腦獲得信息的程度,而BCI設備可以揭示出各種信息,這些信息可能會引發潛在的問題,如在工作場所中的歧視。安東尼(Sebastian Anthony)指出,腦機接口可能會為懷有惡意的人提供針對人們大腦的手段,如黑客可能會將圖像傳輸到BCI用戶的大腦,然后從用戶的潛意識大腦活動中提取知識,挖掘或竊取數據信息,甚至對被入侵者的大腦進行破壞和控制。伊恩卡(Marcello Ienca)和哈斯拉格還用“無線劫持”來描述可能發生于腦機接口領域中的隱私侵犯,一些黑客可能通過無線技術手段對神經刺激療法進行惡意的重新編程,產生有害的大腦刺激,并竊聽大腦植入物發出的信號,從而竊取他人的隱私信息。
即使是“正當”地使用腦機接口,也可能會“連帶”地牽涉到隱私暴露問題,如為了監控和改善一個人的注意力而佩戴腦機接口頭環時,也會同時發現其抑郁、焦慮、憤怒或疲勞等腦部活動狀態,而其中就可能包含BCI使用者所不愿透露的隱私情緒。
就是說,當人腦的信息可以被腦機接口“讀取”時,就意味著腦中的隱私有可能遭到泄露或竊?。灰坏┙由夏X機接口(包括植入腦機接口)后,我們的思想就處于可被全盤掃描、讀出和監控的狀態之下,使得“大腦竊聽”“人腦入侵”可能時時發生,我們就無時不處于泄露自己私密信息的危險之中。腦機接口此時形同于“探照燈”,接入它的人則形同在探照燈下“裸奔”,人的尊嚴受到嚴重侵犯,人的基本權利得不到保障。斯拉沃伊·齊澤克(Slavoj Zizek)這樣描述:在過去十年間,激進的數字化聯合掃描我們的大腦(或通過植入追蹤我們的身體進程),開辟了所謂的后人類前景,這實際上對內部與外部之間的扭曲關系構成了一個威脅,即我們正在面對一個對我們無所不知的外部機器,從生理到心理,比我們自己還要更懂我們;(這個機器)記錄了我們吃過、買過、讀過、看到和聽到的一切東西;懂得我們的情緒、恐懼和快樂,這個外部機器將繪制出一個比自我意識更準確的畫像。腦機接口的這種“功能”,當其成為一種被普遍使用的手段時,如果再被惡意地竊取隱私,就會造成人人自危的局面。
腦機接口的使用中不僅可以發生直接“讀心”而導致的隱私泄露問題,還可能產生因數據的生成和儲存所形成的隱私被侵犯的危險,因為這些數據中可以提煉出對個人特性的全面而準確的描述??怖?Turhan Canli)對此指出:“腦成像數據再結合一個人的生活史和遺傳信息,就可以十分準確地預測這個人的行為和性格?!痹趯嶒炛惺褂媚X機接口的一個重要目的是為了記錄和獲取大量的數據,對此,拉奧提出了一系列詢問:“在實驗中記錄的是哪一種神經數據?這些數據會揭示出一些受試者不愿意透露的個人信息嗎?這些數據要存儲嗎?如果要的話,需要存儲多久?又是出于什么目的呢?受試者的數據能與其他研究人員共享嗎?這些都是研究機構的倫理審查委員會在對部分人類受試者進行審核的過程中的典型問題?!奔词共皇侵苯拥碾[私信息,也可以通過“隱私挖掘”技術從腦機接口所記錄的數據中獲取大量隱私信息,類似于從一個人的神經元中“提煉”出他的隱私。人本來就置于大數據的監控之下,而置于腦機接口之下后,人比置于大數據之下更加“透明”,也更加軟弱,其受控和受制將更加徹底。
腦機接口的未來設想中還有所謂“心聯網”或“腦云接口”,即通過腦機接口實現人腦與人腦之間或人腦與云端數據庫之間的互聯。面對這一高級形態的腦機接口,首要的問題是“你愿意接入嗎?”顯然,如果選擇接入,你的個人隱私就可能全部暴露,你“內心世界”的一切都可能成為網絡上被“共享”的公共信息,你將完全失去內心的神秘性、神圣性、個體性和私人性,與那些沒有接入的人就會形成一種新的不平等,即在腦—腦接口中形成一種“單向接入”:我可以進入你的腦中直接讀取你的心靈,而你不能進入我的腦中讀我的內心;從而“我知你心”而“你不知我心”,形成一種不對等的腦—腦接口,這種不對等將是心靈深處的不平等,是基于對隱私掌控的最深重的不平等,因為一旦人腦中的隱私被掌握技術優勢的人所侵蝕,失去隱私的人就會淪為完全服從他人的奴隸。基于“讀心”的隱私竊取,最終可能進一步發展為“控腦”即控心的技術,這種技術可以“直接控制你的認知體驗,進而讓你改變你的看法。將來只要有幾個工程師研發出一種技術,人類對這個世界的體驗就會瞬間重塑”。所以如果不提前解決好隱私保護問題,將使人人都對“腦云接口”望而生畏。在施旺(Melanie Swan)看來,要想讓個人愿意加入云思維,其中的一些必要條件包括隱私、安全性、可逆性和個人身份的保留,至關重要。
腦機接口在以后還會以無接觸的方式存在,它可以通過極度靈敏的感受器來探測遠處的人腦信息,讀取其腦中的所思所想,人的內心世界成為很容易就可外在化的觀察對象,這必然對隱私的保護形成更嚴峻的挑戰,以至于不得不質疑腦機接口的使用是否意味著“隱私的終結”?可以說,大腦信息或數據是隱私的最終保留地,一旦它可以被容易和隨意地探測與收集,就不再有任何隱私可言。
隱私保護對人來說確實重要,因為如果沒有隱私,就不可能有真正的自由?!坝械恼軐W家認為隱私是一種基本的不能削弱的權利……隱私權是一種其他重要權利諸如行使個人自由或個人自主權的必要條件?!薄半[私是每個人真正自由的認證”,“它使我們做我們自己”,“實現真我”,并在與外界隔絕的情況下“變得更具有創造性,獲得精神上的發展機會”;它也是人們“對自己道德行為負責的一種方式”,“如果人們沒有隱私權,那么他們就要一直在公眾場合戴著面具,這不利于他們的心理健康”。而腦機接口使得直接訪問人的大腦(中的隱私)成為可能,許多神經倫理學家認為這將促使人類有必要更新基本人權,這就是對隱私的尊重。
同時,我們也需要用更全面更開闊的視野來分析這一問題。在現實中,一些技術的使用必須以讓渡一定的隱私為代價。通常的醫患之間也存在這樣的關系:如果患者為了保留自己的隱私而不將病情信息充分地告知醫生,就可能導致自己的疾病得不到適當的醫治。腦機接口的使用也與此類似:為了有效地發揮BCI的輔助功能,使用者必須讓渡自己的(一部分)隱私。凱文·凱利(Kevin Kelly)甚至因這種讓渡的好處主張我們改變對隱私的定義和看法,他把泛在的監控看作是“互相監控”,認為這是一種使人與人的關系更加對等的行為。他還舉例說明人被監控的好處:假設我是個賣菜的,菜市場里的攝像頭可以監控我,同時也會幫我看管財物,這就是監控的好處。他還認為隱私只需要有少量的存在,如果過多保留就會有害,例如,它可能被用來作為逃避責任的托辭。這也是一些互聯網倫理學所主張的觀點,“如果個人有太多的隱私,社會可能會受到危害”,因為,“有的人會利用隱私來計劃或者實施違法或不道德行為,很多惡行都是在隱私掩護下完成的”。
這些主要由互聯網帶來的關于隱私的不同看法,也啟示我們對腦機接口中的類似問題進行視野更為開闊的倫理評估。其實,這種開闊的視野說到底是尋求平衡的視野:既不能因為腦機接口的使用而造成人的隱私權受到威脅,也不能因為過度的隱私保護而棄絕腦機接口的使用,尤其是作為治療手段的使用。這里需要有收益與代價的分析,盡管十分困難,但也要盡力找好兩者之間的平衡點,細化出哪些隱私是可以公開的,哪些隱私是不能泄露的,在嚴格保護必要的隱私的前提下,適當放松對次要隱私的管理,以便給新技術的使用騰出空間。就研發人員來說,腦機接口技術的設計既要確保其“讀心”的精準性,又不能讓技術具有過度侵犯使用者隱私的功能。把握好這些平衡點后,再結合知情同意的原則,使腦機接口的使用者在明確知道隱私風險的存在及可能波及的程度的前提下,根據代價與收益的權衡比較而做出自主選擇。在哈斯拉格看來,這種知情同意甚至也包括在BCI研究中,應該盡早詢問患者,有關他們的信息在多大程度上可以用于出版物、會議或新聞發布,這應該成為一項政策。
可以說,起于治療的腦機接口不可避免地要走向增強,因為將其用于治療時就可能形成超出“正?!睒藴实脑鰪娦Ч?,甚至改變或提升健康的標準。醫學的基本目標之一是治療人們健康狀況不佳、異常或令人痛苦的東西。然而,評估什么被認為是功能障礙的標準必須重新檢查,因為不能簡單地參考物種典型水平的物種典型功能,因為人體的功能可能會以各種方式發生潛在的改變。就是說,由于治療和增強的界限有時是模糊不清的,腦機接口用于治療時難避涉及增強,進而走向專門的增強。一旦腦機接口從治療過渡到了增強,我們自然就會面臨“增強倫理”的問題。
腦機接口的增強倫理,某種意義上更是腦機接口的獨特倫理,它不能違背既有的醫學倫理,但又超出了既有的醫學倫理,因為醫學倫理主要針對的是治療,而增強雖然也可以視為治療的延展,但畢竟有性質的不同。所以,當腦機接口用于治療時,所遵循的也主要是既有的醫學倫理,但一旦延伸到增強,則需要建構新的倫理原則。如同約特蘭(Fabrice Jotterand)在討論腦機接口的倫理問題時所看到的:對于治療,除了與正確使用技術有關的問題(安全性,風險,避免不必要的傷害,生物相容性等)外,沒有提出新的倫理問題。當我們超越治療時,我們進入了一個未知的道德領域。由于人類增強(尤其是人性的改變)觀念提出了陌生的倫理挑戰,因此有必要探索其潛在的倫理和哲學含義。圍繞增強和改變的問題是對我們自己最深刻理解的核心,因此值得仔細研究。
增強倫理的不同還在于它與治療的腦機接口相比較來說,具有“假設性”。在腦機接口的先驅沃爾帕(Jonathan Wolpaw)看來,“恢復或替代自然的神經系統輸出,或改善自然的輸出使其等同于沒有殘疾的人的那種輸出;增強的腦機接口:增強或補充自然的神經系統輸出或提高自然的輸出以達到超常的水平——后者所引起的額外的倫理問題在很大程度上是假設的”。假設的倫理問題面對的是未來可能出現的情形,還不具有眼下的迫切性和現實的可實施、可檢驗性,其意義也就具有“懸而未決”的性質。但即使如此,人們也繞不過這些問題,這或許是人具有面向未來和未雨綢繆的天性所使然。
首先我們面臨的是增強的道德合理性問題:將腦機接口用于追求增強是道德的嗎?因為當腦增強超出醫學目的時,諸如安全,自由,真實性,平等,公平等道德價值觀可能會受到損害。用于增強的腦機接口因并非必要的治療且存在巨大風險,可以想象到的及想象不到的倫理和社會問題(如新的不平等)紛繁復雜,所以面臨的道德爭議很大。沃爾帕認為:“一些可以使人獲得更大優勢的新技術,具有加大社會分層乃至分裂的風險,所以貝爾蒙報告反對利用神經外科手術(植入式腦機接口)來增強自然中樞神經系統的輸出,由此提供了這樣做的根據:推遲BCI植入沒有殘疾的人,直到已經基本消除身體風險,已建立了獨特的益處,以及更好地解決了這些社會問題?!边@里的社會問題無疑包含了社會分化甚至分裂的問題,這一問題如果缺乏有效的解決機制,腦機接口用于增強的實施就只能暫緩。
但同時也要看到,追求更強大、更聰明是人的本能,如果永遠限制腦機接口的增強性研發和應用,腦機融合就很難取得實質性進展,技術使人得到新進化的潛力就可能得不到實質性的開發,人的體力和智力就可能永遠得不到實質性的提高,在這個意義上研發和使用增強性的腦機接口也是道德的。只不過,當其在與治療的用途發生沖突時,當其在安全性得不到保證時,就一味地追求增強,則是不道德的。所以腦機接口的增強需要在確保腦機接口安全的前提下才能進行。
腦機接口在未來作為一種增強技術來使用時,可能帶來的較為尖銳的倫理問題就是使一些人獲得競爭優勢而另一些人處于劣勢,從而造成人與人之間新的不平等。拉奧列舉了一系列由BCI增強帶來的這類問題:“腦機接口在未來能使人的記憶、感覺和身體得到增強這一事實,可能會導致社會的兩極分化,產生‘有增強’和‘沒有增強’兩種新類型。例如,富人們可能會讓他們的孩子在年紀還小的時候就植入BCI,讓他們在心理和身體能力上具有優勢。而那些沒有能力購買BCI的人毫無疑問會落后,從而可能產生嚴重的社會后果,這可能導致更大的貧富差距。類似地,一些國家能給他們的公民和士兵裝備BCI,從而對那些無法這樣做的國家形成鮮明的優勢,這可能擴大發達國家與發展中國家之間的差距?!边@樣,使用者和非使用者之間、國家與國家之間,從而人與人之間形成新的不平等。獲得BCI賦能的優勢群體與未獲得這種賦能的“劣勢”群體之間的差距有可能是天壤之別,社會排斥和沖突由此變得更為激烈和深重,社會的不公平也會加劇??梢?,腦機接口的增強倫理與技術的公平使用原則之間具有十分緊密的關聯性。
不恰當的應用還可能造成增強者的不利于社會的改變,如某些發達國家的軍方正在研究讓士兵更適合執行軍事任務的神經技術,這就有可能使這些士兵的大腦被迫接受腦機接口的干預,并被改變為更少同情心和更加好戰、成為更像“戰爭機器”式的人。這樣的人多了,顯然對世界的和平、社會的安定極為不利。當然,也可以根據其他的需要將人腦變得更加順從,這同樣會導致可怕的社會后果,即社會成員不再有“異見”,也不再有活力。
增強性腦機接口對大腦的改變還可能不只是針對部分人的,而是針對所有人的,這種前所未有的改變就是要造就出所謂的“超人類”,這是對人性或人的本質施加了根本性改變的結果。接受這一結果就意味著一種全新的倫理原則替代傳統的倫理原則,這種新倫理也被稱為“物種改變的倫理”,它牽涉到對一系列問題的“接受度”,如整個社會是否能夠接受由增強延伸到“改變”:對人作為自然形成的物種的一種新的技術性改變,從而在此基礎上造就出一種新物種。能進行增強和改變的腦機接口技術設備具有什么樣的“道德地位”?它們是否與“生物成分”具有相同的道德地位?我們是否允許將自然造就的人轉變為“技術控制的對象”?這其中也包括了人性改變(即人的“類本質”的改變)的道德接受度:人性的保持與人性的改變之間具有怎樣的張力?是否可以允許人們無限地改變自己的身體?是否需要以及在何處設置這種人性改變的極限?科學界應該制定進行這種人性改變的標準嗎?如果應該,那么根據誰的標準來設定對人性改變的限制?這些可能都是腦機接口用于增強乃至人性的改變時需要應對的前所未有的倫理問題。
通過腦云接口將自我意識和人生經驗的記憶上傳到“云端”或別的智能機器載體,或通過腦機接口對人腦進行掃描和模擬而形成數字大腦,其運行可以不再受到身體的限制,借助這些手段而實現人的技術化“永生”,這將是對“人皆有死”的生命觀和人倫觀的挑戰。關于永生的追求自有人類以來就從未止息過,只是源于“有生必有死”的主流信念,對于不死的永生在絕大多數人看來只是不切實際的幻想。一旦腦機接口技術以某種獨特的方式直接或間接地實現了所謂的永生,那么又需要建構一種什么樣的“生命倫理”來對這樣的追求或行為加以規范?進一步看,當人可以以無肉體的信息方式存在并“活著”時,建基于物質世界的倫理規則需要進行什么樣的改變?擺脫了肉體限制的“信息人”的自由是一種什么樣的自由?信息世界中的信息人之間的倫理關系如何建構?或者說,信息人之間還需要倫理關系來維系嗎?
可見,腦機接口的增強在將我們引向未來的發展時,也引入了未來的哲學與倫理學新問題,這些并不現實的倫理問題在當前確實只具有“科幻”的性質。但我們知道,腦機接口就正是由科幻變為現實的典范,誠如哈斯拉格所言:這種對BCI可能實現的目標的關注本身并不是令人反感的。如果沒有人期待在合理的時間內取得重要的進展,BCI就不會像現在這樣是發展最快的領域。而就與BCI的道德影響有關而言,潛在的問題發展需要在它們出現之前識別出來,以便它們可以得到適當的處理。所以提前思考未來的用于增強的腦機接口可能產生的道德倫理問題,對于BCI健康地走向未來無疑具有引領或“未雨綢繆”的意義。
總之,應對腦機接口技術的研發和應用中所面對的種種倫理難題,既需要技術水平的進一步提高(如腦腦溝通以解決知情同意問題),也需要專門的腦機接口倫理的建立和完善,即在技術努力和倫理建設“兩條戰線”上不斷提高對上述難題的破解水平。同時需要腦機接口技術的使用者、研發者、媒體等眾多參與者的積極協作,在推進新技術的安全性和有效性上形成互相支持的關系。此外,哲學的積極介入也十分必要,尤其在如何處理腦機接口使用中收益與風險、隱私保護與病情知曉、治療與增強、眼下與未來之間的關系上,用辯證的眼光和方法來加以平衡。只有將應對腦機接口倫理難題的各種手段和“工具”加以充分地開發和使用,人類才能在腦機接口時代到來時收獲更滿意的成果。