人工智能正在推動所有科學領域的進步。但四位前沿領域的科學家警告說,
要審慎使用人工智能。
人工智能(AI)的快速發展為科學進步提供了巨大潛力,但同時也引發了倫理問題。人工智能系統不僅可以分析龐大的數據集、檢測相關模式、優化資源配置并生成假設,可能還有助于人們應對氣候變化、糧食安全和疾病等全球性挑戰。然而,人工智能的使用也引發了與公平、偏見、歧視、透明度、問責和隱私有關的問題。圖像生成式人工智能程序可能會延續并放大這種偏見,例如將“非洲”一詞與貧困聯系起來,或將“貧窮”與深膚色聯系起來。此外,一些科技巨頭未能披露他們系統中的一些重要信息,這妨礙了用戶在問責方面的努力。
來自不同國家的四位研究者就人工智能在科學研究中的重大前景和潛在陷阱發表了看法。他們討論了獲得準確代表整個人群的數據集的必要性,以及理解人工智能工具局限性的重要性。非洲的專家警告說,人工智能系統應該惠及所有人,而不是進一步加劇富裕國家和貧窮國家之間的不平等。
羅斯 · 金:善用人工智能,堅持高道德標準
自1983年以來,我就在人工智能領域工作,當時我在榮譽學位論文項目中利用計算機模擬微生物生長。人工智能的潛力讓我深受鼓舞,因此我幫助組織了“圖靈人工智能科學家大挑戰”,這是一項旨在開發出到2050年能夠產生諾貝爾獎級別研究成果的人工智能系統的倡議。科技進步給人類社會帶來巨大變革:如今數十億人在生活水平上都超過了歷史上的英國君主,享有更優質的食物和醫療服務,以及更便捷的全球旅行和數字通信。但是,我們仍然面臨諸如氣候變化、流行病和極端貧困等重大問題。
在我的人工智能職業生涯中,我一直試圖讓科學變得更加高效。2009年,我和同事們制造了一個名為亞當(Adam)的機器人科學家,它是第一個可以進行酵母基因組學自動化研究的機器人。2015年,我們推出了夏娃(Eve),它是亞當的改良版,實現了早期藥物設計的自動化,尤其關注被忽視的熱帶疾病。我們證明了人工智能技術能夠顯著降低開發成本,這種方法目前已在制藥行業得到廣泛應用。夏娃發現,三氯生(牙膏中的一種常見成分)是一種強效抗瘧疾藥物。
只是在最近幾年,才有人真正開始關注人工智能可能帶來的倫理后果。然而,這已經有點為時過晚。如果“圖靈挑戰”取得成功,我們將擁有能夠改變科學但又具有潛在危險的智能體。這促使我們一群人在2023年的一次挑戰研討會上起草了《斯德哥爾摩人工智能科學宣言》。我們與其他簽署方共同承諾,會將人工智能用于造福人類的科學研究,并確認人工智能應有助于應對全球氣候變化和糧食安全等重大挑戰。我們還認識到,有必要進行嚴格的監督和問責,并建立安全防護措施,防范潛在的濫用行為。我們希望這份宣言能提高公眾對使用人工智能的隱患的認識。例如,避免偏見和歧視至關重要。如果訓練數據不能覆蓋整個人群,那么系統就無法做出準確的普適性推斷。
同樣,我們應當警惕人工智能系統可能會得出錯誤結論。以美國監獄中關押的人為例,歷史上黑人的監禁率遠高于白人,這與美國系統性的種族主義傳統有關。顯然,這種差異并非生物學因素所致,但一個僅基于監禁統計數據集進行訓練的人工智能系統可能會得出錯誤的推斷,認為這與生物學有關。因此,我們要非常小心,不能輕信大型語言模型所說的一切,而應審慎檢查其輸出結果。在科學研究中,你仍需為自己的工作負責,不能簡單地推卸責任說,“人工智能告訴我這么做的”。
我認為使用人工智能來處理數據、生成假設或提出實驗建議并沒有什么倫理上的問題。它只是一種工具。歸根結底,你的良知才是你的向導。
蘇萊什 · 文卡塔蘇布拉曼尼安:了解人工智能工具的局限性
在2013年的一次休假中,我開始從宏觀角度思考人工智能,并問自己:“如果我們在全世界范圍內使用機器學習,會發生什么?我們如何知道這些系統在做它們應該做的事情?”現在,我專注于研究自動化決策系統對社會的影響,特別是在算法公平性方面。算法不公平是指決策算法根據我們認為不應起作用的特征作出決策的情況。例如,一家科技公司用于招聘決策的算法可能會傾向于選擇男性而非女性。
2021年,我應邀擔任白宮科技政策辦公室負責科學與司法事務的助理主任,并參與起草了美國首個《人工智能權利法案》藍圖。這份文件提出了五個核心原則來保護個人權益,其中包括保護數據隱私和避免算法歧視。它與科學家息息相關,特別是當他們在研究中應用人工智能影響公民權利時,可能會影響到個人發展或獲得服務的機會。例如,作為一名生物醫學研究者,您可能正在開發醫療設備或設計治療方案,這些都會影響人們的生活以及他們在社會中發揮作用的能力。
《人工智能權利法案》將為人工智能從業者提供更具體的建議。我們在人工智能工具的能力和局限性方面需要有更好的指導。要知道,所有工具都有局限性。除非你別無選擇,否則你不會用螺絲刀去釘釘子。
公眾關于人工智能的討論大多停留在較宏觀的層面上,這樣的討論并沒有實際幫助。研究者們需要更加明確地關注人的需求,否則就無法真正理解他們開發的工具對社會產生的廣泛影響。比如,開發一種復雜而公平的評估工具來預測哪些人最不可能按時出庭,然后特別關注這些人,這種做法可能還不如直接給每個人發開庭日提醒信息來得有效。
在布朗大學,我領導著“技術責任中心”。我們思考的一件事便是如何讓廣大研究人員了解人工智能的能力邊界。
我們可以使用ChatGPT來為文章提供標題創意嗎?當然可以。我們能通過聊天機器人獲得問題的準確答案嗎?目前還不行,但請繼續關注。我們能依賴人工智能制定改變人生的重大決策嗎?幾乎可以肯定這是行不通的,至少在沒有重大保護措施的情況下是不行的。目前,我們正處于炒作人工智能的階段,很少有人討論這些工具的局限性。但重要的是,我們需要對此有一個全面的認識,了解這些工具適合做什么、不適合做什么。
尼亞倫 · 穆羅西:高效且合乎道德的人工智能需要有代表性數據
2016年,我為南非科學與工業研究委員會做過一個數據科學項目——利用社交媒體數據來了解當年地方選舉中的政治趨勢和情緒。很明顯,大部分討論都是由城市里的富裕選民主導的。我們沒有農村居民的聲音,而且老年人以及低收入群體在其中的比例也不高。我們還意識到,我們可以獲取人們不一定愿意主動提供的信息,比如他們的位置或關于家庭和朋友的細節。這些關于公平和隱私的問題都暴露了出來。這讓我對數據的代表性產生了濃厚的興趣:也就是說,哪些人被包含在數據集中,以及他們是如何被呈現的。
在非洲,數據代表性真的很重要。在驅動人工智能聊天機器人的大型語言模型中,大多數非洲語言的資源非常少,所以這些模型在執行諸如語言識別和翻譯等任務時表現不佳。一個典型的例子是在2024年國際計算語言學協會北美分會上發表的一篇論文。這篇論文顯示,當用于在特定數據集中識別517種非洲語言時,ChatGPT的平均準確率只有5%,但它卻能夠在77%的時間里識別出英語。人工智能需要靠歷史數據進行訓練,但由于這些人工智能系統沒有非洲國家的數據,因此并不適用于我們。開發者實際上還沒有“看到”我們。
當非洲的人工智能開發者拿到這些性能不佳的系統時,我們會迅速進入我們的社區,開始構建數據集。我們與這些系統互動,并對其進行修正,系統也在不斷地學習。最理想的情況是,我們能讓這些系統為我們工作,但由于我們并不擁有這些系統背后的公司,所以我們實際上是在無償地做這些工作。
因此,我們應該將資源集中在本土的研究人員和開發者身上,這樣我們才能開發出自己的系統。然后,我們就能使用自己的正確性衡量標準,并納入有意義的數據。Masakhane(祖魯語意為“我們共同建設”)是非洲最大的語言模型構建社區之一,現在已經構建了多個基準數據集,許多其他本地語言工具都是基于這些數據集開發的。
人工智能的另一個問題是,它可能會輸出社會無法接受的結果,比如谷歌照片應用將兩個黑人標記為大猩猩。現在,谷歌通過從他們的數據集中刪除“大猩猩”這個標簽,創建了永遠不會再犯這種錯誤的系統。當然,對于我們研究界來說,這可能并不是最佳解決方案,但它表明這種錯誤在美國是多么難以容忍。開發者和公司會將自己的身份、文化和政治觀點嵌入到他們的系統中。這就是為什么在當地構建人工智能系統很重要,因為我們知道自己對什么敏感,以及什么對我們的社區有意義。
我和我的人工智能開發者同事們認為,作為非洲人,我們需要學習足夠的知識來為自己開發這些技術。于是,在2017年,我們成立了非營利組織“深度學習Indaba”,旨在加強非洲的機器學習和人工智能。起初,我們只是舉辦了一個暑期班,讓人們來學習機器學習的基礎知識。如今,這個組織做的事情要多得多。我們的目標是讓非洲人不僅成為人工智能進步的觀察者和接受者,還要成為這些進步的積極塑造者和擁有者。我們了解我們的問題,并且擅長解決它們。
塞迪納 · 恩迪亞耶:防止非洲遭受人工智能驅動的殖民化
攻讀博士學位期間,我在法國圖盧茲的國家農藝研究所工作,研究如何使用人工智能優化冬小麥的種植。在非洲,人工智能可以發揮巨大的積極作用,特別是與聯合國的17個可持續發展目標聯系起來考慮時尤為明顯。這些目標要求我們共同努力解決貧困、饑餓、疾病和環境惡化等問題。人工智能在農業、健康和教育等領域取得的進展意味著它已經有可能應用于解決非洲的許多常見問題。人工智能也為加強對非洲多樣性文化的認同開辟了廣闊的前景。非洲人工智能界的人們已經感受到了制作非洲特色內容的熱情,這些內容可以與世界其他地區分享。我們也看到了由非洲人主導的非洲語言人工智能系統。
獲得博士學位后,我聯系了以前在塞內加爾大學的本科同學和教授,提出我們應創辦信息技術公司的想法,來確保我們在這一領域的主權,而不僅僅是進口產品的消費者。我們創建了幾家信息技術教育和軟件開發公司,包括SeySoo,該公司在塞內加爾、加蓬、布基納法索和法國提供信息技術服務和培訓。
在我職業生涯的起步階段,我對人工智能持有的是一種純粹積極的看法。然而在過去的15年里,人工智能的蓬勃發展更多地受到了經濟利益的驅動,而非以解決人類面臨的問題為導向,這讓我開始重新審視自己的觀點。
我擔心非洲正在被該領域的大國當作人工智能經濟全球鏈中獲益最少的一環來管理,這是違背非洲意愿的。他們將非洲視為難以在其他地方獲得的健康數據的來源,或是尋找從事數據分類和標注工作的低薪工作者的地方。我擔心這會讓非洲再次遭受殖民化。當談論非洲的殖民化時,我們想到的是對自然資源和人力資源的嚴重剝削,但殖民化最負面的影響無疑是文化認同和自主性的喪失,尤其是在技術創新方面。
人工智能的霸權之爭取決于三大支柱:計算能力、人才和數據。隨著國際競爭的加劇和全球需求的增長,這些資源變得越來越稀缺。北半球的發達國家和大型企業往往將目光投向南半球,尤其是非洲大陸,視其為人才和數據資源豐富的未開發之地。這種形勢下,非洲大陸面臨的風險(實際上這種情況已經發生)在于,其經驗豐富的人才會因為移民潮而流失,而那些受雇為數據工作者的非洲人會在工作條件不佳、薪資低廉、工作保障不足的環境中被剝削利用。
在眾多國際研究項目中,我們經常看到非洲合作伙伴被用來提供數據以構建模型,或者為大規模實驗提供框架。這種做法加劇了殖民主義傾向。若非洲研究人員在人工智能科學進程中的貢獻得到充分認可,我們便有望找到融合多元文化的創新解決方案。InstaDeep是一家由非洲人創立和運營的初創公司,在人工智能驅動的藥物發現、設計和研發方面取得了顯著進步,現已被生物技術公司BioNTech收購。
對于使用在非洲國家收集的數據的研究者而言,維護數據的保密性至關重要,尤其是涉及個人隱私的敏感信息,如健康數據。同樣重要的是,要確保那些為人工智能模型提供數據的非洲人能夠從這些系統中獲益。
如果我們期望發展由所有人共享、共創的負責任的人工智能技術,就要確保非洲大陸不被拋在后面。這主要是非洲政策制定者的責任,他們需要將人工智能作為優先事項,并為非洲研究人員和企業家提供創新所需的資源。國際研究界也可以提供幫助,包括將非洲的專業知識和經驗納入項目中,并仔細考慮如何使用非洲數據。全球合作伙伴可以幫助非洲研究人員成為為非洲和世界提供令人驚嘆的人工智能解決方案的創造者。
資料來源 Nature