999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

構建可信賴機器翻譯系統的基本原則
——一種基于工程倫理的觀點

2021-03-07 16:27:22張霄軍邵璐
外國語文 2021年1期
關鍵詞:人工智能工程系統

張霄軍 邵璐

(1.西交利物浦大學 翻譯系,江蘇 蘇州 215123;2. 中山大學 外國語學院,廣東 廣州 510275)

0 問題的產生

近年來,面對人工智能和機器翻譯所取得的突出進步,尤其是神經網絡機器翻譯在機器翻譯譯文的可讀性方面大幅提高,這就使得高校翻譯專業不得不面對這樣一個問題:人工智能時代翻譯專業該怎么辦?其實,這是一個市場“倒逼”的提問,比這個問題更加尖銳的問題是:翻譯專業會不會消亡?機器翻譯是否會取代人工翻譯?

“機器翻譯與人工翻譯”的問題在2014年德國柏林召開的第20屆世界翻譯大會上得以顯化,該屆大會的主題就是“人工翻譯還是機器翻譯?翻譯工作者與術語學家的未來”(Man vs. Machine? The Future of Translators, Interpreters and Terminologists),自此拉開了翻譯研究技術轉向的序幕(張霄軍 等,2014)。之后機器翻譯甚囂塵上,翻譯“大事件”層出不窮,如百度機器翻譯2015年正式上線神經網絡機器翻譯系統并獲得國家科學技術進步獎二等獎、谷歌于2016年發布神經網絡機器翻譯引擎、2017年微軟翻譯發布神經網絡機器翻譯系統、2018年博鰲論壇騰訊同傳登臺亮相、科大訊飛宣稱2019年其語音翻譯將達到“專業八級”水平,等等。然而,我們發現,引領上述“大事件”的大都是機器翻譯公司或者人工智能企業,韓林濤(2019)認為由于商業炒作而產生的斷言“以偏概全、夸大事實”,但不得不承認我們已經來到一個“無技術不翻譯”的時代(任文,2019)。這也引發了學術界對該論題的憂思與爭論。蔡基剛(2020)認為“隨著機器翻譯時代的到來,高校翻譯專業必然走向消亡”,他認為“技術文本和政治文獻的機器翻譯替代人工翻譯在未來幾年就可以實現”;李長栓(2019)則認為“要想通過機器翻譯,實現自然語言的處理,恐怕還有很長的路要走;也許永遠沒有實現的一天”;祝朝偉(2018)直接斷言“機器取代人不過是不證自明的偽命題”。陳偉(2020)從機器翻譯對譯者主體性結構說明“機器翻譯無法完全取代人工翻譯”;劉和平和梁爽(2019)則提出翻譯的教與學應該“擁抱技術”,而不是畏懼和排斥技術。

其實,無論是“人工智能時代翻譯專業最終走向消亡”還是“機器翻譯會取代人工翻譯”,真正從事機器翻譯研發的科學家很少提出這樣的論斷。對于機器翻譯研發者而言,機器翻譯系統的開發與應用是一項系統工程,任何未經檢驗的論斷都會涉及人工智能和機器翻譯技術的工程倫理問題。正如王華樹(2020)在回答《翻譯技術100問》中“機器翻譯是否會取代人類譯員?”這個問題時所言:“機器翻譯目前還存在著許多技術和倫理層面的問題,同時也給人類帶來了新的機遇。”目前討論人工翻譯能否被“取代”為時尚早,我們應該盡快厘清的是機器翻譯的工程倫理問題。

1 人工智能和機器翻譯技術的工程倫理問題

工程倫理是對在工程實踐中涉及的道德價值、問題和決策的研究(李世新,2010)。也就是研究如何開發對人類有用卻不會傷害人類的系統,系統開發過程中如何保護隱私,如何確保系統安全性和魯棒性,等等。機器翻譯技術是用計算機來模擬人的翻譯能力,是人工智能技術的一個重要分支,兩者“本是同根生,在發展過程中幾經浮沉,同甘苦共命運,它們之間存在著密切的聯系”(馮志偉,2018)。因此,人工智能從業者所面臨的工程倫理問題同時也是機器翻譯研發者所面臨的工程倫理問題,兩者并無二致。鑒于機器翻譯和人工智能在各自發展歷程中具有相似的特征以及人工智能專家和機器翻譯工程師在職業發展中的雷同性,我們將這兩者的工程倫理問題歸并到一起進行討論。人工智能和機器翻譯技術的工程倫理指的是人工智能和機器翻譯系統或者產品在設計、研發過程中所產生的倫理問題。

1.1 工程倫理的制度化建設問題

在制度化建設方面,一個直接相關的就是職業注冊制度問題。人工智能行業從業者和機器翻譯研發者應不應該注冊某種職業資格,要獲得何種職業資格證,目前尚無討論。在美國和英國,目前推行的是職業工程師執照制度,要求工程師申請職業工程師執照(professional engineer,簡稱P.E.執照)。在我國推行的是國家職業資格證書制度,規定“對從事技術復雜、通用性廣、涉及國家財產、人民生命安全和消費者利益的職業(工種)的勞動者,必須經過培訓,并取得職業資格證書后,方可就業上崗”。然而,在人力資源社會保障部印發的《關于公布國家職業資格目錄的通知》公布的140項國家職業資格目錄中,對人工智能從業者和機器翻譯研發者并無明確規定。這意味著大多數人工智能和機器翻譯工程師無法以可能會被吊銷資格證的方式來抵制參與不遵守倫理道德的行為。

制度化建設的第二個方面是工程社團和社團倫理章程的制定。在促進工程倫理的建設中,工程社團應起怎樣的作用?對此,學術界有不同的看法。比較一致的觀點:(1)社團是探討技術爭論和倫理紛爭的最好的場所;(2)職業社團應當促進而不是實施工程倫理建設。工程社團通常會制定行業的倫理章程來確立工程師應關注的主要的倫理領域。然而,對于章程的性質和功能卻存在著爭議。中國人工智能學會、中國中文信息學會和中國翻譯協會是三個在民政部注冊的一級學會,也就是我國人工智能從業者和機器翻譯研發者賴以解決倫理紛爭和制定倫理章程的工程社團。然而,對于并不隸屬于上述任何一家社團的從業者,倫理章程所包含的標準、規則、原則和理念是否同樣適用呢?

制度化建設的第三個方面是工程倫理教育問題,即工程倫理在學科體系中的地位問題,目前能夠達成共識的是工程倫理教育是工程教育的一部分。此外,馮志偉(2005)論證了自然語言處理是一個多邊緣的交叉學科,機器翻譯是自然語言處理的一個任務。那么人工智能和機器翻譯技術的工程倫理應該納入工程學工科學科體系還是語言學/翻譯學文科學科體系?如何將工程倫理的內容融入現有的教育體系中?有無開設相應必修課或者選修課的必要,還是不單獨開設倫理課程而要求在授課內容中包含倫理的內容?

1.2工程師的責任和義務問題

20世紀70年代之前,大多數的工程倫理章程認為,工程師的首要義務是對客戶或雇主的忠誠,而很少提到對公眾所承擔的義務。1974年,美國職業發展工程理事會(Engineering Council on Professional Development,ECPD)采用了一項新的倫理章程,該章程認為,工程師的最高義務是公眾的健康、福祉與安全?,F在,幾乎所有的章程都把這一觀點視為工程師的首要義務,并稱之為“首要條款”。當工程師發現首要條款被違反時,舉報在道德上應該是必需的,或至少是允許的。這其中當然有商業利益的考量,利益沖突是近年來頗受關注的話題。某些職業利益會威脅一個人的職業判斷從而使其判斷變得不可靠,或者與人們所期待的相比變得不容易讓人們信服。盡管機器翻譯研發者不能確定其研發的系統能否實用,可一旦資本涌入想要商業化其系統,很難有研發者拒絕如此豐厚的商業利潤,甚至會為系統商業化而沾沾自喜,并以此高估其系統性能。

1.3工程活動與社會政策問題

工程活動對環境的影響已得到普遍認同,但對于工程師對環境是否應承擔責任以及這種責任的基礎和范圍是什么,仍存爭議。其中一個核心問題是,是否只有當人類的健康和福祉受到明顯威脅的時候接受對環境的責任才是充分的,或者說,是否應該出自環境自身的原因而關注環境。人工智能和機器翻譯等信息技術產業看起來貌似是對環境不會產生太大影響的綠色產業,然而隨著人們駕馭信息技術能力的增強和公眾對人工智能產品的依賴,人類賴以生存的生態環境、工作環境和家庭環境都在發生深刻的變化。以機器翻譯為例,隨著語音識別技術和機器翻譯質量的提高,一種全新的會議口譯新模式正在形成。新模式下,口譯員更加“隱身”,取而代之的要么是口譯員語音即時轉寫后以字幕的形式投射到會場的大屏幕上或者聽眾席的小屏幕上,要么是發言者語音即時轉寫后經機器翻譯將翻譯結果以字幕的形式投射到屏幕上。這就需要給會場增加投影和屏幕,聽眾席上也要增加可視設備,如此會議口譯會場的生態環境就會發生了改變。隨著5G網絡的普及,互聯網數據傳輸的容量越來越大,傳輸速度越來越快,這就使得遠程即時翻譯,尤其是遠程口譯成為現實,口譯員的工作環境發生變化。借助自動口譯設備和機器翻譯系統,不同國度交流越來越便利,國際家庭的組建也越來越多,家庭成員之間的溝通也越來越依賴自動口譯設備,家庭環境也在悄然發生變化。同時,人工智能驅動翻譯模式轉向眾包,基于網絡的眾包翻譯模式的興起也“重寫”了翻譯倫理。上述因機器翻譯技術而發生變化所帶來的環境倫理問題鮮有討論。

馬丁(M. W. Martin)和欣津格(R. Schinzinger)認為工程是一種“社會實驗”,這種實驗給“實驗”的對象(公眾)帶來了一定的風險(李世新,2010)。然而,什么是可接受的風險?誰來確定這種風險?翻譯客戶能否接受機器翻譯系統所產生的譯文?在多大程度上采用機器的譯文?機器翻譯譯文質量到底如何?如果因機器翻譯的譯文質量造成了交際失誤或者交易失敗,機器翻譯譯文提供者和機器翻譯譯文使用者誰該承擔主要責任?供應商傾向于功利主義,通過可能性的產物和傷害的大小來定義風險,他們認為,如果潛在的收益超過了潛在的危害,那么這種風險就是可接受的。但是,公眾卻試圖將可接受風險、自由和知情同意以及風險和收益的合理分配聯系起來。在這種實驗性的社會活動中,工程師們又該如何去確定和規避實驗風險?

工程活動是一種職業行為,什么樣的職業行為是社會所期待和所信賴的?我們之所以會向醫生毫無隱瞞地坦陳病情是因為我們信賴醫生;我們之所以會心安理得地住在高樓大廈中是因為我們信賴建造工程師。那么,公眾會像信賴醫生和建造師那樣信賴人工智能產品和機器翻譯系統嗎?怎樣的職業倫理準則才能滿足(或符合)這種社會所給予的信賴呢?對社會而言的職業信賴對于建設和諧社會是必不可少的。遺憾的是,這些問題至今尚未得到充分研究。

2 人工智能技術的倫理原則

2018年6月7日,谷歌(Google)發布了七條人工智能應用的“倫理原則”(1)https:∥ai.google/principles.,包括:(1)對社會有益(Be socially beneficial);(2)避免制造或強加不公平的偏見 (Avoid creating or reinforcing unfair bias);(3)提前測試安全性(Be built and tested for safety);(4)對人類負責(Be accountable to people);(5)保證隱私(Incorporate privacy design principles);(6)堅持科學高標準(Uphold high standards of scientific excellence);(7)從主要用途、技術獨特性發展(Be made available for uses that accord with these principles)。

無獨有偶,2019年4月8日,歐盟委員會發布了《可信賴人工智能的倫理準則》(EthicsGuidelinesforTrustworthyAI)(2)https:∥ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai.,報告提出了四項倫理準則:

(1)尊重人的自主性(Respect for human autonomy)。人工智能系統不應該脅迫、欺騙和操縱人類。相反,人工智能系統的設計應該以增強、補充人類的認知、社會和文化技能為目的。人類和人工智能系統之間的功能分配應遵循以人為中心的設計原則,而且人工智能系統的工作過程中要確保人的監督。人工智能系統也可能從根本上改變工作領域。它應該在工作環境中支持人類并致力于創造有意義的工作。

(2)預防傷害(Prevention of harm)。人工智能系統不應該引發、加重傷害,或對人類產生不好的影響。因此需要保護人類的尊嚴和身心健康。人工智能系統和運行的環境必須是安全的。因此要求技術上必須是魯棒的,而且要確保人工智能技術不會被惡意使用。尤其要注意可能會惡意使用該技術的人和可能會造成不良影響的應用場景。

(3)公平性(Fairness)。人工智能系統的開發、實現和應用必須是公平的。雖然對公平性可能會有不同的解讀,但是應當確保個人和組織不會受到不公平的偏見、歧視等。如果人工智能系統可以避免不公平的偏見,就可以增加社會公平性。為此,人工智能系統做出的決策以及做決策的過程應該是可解釋的。

(4)可解釋性(Explicability)。可解釋性對構建用戶對人工智能系統的信任非常關鍵。也就是說整個決策的過程、輸入和輸出的關系都應該是可解釋的。但目前的人工智能算法和模型都是以黑盒(black box)的形式運行。

谷歌公司和歐盟委員會發布的上述人工智能倫理準則為突飛猛進的機器翻譯技術發展提供了工程倫理借鑒?;诖耍覀兛偨Y了實現可信賴的機器翻譯系統的七個關鍵原則。

3 可信賴的機器翻譯系統的七個原則

3.1人本性(Human Centricity)

人工智能系統應通過支持人的能動性和基本權利以實現公平社會,而不是減少、限制或錯誤地指導人類自治。機器翻譯也不可以脫離人的監督直接去實現語碼自由轉換。事實上,ALPAC報告之后,機器翻譯研究已經放棄了“全自動高質量機器翻譯(Fully Automatic High Quality Machine Translation, FAHQMT)”的企圖,轉而向“人助機譯(Human-aided Machine Translation, HAMT)”或“機助人譯(Machine-aided Human Translation, MAHT)”方向發展。近年來,隨著統計機器學習和深度學習技術在機器翻譯中的廣泛應用,系統運算能力的增強和訓練語料的不斷豐富,機器翻譯質量得到了大幅提升,“機器翻譯替代人工翻譯”的論斷才有了傳播的基礎。然而,此類武斷的說法大多來自市場宣傳而非出自系統研發人員之口,但普通用戶并不知其所以然,所以在一定程度上迷惑了消費者,造成大眾對機器翻譯不切實際的期望,產生了不良后果。人類的監督可以幫助確保機器翻譯系統不影響人類自主或產生不良后果。監督可以通過不同的管理機制來實現,包括human-in-the-loop(HITL)、human-on-the-loop(HOTL)、human-in-command(HIC)等方法(3)人機協同的方式,按照機器的自主權限從低到高,分為“人在環中(in the loop)”“人在環上(on the loop)”“人在環外(in command)”三種。。根據機器翻譯系統應用領域和潛在的風險,可以實現不同程度的監督機制以支持不同的安全和控制措施。

3.2魯棒性 (Robustness)

可信賴的人工智能系統的關鍵部分就是技術魯棒性,這與歐盟委員會發布的《可信賴人工智能的倫理準則》中的預防傷害原則是緊密相關的。技術魯棒性要求算法足夠安全、可靠和穩健,以克服人工智能系統所有生命周期階段的錯誤或者不一致。機器翻譯系統應該防止被黑客攻擊或出現可以被攻擊的漏洞。黑客攻擊可能是針對翻譯或者語言模型的、也可能是針對訓練數據的、也可能是針對底層基礎設施的,包括軟件和硬件。如果機器翻譯系統被攻擊,其中的數據和系統行為可能會被修改,導致系統產生不同的翻譯結果。機器翻譯系統應該有出現緊急情況的備用方案——機器翻譯系統可能從基于統計的決策轉為基于規則的決策,或者要求詢問人工譯員才可以繼續(計算機輔助翻譯或者交互式機器翻譯),必須保證系統所做的一切都不會對用戶造成傷害。良好的機器翻譯系統開發和譯文質量評估過程可以支持、緩解和糾正出現不準確的機器譯文及其所帶來的潛在風險。如果偶爾不準確的譯文不可避免,那么系統應該要能計算這種錯誤情況發生的概率。在可能會對人類生命安全帶來影響的機器翻譯系統中,譯文準確度的要求是非常重要的,比如在衛生健康領域和刑事司法領域的應用。

3.3私密性(Confidentiality)

人工智能系統必須確保系統的整個生命周期內部都要確保隱私和數據保護,這既包括用戶提供的信息,也包括用戶在和系統交互過程中生成的信息。用于機器翻譯系統訓練和測試所用的數據不會被用來傷害或歧視數據的所有者和用戶,同時要確保收集的數據不會用于非法地或不公平地歧視用戶的行為。訓練語料(數據集)的質量對機器翻譯系統的性能非常關鍵(劉群,2003),但特定機器翻譯系統開發(如對話機器翻譯)收集的數據可能是含有偏見的、不準確的、有錯誤的。這些數據在訓練之前要進行清洗,去除這些有偏見的、不準確的、有錯誤的數據,但同時又要確保數據的完整性,如在對話機器翻譯系統中,就要完整保留說話者信息(Wang et al., 2017)。如果說話者信息必須保密,那就需要對語料進行脫敏處理,比如用特定標記標注說話者信息等。如果給機器翻譯系統的訓練數據是低質量的甚至是惡意的,就可能會改變機器翻譯系統的整體性能。因此,在規劃、訓練、測試和實現的整個過程中都要對數據集進行測試和處理。系統在處理數據時,都會用到管理數據訪問的數據協議,該協議應該列出誰以及什么情況下可以訪問數據。

3.4可解釋性(Explicability)

人工智能系統應確保相關元素的可追溯性,包括數據、系統和商業模型。因此,機器翻譯系統產生決策使用的數據集和過程也都應該記錄下來以備追溯,并且應增加透明性,具體包括收集的數據和算法使用的數據標記??勺匪菪栽跈C器翻譯系統中通常被稱為可解釋性。可解釋性就是要解釋機器翻譯系統的技術過程和相關的決策過程。技術可解釋性要求機器翻譯所產生的譯文是可以被人們所理解的。在機器翻譯系統會對人類的生活造成重大影響時,就需要機器翻譯系統的決策過程有一個合理的解釋。此外,人類有權知道與其直接進行對外交流的是譯員還是機器翻譯系統,這就要求機器翻譯系統可以被識別。出現譯文質量糾紛時,要能明確權責,讓客戶知曉誰該為翻譯服務負責,誰又該為譯文質量負責。

3.5公平性 (Fairness)

人工智能系統應考慮人類能力、技能和要求的總體范圍,并確??山咏?。該要素與歐盟委員會發布的《可信賴人工智能的倫理準則》中的公平性原則是緊密相關的。因此,機器翻譯系統所使用的數據集會不可避免地存在歧視、不完整和管理不當等問題。這類數據集的歧視可能會造成機器翻譯系統的針對特定人群或個人的歧視。機器翻譯系統開發的方式也可能會出現不公平的歧視問題,可以通過一種明確的、透明的方式來分析和解決系統的目的、局限性、需求和決策。尤其在垂直領域,機器翻譯系統可能是以用戶為中心的,以一種允許所有人都平等地使用機器翻譯產品和服務的方式,即無論年齡、性別、能力和其他特征,因此針對殘障人士的輔助功能就顯得格外重要,特別是在口語機器翻譯系統研發中。因此,機器翻譯系統的設計不應該采用一種通用的設計,為了開發出可信賴的機器翻譯系統,建議對受系統直接或間接影響的利益相關方進行咨詢。

3.6可復現性(Replicability)

可復現性指人工智能專家要能夠準確地描述人工智能系統的行為和公開實驗方法、算法和數據,方便其他人工智能研發者進行驗證和再次實現。人工智能系統的結果必須是可復現的和可靠的,要對人工智能系統進行詳細檢查以防產生意外。機器翻譯系統的復現依賴譯文評價機制和系統代碼與數據開源情況。評價可分為人工評價和機器自動評價,前者可解釋性強但耗時費力花錢,后者快速方便但可解釋性較差。如何設計和開發一個客觀科學的機器翻譯譯文評價系統是目前制約機器翻譯發展的一個瓶頸。系統代碼和數據開源在機器翻譯研究中做得相對成熟,Github(4)https:∥github.com/.等平臺為代碼和數據開源提供了足夠的空間,arxiv(5)https:∥arxiv.org/.等網站為科研產出評價和共享提供了共享和同行評審的平臺。同行評審包括對研究算法、數據和設計過程的評估,也包括對研究實驗的復現結果。

3.7可持續性 (Sustainability)

人工智能系統具有積極促進社會變革、增強可持續性生態之責任。一般情況下,人工智能系統大都是為了解決一些迫在眉睫的社會難題,同時又要保證盡可能以環境友好型的方式出現。因此,機器翻譯系統的開發、實現和使用過程,以及整個供應鏈都應該進行這方面的評估。同時,機器翻譯系統在社會生活各領域的應用,可能會改變我們對社會機構的理解,影響我們的社會關系。機器翻譯在增強我們的社交技能的同時,可能也會減弱我們的社交技能,會對人們的身心健康帶來影響。機器翻譯在翻譯教學和二語寫作教學領域也會產生爭議,并日漸影響學生的翻譯和寫作習慣。同時要考慮評估機器翻譯應用對民生、社會的影響,因為機器翻譯系統極有可能應用于政治決策和外交內聯等的政治進程之中(傅瑩,2019)。

4 結語

技術可以被理解為廣義的技術——一種旨在控制自然(和人類)的方法,這種方法奠基于一套嚴格、客觀中立的方法之上,將所處理的對象一律視為僵化的客體。然而,我們不能簡單地拒絕現代技術。首先這是不可能的,我們已然生活在現代技術之中,我們對生活的理解都深深地涉及技術。其次,這也是不可逆的,因為放棄技術意味著放棄技術為我們帶來的巨大福利。我們需要的首先是發展技術,其次是遏制技術的發展。如何遏制?這就需要倫理學的規范和約束。工程倫理學的產生促進了安全和有用的技術產品并給工程師的努力賦予意義,也直接地增強工程師在工程中有效地處理道德問題復雜性的能力,增進工程師的道德自治,即理性地思考以道德關注為基礎的倫理問題之習俗與技能。越來越多的技術研究者和應用者,尤其是人工智能技術應用領域的專家開始意識到倫理的重要性。谷歌公司和歐盟委員會發布的準則就是負責任的人工智能產業代表和有擔當的政府部門對此發出的積極響應。在學術界,斯普林格出版社(Springer-Verlag)正在編輯出版“工程技術哲學”系列叢書(SeriesofPhilosophyofEngineeringandTechnology),目前已出版《技術的規范》(NormsinTechnology)、《技術為善》(DoingGoodwithTechnologies)等32部著作(6)https:∥www.springer.com/series/8657?detailsPage=titles.。在自然語言處理領域、技術倫理和工程倫理的探討也逐步深入。目前已經連續召開了兩屆以“自然語言處理的倫理”(Ethics in Natural Language Processing,EthNLP)為主題的國際研討會,第一屆2017年在西班牙瓦倫西亞召開(7)http:∥www.ethicsinnlp.org/ethnlp-2017.,第二屆2018年在美國新奧爾良市召開(8)http:∥www.ethicsinnlp.org/.。

在國內,對機器翻譯的過度宣傳一方面引發了行業對這一技術應用的憂思,另一方面也催生了一些學者對機器翻譯技術倫理學的探討。討論人工翻譯能不能被機器翻譯所取代的基礎是機器翻譯的工程倫理,如果沒有厘清機器翻譯的技術和工程倫理的框架,任何與之相關的斷言都是不可信的。2018年在北京召開的“首屆語言智能與社會發展論壇”上,與會專家集體通過了《語言智能與外語教育協同發展宣言》。宣言稱:“機器翻譯等語言智能技術的發展和實踐,不應也不可能謀求全面替代人類的外語能力,在公共宣傳、科普演示中,語言智能學界和產業界應當實事求是地報告語言智能的發展現實,不夸大語言智能技術的現有性能,不做缺乏科學依據的展望,不能對人類的外語工作造成恐慌,不能對人類的外語事業規劃造成形勢誤判?!币虼宋覀円埠粲醺嗟娜嗜酥臼考尤霗C器翻譯/翻譯技術倫理探討之中,期盼語言智能界、倫理學界及社會有關學界能成立“語言智能倫理委員會”,保證語言智能在符合人類倫理的框架內發展。

猜你喜歡
人工智能工程系統
Smartflower POP 一體式光伏系統
工業設計(2022年8期)2022-09-09 07:43:20
WJ-700無人機系統
ZC系列無人機遙感系統
北京測繪(2020年12期)2020-12-29 01:33:58
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
連通與提升系統的最后一塊拼圖 Audiolab 傲立 M-DAC mini
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
子午工程
太空探索(2016年6期)2016-07-10 12:09:06
工程
主站蜘蛛池模板: 中文精品久久久久国产网址| 美女国内精品自产拍在线播放| 97超爽成人免费视频在线播放| 亚洲天堂2014| 国产乱人伦精品一区二区| 91成人免费观看| 久久婷婷五月综合97色| 欧美不卡二区| 国产精品性| 无码人中文字幕| 99这里只有精品免费视频| 欧美成人精品一级在线观看| 成人免费黄色小视频| 免费国产黄线在线观看| 国产激情无码一区二区APP | 亚洲一区二区三区香蕉| 国产成人一区二区| 真人高潮娇喘嗯啊在线观看| 亚洲精品日产精品乱码不卡| 精品国产成人av免费| 白浆免费视频国产精品视频| 亚洲成人网在线播放| 免费国产在线精品一区| 亚洲成人网在线播放| 无码精品一区二区久久久| 国产成+人+综合+亚洲欧美| 欧美有码在线| 国产亚洲第一页| 波多野结衣一区二区三区四区| 91视频日本| 青青青国产视频| 毛片免费视频| 国产精品亚欧美一区二区| 热这里只有精品国产热门精品| 四虎永久免费网站| 少妇精品网站| 青青草原国产| 亚洲最黄视频| 国产精品久久久久久久久kt| 国产三级国产精品国产普男人 | 一级毛片免费的| 日本久久网站| 91美女视频在线| 色婷婷在线播放| 国产精品白浆在线播放| AV色爱天堂网| 国产成人毛片| 亚洲人妖在线| 日韩欧美国产三级| 97视频免费看| 欧美激情福利| 日韩在线2020专区| 九色在线视频导航91| 五月婷婷精品| 色欲不卡无码一区二区| 2022国产91精品久久久久久| 中国精品久久| 国产精品lululu在线观看| 国产乱子精品一区二区在线观看| 综合人妻久久一区二区精品 | 国产欧美精品一区二区| 综合亚洲网| 一本一道波多野结衣av黑人在线| 伊人激情久久综合中文字幕| 日韩免费中文字幕| 看看一级毛片| 69视频国产| 国产精品欧美亚洲韩国日本不卡| 久热99这里只有精品视频6| 欧美日本一区二区三区免费| 91久久夜色精品国产网站| 国产人成午夜免费看| 亚洲欧美日韩精品专区| 精品第一国产综合精品Aⅴ| 国产福利不卡视频| 久久久久久高潮白浆| 久久精品中文字幕免费| 国产精品手机在线播放| 88av在线| h网址在线观看| 亚洲成人网在线播放| 2022精品国偷自产免费观看|