薛 丹
貴州民族大學,貴州 貴陽 550025
人工智能的應用范圍十分廣泛,是推動大數據時代進一步發展的重要因素,若想充分發揮人工智能技術的價值優勢,可以通過采取制定完善的制度與體系等科學手段對其存在的法律風險進行防范與改善。這要求人工智能發展方向與大數據時代前進趨勢保持一致,如此方能推動人工智能在大數據時代健康穩定發展。
人工智能共包括感知、推理、學習、行動幾個環節,這些環節作用的充分發揮離不開大數據的支持,數據樣本越大,人工智能提供的服務越精準,越有利于提高信息傳輸速率。但是在為人們生活生產帶來便捷性的同時,人工智能的發展也呈現出明顯的法律風險,即個人隱私泄露或侵權,主要原因是大數據時代信息價值不斷提高,某些不法分子會為了獲取利益而利用智能技術侵犯他人隱私,給他人造成嚴重的經濟與名譽損失。
在大數據技術支持下,網絡上的信息呈現出明顯的多樣化、復雜化等特點,使用人工智能獲取數據必然會瀏覽到某些不良信息,使得人們遭受法律倫理困境侵擾。這種行為與國際上規定的禁止種族歧視法律倫理內容相違背,通過調查分析得出引發該現象的原因主要有:第一,人工智能軟件的數據訓練算法歧視性較強;第二,人工智能無法正確且全面的理解人類語言;第三,人工智能缺乏情感思維與社會經驗,認知能力與人類差距較大[1]。
若想證實一件產品的價值,最好的方法就是將其應用于實際中,經過多方實驗證明,人工智能會因為本身質量與不正當使用給他人造成傷害,但對于責任承擔者的界定卻不明確,我國并沒有出臺針對性法律法規,導致傷害性、侵權性等問題逐漸成為“疑難雜癥”。通常情況下,需要滿足危害行為、因果關系、損害后果、主觀過錯此四項條件,方能被判定為民事侵權,盡管人工智能可以如同人類一般“思考”,但其并不是國家承認的公民,不具備相應權利與責任,因此為了推動人工智能在大數據時代實現進一步發展,有關人員必須解決該項法律風險,明確侵權責任具體承擔者。
在大數據時代,如果想要真正提高人工智能法律風險防范力度、避免對他人信息與權益造成侵害,需要對人工智能技術的使用及基于此創造的產品進行監管,如此可以通過創建科學的多元價值目標實現。第一,確定具有正義性的普適價值目標,擴大“正義性”的適用范圍,將人格、秩序、道德、法律等內容全部納入正義價值,以此為立足點,構建人工智能法律風險防范監管機制,確保及時發現并解決算法歧視、“大數據殺熟”等惡性現象;第二,明確具有安全性的核心價值目標,由于我國的人工智能技術仍處于發展階段,在具體應用方面存在一定的安全隱患,所以為了保證社會穩定與國民安全,有關人員應從安全角度切入,建立健全人工智能安全防范體系,對人工智能的發展進行實時監督;第三,塑造具有創新性的靈魂價值目標,創新是一個國家民族長治久安的重要內容,在堅持創新性的基礎上制定發展戰略,對人工智能法律風險進行防范,一方面可以增強人工智能產品性能的安全性,另一方面可以推動人工智能技術良性發展[2]。
因為建立健全人工智能法律倫理相關制度是一件長期且系統的工作,構建難度相對較大,所以為了適應大數據時代人工智能的發展,解決眼下存在的某些問題,有關人員可以先構建合理的法律倫理規范體系,對數據算法進行優化,加強人工智能軟件的開發與銷售的監管力度,禁止帶有“歧視”色彩的軟件進入市場,以此提高法律風險防范能力。第一,國家有關部門可以集合各界專業人士的力量,在中央與地方組建“人工智能法律倫理管理委員會”,制定具有統一性的《人工智能法律倫理規范章程》并確保嚴格執行,明確人工智能開發的法律標準、道德標準、倫理標準;第二,人工智能軟件以數據算法為運行基礎,若是算法存在明顯的歧視性,人工智能做出的判斷自然攜帶法律倫理風險,因此專業人員在開發人工智能軟件或產品時,可以采用自動過濾敏感詞匯的數據庫,對數據算法進行優化,市場監管部門及有關部門應安排專業人員對產品的數據算法進行嚴格審查,盡力從源頭遏制法律風險。
針對侵權責任承擔者不明確的法律風險,可以通過建立完善的法律監管制度改善,在制定制度時應對生產者、銷售者、使用者的責任范疇進行明確,有利于快速找到負責人。第一,若是因為生產者引發人工智能侵權問題,可以根據《中華人民共和國侵權責任法》(以下通稱《侵權責任法》)第四十三條規定“因產品存在缺陷而造成損害的,被侵權人可以向生產者請求賠償”解決;第二,如果是因為銷售者責任而引發的權益侵害問題,可以按照《侵權責任法》第四十二條規定“因銷售者的過錯使得產品存在缺陷,對他人造成損害的,由銷售者承擔侵權責任”向銷售者追責;第三,若是因為人工智能使用者使用不當造成的侵權問題,需要由使用者承擔責任,但需要注意的是,如果使用者為某企業或單位,則需要該企業或單位承擔責任,如果不是,則由個人承擔[3]。
利用法律監管制度對人工智能技術引發的法律風險進行防范,必須做好事前預防、事中管控、事后監測等工作,以此保證法律監管制度的全面性。首先,在事前構建具有較強前瞻性的風險預警機制,將由人工智能引發的法律風險劃分為“特別重大”、“重大”、“一般”等幾個等級,當風險突然出現或即將出現時,及時對風險進行分析、評估,制定解決或預防措施,同時發布預警信息,盡量控制風險危害程度。其次,構建人工智能實時監測平臺,對人工智能技術使用情況、系統應用情況、產品開發現狀等進行監控,重點監測安全性能與數據算法;建立人工智能動態評價機制,對人工智能相關產品的設計、制造、銷售、使用進行動態評估,明確其風險性與危害性。最后,設立“人工智能監管委員會”,對人工智能技術相關內容進行監督管理,加強濫用技術的懲罰力度,尤其是通過算法合謀誤導或欺騙他人、侵害他人隱私等行為。
綜上所述,在大數據時代,人工智能技術作為一種先進的高新技術,對推動我國整體發展進步具有積極影響,為了保證該技術作用的充分發揮,有關人員需要明確人工智能技術存在的個人隱私侵權、法律倫理困境等問題,通過構建多元價值目標、健全規范體系、制定監管制度等方式,避免人工智能技術被濫用。