(華東政法大學 上海 200000)
2017年,ETF領域首次引入人工智能,全球首只人工智能ETF——AIEQ在去年10月中旬發行上市。然而,AIEQ的業績并不穩定,起初的幾個交易日業績遙遙領先,在之后的幾個月內,卻大幅跑輸標普500指數,在今年的第二個季度AIEQ再次出現好轉。下圖為二者在10-11月走勢圖。隨后,貝萊德作為一家大型資產管理公司,該公司在今年也推出了7只人工智能ETF,消費,金融,醫療保健,科技,媒體等領域包含于這7只ETF中,因此形成了全球首個行業ETF。概括地說,一個創新可以導致更多的創新,因為它提供了一個框架,可以使一些互補性和相關型技術地概念創造,設計和工作成為可能。[1]

(一)“黑箱問題”。人工智能的發展讓我們看到了更便利的結果,然而結果所蘊含的原因往往無法解釋。技術創新最根本的特點,在于其工程充滿了眾多的不確定性,是指無法預計求索的結果或預先決定一條通往特定目標最快捷的途徑。[2]縱觀AIEQ產品,它也不僅僅單純是靠人工智能所完成的,更多的還是人工操作。下面是AIEQ產品運行結構:

通過以上流程圖可以看出,雖然AI ETF 由人類設計開發,但是其運行方式并不能得到很好的解釋,是計算機自動生成的結果,在數據和結果之間,存在著我們無法熟悉地“黑箱”。除了 AIEQ 的設計者,其他人無法從內、外來透析其做出決定的原因,就使得對其所做出的結果缺乏修正理由,無法辨錯。[3]因此,法律監管誰,如何監管,黑箱問題仍然是無法克服的一大障礙。法律應注意到不同個體在信息處理能力上的差異,并且以此為根據,確立不同的標準和要求。[4]
(二)金融隱私權問題。人工智能的運作離不開對于大數據信息的運用,這同時包括大量的未公開信息。數字經濟的發展如何在很大程度上取決于數據的搜集和運用,人工智能的飛速發展也正體現著數據的經濟價值。大數據又稱巨量資料,指的是所涉及的資料量規模巨大,無法通過目前常用工具在合理時間內拮取,管理,處理并整理成為有價值的資訊。大數據是一個大而復雜的數據集,而這種數據集并非是一個簡單的數據匯聚,從廣義上來說,它具有以下三個層次的內涵:首先它是一個數據量巨大,來源多樣化和類型多樣化的數據集;其次,它是一種新型的數據處理和分析技術;第三,它是一種運用數據分析技術所形成的具有價值的結果。[5]但是人工智能鎖包括的信息有公司管理,企業運營,市場行情等等內部信息,如何處理好公司和個人權利以及數據運用是AI ETF不得不考慮的現實性問題。隨著社會的發展和社會觀念的變化,在現代信息社會中,傳統隱私權不斷延伸,并增加了新的實體內容,出現了“金融隱私權”。傳統的隱私權概念及其實際內涵正在發生著微妙的變化,承受著市場經濟的沖擊和挑戰。[6]與傳統隱私權不同的是,金融隱私權指向的是具有財產利益的信息,以信用信息為核心,包括信息所有人經濟與財產交易狀況方面的信息。[7]在信息與網絡時代,個人隱私主要是以“個人數據”形式體現。[8]但是數據的產生歸根結底要找到數據的提供方,如何規制數據提供方所提供的個人信息是法律監管的重點。我們沒有干涉他人追求其目標的權利,但是當我們不尊重他人隱私的時候,恰恰是在干涉他們的自由。我們不能以犧牲個人權利而換取數據經濟的進步,技術的發展最終服務于人類,人類的權利和自由是終極目標。
數據的來源多是過去數據,當面臨市場行情的變化時,如何處理數據的更新也是人工智能做出正確決定的關鍵。換言之,在數據更新的過程中,意味著舊數據與新數據的沖突,雙向的信息泄露對個人隱私的保護而言則是多一份危險。相當程度穩定性的信息隱私規范機制保護金融隱私權,并且應當賦予信息持有者主動參與并控制自己信息的權利,而不僅僅是用過去的隱私救濟制度來保護處于弱勢的信息持有者。法律應確認金融隱私權的獨立地位,對金融隱私權進行具體的、相對獨立的權力定位,維護市場主體的信用信息利益。相對于權利的法律實現,權利觀念的形成則更為艱難,然而,它又是法律權利實現的必要條件。
(三)歸責問題。從當前市場來看,人工智能所面臨的發展現狀是不平衡的,決策失敗所導致的投資者利益受損是不可避免的。面對大額資產投資,不當投資的情況下如何保護投資著利益,規制何者的責任都是AI ETF所面臨的法律難題。人工只能無疑是人類科技發展的結果,人工智能所做出的ETF決策是對數據的自動化分析的結果。人工智能的設計者或許只是設計程序的一小部分,不能成為責任承擔者,人工智能的使用者對于信息披露也不可能做到毫無死角,更何況不透明性讓使用者承擔責任不盡合理。對于人工智能本身,僅滿足法律規制對象的有體性,不滿足有意性和有害性。人工智能本不是具有意識有思想的個體,本身不具有社會危害性思想,因此也不能承認歸責主體。