孟雨
近年來,很多公司都在努力嘗試解決網絡欺凌問題,甚至嘗試利用機器學習等AI技術來識別在線欺凌事件。不過在可以自由表達自己情緒的互聯網世界里,“惡意”的虛擬環境反而成為此類事件的溫床。然而每個人對“惡意”網絡環境的定義都存在差別,對于可能冒犯他人的話語也有不同的觀點和解釋。
微軟似乎帶來了一個非常有趣的解決方案,在最新專利中設想了一個個性化的“惡意屏蔽”功能,可以根據用戶的喜好監控通信和審查數據。這些通信可以包括基于語音或文本的聊天,例如:多人游戲會話中的聊天,甚至可以擴展至視頻直播中的圖形展示。此外,該系統還可以部署到在線Web會議或者VR/AR會話中。
“惡意屏蔽”過濾的內容不僅包括咒罵,還可能包括各種不良行為,例如:有人在麥克風前大口喘息,或者在虛擬環境中離你靠的太近。“惡意屏蔽”可以分析“公差數據”以部署特定于用戶的毒性屏蔽模塊(TSM),這些TSM還可以基于通過機器學習引擎生成的預測模型,該機器學習引擎分析對毒性行為的反應。可以選擇默認配置文件以向引擎提供其所需的所有信息,而用戶也可以手動設置。