

你心中的人工智能長(zhǎng)什么樣子?像人還是像動(dòng)物,抑或是電影里那些奇形怪狀的異形生物?無(wú)論怎樣,人工智能的外形是人類通過(guò)豐富的想象力賦予它的,其內(nèi)核才是智能高低的關(guān)鍵。
比如,最近火爆全網(wǎng)的ChatGPT 就沒(méi)有實(shí)體,僅依靠它強(qiáng)大的算力就在短時(shí)間內(nèi)“俘獲”了上億用戶。不過(guò),你真的知道它是什么嗎?
ChatGPT 是什么?
ChatGPT是由OpenAI公司基于Transformer框架開發(fā)的自然語(yǔ)言處理模型。Transformer 框架最早是由谷歌在2017 年的論文Attention isAll You Need 中引入,它的誕生改變了以往模型在處理大量文字的同時(shí)無(wú)法兼顧學(xué)習(xí)的狀況。后來(lái),OpenAI 開發(fā)了GPT 模型,并有了從1到4 的迭代。
ChatGPT 是GPT-3 的變種,相較晚于它出現(xiàn)的GPT-4,前者更專注文字處理,不僅能夠理解和學(xué)習(xí)人類的語(yǔ)言來(lái)進(jìn)行對(duì)話,還能結(jié)合上下文理解、反饋,像人類一樣聊天交流;后者則更進(jìn)一步,不僅能夠接收文字中的信息,還能理解圖像信息,甚至“讀懂”人類的幽默感。
ChatGPT 可以用來(lái)做什么?
ChatGPT 不僅可用于簡(jiǎn)單對(duì)話,還可以完成撰寫郵件、視頻腳本、文案、代碼、論文、小說(shuō)和翻譯等任務(wù)。比如,你想寫一部小說(shuō),只需在ChatGPT 輸入“我是誰(shuí)”“我需要什么”等要素信息,ChatGPT 就能自動(dòng)生成故事情節(jié)。除此之外,它還可以充當(dāng)智能客服、職業(yè)分析師、情感分析師,也可以給公司提供創(chuàng)業(yè)建議、戰(zhàn)略決策等。
ChatGPT 能當(dāng)“偵探”嗎?
既然ChatGPT 有如此廣闊的應(yīng)用前景,那么它能否利用通用的意圖理解能力,理解犯罪事實(shí),并通過(guò)對(duì)犯罪歷史、現(xiàn)場(chǎng)和手法的觀察歸納,準(zhǔn)確勾勒出罪犯的“畫像”,為破案提供線索呢?答案是肯定的。
包括ChatGPT 在內(nèi)的人工智能大模型都具有較強(qiáng)的邏輯推理能力,可通過(guò)辦案人員收集的新的信息,綜合已知線索,經(jīng)過(guò)計(jì)算研判得出結(jié)論。之后,再由辦案人員根據(jù)結(jié)論繼續(xù)追蹤更新信息,直至破案。
而且,人工智能擁有強(qiáng)大的存儲(chǔ)能力,通過(guò)云共享,就可以突破時(shí)空的限制,為偵破案件提供強(qiáng)大助力。更重要的是,它可以一刻不休“連續(xù)加班”。此外,人工智能對(duì)于聲音的提取比人類更準(zhǔn)確,可以協(xié)助警察“去偽存真”。
ChatGPT 等人工智能有可能犯罪嗎?
科學(xué)技術(shù)帶給人類的影響是好還是壞,要看使用者的目:在不同人手中,同一種技術(shù)可以是造福人類“天使”,也可能成為威脅人類生存的“魔鬼”。人工智能也不例外。
一個(gè)邏輯清晰思維縝密、對(duì)司法有深入了解并且一直不斷學(xué)習(xí)的人工智能,在壞人手中可能會(huì)犯下令警察也十分頭痛的案件。歐洲刑警組織就在2023 年3 月提出,ChatGPT 等人工智能聊天機(jī)器人有“陰暗面”,很可能被犯罪分子濫用,特別是在欺詐、社會(huì)工程和虛假信息以及網(wǎng)絡(luò)犯罪方面。例如,它撰寫的高度逼真的文章可能模仿某個(gè)人或組織,成為網(wǎng)絡(luò)“釣魚”的工具。此外,ChatGPT 還能生成許多惡意的編程語(yǔ)言制造代碼,進(jìn)行信息竊取等網(wǎng)絡(luò)犯罪,甚至是金融犯罪。
可以約束人工智能的行為嗎?
既然人工智能的影響是雙重的,那么可以約束它不好的行為嗎?答案是正在探索中。這里要提到“倫理學(xué)”的概念,它以人類社會(huì)的道德現(xiàn)象為研究對(duì)象。譬如,臉紅既是生理現(xiàn)象,也可能是心理現(xiàn)象,同時(shí)還可能是道德現(xiàn)象。那么在道德層面上,一個(gè)人為什么會(huì)因?yàn)槿鲋e而臉紅呢?這就是倫理學(xué)要研究的了。
有專家認(rèn)為,人工智能可能面臨自然資源的消耗、產(chǎn)品更新?lián)Q代產(chǎn)生的各種垃圾等環(huán)境倫理問(wèn)題,隱私泄露、歧視、失業(yè)、安全風(fēng)險(xiǎn)等個(gè)人倫理問(wèn)題,以及推理能力、可解釋性等技術(shù)倫理問(wèn)題。因此,在2023 年4 月4 日,我國(guó)科技部公開征求對(duì)《科技倫理審查辦法( 試行)》的意見(jiàn),其中明確提出,從事人工智能的單位,研究?jī)?nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會(huì),部分算法模型、自動(dòng)化決策系統(tǒng)需要專家復(fù)核。如果你對(duì)此也感興趣,不妨來(lái)說(shuō)說(shuō)自己的意見(jiàn)吧!
(責(zé)任編輯:李睿嫻)