999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能服務對消費者道德行為的雙刃劍效應

2025-02-14 00:00:00彭晨明屈奕帆郭曉凌陳增祥
心理科學進展 2025年2期

摘" 要" 隨著人工智能產業(yè)的快速擴張, 多樣化的人工智能(AI)服務應運而生。然而, 關于AI服務對消費者道德行為影響的研究尚顯不足。本研究將道德心理學的理論引入AI服務營銷領域, 旨在探討AI服務對消費者道德行為的雙刃劍影響及其心理機制和作用邊界。研究從三方面展開: 第一, 依據(jù)道德雙元性理論, 系統(tǒng)區(qū)分了AI服務對消費者倡導性道德行為和禁止性道德行為的差異化影響。第二, 基于道德判斷雙加工理論, 從認知和情緒兩個維度, 揭示了AI服務影響道德行為的雙刃劍效應及內在機制。第三, 從AI本身、消費者和道德行為三個方面研究了AI服務影響雙元道德行為的邊界條件。本研究成果將有助于提升消費者的福祉, 并為企業(yè)和公共部門制定針對性行為干預策略提供理論依據(jù), 進而推動社會文明進步與數(shù)字經濟的健康發(fā)展。

關鍵詞" 人工智能服務, 道德行為, 雙刃劍, 道德雙元性, 道德判斷雙加工過程

分類號 "B849: C91

1" 問題提出

人工智能(AI)屬于當前第四次工業(yè)革命的核心。黨的二十大報告和我國“十四五”規(guī)劃強調構建以AI為代表的新增長引擎, 以推動經濟高質量發(fā)展、構建優(yōu)質高效的服務業(yè)新體系, 使我國進入創(chuàng)新型國家前列。2023年我國AI核心產業(yè)規(guī)模已達到5784億元1, 衍生了多樣化的AI服務。

AI服務是指智能化的程序、算法、系統(tǒng)或機器作為人類職員的替代者而非被動工具為消費者提供各類服務(Huang amp; Rust, 2018; 杜建剛 等, 2022)。例如, 無人超市AI化身收銀員為消費者提供結賬找零服務(Giroux et al., 2022), 宜家的聊天機器人Billie作為導購員與客戶對話并幫助客戶做出購買決策(Blut et al., 2024), AI擔任慈善項目的線上講解員(Zhou et al., 2022)等。相比于傳統(tǒng)的人類服務, 基于人工智能的服務能夠顯著降低運營成本(Huang amp; Rust, 2018), 提供24小時實時支持, 并通過個性化推薦優(yōu)化用戶體驗。

然而, AI服務在提升便利性與體驗感的同時, 也可能從根本上影響消費者道德行為。實踐中, AI服務對道德行為似乎產生了負面影響。例如, “AI自助收銀”的超市中盜竊頻發(fā), 為此北京大興法院特地召開新聞發(fā)布會進行防范警示2。鑒于AI服務乃技術變革必然趨勢, 探討AI服務如何影響消費者道德行為, 以及企業(yè)和公共部門如何避免其潛在的負面效應, 不僅能夠提升消費者的福祉, 還有助于企業(yè)和公共部門制定有效的行為干預策略, 推動社會文明進步和數(shù)字經濟的健康發(fā)展。

雖然AI道德倫理和AI服務營銷領域的諸多研究涉及AI和道德問題, 但鮮少探討AI服務如何影響消費者道德行為。現(xiàn)有研究一方面關注AI自身的道德行為, 即道德主體是AI而非消費者, 例如, AI出現(xiàn)不道德行為或造成人類傷害時, 個體如何感知和追責(Sullivan amp; Fosso Wamba, 2022; Telkamp amp; Anderson, 2022); 另一方面的研究側重于剖析AI服務如何影響個人的消費行為, 而非道德行為, 例如, 服務任務的主觀性會加劇消費者對AI服務的抵制和厭惡(Castelo et al., 2019), 而人形服務機器人會引起消費者的不適感進而導致補償性消費(Mende et al., 2019)。

整體而言, AI服務與消費者道德關系的研究尚處于起步階段, 不僅數(shù)量少, 還存在三方面不足。第一, 已有研究僅關注特定類型道德或不道德行為, 例如, AI情境下如何遏制消費者說謊(Anthony amp; Cowley, 2012)、購買盜版(Kos Koklic et al., 2016)、退貨欺詐(Kim et al., 2022)等不道德行為, 以及如何促使消費者參與捐款(Dunn et al., 2020)、擔任志愿者(Macdonnell amp; White, 2015)和消費綠色產品(Peloza et al., 2013)等道德行為; 對消費者道德/不道德, 做好事/不做壞事的雙元道德行為缺乏系統(tǒng)性區(qū)分和探討。

第二, 現(xiàn)有研究聚焦AI服務對消費者道德行為的負面效應及其特定的形成機制——比如超市里的AI (vs. 人類)收銀員少算應收款項時, 消費者由于較低的內疚感不愿意糾正收銀員的行為(Giroux et al., 2022); 當AI取代人類擔任慈善項目講解員時, AI解答員會觸發(fā)消費者偏理性的工具型判斷, 降低捐款數(shù)額(Zhou et al., 2022) ——但忽視了AI服務對消費者道德行為可能造成正負雙刃劍影響及其形成機制。

第三, 文獻未討論AI服務對消費者兩類道德行為影響的邊界條件, 無法充分展示AI對兩類道德行為影響的復雜性和差異性, 也限制了對企業(yè)和社會的實踐指導。

本研究擬突破已有研究的局限性, 從三個方面另辟蹊徑。第一, 將道德心理學中的道德雙元性理論(moral duality theory)引入AI道德倫理領域, 將道德行為分為倡導性道德行為(“做好事”)和禁止性道德行為(“不做壞事”)兩種類型(Janoff- Bulman et al., 2009; 李谷 等, 2013; 張宏偉, 李曄, 2014), 系統(tǒng)區(qū)分了AI服務對消費者兩種道德行為的獨特影響。

第二, 基于道德心理學領域中的道德判斷雙加工理論(double-process theory of moral judgment), 即人類道德行為的形成包含道德情緒和道德認知兩種心理過程(Greene et al., 2001; Greene et al., 2004; Greene, 2009), 本研究從認知和情緒兩方面揭示了AI服務影響道德行為的雙刃劍效應及其產生機制。

第三, 從AI本身、消費者和道德行為三個角度, 全方位地識別AI服務對消費者道德行為影響的邊界條件, 并揭示調節(jié)變量在雙元道德行為之間的不同影響。

本研究具體的研究問題總結如下:

(1) AI服務(vs. 人類服務)對消費者禁止性道德行為的雙刃劍效應和影響機制是什么?

(2) AI服務(vs. 人類服務)對消費者倡導性道德行為的雙刃劍效應和影響機制是什么?

(3) 哪些變量可以調節(jié)AI服務(vs. 人類服務)對消費者雙元道德行為的影響?

本研究將引入道德心理學中的道德雙元性理論和道德判斷雙加工理論視角, 首次系統(tǒng)全面地研究AI服務對于消費者道德行為的影響機制和邊界條件, 為提高消費者道德修養(yǎng), 幫助企業(yè)和公共部門設計道德行為干預策略提供理論支持和實踐指導。

2" 國內外研究現(xiàn)狀評述

2.1" AI服務的概念界定

已有文獻對AI服務提出了若干定義。例如, Bock等人(2020)從機器學習角度將其定義為通過感知、學習、決策和行動以靈活地適應內外部服務環(huán)境并提供價值的新型技術配置; 而杜建剛等人(2022)從能力角度提出AI服務是“在算法與技術驅動下, 可能具有擬人外觀、語言和個性的智能設備, 通過發(fā)揮顧客溝通與互動能力為顧客提供服務價值的過程”。結合前述定義和具體研究情境, 本文提到的AI服務是一種表現(xiàn)出智能的程序、算法、系統(tǒng)或機器, 它們不再是被動工具, 而是作為人類職員的替代者為個人消費者提供多種服務(Huang amp; Rust, 2018; 杜建剛 等, 2022)。

2.2" 道德雙元性理論和道德判斷雙加工理論

2.2.1 "雙元道德行為

在道德心理學領域, 道德行為(moral behavior)指人們在道德方面有意識的行動, 涵蓋親社會行為(prosocial behavior)、倫理行為(moral behavior)和捐獻行為(donation behavior)等(吳鵬, 劉華山, 2014)。同時, 道德行為包括從做好事到做壞事的一系列廣泛的行為, 例如, 歸還丟失的錢包, 為無家可歸者購買食物是道德行為; 對同事撒謊, 偷竊少量金錢是不道德行為(Klein amp; Epley, 2016)。

道德雙元性理論(moral duality theory)將道德分為兩種類型, 即禁止性道德(proscriptive morality)和倡導性道德(prescriptive morality) (Janoff-Bulman et al., 2009; 李谷 等, 2013; 張宏偉, 李曄, 2014)。禁止性道德強調避免負面結果, 遵循規(guī)避機制, 側重于規(guī)范個體不應該從事的行為, 而倡導性道德則關注積極結果, 遵循趨向機制, 強調個體應從事的行為。

道德雙元性對應雙元道德行為, 即禁止性道德行為(proscriptive moral behavior)和倡導性道德行為(prescriptive moral behavior) (Dasborough et al., 2019), 前者指“不做壞事”, 避免撒謊、欺騙和偷竊等違背道德規(guī)范的不道德行為; 后者指“做好事”, 實施捐款、獻血和擔任志愿者等符合道德規(guī)范的道德行為。需要注意, 雙元道德行為并非一個維度的相反兩端, 而是相互獨立(Dasborough et al., 2019; Janoff-Bulman et al., 2009)。比如, 一個人可能有很強的規(guī)避偷竊意愿, 但未必愿意獻血; 反之, 一個愿意捐助貧困兒童的人未必平時不占小便宜。

當前營銷文獻很少系統(tǒng)區(qū)分雙元道德行為, 而是研究特定的某種或多種道德行為。其中, 禁止性道德行為研究主要分析如何遏制消費者開展不利于企業(yè)(包括非營利性企業(yè)與組織, 比如慈善機構)經營發(fā)展的不道德行為, 例如非法分享文件(Hennig-Thurau et al., 2007)、消費盜版(Kos Koklic et al., 2016)、說謊(Anthony amp; Cowley, 2012)、退貨欺詐(Kim et al., 2022)、逃單(Giroux et al., 2022)、保險詐騙(Lesch amp; Brinkmann, 2011)等行為; 倡導性道德行為研究則聚焦于如何促使消費者開展利于企業(yè)、非營利性機構和環(huán)境組織發(fā)展的符合道德的行為, 例如, 捐款(Dunn et al., 2020)、獻血(Allen et al., 1992)、捐獻器官(Robitaille et al., 2021)、擔任志愿者(Macdonnell amp; White, 2015)、購買綠色產品(Peloza et al., 2013)等。

2.2.2" 道德判斷雙加工理論

關于道德行為的決定因素, 道德心理學領域的學者們從情緒和認知兩個方面進行了大量探討, 形成了三種重要的理論模型: 理性推理模型、社會直覺模型和雙加工模型。理性推理模型認為人類的道德判斷由自身有意識的道德認知推理決定, 強調認知因素對道德判斷的作用(Kohlberg, 1981; Turiel, 1983); 社會直覺模型則認為道德判斷是由情緒啟動的快速、自動化的直覺過程, 側重道德情感的影響(Haidt, 2001; Haidt, 2007; Huebner et al., 2009)。結合二者特點, 雙加工模型(double-process theory of moral judgment)認為道德判斷中同時存在兩個過程: 一個始于行為本身及行為背后的情緒狀態(tài), 聚焦于道德情緒因素(emotional response); 另一個以行為結果和引起結果的原因推理為主, 注重道德認知因素(cognitive processes) (Greene et al., 2001; Greene et al., 2004; Greene, 2009)。具體而言, 道德情緒指與社會或他人利益或幸福有關的情緒, 是多維度道德心理概念。道德情緒可分為自我意識和關注他人兩類(Haidt, 2003), 前者指個人由于違反道德規(guī)范而對自己產生的負面情緒(比如內疚), 后者則可分為表揚、指責和同情他人三類情緒。不同于道德情緒, 道德認知側重于個人對道德現(xiàn)象或行為的分析、評價、推斷和選擇, 比如個人對道德行為公平性和后果的感知(Graham et al., 2011; 吳鵬, 劉華山, 2014); 對背叛的感知會影響個人的親社會行為(Kim et al., 2024)。

道德判斷雙加工理論結合了道德情緒和道德認知兩種心理過程, 更全面地反映了人類道德行為背后的心理機制, 因此受到學者們的廣泛認可和重視(Cushman, 2013; 吳鵬 等, 2017; 鐘毅平 等, 2017)。

2.3" AI服務與道德行為的相關研究

2.3.1" AI自身道德行為研究

目前AI道德倫理研究大多探討AI自身道德行為(詳見表1), 即道德行為主體是AI。AI自身道德行為研究依據(jù)利益主體可分為三類: 個人、企業(yè)、政府或社會組織, 分別聚焦于消費者評價歸因AI不道德行為、企業(yè)AI設計和社會AI治理三個方面。

從個人視角出發(fā), 學者們關注個體如何看待和評價AI涉及道德倫理的行為。Dietvorst和Bartels (2022)探討了面對道德權衡問題時, 人們更愿意選擇AI還是人類進行決策。更多研究關注AI出現(xiàn)不道德行為或造成人類傷害時個體的感知和追責(Sullivan amp; Fosso Wamba, 2022; Telkamp amp; Anderson, 2022)。例如, 研究發(fā)現(xiàn), 當企業(yè)采取個性化定價的價格歧視策略時, 因為AI (vs. 人類)定價的蓄意性歸因更低, 消費者覺得AI定價更公平(宋曉兵, 何夏楠, 2020)。在品牌傷害危機背景下, AI被認為缺少主觀意識, 犯錯時所需承擔責任更小, 所以消費者對AI犯錯的消極反應較低(Srinivasan amp; Sarial-Abi, 2021)。在面對算法歧視(vs. 人類歧視)時, 人們希望其受到道德懲罰的意愿更低(許麗穎 等, 2022)。

從企業(yè)視角出發(fā), 研究者關注如何設計和開發(fā)更符合道德倫理規(guī)范的AI。例如, 在未來面對可能的交通事故時, 屏蔽信息而依靠“道德運氣”隨機選擇和基于完整信息的AI自主抉擇都存在嚴重的不足, 因此應當為自動駕駛汽車預設“道德算法” (白惠仁, 2019)。Hermann (2022)則探討了如何在營銷各個環(huán)節(jié)中道德地使用AI, 以增進社會福祉。

從政府或社會組織視角出發(fā), 學者們主要關心應該如何治理AI道德行為。例如, 在法律上明確AI道德責任問題(杜嚴勇, 2017)。宋艷等(2022)的研究為構建“政府主導、專家引領、公眾參與、社會監(jiān)督”的AI倫理風險治理新格局提供了實證依據(jù)。

與上述研究不同, 本文將道德主體從AI轉移到消費者, 研究企業(yè)提供的各種AI服務如何影響消費者的道德行為, 并將道德行為劃分為禁止性和倡導性兩類進行細致剖析。

2.3.2" AI服務對消費者消費行為的影響

學界自2019年迄今廣泛探討了AI服務對消費行為的影響(詳見表2), 包括服務前和服務后的行為, 即消費者對AI服務接受度的前因和后果。在服務前這一階段, 研究者發(fā)現(xiàn)消費者出于不同原因會偏好AI或者人類服務。例如, 服務任務的主觀性會加劇消費者對AI (vs. 人類)服務的厭惡(Castelo et al., 2019)。相反, 人們更愿意在尷尬消費場景下選擇AI服務(Holth?wer amp; van Doorn, 2023)。當理想結果主要依賴運氣時, 人們更偏好AI提供服務(余伊琦 等, 2022)。

隨著AI服務的快速推廣, 研究者開始關注消費者接受AI服務后的反應。例如, 在服務失敗情境下, 消費者容易將某個AI系統(tǒng)的決策失敗普遍化, 即認為所有其他同類AI系統(tǒng)也會失敗(Longoni et al., 2023)。從服務成功角度, 當理想結果取決于人類而非AI時, 消費者更可能將該結果歸因于自身, 從而產生更積極的反應(Yalcin et al., 2022)。

基于以上研究, 消費者對AI服務的反應既有正面的也有負面的, 啟示了未來研究需要從正反兩面考慮AI服務的影響。消費者對AI服務的消極反應有以下原因: 第一, 消費者認為與人類相比, AI不易理解他人情感, 難以產生同理心, 因此會降低消費者的情感體驗和產品的情感價值(Longoni amp; Cian, 2022; Luo et al., 2019; Xu amp; Mehta, 2022)。第二, 消費者認為AI不擅長敏捷性或創(chuàng)造性思維, 無法理解和滿足個性化、高度不確定性及主觀性的消費需求(Castelo et al., 2019; Granulo et al., 2021; Longoni et al., 2019)。第三, 消費者認為AI系統(tǒng)更具同質化, 因此消費者容易泛化AI系統(tǒng)的決策(Longoni et al., 2023)。第四, 過度擬人化的AI會導致消費者感到害怕和威脅,引發(fā)心理不適, 產生恐怖谷效應(Mende et al., 2019)。

另一方面, AI也存在吸引消費者的優(yōu)點。第一, AI (vs. 人類)更擅長數(shù)據(jù)分析、理性思考和邏輯思考, 適合在強調客觀性、實用性或功能性的消費需求場景下提供服務(Longoni amp; Cian, 2022; Xu amp; Mehta, 2022)。第二, AI (vs. 人類)被認為無自我意圖, 不會故意傷害和歧視消費者, 其行為決策更加公正客觀(Garvey et al., 2022; 余伊琦 等, 2022)。第三, AI (vs. 人類)不會對消費者進行社會評價, 降低消費者進行敏感消費(如成人用品)時的尷尬感(Holth?wer amp; van Doorn, 2023)。

2.3.3" AI服務對消費者道德行為的影響

AI服務對消費者道德行為的影響屬于新興的研究領域。目前, 僅有少數(shù)幾篇文章開始探討AI替代人類給消費者提供服務的道德行為帶來了何種影響, 發(fā)現(xiàn)多為負面影響, 即增加了不道德行為減少了道德行為。具體而言, 消費者面對AI (vs.人類)收銀員少算應收款項時, 由于較低的內疚感, 更不愿意糾正收銀員, 從而造成超市損失(Giroux et al., 2022)。在多個服務場景下(如兌換購物券、在線購物和退還商品等), 也發(fā)現(xiàn)相比人類服務, AI服務都會降低消費者的內疚感, 導致其不道德行為概率增加(Kim et al., 2022)。現(xiàn)有研究也發(fā)現(xiàn)AI (vs.人類)慈善活動在線解答員會觸發(fā)消費者偏理性的工具型判斷, 降低捐款金額(Zhou et al., 2022)。

本研究認為上述少量研究發(fā)現(xiàn)的負面影響偏于片面, 遠非結論。基于道德行為雙元性和道德判斷雙過程理論, 本研究提出AI服務是一把復雜的雙刃劍, 在產生負面影響的同時還可能存在正面作用值得挖掘。

2.4 "小結

AI與道德行為的關系已經開始引起學者們的關注, 并取得了一些進展, 但目前研究仍存在三方面的問題需要深入探究。首先, 在服務營銷領域, 目前多單獨研究倡導性或禁止性道德行為, 缺乏對不同類型道德行為的系統(tǒng)性、整體性研究。以往禁止性道德行為研究關注如何遏制消費者開展不利于企業(yè)和組織發(fā)展的不道德行為, 例如消費盜版、說謊、退貨欺詐(Kos Koklic et al., 2016; Anthony amp; Cowley, 2012; Kim et al., 2022)等行為; 倡導性道德行為研究則聚焦于如何促使消費者開展利于企業(yè)和組織的道德行為, 比如捐款、獻血、擔任志愿者、購買綠色產品(Dunn et al., 2020; Allen et al., 1992; Macdonnell amp; White, 2015; Peloza et al., 2013)等。本研究將道德雙元性理論從道德心理學引入AI服務營銷領域, 明確區(qū)分雙元道德行為的差異, 為深入探討AI服務對雙元道德行為的影響奠定基礎。

其次, 大多數(shù)AI道德研究聚焦在AI自身道德行為以及AI服務對消費者價值感知、消費體驗和消費行為的影響。AI自身道德行為聚焦于個人消費者評價歸因AI不道德行為、企業(yè)AI設計和社會AI治理三個方面, 其行為實施主體是AI, 例如, AI出現(xiàn)不道德行為或造成人類傷害時, 個體對AI的感知和追責(Sullivan amp; Fosso Wamba, 2022; Telkamp amp; Anderson, 2022); 企業(yè)如何規(guī)避AI的不足, 有道德地設計和使用AI (白惠仁, 2019; Hermann, 2022); 政府和組織如何規(guī)范并治理AI道德行為(杜嚴勇, 2017; 宋艷 等, 2022)。少數(shù)研究雖然探索了AI服務對消費者道德行為的影響, 也只聚焦于負面效果, 忽視了可能的正面影響, 比如AI在多個服務場景下(如兌換購物券、在線購物和退還商品等)都會導致消費者不道德行為概率增加(Kim et al., 2022); AI服務(vs. 人類服務)承擔慈善活動在線解答工作會降低捐款數(shù)額(Zhou et al., 2022)。因此, 本研究引入道德心理學中的道德判斷雙加工理論, 全面研究AI服務對消費者道德行為的正面和負面雙刃劍作用。在整合現(xiàn)有關于AI與消費者行為的碎片化研究基礎上, 提取各類情感和認知因素, 揭示消費者經歷的心理機制, 即道德情緒和道德認知雙加工過程。

最后, 鮮有文獻深入討論AI服務對消費者道德行為影響的作用條件, 既未能從AI服務、消費者和道德行為等多個方面識別出調節(jié)變量, 也尚未關注這些調節(jié)變量對雙元道德行為的作用存在哪些異同。本研究通過全方位識別AI服務對道德行為影響的調節(jié)變量, 彌補現(xiàn)有研究對邊界條件關注的不足, 并為AI背景下助推消費者道德行為提供有價值的指導。

3" 研究構想

本文從道德雙元性和道德判斷雙加工視角, 深入探討AI服務對消費者道德行為的效應及其機制。基于研究問題的邏輯, 本文設計了三個研究, 分別是:

研究1: AI服務對消費者禁止性道德行為的雙刃劍效應機制研究;

研究2: AI服務對消費者倡導性道德行為的雙刃劍效應機制研究;

研究3: AI服務對消費者雙元道德行為影響的邊界條件研究。

本文的研究框架如圖1所示, 研究1和研究2分別探究了AI服務對消費者兩種道德行為的雙刃劍影響和心理機制。本研究從道德情緒和道德認知角度識別了與AI相關且代表做壞事后果的主要因素, 包括內疚、恐懼、監(jiān)測可能性和懲罰公正性, 并推斷這些因素主要解釋禁止性道德行為, 而非倡導性道德行為; 而代表做好事回饋的主要因素, 包括同情、自豪、行為自主性和服務公平性, 主要作用于倡導性道德行為, 而非禁止性道德行為。

研究3進一步探討影響消費者道德行為的邊界條件。鑒于AI特性、消費者差異以及道德行為特征與研究情境密切相關, 并且這些因素均可由企業(yè)和公共部門調控, 本研究從這三個角度探討邊界條件, 并重點探究以下調節(jié)變量: AI服務特征(AI擬人化程度、是否有人機協(xié)作、服務風格和任務類型), 消費者特征(消費者的權力距離信念), 以及道德行為特征(捐獻類型和不道德行為危害程度)。具體而言, 由于禁止性和倡導性道德行為在影響機制上存在差異, 在上述變量中, AI相關變量和消費者權力距離信念調節(jié)雙元道德行為, 但捐獻類型僅調節(jié)倡導性道德行為, 不道德行為的危害程度僅調節(jié)禁止性道德行為。

3.1 "研究1: AI服務對消費者禁止性道德行為的雙刃劍效應機制研究

研究1旨在結合禁止性道德行為的特征、道德判斷雙加工理論和消費者道德行為, 探討AI服務對禁止性道德行為的影響。如圖2所示, 研究1從道德情緒(包括內疚和恐懼)和道德認知(包括監(jiān)測可能性和懲罰公正性)兩個角度解釋AI服務如何同時通過道德情緒和道德認知兩條路徑對禁止性道德行為產生影響。內疚和恐懼這兩個道德情緒因素可解釋AI服務對消費者禁止性道德行為的負面影響, 而監(jiān)測可能性和懲罰公正性這兩個道德認知因素則可解釋AI服務的正面影響。這些因素主要影響禁止性道德行為, 而非倡導性道德行為。

3.1.1" AI服務通過道德情緒因素對消費者禁止性道德行為的負面影響機制研究

內疚(guilt)對禁止性道德行為有積極促進作用。內疚屬于自我意識道德情緒 (self-conscious emotion), 指個人因違反道德規(guī)范而產生的負面情緒(Eisenberg, 2000)。研究表明, 自我意識道德情緒可以抑制個人的不道德行為(Tangney et al., 2007)。例如, 內疚可以抑制人們非法下載資料的行為(Wang amp; McClung, 2012)。因此, 當人們預期有足夠程度的內疚感, 理應會避免做壞事, 即內疚可以促進禁止性道德行為(Dasborough et al., 2019)。

然而, 相比人類服務, AI服務會降低消費者的預期內疚感。具體而言, 人們通常認為AI (vs. 人類)在心智(agency)上, 尤其是在感受性(experience)上有所欠缺(Gray et al., 2007), 難以感受到心理和生理上的傷害, 從而容易激發(fā)他人的不道德行為(Gray et al., 2012)。例如, 人們通常認為傷害無知覺的植物人(vs. 感知能力完備的人)在道德上的嚴重性較低, 因此植物人更容易成為道德犧牲者(Ward et al., 2013)。

綜上, 與人類服務相比, 由于AI服務降低了消費者的預期內疚感, 而內疚感能夠促進禁止性道德行為, 因此AI服務會負面影響消費者的禁止性道德行為。

假設H1: AI服務(vs. 人類服務)通過降低(提高)消費者預期的內疚感抑制(促進)消費者的禁止性道德行為。

除了自我意識情緒, 道德情緒還包括指責他人的情緒(other-condemning emotion), 即當他人違反道德倫理時, 個人對他人的負面情緒, 如蔑視(contempt)、憤怒(anger)和厭惡(disgust) (Tangney "et al., 2007)。盡管這些情緒針對他人, 但也會反過來影響個人的道德行為, 因為人們出于對他人指責的恐懼(fear)會抑制自身的不道德行為(Bandura, 2014)。

在消費場景中, AI替代人類服務會降低消費者對他人指責的恐懼情緒。由于人們通常認為AI在情緒感知上不如人類, 因此AI不會像人類一樣指責和批判他人(Kim et al., 2022)。此外, AI取代人類減少了消費者的社會臨場感(social presence), 因此對他人指責的恐懼也隨之降低(Holth?wer amp; van Doorn, 2023)。

綜上, 相比人類服務, AI服務會降低消費者的恐懼感, 而恐懼感能夠促進禁止性道德行為, 因此AI服務會負面影響消費者的禁止性道德行為。

假設H2: AI服務(vs. 人類服務)通過降低(提高)消費者預期的恐懼感抑制(促進)消費者的禁止性道德行為。

3.1.2" AI服務通過道德認知因素對消費者禁止性道德行為的正面影響機制研究

監(jiān)測可能性(detectability)對消費者禁止性道德行為有促進作用。在本研究情境中, 監(jiān)測可能性指消費者評估AI服務有多大可能性監(jiān)測到其不道德行為(LaMothe amp; Bobek, 2020)。監(jiān)測是抑制不道德行為的有力策略。國外研究發(fā)現(xiàn)在公共區(qū)域安裝監(jiān)控可使該地區(qū)的犯罪率降低16%, 在停車場安裝監(jiān)控可以將犯罪率降低51% (Welsh amp; Farrington, 2009)。國內研究也表明視頻監(jiān)控對犯罪有明顯的抑制作用(柳林 等, 2019)。在警察身上安裝攝像頭也可有效減少執(zhí)法時的過度暴力行為(Ariel et al., 2015)。因此, 本研究推測不道德行為被監(jiān)測的可能性越高, 消費者違反道德倫理的可能性越低。

本研究認為, 在消費場景中AI替代人類提供服務會提高消費者感知到的監(jiān)測可能性。這是因為相比人類, AI工作不受時間和成本限制, 不會感覺到疲憊, 可以長期持續(xù)穩(wěn)定地工作, 即使是重復性的工作(Huang amp; Rust, 2021), 因此在監(jiān)控上更加穩(wěn)定可靠。與人類有限的認知能力和資源不同, AI具有強大的信息處理能力(Huang amp; Rust, 2018), 可以同時開展多項工作。因此在提供服務的同時, AI可以不受干擾地同步執(zhí)行監(jiān)管工作。此外, AI直接將消費者行為記錄為電子數(shù)據(jù), 只要數(shù)據(jù)未被清除, 不當行為將被長期記錄, 增加了未來不當行為被發(fā)現(xiàn)的可能性。

綜上, 相較于人類服務, AI服務更可能監(jiān)測到消費者的不道德行為, 從而降低消費者違反道德倫理的可能性, 進而正面影響消費者的禁止性道德行為。

假設H3: AI服務(vs. 人類服務)通過提高(降低)消費者的監(jiān)測可能性感知促進(抑制)消費者的禁止性道德行為。

懲罰公正性(punishment justice)對消費者禁止性道德行為有促進作用。在本研究情境中, 懲罰公正性指在多大程度上, 消費者認為服務者在處罰不道德行為時不偏不倚、剛正不阿。公正性是重要的道德認知因素, 可遏制不道德行為(Graham et al., 2009; Graham et al., 2011)。研究發(fā)現(xiàn), 組織的公正性可以有效降低經理們的夸大預算和數(shù)據(jù)操縱等不道德行為(Langevin amp; Mendoza, 2013)。在零售商結賬出錯的情境中, 價格公正性與消費者退還多余款項的意圖呈正相關(Schweitzer amp; Gibson, 2008)。本研究認為懲罰公正性也可抑制消費者的不道德行為。因為懲罰公正性意味著執(zhí)行者嚴格按照處罰條例, 不偏不倚, 不存在網開一面的情況, 消除了消費者的僥幸心理。例如, 當政府制定和執(zhí)行法律法規(guī)的能力不足時, 不道德行為會增加(Kozlenkova et al., 2021)。這反過來意味著, 懲罰公正性在一定程度上可以阻止人們不道德行為的發(fā)生。

在消費場景中, AI替代人類提供服務會提升消費者感知到的懲罰公正性。因為與人類相比, AI被認為無自我意圖, 不會惡意傷害或歧視消費者, 也不會故意偏袒某些消費者, 所以其行為或決策更為公正(Garvey et al., 2022; 宋曉兵, 何夏楠, 2020)。例如, 當面對同樣的價格歧視時, 消費者認為AI定價的蓄意性低于人工定價, 從而對AI定價的價格公平感知更高(宋曉兵, 何夏楠, 2020)。

綜上, 相較于人類服務, AI服務提升消費者的懲罰公正性感知, 從而降低消費者違反道德倫理的可能性, 進而正面影響消費者的禁止性道德行為。

假設H4: AI服務(vs. 人類服務)通過提高(降低)消費者的懲罰公正性感知促進(抑制)消費者的禁止性道德行為。

3.2" 研究2: AI服務對消費者倡導性道德行為的雙刃劍效應機制研究

研究2旨在綜合考慮倡導性道德行為的特點、道德判斷雙加工理論和消費者道德行為, 探討道德情緒和道德認知中可以解釋AI對倡導性道德行為影響的多維度因素。如圖3所示, 研究2從道德情緒(同情和自豪)和道德認知(行為自主性和服務公正性)兩個角度解釋了AI服務如何同時通過道德情緒和道德認知兩條路徑對倡導性道德行為產生影響。同情和自豪這兩個道德情緒因素能夠解釋AI服務對消費者倡導性道德行為的負面影響, 而行為自主性和服務公正性這兩個道德認知因素則可解釋AI服務的正面影響。這些因素同時影響倡導性道德行為, 而非禁止性道德行為。

3.2.1" AI服務通過道德情緒因素對倡導性道德行為的負面影響機制研究

同情(sympathy)對消費者倡導性道德行為有正面促進作用。同情指當他人是道德倫理違反下的受害者時, 個體感受到他人痛苦并渴望幫助他人, 屬于關注他人痛苦或處境的道德情緒(other- suffering emotion) (Greenbaum et al., 2021)。研究表明, 同情能促進個體的道德行為(Tangney et al., 2007)。例如, 產品外觀設計引發(fā)的同情可使消費者支持和參與慈善活動(Grinstein et al., 2019); 公益廣告激發(fā)的同情情緒可促使人們伸出援手(Bagozzi amp; Moore, 1994); 親社會品牌能激發(fā)消費者的同情心, 提高其購買意愿(Lee, 2016)。因此, 較高的同情心通常會激發(fā)倡導性道德行為(Dasborough et al., 2019)。

然而, 在消費場景中, AI替代人類提供服務會降低消費者的同情情緒。研究發(fā)現(xiàn), 相比較人類, AI被認為缺乏情感能力, 難以理解他人情感和產生同情心, 降低了消費者的情感體驗和產品的情感價值(Kim et al., 2022; Longoni amp; Cian, 2022; Luo et al., 2019; Xu amp; Mehta, 2022; 黃勁松 等, 2022)。例如, 消費者認為AI服務(vs. 人類服務)缺乏共情能力, 所以在需要社會支持時, 更愿意向人類披露個人信息(Kim et al., 2022)。AI設計的奢侈品被認為具有較低的情感價值(Xu amp; Mehta, 2022), 消費者對AI推薦的情感屬性較強的產品的接受度較低(黃勁松 等, 2022)。因此, AI提供服務時, 消費者的情感體驗較低, 難以觸發(fā)同情心。

綜上, 相比人類服務, AI服務難以觸發(fā)消費者的同情心, 而同情心又能促進倡導性道德行為, 所以AI服務會負面影響消費者的倡導性道德行為。

假設H5: AI服務(vs. 人類服務)通過降低(提高)消費者的同情心抑制(促進)消費者的倡導性道德行為。

自豪感(pride)對消費者倡導性道德行為有正面促進作用。道德情緒包含一類表揚他人的情緒(other-praising emotion), 當他人維護了道德倫理時, 個人對他人心存感激和贊揚(Tangney et al., 2007)。這類情緒雖然針對他人, 但也可反過來作用于個人道德行為, 因為人們出于預期他人的表揚而產生自豪感(pride), 從而激發(fā)道德行為。具體而言, 自豪感是個人從事符合個人和集體價值行為的重要動機之一。例如, 團隊領導的自豪感能促進其親社會行為, 如維護社會公正和利他行為(Michie, 2009)。在社會困境中, 激發(fā)個人自豪感有助于促進團隊合作(Dorfman et al., 2014)。自豪感可以影響消費者的親社會消費行為(Cavanaugh et al., 2015)。因此自豪感可以正面影響倡導性道德行為(Dasborough et al., 2019)。

然而, 在消費場景中, AI替代人類服務會降低消費者的自豪感。因為人們通常認為AI在情感能力上不如人類(Kim et al., 2022), 難以像人類一樣主動贊揚和肯定他人的正面行為。此外, 由于AI取代人類會降低消費者的社會臨場感(Holth?wer amp; van Doorn, 2023), 削弱了消費者感受到他人的存在, 使消費者難以體驗到他人的情緒反饋, 如表揚和認可, 進而降低了自豪感。

綜上, 相比人類服務, AI服務降低消費者的自豪感, 而自豪又能促進倡導性道德行為, 所以AI服務會負面影響消費者的倡導性道德行為。

假設H6: AI服務(vs. 人類服務)通過降低(提高)消費者的自豪抑制(促進)消費者的倡導性道德行為。

3.2.2" AI服務通過道德認知因素對消費者倡導性道德行為的正面影響機制研究

行為自主性(autonomy)對消費者倡導性道德行為有促進作用。行為自主性指在多大程度上, 個體可以自由地、獨立地做出和執(zhí)行決策, 而不受他人的外部影響(Ryan amp; Deci, 2000)。自主性是一種為了實現(xiàn)自我管理的基本心理需求, 當個體感到是自己主動實施行為時, 就會體驗到自主性(Ryan amp; Deci, 2006)。自主性可以積極影響消費者的消費體驗和決策(Weingarten amp; Goodman, 2021; Wertenbroch et al., 2020)。例如, 游戲中的自主性會提升消費者的愉悅感(Trepte amp; Reinecke, 2011)。此外, 自主性還能夠積極影響消費者的道德行為。例如, 參與創(chuàng)意活動可以提高消費者的自主性, 激發(fā)積極的情感狀態(tài), 進而促進捐贈行為(Xu et al., 2022)。自主幫助他人時, 人們會體驗到更高的幸福感和滿意度(Weinstein amp; Ryan, 2010)。反之, 當消費者的自主性需求未滿足時, 消費者會相對消極地看待慈善廣告(Lv amp; Huang, 2022), 會降低捐獻意愿和數(shù)量(Simpson et al., 2018)。

在消費場景中, AI替代人類提供服務會提升消費者感知到的自主性。因為相比人類, AI被認為不帶有自我意圖(Garvey et al., 2022; 宋曉兵, 何夏楠, 2020), 不會像人類一樣影響消費者的決策和行動。此外, AI取代人類會降低消費者的社會臨場感, 減輕了消費者的社會壓力(Holth?wer amp; van Doorn, 2023; Kim et al., 2022), 讓消費者更能聽從內心。由此推斷, 相比人類服務, AI服務可以提升消費者感知到的行為自主性, 從而正面影響消費者的倡導性道德行為。基于此, 本文假設:

假設H7: AI服務(vs. 人類服務)通過提高(降低)消費者的行為自主性感知促進(抑制)消費者的倡導性道德行為。

服務公正性(service justice)也對倡導性道德行為有促進作用。服務公正性描述了在多大程度上, 消費者會認為服務者的行為是不偏不倚、公平公正的(Seiders amp; Berry, 1998)。服務公正性能夠激發(fā)符合道德的行為。具體而言, 作為社會心理學的基本規(guī)律之一, 互惠原則(Gouldner, 1960)指出人們會回報從他人那里得到的東西。因此, 當人們感受到公正對待時, 會以積極行為回報。例如, 價格公正性提高了消費者的服務滿意度和忠誠度(Do et al., 2023; Habel et al., 2016)。電商退貨政策的公正性會影響消費者購買意圖(Pei et al., 2014)。而服務中體驗到的公正性可以激發(fā)消費者幫助其他消費者和企業(yè)的積極行為(Roy et al., 2018)。工作環(huán)境的公正性激發(fā)了員工的親社會行為(Bettencourt amp; Brown, 1997)。因此, 服務公正性可以促進消費者符合道德的行為。

在消費場景中, 和人類服務相比, AI服務會提升消費者的服務公正性感知。因為與人類相比, 消費者認為AI不帶有自我意圖, 不會故意偏袒或惡意對待某位消費者, 其行為更具有公正性(Garvey et al., 2022; 宋曉兵, 何夏楠, 2020)。因此, 相比人類服務, AI服務提升了消費者感知到的服務公正性, 從而正面影響消費者的倡導性道德行為。據(jù)此, 本研究提出以下假設:

假設H8: AI服務(vs. 人類服務)通過提高(降低)消費者的服務公正性感知促進(抑制)消費者的倡導性道德行為。

3.3" 研究3: AI服務對消費者道德行為影響的邊界條件研究

研究3從AI服務特征(AI擬人化、人機協(xié)作、服務風格、任務類型)、消費者特征、道德行為特征這三個方向來探討AI服務影響消費者道德行為的邊界條件(如圖4所示)。

3.3.1" AI服務特征的調節(jié)作用

AI擬人化(AI anthropomorphism)特征可以調節(jié)AI服務對消費者禁止性和倡導性道德行為的影響。AI擬人化(AI anthropomorphism)在本研究中, 指消費者認為AI與人類的相似程度(Blut et al., 2021)。已有研究表明, 擬人化對消費者心理和行為有重要影響(Aggarwal amp; McGill, 2007; Kim amp; Kramer, 2015)。例如, 產品擬人化可提升消費者的評價(Aggarwal amp; McGill, 2007)和銷售額(Landwehr et al., 2011)。在AI服務領域, 很多研究發(fā)現(xiàn)AI的擬人化程度越高, 消費者感知的AI與人類差異越小, 從而會同等對待AI服務與人類服務(Holth?wer amp; van Doorn, 2023; Srinivasan amp; Sarial-Abi, 2021; Yalcin et al., 2022; 吳繼飛 等, 2022)。消費者認為AI擬人化縮小了感知到的AI服務與人類服務在處理主觀性事務上的能力差距, 促使消費者接受AI承擔主觀性較高的服務項目(Castelo et al., 2019)。據(jù)此本文推測, AI擬人化促使消費者同等對待AI服務與人類服務, 從而減弱AI (vs. 人類)在情緒方面的劣勢, 削弱AI對于道德行為的負面影響。基于此, 本研究假設如下:

假設H9a: AI擬人化程度會調節(jié)AI服務(vs. 人類服務)對消費者禁止性道德行為的影響。AI擬人化程度高時, AI服務提高消費者的內疚和恐懼情緒, 進而減弱對禁止性道德行為的負面影響。

假設H9b: AI擬人化程度會調節(jié)AI服務(vs. 人類服務)對消費者倡導性道德行為的影響。AI擬人化程度高時, AI服務提升消費者的同情和自豪情緒, 進而減弱對倡導性道德行為的負面影響。

在AI服務中, 可能存在人機協(xié)作, 即AI服務與人類服務分工協(xié)作, 形成一個整體為客戶提供服務(Fügener et al., 2021; Gnewuch et al., 2024; Makarius et al., 2020)。本文提出, 人機協(xié)作可調節(jié)AI服務對消費者禁止性和倡導性道德行為的影響。已有研究發(fā)現(xiàn), 人類與AI的分工協(xié)作, 如AI和人類教練的組合訓練, 可能會取得超越人類和AI單獨工作的成果(Fügener et al., 2021; Luo et al., 2021; Sowa et al., 2021)。消費者通常認為, 機器在認知方面有優(yōu)勢, 比如處理復雜計算或海量數(shù)據(jù), 而人類則在社會和情感技能方面有優(yōu)勢(Longoni amp; Cian, 2022; Xu amp; Mehta, 2022)。據(jù)此本文推測, 在AI服務中加入人機協(xié)作, 消費者會感知到人類在情感方面的優(yōu)勢, 從而彌補AI在情緒方面的劣勢, 減弱AI服務對于道德行為的負面影響。基于此, 提出如下假設:

假設H10a: 人機協(xié)作會調節(jié)AI服務(vs. 人類服務)對消費者倡導性道德行為的影響。當采用人機協(xié)作時, AI服務提高消費者的內疚和恐懼情緒, 進而減弱對禁止性道德行為的負面影響。

假設H10b: 人機協(xié)作會調節(jié)AI服務(vs. 人類服務)對消費者禁止性道德行為的影響。當采用人機協(xié)作時, AI服務提升消費者的同情和自豪情緒, 進而減弱對倡導性道德行為的負面影響。

從AI服務風格看, 情感型或認知型AI服務可以調節(jié)AI服務對消費者禁止性和倡導性道德行為的影響。AI服務可分為情感型和認知型, 前者指具備識別、理解、模擬和回應用戶情感能力的AI系統(tǒng), 后者指AI通過模擬人類的學習、推理、問題解決和決策滿足用戶需求(Castelo et al., 2019; Huang amp; Rust, 2018; Yu et al., 2023)。以虛擬客服為例, 當用戶表現(xiàn)出憤怒時, 情感型AI會通過諸如“換我我也生氣”的話語共情, 撫慰用戶情緒; 認知型AI則直接提供詳細解決方案, 不會進行情感回應。現(xiàn)有研究表明, 認知能力是機器人基本的、固有的可預期特征(Kim et al., 2019), 而情感能力通常是區(qū)分人類和機器人的關鍵(Grazzini et al., 2023)。因此, 情感型AI服務能夠通過模擬人類情感來縮小消費者在AI服務和人類服務之間的差異感知。當AI具備情感表達能力時, 消費者會傾向于將其視為更具人性化的服務提供者, 會提升對AI的信任感和接受度(Huang amp; Rust, 2024)。據(jù)此, 本文推測, 更具情感能力的AI服務會促使消費者同等對待AI服務與人類服務, 從而減弱AI服務在道德情緒方面的劣勢及對道德行為的負面影響。基于此, 本研究假設如下:

假設H11a: 情感型(vs. 認知型)AI服務會調節(jié)AI服務(vs. 人類服務)對消費者禁止性道德行為的影響。情感型AI服務提高消費者的內疚和恐懼情緒, 進而減弱對禁止性道德行為的負面影響。

假設H11b: 情感型(vs. 認知型)AI服務會調節(jié)AI服務(vs. 人類服務)對消費者倡導性道德行為的影響。情感型AI服務提升消費者的同情和自豪情緒, 進而減弱對倡導性道德行為的負面影響。

從AI服務的任務類型看, 客觀性任務可以調節(jié)AI服務對消費者禁止性和倡導性道德行為的影響。客觀性任務指可量化任務, 通常需要邏輯和規(guī)則, 與“認知”能力相關, 如幫助用戶計算五險一金繳費金額。相對的, 主觀性任務指可解釋的、依賴于個人意見或直覺的任務, 往往受經驗和情感因素影響(Castelo et al., 2019; Inbar et al., 2010), 如根據(jù)用戶偏好推薦電影。在處理客觀性任務時, 個體通常依賴較慢且更多思慮的推理過程, 即理性認知系統(tǒng)(vs. 感性系統(tǒng))。道德認知包括對被監(jiān)控的意識、對不道德行為可能受到懲罰的感知以及對公平的判斷, 與認知處理相關(Suhler amp; Churchland, 2011; Greene et al., 2004; Young amp; Dungan, 2012)。因此, 當AI服務執(zhí)行客觀任務時, 消費者更傾向于使用理性認知系統(tǒng)(vs. 感性系統(tǒng))來推理, 思考道德后果, 提高對道德規(guī)范的敏感性, 由此增強AI服務對于道德認知的正面影響。基于此, 提出以下假設:

假設H12a: 客觀性(vs. 主觀性)任務會調節(jié)AI服務(vs. 人類服務)對消費者禁止性道德行為的影響。面對客觀性任務時, AI服務提高消費者監(jiān)測可能性感知和懲罰公正性感知, 進而增強對禁止性道德行為的正面影響。

假設H12b: 客觀性(vs. 主觀性)任務會調節(jié)AI服務(vs. 人類服務)對消費者倡導性道德行為的影響。面對客觀性任務時, AI服務提高消費者行為自主性感知和服務公正性感知, 進而增強對倡導性道德行為的正面影響。

3.3.2 "消費者特征的調節(jié)作用

從消費者特征看, 消費者權力距離信念可以調節(jié)AI服務對消費者禁止性和倡導性道德行為的影響。權力距離信念(power distance belief)指個體接受等級制度和權力不平等的程度(Hofstede, 2001)。在高權力距離信念的社會中(如墨西哥和印度尼西亞), 人們認可不平等和等級制度, 而在低權力距離信念的社會中(如新西蘭和愛爾蘭), 人們相信平等和沒有等級制度(Hofstede, 2001)。研究發(fā)現(xiàn), 在個人層面上, 權力距離信念可以通過激發(fā)程序(priming procedures)被暫時性地提高(Han et al., 2017; Winterich amp; Zhang, 2014)。權力距離信念獨立于特定環(huán)境中的不平等, 反映個人對不平等是否可以接受的信念(Han et al., 2017)。相比高權力距離信念, 低權力距離信念的個體更在意社會平等(Hofstede, 2001), 對不平等更敏感(Winterich amp; Zhang, 2014)。

據(jù)此可推測, 低權力距離信念的消費者在道德判斷中更關注公正性。考慮到AI服務(vs. 人類服務)會讓消費者感受到更強的懲罰公正性和服務公正性, 低(vs. 高)權力距離信念會強化AI在道德認知因素上的優(yōu)勢, 進而削弱AI服務對消費者雙元道德行為的負面影響。基于此可以提出假設:

假設H13a: 消費者權力距離會調節(jié)AI服務(vs. 人類服務)對消費者禁止性道德行為的影響。當消費者的權力距離信念低時, AI服務提高消費者的懲罰公正性感知, 進而增強對禁止性道德行為的正面影響。

假設H13b: 消費者權力距離會調節(jié)AI服務(vs. 人類服務)對消費者倡導性道德行為的影響。當消費者的權力距離信念低時, AI服務提高消費者的服務公正性感知, 進而增強對倡導性道德行為的正面影響。

3.3.3" 道德行為特征的調節(jié)作用

從道德行為特征來看, 捐贈類型可以調節(jié)AI服務對消費者倡導性道德行為的影響。慈善機構通常呼吁兩種類型的捐獻: 時間和金錢(Liu amp; Aaker, 2008)。雖然經濟學理論認為同等價值的時間和金錢對于消費者沒有區(qū)別, 但行為決策理論指出二者在消費者心理感受上存在差異(Reed et al., 2007)。金錢可以觸摸、計算和握在手中, 而時間更加無形和短暫。所以, 金錢比時間更具有物理和概念上的有限性和實體性, 而時間更具有體驗性和模糊性(Macdonnell amp; White, 2015)。時間經常與情緒因素(如愉悅)聯(lián)系在一起(Aaker et al., 2011), 更多是由情感驅動而非理性分析驅動(Lee et al., 2016)。因此, 當消費者考慮花時間參加慈善活動時, 會更注重情感因素, 從而暴露了AI在道德情緒上的不足。而在捐贈金錢時, 消費者更偏重理性思考, 一定程度上突顯了AI在道德認知因素上的優(yōu)勢。基于此, 本文提出假設:

假設H14: 捐金錢(vs. 捐時間)會調節(jié)AI服務(vs. 人類服務)對消費者倡導性道德行為的影響。在考慮捐金錢的情景下, AI服務提高消費者服務公正性感知和行為自主性感知, 進而增強對倡導性道德行為的正面影響。

從道德行為特征來看, 不道德行為的危害程度可以調節(jié)AI服務對消費者禁止性道德行為的影響。在本研究中, 不道德行為的危害程度(immoral behavior severity)指消費者預期其不道德行為對企業(yè)的危害性。以智能無人超市結賬為例, 相較于逃單幾十元的小商品, 逃單金額超過3000元顯然對企業(yè)的危害更大, 并且可能會構成詐騙罪, 從而承擔刑事責任。按照消費者涉入度研究, 當行為決策的結果越重要時, 消費者在決策時的涉入度越高, 從而更加謹慎(Laurent amp; Kapferer, 1985; Mittal amp; Lee, 1989)。基于詳盡可能性模型(elaboration likelihood model) (Petty amp; Bri?ol, 2012; Petty amp; Cacioppo, 1984), 當消費者涉入度較高時, 消費者傾向通過核心信息處理路徑進行深度的信息評估, 做出更理性的決策; 而當涉入度較低時, 消費者更依賴外圍信息處理路線, 易受表面特征和外部因素的影響, 進而做出涵括了情緒因素的決策。

因此, 本研究認為, 當不道德行為的危害程度較高時, AI服務對禁止性道德行為的負面影響將減弱。具體而言, 一方面, 服務者類型(AI vs. 人類)相比于不道德行為特征屬于外圍因素, 當危害程度越高, 消費者會更關注核心信息, 即不道德行為的后果。另一方面, 相比人類服務, AI服務在激發(fā)道德情緒上表現(xiàn)不足, 而在道德認知上存在優(yōu)勢, 危害程度高會促使消費者采用理性判斷來處理信息, 使得AI服務的情緒不足得以規(guī)避, 而認知優(yōu)勢得以突顯。

假設H15: 不道德行為的危害程度會調節(jié)AI服務(vs. 人類服務)對消費者禁止性道德行為的影響。當不道德行為的危害程度高時, AI服務提高消費者監(jiān)測可能性感知和懲罰公正性感知, 進而增強對禁止性道德行為的正面影響。

4 "理論建構與未來研究展望

4.1" 理論建構

人工智能在我國數(shù)字經濟發(fā)展中具有重要的戰(zhàn)略地位, AI服務逐漸應用于生活的各個方面, 如AI醫(yī)療健康助手(Mele et al., 2022; Pham et al., 2024)、AI在政府公共部門改進政策制定過程、公共服務交付和內部管理(Hjaltalin amp; Sigurdarson, 2024; Van Noordt amp; Misuraca, 2022)等。然而相比于人類服務, AI服務對消費者的道德行為有什么影響?如何產生影響?通過系統(tǒng)性地梳理道德心理學、AI道德倫理和AI服務營銷三個領域的相關文獻, 本研究首次將道德心理學中道德相關理論引入AI道德倫理和AI服務營銷領域, 初步構建了AI服務對消費者道德行為影響的理論模型。

一方面, 本研究基于道德雙元性理論和道德判斷雙加工理論, 初步發(fā)現(xiàn)AI服務對倡導性和禁止性道德行為均具有雙刃劍效應, 且AI引發(fā)的道德情緒對消費者道德行為有抑制作用, 而針對AI的道德認知則有促進作用。具體而言, 相比于人類服務, AI服務會降低消費者的內疚和恐懼情緒, 從而抑制了禁止性道德行為; 同時, AI服務增強了消費者的監(jiān)測可能性感知和懲罰公正性感知, 從而促進了禁止性道德行為。對于倡導性道德行為, AI服務會降低消費者的同情和自豪情緒進而抑制道德行為, 同時提高行為自主性和服務公正性感知, 進而促進此類行為。

另一方面, 本研究分別從AI服務特征、消費者特征和道德行為特征探討了AI服務對消費者道德行為影響的邊界效應。基于AI服務(vs. 人類服務)在心理機制上會讓消費者減弱道德情緒從而產生負面效應, 同時增強道德認知從而產生正面效應, 本研究揭示AI擬人化、人機協(xié)作、情感型AI服務會增強道德情緒, 削弱負面影響; 而當面對客觀性任務、消費者權力距離信念高、捐獻類型為捐金錢以及不道德行為危害程度高時, 道德認知增強, 會促進道德行為。

本研究的理論構建如下:

本研究首次將道德心理學中的道德雙元性理論應用于AI服務營銷領域, 聚焦于AI服務對消費者禁止性和倡導性道德行為的影響。以往研究雖然涉及AI與消費者道德行為的關系, 但僅關注特定的一種或多種道德行為(Anthony amp; Cowley, 2012; Giroux et al., 2022; Hennig-Thurau et al., 2007; Kim et al., 2022; Kos Koklic et al., 2016; Lesch amp; Brinkmann, 2011)。本研究認為AI服務會通過不同的機制對消費者禁止性和倡導性道德行為產生差異化影響。本研究建立了AI服務與消費者道德行為的系統(tǒng)性關聯(lián), 不僅增進了AI服務對于不同類型消費者道德行為的理解, 同時豐富了AI服務在道德倫理領域的研究, 為分類探究影響消費者道德行為的關鍵機制提供了新思路。

本研究將道德心理學中的道德判斷雙加工理論引入營銷領域, 揭示了AI服務如何通過改變消費者道德情緒和道德認知, 進而對消費者雙元道德行為產生雙刃劍效應。以往僅有少數(shù)研究探討了AI服務對消費者道德行為的影響, 且聚焦于負面影響作用(Giroux et al., 2022; Zhou et al., 2022)。本研究提出, AI激發(fā)的道德情緒和道德認知在AI服務對消費者道德行為的影響中發(fā)揮相反的中介作用: 道德情緒負向傳導, 道德認知則正向促進。一方面, 對于禁止性道德行為, 人們認為AI在情感上尤其是在感受性(experience)上不如人類(Gray et al., 2007), 不會像人類一樣指責和批判他人(Kim et al., 2022), 因此相比于人類服務, AI服務削弱了個人預期違反道德規(guī)范會產生的內疚感, 以及因他人指責而產生的恐懼感, 進而對“不做壞事”帶來負面影響; 相反, 人們認為AI有更強的信息處理能力, 而人類的認知能力和資源相對有限(Huang amp; Rust, 2018), 因此相比于人類服務, AI服務會增強消費者對行為自主性和服務公正性的正面感知, 從而對“不做壞事”產生正面效應。

另一方面, 針對倡導性道德行為, 人們通常認為AI在感受性和情感能力上存在不足, 難以理解他人情感和產生同情心(Kim et al., 2022; Luo et al., 2019; 黃勁松 等, 2022), 因此相比于人類服務, AI服務減弱了消費者個人自豪和同情的正面情緒, 從而更少“做好事”; 反之, 相比人類, AI被認為不帶有自我意圖(Garvey et al., 2022; 宋曉兵, 何夏楠, 2020), 因此能夠提高消費者的行為自主性和服務公正性感知, 從而更樂于“做好事”。由此, 道德情緒與道德認知在AI服務與消費者道德行為的關系中分別發(fā)揮了負面和正面作用, 體現(xiàn)出AI服務影響的復雜性; 同時, 通過區(qū)分倡導性和禁止性兩類道德行為, 發(fā)現(xiàn)AI對兩類行為的上述影響雖然方向一致, 但具體的情緒和認知機制卻存在差異, 揭開了雙刃劍效應的黑箱。本研究依據(jù)道德判斷雙加工過程, 將AI服務與人類服務的區(qū)別從情緒和認知角度進行深度剖析, 為深入理解AI服務對消費者道德行為的雙刃劍影響及其機制提供了跨領域的、整合的研究思路和理論構建。

第三, 本研究從AI服務特征、消費者特征、道德行為特征多角度更全面地識別了AI服務對消費者道德行為影響的邊界條件, 彌補了以往AI與消費者道德行為研究中缺乏調節(jié)變量探討的不足。本研究發(fā)現(xiàn), 消費者道德行為與AI引起的消費者道德情緒和道德認知相關, 增強情緒或認知可以削減AI服務對消費者道德行為的負面作用。具體而言, AI擬人化、人機協(xié)作、情感型AI服務會增強消費者的道德情緒, 從而削弱AI服務對禁止性道德行為和倡導性道德行為的負面作用; 面對客觀性任務或消費者權力距離信念高時, 消費者道德認知會突顯, 進而促進禁止性和倡導性道德行為的正面作用。在捐獻等倡導性道德行為中, 捐金錢(vs. 捐時間)情境下道德認知的優(yōu)勢更加突顯, 進而削弱了AI服務的負面作用; 在不欺騙等禁止性道德行為中, 不道德行為危害性高時, 道德認知的作用勝于道德情緒, 也會減弱AI服務的負面作用。

總體而言, 本研究充分豐富了現(xiàn)有文獻, 并為道德行為的干預提供了理論支持。本研究成果不僅有助于豐富和發(fā)展服務營銷和道德倫理的相關研究, 還有利于增進消費者因道德行為而感受的心理福祉, 同時幫助企業(yè)和公共部門設計有效的行為干預策略, 激發(fā)消費者雙元道德行為, 從而促進社會的精神文明建設和AI引領的數(shù)字經濟的長遠健康發(fā)展。

4.2" 未來研究方向

本文提出了未來可供進一步研究的方向。本研究識別出AI服務、消費者心理和道德行為三方面的邊界調節(jié)作用, 特別是對AI服務所涉及的多個變量進行了深度剖析, 試圖較為全面地揭示AI服務相比人類服務對道德行為影響的復雜性。未來研究可以從國家層面識別調節(jié)變量, 從而更深入地理解AI服務在全球情境中的道德影響。國際商務研究的制度理論指出國家層面的變量可分為經濟、技術、文化、政治等方面(North, 1990; Berry et al., 2010; Kozlenkova et al., 2021)。其中, 我們認為技術、文化、社會因素可能是重要的調節(jié)變量, 這些因素在不同國家背景下對AI服務的道德效應可能會產生顯著影響。

從技術角度看, 技術發(fā)展將使AI服務更為高效和智能, 探究消費者的道德認知和道德情緒將如何受到影響(Dietvorst et al., 2015; Gursoy et al., 2019), 具有重要的學術和實踐意義。另外, 隨著科技的發(fā)展, 消費者對算法性能的認知也逐步深化, 算法偏好不斷增強(Castelo et al., 2019), 這將如何影響AI服務引發(fā)的道德認知和道德情緒以及后續(xù)的道德行為, 未來值得進一步探討。

在文化層面, 個體主義和集體主義文化差異對個人和組織行為的影響一直受到關注(Hofstede, 1984)。在個體主義文化中, 消費者更注重自我利益和個人選擇, 傾向于基于個人判斷進行道德決策, 因此對AI的接受度有限; 而在集體主義文化中, 消費者則更注重群體責任, 更容易接受AI, 這可能增強AI服務對群體性道德行為的影響(Shavitt et al., 2006; De Freitas et al., 2023)。因此, 探討不同的文化價值觀(如個人主義和集體主義)如何影響AI服務對道德的作用, 可以更進一步深化對于AI服務與道德行為關系的認識。

在社會層面, 研究表明感知腐敗水平可能會影響消費者對AI的態(tài)度。在高腐敗環(huán)境中, 消費者往往認為AI算法決策更加公正和透明, 因此對AI的信任度更高, 政府也會運用AI工具自下而上反腐以提高政務透明度和公正性(Castelo, 2024; K?bis et al., 2022)。可推測, 腐敗社會相較于清廉社會, AI服務在道德認知方面的優(yōu)勢將更為突出, AI可能更有效地促進消費者道德行為。未來研究可以重點關注AI在腐敗或清廉的社會環(huán)境中對消費者道德行為的影響有何差異, 從而為打擊腐敗、提高全社會及全人類道德水準提供見解。

綜上, 我們呼吁未來研究關注跨國層面的技術、文化和社會因素, 這將有助于理解AI服務如何在全球不同的宏觀環(huán)境中發(fā)揮作用。此類研究不僅可以為中國企業(yè)“走出去”戰(zhàn)略提供支持, 還可為中國在全球市場實現(xiàn)可持續(xù)發(fā)展、文化融合以及國際合作提供指導。

參考文獻

白惠仁. (2019). 自動駕駛汽車的“道德算法”困境. 科學學研究37(1), 18?24.

杜建剛, 趙歡, 蘇九如, 張宇. (2022). 服務智能化下的顧客行為: 研究述評與展望. 外國經濟與管理44(3), 19? 35.

杜嚴勇. (2017). 機器人倫理中的道德責任問題研究. 科學學研究35(11), 1608?1613.

黃勁松, 秦碧璇, 吳銘泉. (2022). 產品屬性對人工智能產品推薦的影響——基于同理心的視角. 管理科學35(2), 121?133.

李谷, 周暉, 丁如一. (2013). 道德自我調節(jié)對親社會行為和違規(guī)行為的影響. 心理學報45(6), 672?679.

柳林, 姜超, 李璐. (2019). 警用視頻監(jiān)控的犯罪防控效果及空間差異——以蘇州市姑蘇區(qū)為例. 地理科學39(1), 61?69.

宋曉兵, 何夏楠. (2020). 人工智能定價對消費者價格公平感知的影響. 管理科學33(5), 1?16.

宋艷, 陳琳, 李琴, 何嘉欣, 汪悅. (2022). 人工智能倫理風險感知, 信任與公眾參與. 科學學研究40(7), 1153? 1162.

吳繼飛, 朱翊敏, 劉穎悅, 梁嘉明. (2022). 智能客服厭惡效應的誘因、心理機制與邊界研究. 南開管理評論26(6), 179?189.

吳鵬, 范晶, 劉華山. (2017). 道德情緒對網絡助人行為的影響——道德推理的中介作用. 心理學報49(12), 1559? 1569.

吳鵬, 劉華山. (2014). 道德推理與道德行為關系的元分析. 心理學報46(8), 1192?1207.

許麗穎, 喻豐, 彭凱平. (2022). 算法歧視比人類歧視引起更少道德懲罰欲. 心理學報54(9), 1076?1092.

余伊琦, 馮羽, 蓋嘉. (2022). 不確定情境下消費者對人工智能和人工服務的運氣感知與相對偏好. 南開管理評論25(4), 155?165.

張宏偉, 李曄. (2014). 兩種道德自我調節(jié)機制下的道德行為. 心理科學進展22(7), 1178?1187.

鐘毅平, 占友龍, 李琎, 范偉. (2017). 道德決策的機制及干預研究: 自我相關性與風險水平的作用. 心理科學進展25(7), 1093?1102.

Aaker, J. L., Rudd, M., amp; Mogilner, C. (2011). If money does not make you happy, consider time. Journal of Consumer Psychology21(2), 126?130, https://doi.org/ 10.1016/j.jcps.2011.01.004

Adam, M., Roethke, K., amp; Benlian, A. (2022). Human vs. automated sales agents: How and why customer responses shift across sales stages. Information Systems Research34(3), 1148?1168. https://doi.org/10.1287/isre.2022.1171

Aggarwal, P., amp; McGill, A. L. (2007). Is that car smiling at me? Schema congruity as a basis for evaluating anthropomorphized products. Journal of Consumer Research34(4), 468?479. https://doi.org/10.1086/518544

Allen, C. T., Machleit, K. A., amp; Kleine, S, S. (1992). A comparison of attitudes and emotions as predictors of behavior at diverse levels of behavioral experience. Journal of Consumer Research18(4), 493?504. https://doi. org/10.1086/209276

Anthony, C. I., amp; Cowley, E. (2012). The labor of lies: How lying for material rewards polarizes consumers’ outcome satisfaction. Journal of Consumer Research, 39(3), 478? 492. https://doi.org/10.1086/663824

Ariel, B., Farrar, W. A., amp; Sutherland, A. (2015). The effect of police body-worn cameras on use of force and citizens’ complaints against the police: A randomized controlled trial. Journal of Quantitative Criminology31(3), 509?535. https://doi.org/10.1007/s10940-014-9236-3

Bagozzi, R. P., amp; Moore, D. J. (1994). Public service advertisements: Emotions and empathy guide prosocial behavior. Journal of Marketing58(1), 56?70. https://doi. org/10.2307/1252251

Bandura, A. (2014). Social cognitive theory of moral thought and action. In W. M. Kurtines amp; J. L. Gewirtz (Eds.), Handbook of moral behavior and development (pp. 45?103). Psychology Press.

Berry, H., Guillén, M. F., amp; Zhou, N. (2010). An institutional approach to cross-national distance. Journal of International Business Studies41, 1460?1480.

Bettencourt, L. A., amp; Brown, S. W. (1997). Contact employees: Relationships among workplace fairness, job sattisfaction and prosocial service behaviors. Journal of Retailing73(1), 39?61. https://doi.org/10.1016/S0022- 4359(97)90014-2

Blut, M., Wang, C., Wünderlich, N. V., amp; Brock, C. (2021). Understanding anthropomorphism in service provision: A meta-analysis of physical robots, chatbots, and other AI. Journal of the Academy of Marketing Science49(4), 632?658. https://doi.org/10.1007/s11747-020-00762-y

Blut, M., Wünderlich, N. V., amp; Brock, C. (2024). Facilitating retail customers’ use of AI-based virtual assistants: A meta-analysis. Journal of Retailing100(2), 293?315, https://doi.org/10.1016/j.jretai.2024.04.001

Bock, D. E., Wolter, J. S., amp; Ferrell, O. C. (2020). Artificial intelligence: Disrupting what we know about services. Journal of Services Marketing34(3), 317?334. https://doi. org/10.1108/JSM-01-2019-0047

Castelo, N. (2024). Perceived corruption reduces algorithm aversion. Journal of Consumer Psychology34(2), 326? 333.

Castelo, N., Bos, M. W., amp; Lehmann, D. R. (2019). Task- dependent algorithm aversion. Journal of Marketing Research56(5), 809?825. https://doi.org/10.1177/0022243719851788

Cavanaugh, L. A., Bettman, J. R., amp; Luce, M. F. (2015). Feeling love and doing more for distant others: Specific positive emotions differentially affect prosocial consumption. Journal of Marketing Research52(5), 657?673. https:// doi.org/10.1509/jmr.10.0219

Cushman, F. (2013). Action, outcome, and value: A dual-system framework for morality. Personality and Social Psychology Review17(3), 273?292. https://doi.org/10.1177/1088868-31-34-95594

Dasborough, M. T., Hannah, S. T., amp; Zhu, W. (2019). The generation and function of moral emotions in teams: An integrative review. Journal of Applied Psychology105(5), 433?452. https://doi.org/10.1037/apl0000443

De Freitas, J., Agarwal, S., Schmitt, B., amp; Haslam, N. (2023). Psychological factors underlying attitudes toward AI tools. Nature Human Behaviour7(11), 1845?1854.

Dietvorst, B. J., amp; Bartels, D. M. (2022). Consumers object to algorithms making morally relevant tradeoffs because of algorithms' consequentialist decision strategies. Journal of Consumer Psychology32(3), 406?424. https://doi.org/ 10.1002/jcpy.1266

Dietvorst, B. J., Simmons, J. P., amp; Massey, C. (2015). Algorithm aversion: People erroneously avoid algorithms after seeing them err. Journal of Experimental Psychology: General144(1), 114?126. https://doi.org/10.1037/xge0000033

Do, H., Nandi, S., Putzel, P., Smyth, P., amp; Zhong, J. (2023). A joint fairness model with applications to risk predictions for underrepresented populations. Biometrics79(2), 826?840. https://doi.org/10.1111/biom.13632

Dorfman, A., Eyal, T., amp; Bereby-Meyer, Y. (2014). Proud to cooperate: The consideration of pride promotes cooperation in a social dilemma. Journal of Experimental Social Psychology55, 105?109. https://doi.org/10.1016/j.jesp. 2014.06.003

Dunn, L., White, K., amp; Dahl, D. W. (2020). A little piece of me: When mortality reminders lead to giving to others. Journal of Consumer Research47(3), 431?453. https:// doi.org/10.1093/jcr/ucaa020

Eisenberg, N. (2000). Emotion, regulation, and moral development. Annual Review of Psychology51(1), 665? 697. https://doi.org/10.1146/annurev.psych.51.1.665

Fügener, A., Grahl, J., Gupta, A., amp; Ketter, W. (2021). Will humans-in-the-loop become Borgs? Merits and pitfalls of working with AI. Management Information Systems Quarterly45(3), 1527?1556.

Garvey, A. M., Kim, T., amp; Duhachek, A. (2022). Bad news? Send an AI. Good news? Send a human. Journal of Marketing87(1), 10?25. https://doi.org/10.1177/002224-29211066972

Gill, T. (2020). Blame it on the self-driving car: How autonomous vehicles can alter consumer morality. Journal of Consumer Research47(2), 272?291. https://doi.org/ 10.1093/jcr/ucaa018

Giroux, M., Kim, J., Lee, J. C., amp; Park, J. (2022). Artificial intelligence and declined guilt: Retailing morality comparison between human and AI. Journal of Business Ethics178(4), 1027?1041.

Gnewuch, U., Morana, S., Hinz, O., Kellner, R., amp; Maedche, A. (2024). More than a bot? The impact of disclosing human involvement on customer interactions with hybrid service agents. Information Systems Research35(3), 936?955.

Gouldner, A. W. (1960). The norm of reciprocity: A preliminary statement. American Sociological Review25(2), 161?178. https://doi.org/10.2307/2092623

Graham, J., Haidt, J., amp; Nosek, B. A. (2009). Liberals and conservatives rely on different sets of moral foundations. Journal of Personality and Social Psychology96(5), 1029?1046. https://doi.org/10.1037/a0015141

Graham, J., Nosek, B. A., Haidt, J., Iyer, R., Koleva, S., amp; Ditto, P. H. (2011). Mapping the moral domain. Journal of Personality and Social Psychology101(2), 366?385. https://doi.org/10.1037/a0021847.PMID: 21244182

Granulo, A., Fuchs, C., amp; Puntoni, S. (2021). Preference for human (vs. robotic) labor is stronger in symbolic consumption contexts. Journal of Consumer Psychology31(1), 72?80. https://doi.org/10.1002/jcpy.1181

Gray, H. M., Gray, K., amp; Wegner, D. M. (2007). Dimensions of mind perception. Science315(5812), 619?619. DOI: 10.1126/science.1134475.

Gray, K., Young, L., amp; Waytz, A. (2012). Mind perception is the essence of morality. Psychological Inquiry23(2), 101?124. https://doi.org/10.1080/1047840X.2012.651387

Grazzini, L., Viglia, G., amp; Nunan, D. (2023). Dashed expectations in service experiences. Effects of robots human-likeness on customers’ responses. European Journal of Marketing57(4), 957?986.

Greenbaum, R. L., Babalola, M., Quade, M. J. Guo, L., amp; Kim, Y. C. (2021). Moral burden of bottom-line pursuits: How and when perceptions of top management bottom- line mentality inhibit supervisors’ ethical leadership practices. Journal of Business Ethics. 174, 109?123. https://doi.org/10.1007/s10551-020-04546-w

Greene, J. D. (2009). Dual-process morality and the personal/impersonal distinction: A reply to McGuire, Langdon, Coltheart, and Mackenzie. Journal of Experimental Social Psychology45(3), 581?584. https://doi.org/10. 1037/a0021847

Greene, J. D., Nystrom, L. E., Engell, A. D., Darley, J. M., amp; Cohen, J. D. (2004). The neural bases of cognitive conflict and control in moral judgment. Neuron44(2), 389?400. https://doi.org/10.1016/j.neuron.2004.09.027

Greene, J. D., Sommerville, R. B., Nystrom, L. E., Darley, J. M., amp; Cohen, J. D. (2001). An fMRI investigation of emotional engagement in moral judgment. Science293(5537), 2105?2108. https://doi.org/10.1126/science. 1062872

Grinstein, A., Hagtvedt, H., amp; Kronrod, A. (2019). Aesthetically (dis) pleasing visuals: A dual pathway to empathy and prosocial behavior. International Journal of Research in Marketing36(1), 83?99. https://doi.org/ 10.1016/j.ijresmar.2018.09.003

Gursoy, D., Chi, O. H., Lu, L., amp; Nunkoo, R. (2019). Consumers acceptance of artificially intelligent (AI) device use in service delivery. International Journal of Information Management49, 157?169. https://doi.org/ 10.1016/j.ijinfomgt.2019.03.008

Habel, J., Schons, L. M., Alavi, S., amp; Wieseke, J. (2016). Warm glow or extra charge? The ambivalent effect of corporate social responsibility activities on customers’ perceived price fairness. Journal of Marketing80(1), 84?105. https://doi.org/10.1509/jm.14.0389

Haidt, J. (2001). The emotional dog and its rational tail: A social intuitionist approach to moral judgment. Psychological Review, 108(4), 814?834.

Haidt, J. (2003). Elevation and the Positive Psychology of Morality. In C. L. M. Keyes amp; J. Haidt (Eds.), Flourishing: Positive psychology and the life well-lived (pp. 275?289). American Psychological Association.

Haidt, J. (2007). The new synthesis in moral psychology. Science316(5827), 998?1002. https://doi.org/10.1126/ science.1137651

Han, D., Lalwani, A. K., amp; Duhachek, A. (2017). Power distance belief, power, and charitable giving. Journal of Consumer Research44(1), 182?195. https://doi.org/ 10.1093/jcr/ucw084

Hennig-Thurau, T., Henning, V., amp; Sattler, H. (2007). Consumer file sharing of motion pictures. Journal of Marketing71(4), 1?18.

Hermann, E. (2022). Leveraging artificial intelligence in marketing for social good—An ethical perspective. Journal of Business Ethics179(1), 43?61.

Hjaltalin, I. T., amp; Sigurdarson, H. T. (2024). The strategic use of AI in the public sector: A public values analysis of national AI strategies. Government Information Quarterly41(1), 101914.

Hofstede, G. (1984). Culture's consequences: International differences in work-related values (Vol. 5). Sage Publications.

Hofstede, G. (2001). Culture’s consequences: Comparing values, behaviors, institutions, and organizations across nations. Thousand Oaks.

Holth?wer, J., amp; Van Doorn, J. (2023). Robots do not judge: Service robots can alleviate embarrassment in service encounters. Journal of the Academy of Marketing Science51(4), 767?784.

Huang, M. H., amp; Rust, R. T. (2018). Artificial intelligence in service. Journal of Service Research21(2), 155?172. https://doi.org/10.1177/1094670517752459

Huang, M. H., amp; Rust, R. T. (2021). A strategic framework for artificial intelligence in marketing. Journal of the Academy of Marketing Science49(1), 30?50. https:// doi.org/10.1007/s11747-020-00749-9.

Huang, M. H., amp; Rust, R. T. (2024). The caring machine: Feeling AI for customer care. Journal of Marketing88(5), 1?23. https://doi.org/10.1177/00222429231224748

Huebner, B., Dwyer, S., amp; Hauser, M. (2009). The role of emotion in moral psychology. Trends in Cognitive Sciences13(1), 1?6.

Inbar, Y., Cone, J., amp; Gilovich, T. (2010). People's intuitions about intuitive insight and intuitive choice. Journal of Personality and Social Psychology99(2), 232?247. https://doi.org/10.1037/a0020215

Janoff-Bulman, R., Sheikh, S., amp; Hepp, S. (2009). Proscriptive versus prescriptive morality: Two faces of moral regulation. Journal of Personality and Social Psychology96(3), 521?537.

Kim, H. C., amp; Kramer, T. (2015). Do materialists prefer the “brand-as-servant”? The interactive effect of anthropomorphized brand roles and materialism on consumer responses. Journal of Consumer Research42(2), 284?299. https://doi.org/10.1093/jcr/ucv015

Kim, S., He, H., amp; Gustafsson, A. (2024). The impact of corporate social irresponsibility on prosocial consumer behavior. Journal of the Academy of Marketing Science. https://doi.org/10.1007/s11747-024-01021-0

Kim, S. Y., Schmitt, B. H., amp; Thalmann, N. M. (2019). Eliza in the uncanny valley: Anthropomorphizing consumer robots increases their perceived warmth but decreases liking. Marketing Letters30(1), 1?12.

Kim, T., Lee, H., Kim, M. Y., Kim, S., amp; Duhachek, A. (2022). AI increases unethical consumer behavior due to reduced anticipatory guilt. Journal of the Academy of Marketing Science51(4), 785?801. https://doi.org/ 10.1007/s11747-021-00832-9.

Klein, N., amp; Epley, N. (2016). Maybe holier, but definitely less evil, than you: Bounded self-righteousness in social judgment. Journal of Personality and Social Psychology110(5), 660?674. https://doi.org/10.1037/pspa0000050

K?bis, N., Starke, C., amp; Rahwan, I. (2022). The promise and perils of using artificial intelligence to fight corruption. Nature Machine Intelligence4(5), 418?424.

Kohlberg, L. (1981). Essays on moral development: Vol. I. The philosophy of moral development, Harper amp; Row.

Kos Koklic, M., Kukar-Kinney, M., amp; Vida, I. (2016). Three-level mechanism of consumer digital piracy: Development and cross-cultural validation. Journal of Business Ethics134(1), 15?27.

Kozlenkova, I. V., Lee, J. Y., amp; Xiang, D. (2021). Sharing economy: International marketing strategies. Journal of International Business Studies, 52(7), 1445?1473. https:// doi.org/10.1057/s41267-020-00393-z

LaMothe, E., amp; Bobek, D. (2020). Are individuals more willing to lie to a computer or a human? Evidence from a tax compliance setting. Journal of Business Ethics, 167, 157?180. https://doi.org/10.1007/s10551-019-04408-0

Landwehr, J. R., McGill, A. L., amp; Herrmann, A. (2011). It's got the look: The effect of friendly and aggressive \"facial\" expressions on product liking and sales. Journal of Marketing75(3), 132?146. https://doi.org/10.1509/jmkg. 75.3.132

Langevin, P., amp; Mendoza, C. (2013). How can management control system fairness reduce managers’ unethical behaviours? European Management Journal31(3), 209? 222. https://doi.org/10.1016/j.emj.2012.12.001

Laurent, G., amp; Kapferer, J. -N. (1985). Measuring consumer involvement profiles. Journal of Marketing Research22(1), 41?53. https://doi.org/10.2307/3151549

Lee, E. (2016). Empathy can increase customer equity related to pro-social brands. Journal of Business Research69(9), 3748?3754. https://doi.org/10.1016/j.jbusres.2015. 05.018

Lee, M., Pekrun, R., Taxer, J. L, Schutz, P. A., Vogl, E., amp; Xie, X. (2016). Teachers’ emotions and emotion management: Integrating emotion regulation theory with emotional labor research. Social Psychology of Education, 19, 843?863. https://doi.org/10.1007/s11218-016-9359-5

Lesch, W. C., amp; Brinkmann, J. (2011). Consumer insurance fraud/abuse as co-creation and co-responsibility: A new paradigm. Journal of Business Ethics103(Suppl 1), 17? 32. https://doi.org/10.1007/s10551-012-1226-5

Liu, W., amp; Aaker, J. (2008). The happiness of giving: The time-ask effect. Journal of Consumer Research35(3), 543?557. https://doi.org/10.1086/588699

Longoni, C., Bonezzi, A. amp; Morewedge, C. K. (2019). Resistance to medical artificial intelligence. Journal of Consumer Research46(4), 629?650.

Longoni, C., amp; Cian, L. (2022). Artificial intelligence in utilitarian vs. hedonic contexts: The “word-of-machine” effect. Journal of Marketing86(1), 91?108.

Longoni, C., Cian, L., amp; Kyung, E. J. (2023). Algorithmic transference: People overgeneralize failures of AI in the government. Journal of Marketing Research60(1), 170? 188. https://doi.org/10.1177/00222437221110139

Luo, X., Qin, M. S., Fang, Z., amp; Qu, Z. (2021). Artificial intelligence coaches for sales agents: Caveats and solutions. Journal of Marketing85(2), 14?32. https://doi. org/10.1177/0022242920956676

Luo, X., Tong, S., Zheng, F., amp; Zhe, Q. (2019). Frontiers: Machines vs. humans: The impact of artificial intelligence chatbot disclosure on customer purchases. Marketing Science38(6), 937?947.

Lv, L., amp; Huang, M. (2022). Can personalized recommendations in charity advertising boost donation? The role of perceived autonomy. Journal of Advertising53(1), 36?53. https://doi.org/10.1080/00913367.2022.2109082

MacDonnell, R., amp; White, K. (2015). How construals of money versus time impact consumer charitable giving. Journal of Consumer Research42(4), 551?563.

Makarius, E. E., Mukherjee, D., Fox, J. D., amp; Fox, A. K. (2020). Rising with the machines: A sociotechnical framework for bringing artificial intelligence into the organization. Journal of Business Research120, 262? 273.

Mele, C., Russo-Spena, T., Marzullo, M., amp; Ruggiero, A. (2022). Boundary work in value co-creation practices: The mediating role of cognitive assistants. Journal of Service Management33(2), 342?362.

Mende, M., Scott, M. L., van Doorn, J., Grewal, D., amp; Shanks, I. (2019). Service robots rising: How humanoid robots influence service experiences and elicit compensatory consumer responses. Journal of Marketing Research56(4), 535?556. https://doi.org/10.1177/0022243718822827

Michie, S. (2009). Pride and gratitude: How positive emotions influence the prosocial behaviors of organizational leaders. Journal of Leadership amp; Organizational Studies15(4), 393?403. https://doi.org/10.1177/1548051809333338

Mittal, B., amp; Lee, M. (1989). A causal model of consumer involvement. Journal of Economic Psychology10(3), 363?389. https://doi.org/10.1016/0167-4870(89)90030-5

North, D. C. (1990). Institutions, institutional change and economic performance. Cambridge University Press.

Pei, Z., Paswan, A., amp; Yan, R. (2014). E-tailer's return policy, consumer's perception of return policy fairness and purchase intention. Journal of Retailing and Consumer Service21(3), 249?257.

Peloza, J., White, K., amp; Shang, J. (2013). Good and guilt-free: The role of self-accountability in influencing preferences for products with ethical attributes. Journal of Marketing77(1), 104?119. https://doi.org/10.1509/jm.11. 0454

Petty, R. E., amp; Bri?ol, P. (2012). The elaboration likelihood model. In P. A. M. Van Lange, A. W. Kruglanski, amp; E. T. Higgins (Eds.), Handbook of theories of social psychology (pp. 224?245). Sage Publications Ltd. https://doi.org/10. 4135/9781446249215.n12

Petty, R. E., amp; Cacioppo, J. T. (1984). The effects of involvement on responses to argument quantity and quality: Central and peripheral routes to persuasion. Journal of Personality and Social Psychology46(1), 69?81. https://doi.org/10.1037/0022-3514.46.1.69

Pham, P., Zhang, H., Gao, W., amp; Zhu, X. (2024). Determinants and performance outcomes of artificial intelligence adoption: Evidence from U.S. hospitals. Journal of Business Research172, 114402.

Reed, A. II, Aquino, K., amp; Levy, E. (2007). Moral identity and judgments of charitable behaviors. Journal of Marketing71(1), 178?193. https://doi.org/10.1509/jmkg. 71.1.178

Reich, T., Kaju, A., amp; Maglio, S. J. (2022). How to overcome algorithm aversion: Learning from mistakes. Journal of Consumer Psychology33(2), 285?302. https://doi.org/10.1002/jcpy.1313

Robitaille, N., Mazar, N., Tsai, C. I., Haviv, A. M., amp; Hardy, E. (2021). Increasing organ donor registrations with behavioral interventions: A field experiment. Journal of Marketing85(3), 168?183.

Roy, S. K., Shekhar, V., Lassar, W. M., amp; Chen, T. (2018). Customer engagement behaviors: The role of service convenience, fairness and quality. Journal of Retailing and Consumer Services44, 293?304.

Ryan, R. M., amp; Deci, E. L. (2000). Self-determination theory and the facilitation of intrinsic motivation, social development, and well-being. American Psychologist55(1), 68?78. https://doi.org/10.1037/0003-066X.55.1.68

Ryan, R. M., amp; Deci, E. L. (2006). Self-regulation and the problem of human autonomy: Does psychology need choice, self-determination, and will? Journal of Personality74(6), 1557?1586. https://doi.org/10.1111/j.1467-6494. 2006.00420.x.

Schweitzer, M. E., amp; Gibson, D. E. (2008). Fairness, feelings, and ethical decision-making: Consequences of violating community standards of fairness. Journal of Business Ethics77(3), 287?301. https://doi.org/10.1007/s10551- 007-9350-3

Seiders, K., amp; Berry, L. L. (1998). Service fairness: What it is and why it matters. Academy of Management Executive12(2), 8?20. http://dx.doi.org/10.5465/AME.1998.650513

Shavitt, S., Lalwani, A. K., Zhang, J., amp; Torelli, C. J. (2006). The horizontal/vertical distinction in cross-cultural consumer research. Journal of Consumer Psychology16(4), 325?342. https://doi.org/10.1207/s15327663jcp1604_3

Simpson, B., White, K., amp; Laran, J. (2018). When public recognition for charitable giving backfires: The role of independent self-construal. Journal of Consumer Research44(6), 1257?1273.

Sowa, K., Przegalinska, A., amp; Ciechanowski, L. (2021). Cobots in knowledge work: Human ? AI collaboration in managerial professions. Journal of Business Research, 125, 135?142, https://doi.org/10.1016/j.jbusres.2020.11.038

Srinivasan, R., amp; Sarial-Abi, G. (2021). When algorithms fail: Consumers’ responses to brand harm crises caused by algorithm errors. Journal of Marketing85(5), 74?91. https://doi.org/10.1177/0022242921997082

Suhler, C. L., amp; Churchland, P. (2011). Can innate, modular 'foundations' explain morality? Challenges for Haidt's moral foundations theory. Journal of Cognitive Neuroscience23(9), 2103?2116.

Sullivan, Y. W., amp; Fosso Wamba, S. (2022). Moral judgments in the age of artificial intelligence. Journal of Business Ethics, 178, 917-943. https://doi.org/10.1007/s10551-022- 05053-w

Tangney, J. P., Stuewig, J., amp; Mashek, D. J. (2007). Moral emotions and moral behavior. Annual review of psychology58, 345?372. https://doi.org/10.1146/annurev.psych.56.091103. 070145

Telkamp, J. B., amp; Anderson, M. H. (2022). The implications of diverse human moral foundations for assessing the ethicality of artificial intelligence. Journal of Business Ethics178, 961?976. https://doi.org/10.1007/s10551- 022-05057-6

Trepte, S., amp; Reinecke, L. (2011). The pleasures of success: Game-related efficacy experiences as a mediator between player performance and game enjoyment. CyberpsychologyBehavior, and Social Networking14(9), 555?557. https://doi.org/10.1089/cyber.2010.0358

Turiel, E. (1983). The development of social knowledge: Morality and convention. Cambridge University Press.

Van Noordt, C., amp; Misuraca, G. (2022). Artificial intelligence for the public sector: Results of landscaping the use of AI in government across the European Union. Government Information Quarterly39(3), 101714.

Wang, X., amp; McClung, S. R. (2012). The immorality of illegal downloading: The role of anticipated guilt and general emotions. Computers in Human Behavior28(1), 153?159. https://doi.org/10.1016/j.chb.2011.08.021

Ward, A. F., Olsen, A. S., amp; Wegner, D. M. (2013). The harm-made mind: Observing victimization augments attribution of minds to vegetative patients, robots, and the dead. Psychological Science24(8), 1437?1445. http://www. jstor.org/stable/23484609

Weingarten, E., amp; Goodman, J. K. (2021). Re-examining the experiential advantage in consumption: A meta-analysis and review. Journal of Consumer Research47(6), 855?877. https://doi.org/10.1093/jcr/ucaa047

Weinstein, N., amp; Ryan, R. M. (2010). When helping helps: Autonomous motivation for prosocial behavior and its influence on well-being for the helper and recipient. Journal of Personality and Social Psychology98(2), 222?244. https://doi.org/10.1037/a0016984

Welsh, B. C., amp; Farrington, D. P. (2009). Public area CCTV and crime prevention: An updated systematic review and meta-analysis. Justice Quarterly26(4), 716?745. https:// doi.org/10.1080/07418820802506206

Wertenbroch, K., Schrift, R. Y., Alba, J. W., Barasch, A., Bhattacharjee, A., Giesler, M., ... Zwebner, Y. (2020). Autonomy in consumer choice. Marketing Letters31(4), 429?439. https://doi.org/10.1007/s11002-020-09521-z

Winterich, K. P., amp; Zhang, Y. (2014). Accepting inequality deters responsibility: How power distance decreases charitable behavior. Journal of Consumer Research41(2), 274?293. https://doi.org/10.1086/675927

Xu, L., amp; Mehta, R. (2022). Technology devalues luxury? Exploring consumer responses to AI-designed luxury products. Journal of the Academy of Marketing Science, 50, 1135?1152. https://doi.org/10.1007/s11747-022-00854-x

Xu, L., Mehta, R., amp; Dahl, D. W. (2022). Leveraging creativity in charity marketing: The impact of engaging in creative activities on subsequent donation behavior. Journal of Marketing86(5), 79?94. https://doi.org/10. 1177/00222429211037587

Yalcin, G., Lim, S., Puntoni, S., amp; van Osselaer, S. M. J. (2022). Thumbs up or down: Consumer reactions to decisions by algorithms versus humans. Journal of Marketing Research59(4), 696?717. https://doi.org/10. 1177/00222437211070016

Young, L., amp; Dungan, J. (2012). Where in the brain is morality? Everywhere and maybe nowhere. Social Neuroscience7(1), 1?10.

Yu, Y., Yang, Y., Huang, J., amp; Tan, Y. (2023). Unifying algorithmic and theoretical perspectives: Emotions in online reviews and sales. MIS Quarterly47(1), 127?160.

Zhou, Y., Fei, Z., He, Y., amp; Yang, Z. (2022). How human? chatbot interaction impairs charitable giving: The role of moral judgment. Journal of Business Ethics178(3), 849?865.

The double-edged sword effect of artificial intelligenceservices on consumer moral behavior

PENG Chenming1, QU Yifan1, GUO Xiaoling1, CHEN Zengxiang2

1 Business School, University of International Business Economics, Beijing 100029, China)(2 International School of Business amp; Finance, Sun Yat-Sen University, Zhuhai 519082, China)

Abstract: As the artificial intelligence (AI) industry rapidly evolves, a diverse array of AI services have emerged. However, the impact of AI services on consumer moral behaviors remains insufficiently explored. This study integrates moral psychology theories into AI service marketing to examine the double-edged sword effect of AI services on consumer moral behavior, as well as the underlying psychological mechanisms and boundary conditions. First, drawing on the moral duality theory, the research distinguishes between the impacts of AI services on consumers' proscriptive moral behavior and prescriptive moral behavior. Second, leveraging the double-process theory of moral judgment, the research reveals the double-edged sword effect of AI services on moral behavior from both cognitive and emotional processes. Third, the study examines how AI services influence moral behaviors by exploring boundary conditions across three levels: AI itself, the consumer, and the moral behavior, and investigates the differential boundary conditions between dual moral behaviors. The findings of this research are expected to enhance consumer welfare, providing a theoretical foundation for businesses and the public sector to develop targeted behavioral intervention strategies, and ultimately foster the progress of social civilization and support the healthy development of the digital economy.

Keywords: artificial intelligence service, moral behaviors, double-edged sword effect, moral duality theory, double-process theory of moral judgment

* 國家自然科學基金青年項目(72302046)資助。

通信作者陳增祥, E-mail: chzengx@mail.sysu.edu.cn;屈奕帆, E-mail: qu_yifan@126.com

1 http://finance.people.com.cn/n1/2024/0309/c1004-40192366.html《AI觀察|政府工作報告首提“人工智能+”有何深意?》

2 https://www.chinacourt.org/chat/chat/2021/12/id/52921.shtml《12月24日9:30時, 大興法院召開“自助收銀”超市盜竊類案件分析及預防新聞發(fā)布會》

主站蜘蛛池模板: 99九九成人免费视频精品| 99热国产在线精品99| av免费在线观看美女叉开腿| 免费观看精品视频999| 亚洲一级毛片免费观看| 欧美在线伊人| 日韩欧美一区在线观看| 久久福利网| 国产情精品嫩草影院88av| 2021亚洲精品不卡a| 色天堂无毒不卡| 日本精品αv中文字幕| 精品精品国产高清A毛片| 精品国产免费观看| 老色鬼欧美精品| 免费在线色| 波多野结衣无码AV在线| 亚洲—日韩aV在线| 日韩高清无码免费| 永久免费无码成人网站| 漂亮人妻被中出中文字幕久久 | 国产人成在线视频| 99热这里只有精品2| hezyo加勒比一区二区三区| 国产成人精品免费视频大全五级| 国产欧美日韩资源在线观看| 国产亚洲现在一区二区中文| 色亚洲成人| 亚洲成人www| 国产在线啪| 88av在线看| 国产精品 欧美激情 在线播放| 91精品人妻一区二区| 美女高潮全身流白浆福利区| 亚洲男人在线| 国内精品免费| 久久99国产视频| 国产麻豆永久视频| 精品色综合| 国产精品福利导航| 国产永久无码观看在线| 亚洲成综合人影院在院播放| 日韩精品毛片| 99久久国产精品无码| 国产成人综合欧美精品久久| 久久99国产精品成人欧美| 麻豆精选在线| 国产精品三级av及在线观看| 美臀人妻中出中文字幕在线| 精品小视频在线观看| 国产玖玖玖精品视频| 精品国产污污免费网站| 国产尤物在线播放| 亚洲天堂网在线播放| 一级毛片在线免费看| 欧美人人干| 在线观看免费黄色网址| 97精品国产高清久久久久蜜芽 | 日韩一级二级三级| 在线看免费无码av天堂的| a级毛片免费看| 91精品国产情侣高潮露脸| 婷婷成人综合| 特级aaaaaaaaa毛片免费视频| 动漫精品中文字幕无码| 欧美在线视频不卡第一页| 国语少妇高潮| 久久青草免费91线频观看不卡| 国产在线观看一区精品| 98超碰在线观看| 国产一区二区人大臿蕉香蕉| 日本精品影院| av在线无码浏览| 免费国产一级 片内射老| 国产二级毛片| 亚洲a免费| 热久久综合这里只有精品电影| 欧美亚洲另类在线观看| 日韩av高清无码一区二区三区| 亚洲第一视频网| 国产美女精品一区二区| 国产高颜值露脸在线观看|