


摘" 要" 發(fā)展智慧養(yǎng)老是應(yīng)對人口快速老齡化挑戰(zhàn)的重要舉措, 既能緩解社會(huì)養(yǎng)老壓力, 又能滿足老年人日益多樣化的需求。然而, 當(dāng)前智慧養(yǎng)老系統(tǒng)的應(yīng)用仍面臨老年人接受度較低、交互效能較低、信任度較低、責(zé)任分配不明晰等一系列問題。因此, 本研究旨在從用戶需求、交互行為、人機(jī)信任、人機(jī)責(zé)任多層次構(gòu)建老年用戶與智能系統(tǒng)人機(jī)共融的理論框架, 深入探究用戶特征、系統(tǒng)屬性、情境因素對人機(jī)共融的影響機(jī)理。本研究在用戶需求、交互行為層次, 構(gòu)建用戶畫像、需求模型與交互行為模型, 優(yōu)化智能系統(tǒng)屬性, 提升老年用戶的接受度、交互效能; 在人機(jī)信任層次, 探究老年用戶與智能系統(tǒng)的人機(jī)動(dòng)態(tài)信任發(fā)展規(guī)律, 剖析各類因素對動(dòng)態(tài)信任的綜合影響機(jī)理, 提升老年用戶使用行為的持續(xù)性和人機(jī)關(guān)系的穩(wěn)定性; 在人機(jī)責(zé)任層次, 面對智能系統(tǒng)應(yīng)用可能帶來的正面、負(fù)面結(jié)果, 剖析各類因素對人機(jī)責(zé)任歸因的影響機(jī)制, 促進(jìn)更好的人機(jī)協(xié)同。開展本研究可促進(jìn)人機(jī)共融理論的發(fā)展, 為智能系統(tǒng)的適老化設(shè)計(jì)與升級提供理論支撐與實(shí)踐參考。
關(guān)鍵詞" 人機(jī)共融, 用戶需求, 交互行為, 人機(jī)信任, 人機(jī)責(zé)任
分類號 "B849
1" 問題提出
智慧養(yǎng)老將成為應(yīng)對人口快速老齡化、解決養(yǎng)老難題的重要支撐。2023年末, 我國60歲及以上人口為2.97億人, 占全國人口的21.1%, 其中65歲及以上人口為2.17億人, 占全國人口的15.4%。為積極應(yīng)對人口老齡化挑戰(zhàn), 國務(wù)院印發(fā)《“十四五”國家老齡事業(yè)發(fā)展和養(yǎng)老服務(wù)體系規(guī)劃》, 強(qiáng)調(diào)促進(jìn)老年用品科技化、智能化升級(國務(wù)院, 2022)。智能系統(tǒng)將人與物、物與物連接起來, 實(shí)現(xiàn)“萬物互聯(lián)”, 可為老年人提供實(shí)時(shí)高效的個(gè)性化養(yǎng)老服務(wù)。一方面, 智能系統(tǒng)可以實(shí)時(shí)監(jiān)測老年人的健康狀況與家庭環(huán)境, 并對突發(fā)情況做出及時(shí)響應(yīng)。例如, 摔倒監(jiān)測設(shè)備、可燃?xì)怏w探測器等可較大程度保障空巢老人的居家安全。另一方面, 智能系統(tǒng)也能為老年人提供社交支持, 滿足老年人更高層次的精神需求。研究表明, 通過與智能機(jī)器人交互, 老年人的身心健康狀況可得到改善。例如, 海豹機(jī)器人PARO被老年人認(rèn)為是“像朋友一樣”的社會(huì)存在, 不僅能為健康老年人提供社交和情感支持(McGlynn et al., 2017), 還能幫助阿爾茨海默癥患者克服暫時(shí)性語言障礙(Hung et al., 2021)。
但現(xiàn)實(shí)中, 老年人使用智能系統(tǒng)仍面臨數(shù)字鴻溝。數(shù)字鴻溝的出現(xiàn)與智能技術(shù)研究、開發(fā)和實(shí)施過程中對老年用戶的重視程度不夠有關(guān)(Ball et al., 2019; Kanstrup amp; Bygholm, 2019; Rosales amp; Fernández-Ardèvol, 2020)。智能系統(tǒng)具備的情境感知、自主學(xué)習(xí)、自主決策、主動(dòng)交互等能力將讓人機(jī)關(guān)系進(jìn)一步向“人機(jī)共融”發(fā)展。目前, 用戶與智能系統(tǒng)人機(jī)共融相關(guān)研究也主要聚焦于青年用戶在工作場景中的使用(Peek et al., 2016)。在需求與交互行為層次上, 研究者探究了用戶的技術(shù)接受模型(Ferreira et al., 2023; Gansser amp; Reich, 2021)、用戶與不同類型智能系統(tǒng)交互的效能(Xie et al., 2023)。在人機(jī)信任層次中, 研究者探究了人機(jī)信任關(guān)系及影響因素(黃心語, 李曄, 2024; Guoamp; Yang, 2021; Hancock et al., 2021; Hancock et al., 2011; Yang et al., 2021)。在人機(jī)責(zé)任層次中, 研究者探究了用戶對智能系統(tǒng)的責(zé)任歸因機(jī)制(Liu amp; Du, 2022; Navare et al., 2024)。這些研究正在逐步探明用戶對智能系統(tǒng)的需求、用戶的交互行為、人機(jī)信任與人機(jī)責(zé)任分配機(jī)制, 但尚未有研究進(jìn)一步整合、構(gòu)建涉及用戶使用前、中、后的多層次人機(jī)共融理論框架。
同時(shí), 老年人與青年人在思想觀念、實(shí)際需求、身體機(jī)能、使用經(jīng)驗(yàn)等方面存在諸多差異, 以往關(guān)于青年用戶與智能系統(tǒng)人機(jī)共融的研究成果很難直接應(yīng)用在老年用戶與智能系統(tǒng)的人機(jī)共融關(guān)系構(gòu)建中。一是老年用戶對智能系統(tǒng)的實(shí)際需求與青年用戶不同。在居家智能系統(tǒng)中, 老年用戶更關(guān)注健康和醫(yī)療管理類、輔助生活類的智能系統(tǒng), 青年用戶則更關(guān)注娛樂類的智能系統(tǒng)(Robinson et al., 2014; Zhong et al., 2024)。二是老年用戶使用智能系統(tǒng)面臨更多困難。老年人感官、認(rèn)知和身體上的衰退、對智能系統(tǒng)使用經(jīng)驗(yàn)的不足、心智模型的差異會(huì)給老年人使用智能系統(tǒng)帶來更多困難, 導(dǎo)致老年人使用新技術(shù)的信心不足(Ball et al., 2019; Tomasino et al., 2017)。三是老年用戶與智能系統(tǒng)的人機(jī)信任關(guān)系構(gòu)建過程可能不同。在持續(xù)性的交互中, 老年用戶對智能系統(tǒng)不同的心理預(yù)期、感知、交互偏好、使用場景會(huì)影響人機(jī)信任構(gòu)建過程(Schaefer et al., 2016)。四是老年用戶對智能系統(tǒng)應(yīng)用帶來的結(jié)果可能有不同的責(zé)任分配態(tài)度。之前的研究表明, 與青年人相比, 老年人更可能將負(fù)面事件結(jié)果歸因于行為者的特質(zhì), 而不是與情境背景相關(guān)的因素(Blanchard-Fields amp; Beatty, 2005)。并且, 老年用戶與智能系統(tǒng)人機(jī)共融過程受各類因素的影響機(jī)理也可能與青年用戶有較大差異。
盡管研究者開始關(guān)注老年用戶與智能系統(tǒng)的人機(jī)共融機(jī)制, 但現(xiàn)有研究仍較分散, 缺乏整體性的理論框架與實(shí)證結(jié)果支撐。一是現(xiàn)有研究大多關(guān)注老年用戶對智能系統(tǒng)的技術(shù)接受度(Ghorayeb et al., 2021; Zhang, 2023)、初次接觸時(shí)的信任態(tài)度(Liu et al., 2021), 較少關(guān)注老年用戶與智能系統(tǒng)真實(shí)的動(dòng)態(tài)交互過程和對交互結(jié)果的責(zé)任分配機(jī)制, 忽略了從動(dòng)態(tài)性、整體性視角去構(gòu)建老年用戶與智能系統(tǒng)人機(jī)共融機(jī)制的必要性與重要性。智能系統(tǒng)具有自主性、復(fù)雜性、不確定性等特點(diǎn)。在用戶與智能系統(tǒng)的交互過程中, 系統(tǒng)可自主、動(dòng)態(tài)地學(xué)習(xí)用戶的偏好與行為, 修正自己的行為實(shí)現(xiàn)更有效和友好的交互。傳統(tǒng)基于“刺激—反應(yīng)”的人機(jī)關(guān)系模式也發(fā)生了改變, 需進(jìn)一步分析用戶使用智能系統(tǒng)前、中、后的人機(jī)關(guān)系是如何發(fā)生變化的, 針對某一層次的理論框架無法全面解釋老年用戶與智能系統(tǒng)人機(jī)共融的動(dòng)態(tài)發(fā)展過程。因此, 有必要從動(dòng)態(tài)性、整體性視角構(gòu)建人機(jī)共融理論框架(孫效華 等, 2020; Farooq amp; Grudin, 2016; Rodrigues Barbosa et al., 2024)。二是現(xiàn)有研究主要探究某一類因素對單一層次人機(jī)共融的影響, 很難厘清用戶特征、系統(tǒng)屬性和情境因素對人機(jī)共融各個(gè)層次的復(fù)雜影響機(jī)理。基于此, 本研究擬從動(dòng)態(tài)性、整體性的視角進(jìn)行探究, 基于老年用戶使用前的需求特征、使用中的交互行為、人機(jī)信任關(guān)系、使用后的人機(jī)責(zé)任歸因構(gòu)建多層次人機(jī)共融理論框架, 并探究用戶特征、系統(tǒng)屬性和情境因素對各層次的影響機(jī)理。老年用戶與智能系統(tǒng)的多層次人機(jī)共融機(jī)制可為智能系統(tǒng)的適老化設(shè)計(jì)提供理論見解和實(shí)踐啟示, 推動(dòng)智慧養(yǎng)老的發(fā)展。
2" 研究現(xiàn)狀分析
2.1" 用戶對智能系統(tǒng)的需求與交互行為研究
智能系統(tǒng)與交互界面的設(shè)計(jì)應(yīng)與老年用戶需求、心智模型、交互能力相匹配(Shi et al., 2023; Zhou amp; Gao, 2021)。在需求層次上, 應(yīng)基于老年用戶對提高生活獨(dú)立性、緩解孤獨(dú)感、就地養(yǎng)老、健康管理等需求設(shè)計(jì)智能系統(tǒng)的功能(Ghorayeb et al., 2021; Li et al., 2021), 并化解老年用戶對智能系統(tǒng)可用性、易用性、安全性、隱私性、控制性等方面的擔(dān)憂(Li et al., 2021; Peek et al., 2014; Tsertsidis et al., 2019; Zafrani et al., 2023)。在滿足用戶對智能系統(tǒng)基本功能需求的同時(shí), 也應(yīng)關(guān)注用戶的情感需求。智能系統(tǒng)應(yīng)理解用戶的意圖并提供人性化的服務(wù)(曹劍琴 等, 2023)。現(xiàn)有關(guān)于老年用戶對智能系統(tǒng)需求的研究往往忽略了老年用戶的異質(zhì)性特點(diǎn), 不同價(jià)值觀、健康狀況、使用經(jīng)驗(yàn)的老年用戶對智能系統(tǒng)的需求可能有較大差異(Chu et al., 2022)。
智能系統(tǒng)交互界面的設(shè)計(jì)仍需考慮用戶對信息的動(dòng)態(tài)加工過程, 在不同情境下調(diào)整系統(tǒng)與用戶心智模型相匹配, 提高界面與記憶決策的相容性, 滿足用戶心理、交互能力等方面的自然性約束, 取得情境?心理?信道相容匹配(史元春, 2018)。在系統(tǒng)屬性中, “媒體等同”理論和“計(jì)算機(jī)為社會(huì)行動(dòng)者”范式指出, 計(jì)算機(jī)是社會(huì)性的, 用戶會(huì)根據(jù)計(jì)算機(jī)等媒體呈現(xiàn)的社會(huì)化線索(如語言、社會(huì)角色、性別、種族和個(gè)性), 將人際交往準(zhǔn)則(如互惠交往準(zhǔn)則、刻板印象等)運(yùn)用到人機(jī)交互中, 對計(jì)算機(jī)等媒體產(chǎn)生社會(huì)化反應(yīng)(如信任、喜愛等) (Nass et al., 1994; Reeves amp; Nass, 1996)。盡管用戶知道這些智能系統(tǒng)不具備意圖、動(dòng)機(jī)或情感(Gambino et al., 2020; Reeves amp; Nass, 1996), 還是會(huì)無意識地依賴人際交往中的慣例和社交腳本與智能系統(tǒng)交互(Nass amp; Moon, 2000)。
在智能居家環(huán)境中, 不同的設(shè)備和物品都可配備傳感、聯(lián)網(wǎng)和處理能力, 并賦予智能, 作為交互終端與用戶進(jìn)行交互(Taing et al., 2017; Whitmore et al., 2015)。例如, 老年用戶可以與智能家電、智能手機(jī)、語音助手、機(jī)器人、可穿戴設(shè)備等多種交互終端進(jìn)行交互。有些交互終端具有擬人化特征, 老年用戶可能不僅將其看作是工具, 還可能當(dāng)作是陪伴自己的伙伴。例如, 機(jī)器人的擬人化特征, 包括人臉、人類語言和個(gè)性會(huì)讓用戶覺得自己在與社交實(shí)體交互(Jin amp; Youn, 2022; Lee amp; Oh, 2021)。研究者發(fā)現(xiàn)相比于平板電腦陪伴用戶運(yùn)動(dòng), 機(jī)器人陪伴用戶運(yùn)動(dòng)時(shí), 用戶與機(jī)器人的互動(dòng)更加積極, 包括用戶更多的語言交流、積極情緒和運(yùn)動(dòng)練習(xí)次數(shù)(Mann et al., 2015)。當(dāng)機(jī)器人頭部、身體都有屏幕時(shí), 擬人度更高、信息展現(xiàn)效率更高, 更受人們的喜愛(葛翔 等, 2020)。但在這些研究中, 實(shí)驗(yàn)參與者大部分是青年用戶, 并且大部分是在實(shí)驗(yàn)室環(huán)境中完成單一任務(wù), 缺乏關(guān)注長期使用過程的縱向研究。未來研究應(yīng)進(jìn)一步關(guān)注老年用戶在生活場景中使用不同交互終端或完成不同類型任務(wù)的交互行為(Mann et al., 2015)。
同時(shí), 智能系統(tǒng)的社會(huì)化線索能為用戶提供系統(tǒng)的社會(huì)性信息, 促發(fā)用戶的社會(huì)反應(yīng)(Chaves amp; Gerosa, 2021; Feine et al., 2019)。根據(jù)社會(huì)分類理論, 在人際交往中, 人們會(huì)自動(dòng)基于他人明顯的社會(huì)特征, 如性別、年齡等進(jìn)行分類, 并形成印象(Ito amp; Urland, 2003; Liberman et al., 2017; Macrae amp; Bodenhausen, 2000; Nicolas et al., 2017)。在人機(jī)交互中, 用戶也會(huì)通過智能系統(tǒng)呈現(xiàn)的相關(guān)信息, 例如聲音、面孔和名字, 迅速推測智能系統(tǒng)的性別、年齡, 并進(jìn)行社會(huì)分類(Fiore et"al., 2013)。研究發(fā)現(xiàn)短發(fā)的男性機(jī)器人被認(rèn)為更適合承擔(dān)監(jiān)控設(shè)備等任務(wù), 而長發(fā)的女性機(jī)器人被認(rèn)為更適合承擔(dān)照顧小孩等任務(wù)(Tay et al., 2014)。用戶更喜歡陪伴型的智能系統(tǒng)使用女性的聲音(Chang et al., 2018), 但也有研究發(fā)現(xiàn)用戶更喜歡智能語音助手Siri采用和自己性別相同的聲音。用戶可能會(huì)經(jīng)歷一個(gè)社會(huì)認(rèn)同過程, 從而對同一性別的聲音產(chǎn)生更多的信任(Lee, Kavya, amp; Lasser, 2021)。一項(xiàng)關(guān)于我國老年用戶對社交機(jī)器人的偏好研究發(fā)現(xiàn), 當(dāng)老年用戶感知到社交機(jī)器人能力更強(qiáng)時(shí), 對機(jī)器人的擔(dān)憂反而更多(Liu et"al., 2021), 這項(xiàng)研究邀請老年用戶對機(jī)器人圖片進(jìn)行評價(jià), 仍需開展老年用戶與社交機(jī)器人的實(shí)際交互研究驗(yàn)證這項(xiàng)問卷調(diào)研的結(jié)果。
2.2" 用戶與智能系統(tǒng)的人機(jī)信任研究
信任是支持用戶與智能系統(tǒng)交互的關(guān)鍵要素(Schaefer et al., 2016; Shin, 2021)。人機(jī)信任相關(guān)研究大多基于Mayer等(1995)對信任的定義, 即“一方承受另一方風(fēng)險(xiǎn)或傷害行為的意愿”。智能系統(tǒng)采用的人工智能技術(shù)本質(zhì)上是復(fù)雜的, 用戶無法立即理解智能系統(tǒng)的運(yùn)作原理(Bathaee, 2018; Fainman, 2019; Mittelstadt, 2019)。一方面, 用戶對智能系統(tǒng)的理解與智能系統(tǒng)的實(shí)際能力之間總是存在差距。信任被認(rèn)為是影響用戶接受機(jī)器人、建立和保持與機(jī)器人有效互動(dòng)的關(guān)鍵要素(Naneva et al., 2020; Yang et al., 2018)。并且, 信任對人機(jī)交互與協(xié)作的積極影響在使用經(jīng)驗(yàn)有限的人群中顯著增強(qiáng)(Chen et al., 2017), 如老年人(Fischl et al., 2017; Zafrani et al., 2023)。另一方面, 智能系統(tǒng)的使用往往會(huì)涉及訪問私人和敏感數(shù)據(jù)(Schwaninger, 2020)。信任對老年用戶的風(fēng)險(xiǎn)感知(Huff et al., 2019)、控制感(de Graaf et al., 2015)和使用意圖(Bux et al., 2019)有顯著影響。因此, 人機(jī)信任對于老年用戶在家中使用智能系統(tǒng)尤為重要(Krajník et al., 2015)。
同時(shí), 人機(jī)信任具有動(dòng)態(tài)性特征。Hoffman (2017)指出人機(jī)信任是“在不斷變化的交互內(nèi)容中, 積極探索、評估可信度和可靠性的持續(xù)過程”。行為科學(xué)領(lǐng)域研究普遍指出信任的動(dòng)態(tài)發(fā)展過程分為初始型信任和持續(xù)型信任兩個(gè)階段。初始型信任是指人們合作之前, 信任方缺乏對被信任方的了解, 在信息不充分條件下信任方必須冒著某種風(fēng)險(xiǎn)去信任被信任方。而持續(xù)型信任發(fā)生在合作建立之后, 意味著信任方對被信任方有了更深的了解, 可以在某些情況下預(yù)測被信任方的行為。持續(xù)型信任的核心是將合作行為的結(jié)果加入信任的反饋環(huán)中, 進(jìn)一步影響下一次合作。如何在長期的人機(jī)交互中衡量信任, 并維持對系統(tǒng)的持續(xù)信任, 是人機(jī)共融的基礎(chǔ)和挑戰(zhàn)(孔祥維 等, 2022)。一方面, 用戶的信任可能隨著用戶與智能系統(tǒng)交互時(shí)間的增加而增加, 背后的原因可能是交互時(shí)間的增加讓用戶對系統(tǒng)的運(yùn)行方式有更清楚的理解(Elkins amp; Derrick, 2013)。交互經(jīng)驗(yàn)可能會(huì)讓用戶調(diào)整他們對系統(tǒng)的期望和信任(Lee, Frank, amp; Ijsselsteijn, 2021)。另一方面, 智能系統(tǒng)并不總是完美的, 在交互過程中, 智能系統(tǒng)也可能出現(xiàn)一些故障或者是用戶難以理解、預(yù)測的行為, 引起負(fù)面的用戶體驗(yàn)與信任下降(Brooks, 2017)。當(dāng)智能系統(tǒng)失效時(shí), 智能系統(tǒng)可嘗試用為自己的行為道歉(Albayram et al., 2020)、否認(rèn)自己的錯(cuò)誤(Kohn et al., 2019)、解釋錯(cuò)誤發(fā)生的原因(Natarajan amp; Gombolay, 2020)、承諾之后不再犯錯(cuò)(Reig et al., 2021)等策略修復(fù)信任(Esterwood amp; Robert, 2022)。但當(dāng)智能系統(tǒng)多次犯錯(cuò)后, 人機(jī)信任較難修復(fù)(Esterwood amp; Robert, 2023)。
研究者進(jìn)一步探究人機(jī)信任的影響因素, 優(yōu)化智能系統(tǒng)的設(shè)計(jì)。以機(jī)器人為例, 研究者將影響人機(jī)信任的因素分為三類:(1)機(jī)器人相關(guān)因素, (2)用戶相關(guān)因素, 和(3)情境相關(guān)因素(Akalin et"al., 2022; Hancock et al., 2011; Lewis et al., 2018)。這些類別可進(jìn)一步細(xì)分:與用戶相關(guān)的因素可細(xì)分為用戶的能力(例如, 用戶的專業(yè)度和以往經(jīng)驗(yàn))和特點(diǎn)(例如, 個(gè)性和信任傾向); 與機(jī)器人相關(guān)的因素可細(xì)分為機(jī)器人的性能(例如, 可靠性、誤報(bào)率和故障率)和屬性(例如, 機(jī)器人個(gè)性、適應(yīng)性和擬人化); 與情境相關(guān)的因素可細(xì)分為團(tuán)隊(duì)合作(例如, 組內(nèi)?組外成員)和基于任務(wù)的因素(例如, 任務(wù)類型、任務(wù)復(fù)雜度和多任務(wù)要求) (Hancock et al., 2011)。同時(shí), 技術(shù)接受模型相關(guān)研究也指出老年用戶對新技術(shù)的使用態(tài)度和行為受自身因素(例如, 年齡、性別、教育背景)、技術(shù)因素(例如, 獲取難度、成本、感知有用性和感知易用性)和社會(huì)背景(例如, 社會(huì)結(jié)構(gòu)、技術(shù)環(huán)境、社交網(wǎng)絡(luò)和文化因素)的影響(Zhang, 2023)。未來研究可進(jìn)一步探究機(jī)器人相關(guān)的、用戶相關(guān)的、情境相關(guān)的因素對老年用戶人機(jī)信任的綜合影響(Hancock et al., 2021)。
2.3 "用戶與智能系統(tǒng)的人機(jī)責(zé)任歸因研究
智能技術(shù)賦予智能系統(tǒng)新的角色。在智能時(shí)代下, 智能系統(tǒng)從輔助人們的工具發(fā)展成為具有一定認(rèn)知、獨(dú)立執(zhí)行、自適應(yīng)能力的自主化智能體。智能系統(tǒng)從扮演輔助工具的角色轉(zhuǎn)變?yōu)榘缪荨拜o助工具+人機(jī)合作隊(duì)友”的雙重新角色, 人機(jī)關(guān)系也進(jìn)一步演變成一種團(tuán)隊(duì)合作的隊(duì)友關(guān)系(許為 等, 2023)。智能系統(tǒng)可以輔助老年人在家生活, 但系統(tǒng)并非完美, 也可能因?yàn)楣收蠋碡?fù)面的結(jié)果(Madhavan amp; Wiegmann, 2007)。這些故障既包括硬件或軟件系統(tǒng)中的技術(shù)故障, 也包括周圍環(huán)境的不確定性導(dǎo)致的交互故障(Honig amp; Oron-Gilad, 2018)。當(dāng)一項(xiàng)服務(wù)出現(xiàn)故障時(shí), 用戶往往會(huì)分析故障的原因, 分析故障為什么會(huì)發(fā)生, 并確定責(zé)任方(Mattila amp; Patterson, 2004; Weiner, 2000)。歸因是指人們對已發(fā)生事件的原因的推論或知覺(Heider, 1958)。歸因能夠幫助人們認(rèn)識事物發(fā)展的因果關(guān)系, 通過歸因, 個(gè)體能夠更好地理解事件并調(diào)整自己的決策和行為, 預(yù)測和控制未來的事件, 從而更有效地與外界環(huán)境進(jìn)行互動(dòng)。研究者發(fā)現(xiàn)人們在歸因過程中存在著自我服務(wù)歸因偏差(Miller amp; Ross, 1975)、行為者與觀察者效應(yīng)(Jones amp; Nisbett, 1972)等現(xiàn)象。
雖然智能系統(tǒng)可能具有類人的外觀和行為, 但是其運(yùn)行方式、情感理解、表達(dá)方式與人類仍存在一定差異。智能系統(tǒng)正逐漸改變?nèi)藗兊墓ぷ骱蜕睿?并被人們視為是一種重要的社會(huì)存在, 有必要研究在人機(jī)協(xié)同過程中的人機(jī)責(zé)任歸因機(jī)制。在人機(jī)交互領(lǐng)域, 研究發(fā)現(xiàn)自利偏差現(xiàn)象的出現(xiàn)具有一定的邊界條件。研究發(fā)現(xiàn)人機(jī)協(xié)作中, 用戶和機(jī)器人的相對地位高低調(diào)節(jié)了自利偏差, 當(dāng)機(jī)器人作為領(lǐng)導(dǎo)者時(shí), 個(gè)體傾向于將積極結(jié)果歸因于自己, 將消極結(jié)果歸因于機(jī)器人, 出現(xiàn)自利偏差現(xiàn)象; 而當(dāng)機(jī)器人作為同事或下屬時(shí), 個(gè)體傾向于將積極結(jié)果和消極結(jié)果都?xì)w因于自己, 未出現(xiàn)自利偏差現(xiàn)象(Lei amp; Rau, 2021)。另一項(xiàng)研究則發(fā)現(xiàn), 自利偏差僅在積極結(jié)果下出現(xiàn), 而在消極結(jié)果下, 當(dāng)個(gè)體對智能系統(tǒng)有所有權(quán)時(shí), 個(gè)體會(huì)傾向于認(rèn)為自身需承擔(dān)較大責(zé)任(J?rling et"al., 2019)。在酒店前臺機(jī)器人和人類服務(wù)員為顧客服務(wù)的場景中, 研究者發(fā)現(xiàn)無論是積極還是消極的服務(wù)結(jié)果, 參與者都認(rèn)為前臺機(jī)器人相比于人類服務(wù)員, 對服務(wù)結(jié)果需承擔(dān)較少的責(zé)任, 并且這個(gè)差異在消極結(jié)果的責(zé)任分配上更明顯(Belanche et al., 2020)。從總體上看, 結(jié)果效價(jià)可能對人機(jī)交互中的歸因有較大影響, 但目前的研究也尚未得出一致的研究結(jié)論, 仍需進(jìn)一步探究結(jié)果效價(jià)對責(zé)任歸因的影響。
此外, 用戶感知的智能系統(tǒng)控制性也可能會(huì)影響用戶對智能系統(tǒng)的歸因。智能系統(tǒng)自主性的提升使其更加社會(huì)化, 人機(jī)交互模式將更接近于人類的互動(dòng)模式, 促使個(gè)體可能將更多的責(zé)任歸因于智能系統(tǒng)。當(dāng)智能系統(tǒng)無自主性時(shí), 人們基本不會(huì)將責(zé)任歸因于智能系統(tǒng)(Furlough et al., 2021)。自主性的提升意味著智能系統(tǒng)控制自身行為的能力增強(qiáng), 能在更大程度上獨(dú)立完成任務(wù)。研究發(fā)現(xiàn), 當(dāng)智能系統(tǒng)具有一定自主性時(shí), 人們會(huì)認(rèn)為智能系統(tǒng)具有更多的能動(dòng)性, 智能系統(tǒng)需承擔(dān)更多的責(zé)任(Horstmann amp; Kr?mer, 2022)。在半自動(dòng)駕駛場景中, 研究者發(fā)現(xiàn)人們會(huì)更嚴(yán)厲地評判由自動(dòng)化引起的事故, 把更多的責(zé)任歸咎于自動(dòng)化及其創(chuàng)造者, 并認(rèn)為這次事故的受害者應(yīng)得到更多補(bǔ)償(Liu amp; Du, 2022)。歸因理論指出, 當(dāng)個(gè)體對事件的參與程度越高, 結(jié)果與自身原因更相關(guān)(Weiner, 1995)。當(dāng)智能系統(tǒng)的參與程度越高, 個(gè)體可能會(huì)將更多的責(zé)任歸于智能系統(tǒng), 應(yīng)進(jìn)一步考慮智能系統(tǒng)控制性對責(zé)任歸因的影響。
2.4" 小結(jié)
盡管在以往的研究中, 用戶與智能系統(tǒng)的交互得到了學(xué)者的關(guān)注, 在人機(jī)共融機(jī)制方面取得了一些有益成果, 但仍存在多方面問題需要進(jìn)一步深入研究。
首先, 在用戶需求與交互行為層次上, 現(xiàn)有研究主要聚焦于青年用戶在工作環(huán)境中使用智能系統(tǒng)的需求、行為與效能, 對老年用戶的異質(zhì)性特點(diǎn)關(guān)注不足, 老年用戶與智能系統(tǒng)交互的理論探索與實(shí)證研究有待加強(qiáng)。目前老年人面臨的數(shù)字鴻溝問題, 很大程度上是因?yàn)槔夏暧脩襞c青年用戶需求有較大差異, 產(chǎn)品設(shè)計(jì)、開發(fā)主要圍繞青年用戶的需求與交互特點(diǎn)展開。未來研究應(yīng)基于老年用戶畫像和行為特征, 挖掘老年用戶對智能系統(tǒng)具體的輔助功能需求和情感陪伴需求。在此基礎(chǔ)上, 進(jìn)一步基于“媒體等同”理論、“計(jì)算機(jī)為社會(huì)行動(dòng)者”范式、心智模型與信息加工模型, 深入探究老年用戶與智能系統(tǒng)的交互過程, 以及系統(tǒng)屬性、情境因素對交互行為的綜合影響。
其次, 在人機(jī)信任層次, 現(xiàn)有理論與實(shí)證研究聚焦于初始型信任與單類型因素對人機(jī)信任的影響機(jī)制, 較少探究人機(jī)動(dòng)態(tài)信任的發(fā)展規(guī)律及綜合考慮用戶、系統(tǒng)、情境多方面因素的影響。人機(jī)信任是一個(gè)動(dòng)態(tài)變量, 是用戶在不斷變化的交互中, 探索、評估可信度和可靠性的持續(xù)過程。信任可能隨著交互時(shí)間的增加而增加, 也可能因?yàn)橄到y(tǒng)出現(xiàn)故障和用戶難以理解、預(yù)測的行為而下降。為確保用戶和智能系統(tǒng)之間的高質(zhì)量交互, 需要進(jìn)一步建立機(jī)制以培養(yǎng)、維護(hù)和修復(fù)用戶信任。并且, 相比于青年用戶在工作環(huán)境中使用智能系統(tǒng), 老年用戶在居家環(huán)境中使用智能系統(tǒng)的情境更為多樣復(fù)雜, 智能系統(tǒng)的呈現(xiàn)形式也更多樣化, 應(yīng)進(jìn)一步探究系統(tǒng)屬性、情境因素對動(dòng)態(tài)信任的影響機(jī)制。未來研究應(yīng)進(jìn)一步探究老年用戶對智能系統(tǒng)的動(dòng)態(tài)信任發(fā)展規(guī)律及關(guān)鍵因素的影響機(jī)制。
再者, 在人機(jī)責(zé)任層次, 現(xiàn)有研究主要聚焦于駕駛、酒店服務(wù)、工作建議等場景, 對生活場景中的人機(jī)責(zé)任歸因研究較為缺乏。生活場景與工作場景在交互任務(wù)類型、交互效能要求、任務(wù)風(fēng)險(xiǎn)等方面有諸多差異。因此, 研究者在工作場景中得出的歸因機(jī)制相關(guān)結(jié)論推廣到生活場景中存在困難。在實(shí)際生活中, 運(yùn)用于居家環(huán)境的智能系統(tǒng)一般由企業(yè)服務(wù)商設(shè)計(jì)和提供, 探究用戶如何對交互結(jié)果進(jìn)行歸因, 是亟待解決的理論與實(shí)踐問題。此外, 現(xiàn)有研究尚未明確不同類型因素對人機(jī)責(zé)任歸因的影響, 如交互終端類型、事件效價(jià)、任務(wù)特征等因素的綜合影響。未來研究應(yīng)綜合考慮多類別因素的主效應(yīng)、中介、調(diào)節(jié)作用, 細(xì)化人機(jī)共融歸因機(jī)制。
綜上所述, 本研究將緊密圍繞老年用戶與智能系統(tǒng)的人機(jī)共融機(jī)制展開, 層層遞進(jìn), 從用戶需求、交互行為、人機(jī)信任、人機(jī)責(zé)任層次構(gòu)建人機(jī)共融理論框架, 突破以往研究大多數(shù)聚焦青年用戶、工作場景、單次交互、單一類別因素影響的研究局限, 在居家環(huán)境中拓展智能系統(tǒng)的相關(guān)研究, 為居家智慧養(yǎng)老的實(shí)踐、智能系統(tǒng)的適老化設(shè)計(jì)提供理論支撐與重要參考。
3 "研究構(gòu)想
本研究擬構(gòu)建老年用戶與智能系統(tǒng)的多層次人機(jī)共融關(guān)系理論框架, 并探究用戶、系統(tǒng)、情境多類別因素對人機(jī)共融的影響機(jī)理。本研究將從老年用戶與智能系統(tǒng)互動(dòng)的多個(gè)層次展開:在需求與交互行為層次上, 精準(zhǔn)識別居家智慧養(yǎng)老場景中異質(zhì)參與者的需求特征, 探究老年用戶與智能系統(tǒng)的交互行為模型, 探究符合老年用戶信息加工模型、心智模型的交互終端和系統(tǒng)社會(huì)特征, 提升交互自然性與效能; 在人機(jī)信任層次, 基于動(dòng)態(tài)信任理論, 探究老年用戶與智能系統(tǒng)交互的人機(jī)動(dòng)態(tài)信任發(fā)展規(guī)律, 探究用戶、系統(tǒng)、情境因素對動(dòng)態(tài)信任的影響機(jī)制, 為老年用戶在居家環(huán)境中持續(xù)使用智能系統(tǒng)奠定基礎(chǔ), 促進(jìn)穩(wěn)定的人機(jī)關(guān)系; 在人機(jī)責(zé)任層次, 基于責(zé)任歸因理論, 面對智能系統(tǒng)可能帶來的正面、負(fù)面結(jié)果, 明確不同類型因素對人機(jī)責(zé)任歸因的影響機(jī)制, 促進(jìn)更好的人機(jī)協(xié)同。
本研究擬結(jié)合人機(jī)交互、社會(huì)心理學(xué)、決策科學(xué)等多學(xué)科理論與方法, 通過用戶訪談、問卷調(diào)研、人機(jī)交互實(shí)驗(yàn)等研究, 在需求與交互行為層次, 識別老年用戶的需求特征, 構(gòu)建老年用戶畫像與需求模型, 探究智能系統(tǒng)交互終端和社會(huì)特征對老年用戶交互行為的影響機(jī)制, 提升交互自然性與效能(研究1); 在人機(jī)信任層次, 探究老年用戶與智能系統(tǒng)交互的人機(jī)動(dòng)態(tài)信任發(fā)展規(guī)律及多類別因素的影響機(jī)制(研究2); 在人機(jī)責(zé)任層次, 針對交互結(jié)果構(gòu)建人機(jī)共融的責(zé)任歸因機(jī)制及多類別因素的影響機(jī)制(研究3)。
3.1" 研究1:老年用戶對智能居家服務(wù)的需求模型及人機(jī)交互效能提升研究
研究1擬探究老年用戶對智能居家服務(wù)的需求特征(研究1.1)與影響老年用戶與智能系統(tǒng)交互效能的關(guān)鍵因素(研究1.2) (見表1)。首先, 本研究遵循以用戶為中心的設(shè)計(jì)方法, 通過用戶訪談、問卷調(diào)研、個(gè)案分析等方法探究居家環(huán)境中異質(zhì)參與者對居家智能系統(tǒng)的輔助功能需求、情感陪伴需求等, 剖析年齡效應(yīng), 對使用居家智能系統(tǒng)的典型用戶進(jìn)行聚類分析, 探究老年用戶對不同類型智能系統(tǒng)的需求和使用意愿以及個(gè)體差異的影響, 細(xì)化使用場景, 識別使用居家智能系統(tǒng)的關(guān)鍵用戶特征, 構(gòu)建使用居家智能系統(tǒng)的用戶畫像和需求模型(研究1.1)。研究1.2進(jìn)一步根據(jù)研究1.1輸出的用戶畫像與需求模型構(gòu)建智能居家環(huán)境和智能系統(tǒng)原型, 基于“媒體等同”理論、“計(jì)算機(jī)為社會(huì)行為者”范式、信息加工模型和心智模型探究智能系統(tǒng)交互終端、社會(huì)特征等因素對老年用戶使用意愿、交互效能與交互體驗(yàn)的影響, 進(jìn)一步根據(jù)人?任務(wù)?技術(shù)匹配框架(Ammenwerth et al., 2006), 探究用戶、系統(tǒng)、情境因素及交互作用對老年用戶交互效能與體驗(yàn)的影響機(jī)制, 在不同情境下, 調(diào)整系統(tǒng)模型與用戶心智模型相匹配, 提升老年用戶與智能系統(tǒng)的交互效能與體驗(yàn)。
3.2" 研究2:老年用戶與智能系統(tǒng)交互的人機(jī)動(dòng)態(tài)信任研究
構(gòu)建人機(jī)信任關(guān)系是老年用戶在居家環(huán)境中長期使用智能系統(tǒng)的關(guān)鍵環(huán)節(jié)。用戶與智能系統(tǒng)的交互不是一次性完成的, 人機(jī)信任具有動(dòng)態(tài)性特征。現(xiàn)有人機(jī)信任相關(guān)研究主要集中在工作場景中, 關(guān)注初始型信任, 對持續(xù)型、動(dòng)態(tài)信任的關(guān)注不足。因此, 研究2關(guān)注老年用戶與智能系統(tǒng)的人機(jī)信任動(dòng)態(tài)發(fā)展規(guī)律(見表2), 擬結(jié)合主觀報(bào)告法與行為測量法構(gòu)建動(dòng)態(tài)信任測量方法, 測量老年用戶對智能系統(tǒng)的動(dòng)態(tài)感知與信任行為(研究2.1)。在此基礎(chǔ)上, 進(jìn)一步探究老年用戶與智能系統(tǒng)初次交互時(shí), 信任動(dòng)態(tài)構(gòu)建過程及智能系統(tǒng)失效時(shí), 動(dòng)態(tài)信任的修復(fù)過程, 構(gòu)建動(dòng)態(tài)信任模型(研究2.2)。此外, 研究2.3將探究用戶、系統(tǒng)、情境因素對老年用戶與智能系統(tǒng)動(dòng)態(tài)信任的綜合影響機(jī)制, 探究系統(tǒng)優(yōu)化方案, 促進(jìn)老年用戶與智能系統(tǒng)間穩(wěn)定的人機(jī)動(dòng)態(tài)信任關(guān)系。
3.3" 研究3:老年用戶與智能系統(tǒng)交互的人機(jī)責(zé)任歸因機(jī)制研究
智能居家養(yǎng)老系統(tǒng)的使用給老年用戶帶來便利的同時(shí), 由于使用環(huán)境的復(fù)雜性、系統(tǒng)噪音等不確定性問題, 不可避免地有時(shí)也會(huì)帶來負(fù)面的交互結(jié)果。對于正面或負(fù)面的交互結(jié)果, 用戶如何進(jìn)行責(zé)任的分配是社會(huì)關(guān)注的熱點(diǎn)。智能系統(tǒng)隨著智能程度和自主性的不斷提升, 逐漸具有獨(dú)立的分析、思考、決策的能力, 應(yīng)把智能系統(tǒng)看作行為的主體, 而不僅是執(zhí)行指令的普通工具。在這種情況下, 智能系統(tǒng)可能應(yīng)與用戶共同承擔(dān)責(zé)任。已有研究在自動(dòng)駕駛、酒店服務(wù)等場景中初步探索了個(gè)體對智能系統(tǒng)的責(zé)任推斷特點(diǎn)。在居家環(huán)境中, 有多種設(shè)備可以作為智能系統(tǒng)的交互終端與老年用戶進(jìn)行交互, 不同的交互終端是否會(huì)引起用戶的責(zé)任歸因差異也是需要研究的重點(diǎn)內(nèi)容。根據(jù)社會(huì)分類理論、刻板印象內(nèi)容模型, 不同的交互終端給用戶帶來不同體驗(yàn)的同時(shí), 也有可能帶來用戶責(zé)任歸因的差異。交互情境在涉及的內(nèi)容、重要性等方面的差異也可能引起用戶的責(zé)任歸因差異。基于此, 研究3關(guān)注老年用戶與智能系統(tǒng)的交互結(jié)果層次, 探究老年用戶對智能系統(tǒng)的責(zé)任歸因機(jī)制, 并探究交互終端、任務(wù)特征等因素的影響機(jī)制, 建立居家場景中人機(jī)共融的責(zé)任歸因機(jī)制, 剖析智能系統(tǒng)應(yīng)用的利弊關(guān)系及潛在風(fēng)險(xiǎn)。
4 "理論建構(gòu)與應(yīng)用前景
伴隨智能科技的快速發(fā)展, 智慧養(yǎng)老將成為應(yīng)對老齡化社會(huì)的重要支撐, 智能系統(tǒng)可為老年人實(shí)現(xiàn)個(gè)性化的養(yǎng)老提供有力保障。在此背景下, 居家智慧養(yǎng)老場景中老年用戶與智能系統(tǒng)之間的人機(jī)共融機(jī)制尤為重要。老年用戶對智能系統(tǒng)的需求是什么?老年用戶在使用智能系統(tǒng)上是否存在困難?老年用戶是否接受、信任智能系統(tǒng)?面對智能系統(tǒng)應(yīng)用帶來的結(jié)果, 老年用戶是如何進(jìn)行責(zé)任推斷的?目前, 老年用戶使用智能系統(tǒng)的過程仍存在用戶需求不明確、交互效能較低、信任度較低、責(zé)任分配不清晰等問題, 其交互效能與主觀體驗(yàn)均有待提升。
本研究擬從用戶為中心的角度, 圍繞老年用戶使用智能系統(tǒng)的前、中、后三個(gè)階段展開研究, 基于“媒體等同”理論、“計(jì)算機(jī)為社會(huì)行動(dòng)者”范式、信息加工模型、心智模型、信任理論、歸因理論等進(jìn)行研究, 從使用前的用戶需求、使用中的交互效能、動(dòng)態(tài)信任、使用后的責(zé)任歸因構(gòu)建居家智慧養(yǎng)老場景中的多層次人機(jī)共融關(guān)系理論, 主要理論建構(gòu)如下(見圖1):
第一, 在用戶需求、交互行為層次, 本研究關(guān)注居家環(huán)境中老年用戶的實(shí)際需求特征, 剖析年齡效應(yīng), 構(gòu)建用戶畫像, 增強(qiáng)相關(guān)利益者對老年用戶需求的理解, 使智能系統(tǒng)服務(wù)與老年用戶的需求相匹配; 進(jìn)一步探究老年用戶與智能系統(tǒng)的交互行為機(jī)理, 基于信息加工模型、心智模型、“媒體等同”理論、人?任務(wù)?技術(shù)匹配框架等架構(gòu), 探究智能系統(tǒng)交互終端、社會(huì)特征等因素對老年用戶使用意愿、交互效能與交互體驗(yàn)的綜合影響, 根據(jù)實(shí)際使用場景調(diào)整系統(tǒng)模型與用戶心智模型相匹配, 提升老年用戶與智能系統(tǒng)的交互效能與體驗(yàn)。
第二, 在人機(jī)信任層次, 本研究突破以往聚焦于用戶與智能系統(tǒng)單次交互的局限, 探究老年用戶與智能系統(tǒng)的動(dòng)態(tài)信任構(gòu)建過程, 包含初始型信任的構(gòu)建過程, 使用過程中的持續(xù)型信任, 任務(wù)失效時(shí)的信任修復(fù)過程。在此基礎(chǔ)上, 本研究突破以往研究關(guān)注單一類別因素對信任的影響機(jī)制, 基于居家場景復(fù)雜多樣的特征, 探究用戶、系統(tǒng)、情境多類別因素對動(dòng)態(tài)信任的綜合影響機(jī)制, 優(yōu)化系統(tǒng)設(shè)計(jì), 促進(jìn)老年用戶與智能系統(tǒng)構(gòu)建穩(wěn)定的信任關(guān)系, 為老年用戶持續(xù)性使用智能系統(tǒng)提供理論基礎(chǔ)。
第三, 在人機(jī)責(zé)任層次, 本研究關(guān)注智能系統(tǒng)應(yīng)用于居家場景帶來的正面、負(fù)面結(jié)果, 探究結(jié)果效價(jià)、終端類型、任務(wù)特征等因素的影響, 剖析智能系統(tǒng)應(yīng)用的利弊關(guān)系及潛在風(fēng)險(xiǎn), 建立居家場景中的人機(jī)共融責(zé)任歸因機(jī)制, 防范智能系統(tǒng)使用帶來的風(fēng)險(xiǎn)和責(zé)任溯源不清晰等問題。
本研究具有理論創(chuàng)新性。以往關(guān)于人機(jī)共融的研究主要考察青年用戶在工作場景中(如決策支持、協(xié)同制造等)的人機(jī)共融機(jī)理, 聚焦于青年用戶在工作環(huán)境中與單個(gè)智能設(shè)備的交互行為與效能問題, 較少關(guān)注不同智能設(shè)備之間的比較。智能居家環(huán)境中有多種終端可作為交互界面與老年用戶交互, 并且與工作場景不同, 居家養(yǎng)老不僅追求效率, 還追尋情感滿足等目標(biāo)。此外, 人機(jī)共融過程中, 用戶需求、交互行為、人機(jī)信任、人機(jī)責(zé)任問題是緊密相連的, 現(xiàn)有研究主要關(guān)注其中某一問題的解決方案。用戶需求、交互行為層次側(cè)重于讓老年用戶能高效、自然地開始使用智能系統(tǒng), 人機(jī)信任層次側(cè)重于支撐老年用戶持續(xù)性的使用行為, 人機(jī)責(zé)任層次側(cè)重于對交互結(jié)果的處理, 這些層次都影響著數(shù)字鴻溝的產(chǎn)生。本研究采取了整體性的研究視角, 認(rèn)為人機(jī)共融中的需求、交互、信任、責(zé)任問題需要用整體性、系統(tǒng)性的角度進(jìn)行探究, 不能被孤立理解和研究, 消除老年用戶面臨的數(shù)字鴻溝也需從這些關(guān)鍵問題整體突破。并且, 現(xiàn)有研究主要關(guān)注單一類別因素對某一層次人機(jī)共融的影響, 應(yīng)綜合考慮多類別因素對不同層次人機(jī)共融的影響。基于此, 本研究進(jìn)一步探究影響這些層次的“用戶?系統(tǒng)?情境”因素及其作用機(jī)制, 如用戶的個(gè)體差異、系統(tǒng)的交互終端、任務(wù)的多樣性等。
同時(shí), 本研究的成果兼具較好的應(yīng)用前景。首先, 本研究構(gòu)建的老年用戶畫像與需求模型, 可有效預(yù)測老年用戶使用智能系統(tǒng)的高頻場景與產(chǎn)品功能, 有利于研發(fā)人員精準(zhǔn)把握用戶的實(shí)際需求, 針對相應(yīng)場景與功能進(jìn)行研發(fā), 降低成本, 提升對實(shí)際需求的滿足程度, 為智慧養(yǎng)老相關(guān)產(chǎn)品的創(chuàng)新提供支持。其次, 老年用戶與智能系統(tǒng)交互行為研究擬剖析多模態(tài)交互終端與系統(tǒng)設(shè)計(jì)特征對交互自然性與交互效能的影響機(jī)制, 進(jìn)一步提出基于個(gè)體差異與任務(wù)特性的智能系統(tǒng)設(shè)計(jì)指南, 幫助研發(fā)人員確定智能系統(tǒng)的交互終端類型與其他設(shè)計(jì)特征, 推動(dòng)“以老年人為本”的智能系統(tǒng)研發(fā), 提升交互自然性與效能, 幫助老年人跨越數(shù)字鴻溝。在此基礎(chǔ)上, 本研究對于人機(jī)信任動(dòng)態(tài)發(fā)展規(guī)律的探索涵蓋用戶、系統(tǒng)、情境多類別因素對人機(jī)信任的影響機(jī)制, 分析老年人初步使用智能系統(tǒng)的信任建立過程, 智能系統(tǒng)失效后可采取的補(bǔ)救措施與修復(fù)機(jī)制, 可為老年用戶與智能系統(tǒng)之間的高質(zhì)量、持續(xù)性交互提供重要理論依據(jù), 有助于研發(fā)人員完善信任修復(fù)策略。此外, 本研究針對老年用戶與智能系統(tǒng)的交互結(jié)果, 探究老年用戶對智能系統(tǒng)的責(zé)任歸因機(jī)制, 剖析智能系統(tǒng)應(yīng)用的利弊關(guān)系及潛在風(fēng)險(xiǎn), 并從實(shí)踐角度解讀智慧養(yǎng)老責(zé)任分配問題, 積極尋找應(yīng)對策略, 對智慧養(yǎng)老的實(shí)踐及政策制定具有重要的現(xiàn)實(shí)意義, 促進(jìn)智慧養(yǎng)老的正面效應(yīng)。
總體而言, 本研究從用戶需求、交互行為、人機(jī)信任、人機(jī)責(zé)任多層次構(gòu)建人機(jī)共融機(jī)理, 探究用戶、系統(tǒng)、情境多類別因素對人機(jī)共融的影響機(jī)制。本研究的重點(diǎn)與我國新一代人工智能發(fā)展規(guī)劃接軌, 進(jìn)一步豐富人機(jī)共融管理理論, 為人機(jī)協(xié)同提供理論支持與實(shí)證參考。同時(shí), 本研究探究困擾智慧養(yǎng)老實(shí)施的關(guān)鍵瓶頸, 研究成果有利于推動(dòng)智能系統(tǒng)的適老化設(shè)計(jì), 促進(jìn)老年用戶與智能系統(tǒng)的高質(zhì)量交互, 化解數(shù)字鴻溝, 助力老年友好型智慧社會(huì)的實(shí)現(xiàn), 對我國老齡事業(yè)發(fā)展具有重要意義。
參考文獻(xiàn)
曹劍琴, 張警吁, 張亮, 王曉宇. (2023). 交互自然性的心理結(jié)構(gòu)及其影響. 心理學(xué)報(bào), 55(1), 55?65.
葛翔, 許詩卉, 王璟銘, 楊帆, 劉玳言, 趙敏, 徐濛. (2020). 服務(wù)機(jī)器人的屏幕設(shè)計(jì)偏好研究. 人類工效學(xué), 26(2), 5.
國務(wù)院. (2022). 國務(wù)院關(guān)于印發(fā)“十四五”國家老齡事業(yè)發(fā)展和養(yǎng)老服務(wù)體系規(guī)劃的通知. 2022-02-21 取自 http://www.gov.cn/zhengce/zhengceku/2022-02/21/content_5674844.htm
黃心語, 李曄. (2024). 人機(jī)信任校準(zhǔn)的雙途徑:信任抑制與信任提升. 心理科學(xué)進(jìn)展, 32(3), 527?542.
孔祥維, 王子明, 王明征, 胡祥培. (2022). 人工智能使能系統(tǒng)的可信決策:進(jìn)展與挑戰(zhàn). 管理工程學(xué)報(bào), 36(6), 1?14.
史元春. (2018). 自然人機(jī)交互. 中國計(jì)算機(jī)學(xué)會(huì)通訊, 14(5), 8?10.
孫效華, 張義文, 秦覺曉, 李璟璐, 王舒超. (2020). 人機(jī)智能協(xié)同研究綜述. 包裝工程, 41(18), 12.
許為, 高在峰, 葛列眾. (2023). 智能時(shí)代人因科學(xué)研究的新范式取向及重點(diǎn). 心理學(xué)報(bào), 56(3), 363?382.
Akalin, N., Kristoffersson, A., amp; Loutfi, A. (2022). Do you feel safe with your robot? Factors influencing perceived safety in human-robot interaction based on subjective and objective measures. International Journal of Human- Computer Studies, 158, 102744.
Albayram, Y., Jensen, T., Khan, M. M. H., Fahim, M. A. A., Buck, R., amp; Coman, E. (2020, November). Investigating the effects of (empty) promises on human-automation interaction and trust repair. Paper presented at the Proceedings of the 8th International Conference on Human-Agent Interaction, Virtual Event, USA.
Ammenwerth, E., Iller, C., amp; Mahler, C. (2006). IT-adoption and the interaction of task, technology and individuals: A fit framework and a case study. BMC Medical Informatics and Decision Making, 6(1), 3.
Ball, C., Francis, J., Huang, K.-T., Kadylak, T., Cotten, S. R., amp; Rikard, R. V. (2019). The physical?digital divide: Exploring the social gap between digital natives and physical natives. Journal of Applied Gerontology, 38(8), 1167?1184.
Bathaee, Y. (2018). The artificial intelligence black box and the failure of intent and causation. Harvard Journal of Law Technology, 31, 889.
Belanche, D., Casaló, L. V., Flavián, C., amp; Schepers, J. (2020). Robots or frontline employees? Exploring customers’ attributions of responsibility and stability after service failure or success. Journal of Service Management, 31(2), 267?289.
Blanchard-Fields, F., amp; Beatty, C. (2005). Age differences in blame attributions: The role of relationship outcome ambiguity and personal identification. The Journals of Gerontology: Series B, 60(1), 19?26.
Brooks, D. J. (2017). A Human-centric approach to autonomous robot failures. (Unpublished doctorial dissertation). University of Massachusetts Lowell.
Bux, R., Gilal, A., Waqas, A., amp; Kumar, M. (2019). Role of age and gender in the adoption of m-commerce in Australia. International Journal of Advanced and Applied Sciences, 6, 48?52.
Chang, R. C.-S., Lu, H.-P., amp; Yang, P. (2018). Stereotypes or golden rules? Exploring likable voice traits of social robots as active aging companions for tech-savvy baby boomers in Taiwan. Computers in Human Behavior, 84, 194?210.
Chaves, A. P., amp; Gerosa, M. A. (2021). How should my Chatbot interact? A Survey on social characteristics in Human?Chatbot interaction design. International Journal of Human?Computer Interaction, 37(8), 729?758.
Chen, C., Xu, X., amp; Arpan, L. (2017). Between the technology acceptance model and sustainable energy technology acceptance model: Investigating smart meter acceptance in the United States. Energy Research amp; Social Science, 25, 93?104.
Chu, C. H., Nyrup, R., Leslie, K., Shi, J., Bianchi, A., Lyn, A., ... Grenier, A. (2022). Digital ageism: Challenges and opportunities in artificial intelligence for older adults. The Gerontologist, 62(7), 947?955.
de Graaf, M. M. A., Allouch, S. B., amp; Klamer, T. (2015). Sharing a life with harvey: Exploring the acceptance of and relationship-building with a social robot. Computers in Human Behavior, 43, 1?14.
Elkins, A. C., amp; Derrick, D. C. (2013). The sound of trust: Voice as a measurement of trust during interactions with embodied conversational agents. Group Decision and Negotiation, 22(5), 897?913.
Esterwood, C., amp; Robert, L. P., Jr. (2023). Three strikes and you are out!: The impacts of multiple human?robot trust violations and repairs on robot trustworthiness. Computers in Human Behavior, 142, 107658.
Esterwood, C., amp; Robert, L. P. (2022, August). A literature review of trust repair in HRI. Paper presented at the 2022 31st IEEE International Conference on Robot and Human Interactive Communication (RO-MAN), Napoli, Italy.
Fainman, A. (2019). The problem with opaque AI. The Thinker, 82(4), 44?55.
Farooq, U., amp; Grudin, J. (2016). Human-computer integration. Interactions, 23(6), 26?32.
Feine, J., Gnewuch, U., Morana, S., amp; Maedche, A. (2019). A taxonomy of social cues for conversational agents. International Journal of Human-Computer Studies, 132, 138?161.
Ferreira, L., Oliveira, T., amp; Neves, C. (2023). Consumer's intention to use and recommend smart home technologies: The role of environmental awareness. Energy, 263, 125814.
Fiore, S. M., Wiltshire, T. J., Lobato, E. J., Jentsch, F. G., Huang, W. H., amp; Axelrod, B. (2013). Toward understanding social cues and signals in human-robot interaction: Effects of robot gaze and proxemic behavior. Frontiers in Psychology, 4, 859.
Fischl, C., Asaba, E., amp; Nilsson, I. (2017). Exploring potential in participation mediated by digital technology among older adults. Journal of Occupational Science, 24(3), 314?326.
Furlough, C., Stokes, T., amp; Gillan, D. J. (2021). Attributing blame to robots: I. The influence of robot autonomy. Human Factors, 63(4), 592?602.
Gambino, A., Fox, J., amp; Ratan, R. A. (2020). Building a stronger CASA: Extending the computers are social actors paradigm. Human-Machine Communication, 1, 71?86.
Gansser, O. A., amp; Reich, C. S. (2021). A new acceptance model for artificial intelligence with extensions to UTAUT2: An empirical study in three segments of application. Technology in Society, 65, 101535.
Ghorayeb, A., Comber, R., amp; Gooberman-Hill, R. (2021). Older adults' perspectives of smart home technology: Are we developing the technology that older people want? International Journal of Human-Computer Studies, 147, 102571.
Guo, Y., amp; Yang, X. J. (2021). Modeling and predicting trust dynamics in human?robot teaming: A bayesian inference approach. International Journal of Social Robotics, 13(8), 1899?1909.
Hancock, P. A., Billings, D. R., Schaefer, K. E., Chen, J. Y., de Visser, E. J., amp; Parasuraman, R. (2011). A meta-analysis of factors affecting trust in human-robot interaction. Human Factors, 53(5), 517?527.
Hancock, P. A., Kessler, T. T., Kaplan, A. D., Brill, J. C., amp; Szalma, J. L. (2021). Evolving trust in robots: Specification through sequential and comparative meta-analyses. Human Factors, 63(7), 1196?1229.
Heider, F. (1958). The psychology of interpersonal relations. Hoboken: John Wiley amp; Sons Inc.
Hoffman, R. R. (2017). A taxonomy of emergent trusting in the human?machine relationship. In P. J. Smith amp; R. R. Hoffman (Eds.), Cognitive systems engineering (pp. 137?164), London: CRC Press.
Honig, S., amp; Oron-Gilad, T. (2018). Understanding and resolving failures in human-robot interaction: Literature review and model development. Frontiers in Psychology, 9, 861.
Horstmann, A. C., amp; Kr?mer, N. C. (2022). The fundamental attribution error in human-robot interaction: An experimental investigation on attributing responsibility to a social robot for its pre-programmed behavior. International Journal of Social Robotics, 14(5), 1137? 1153.
Huff, E., Jr., DellaMaria, N., Posadas, B., amp; Brinkley, J. (2019, October). Am I too old to drive?: Opinions of older adults on self-driving vehicles. Paper presented at the 21st International ACM SIGACCESS Conference on Computers and Accessibility, Pittsburgh PA, USA.
Hung, L., Gregorio, M., Mann, J., Wallsworth, C., Horne, N., Berndt, A., ... Chaudhury, H. (2021). Exploring the perceptions of people with dementia about the social robot PARO in a hospital setting. Dementia: The International Journal of Social Research and Practice, 20(2), 485?504.
Ito, T. A., amp; Urland, G. R. (2003). Race and gender on the brain: Electrocortical measures of attention to the race and gender of multiply categorizable individuals. Journal of Personality and Social Psychology, 85(4), 616?626.
Jin, S. V., amp; Youn, S. (2022). Social presence and imagery processing as predictors of Chatbot continuance intention in Human-AI-Interaction. International Journal of Human?Computer Interaction, 39(9), 1874?1886.
Jones, E. E., amp; Nisbett, R. E. (1972). The actor and the observer: Divergent perceptions of the causes of behavior. New York: Gerneral Learning Press.
J?rling, M., B?hm, R., amp; Paluch, S. (2019). Service robots: Drivers of perceived responsibility for service outcomes. Journal of Service Research, 22(4), 404?420.
Kanstrup, A. M., amp; Bygholm, A. (2019). The lady with the roses and other invisible users: Revisiting unused data on nursing home residents in living labs. In Neves, B amp; Vetere, F (Eds.), Ageing and digital technology: Designing and evaluating emerging technologies for older adults (pp. 17?33). Springer, Singapore.
Kohn, S. C., Momen, A., Wiese, E., Lee, Y.-C., amp; Shaw, T. H. (2019). The consequences of purposefulness and human- likeness on trust repair attempts made by self-driving vehicles. Human Factors and Ergonomics Society, 63(1), 222?226.
Krajník, T., Kulich, M., Mudrová, L., Ambrus, R., amp; Duckett, T. (2015, May). Where's waldo at time t ? Using spatio-temporal models for mobile robot search. Paper presented at the 2015 IEEE International Conference on Robotics and Automation (ICRA), Seattle, WA, USA.
Lee, M., Frank, L., amp; Ijsselsteijn, W. (2021). Brokerbot: A cryptocurrency Chatbot in the social-technical gap of trust. Computer Supported Cooperative Work, 30(1), 79?117.
Lee, S., amp; Oh, H. (2021). Anthropomorphism and its implications for advertising hotel brands. Journal of Business Research, 129, 455?464.
Lee, S. K., Kavya, P., amp; Lasser, S. C. (2021). Social interactions and relationships with an intelligent virtual agent. International Journal of Human-Computer Studies, 150, 102608.
Lei, X., amp; Rau, P.-L. P. (2021). Effect of relative status on responsibility attributions in human?robot collaboration: Mediating role of sense of responsibility and moderating role of power distance orientation. Computers in Human Behavior, 122, 106820.
Lewis, M., Sycara, K., amp; Walker, P. (2018). The role of trust in human-robot interaction. In H. A. Abbass, J. Scholz, amp; D. J. Reid (Eds.), Foundations of trusted autonomy (pp. 135?159). Cham: Springer International Publishing.
Li, W., Yigitcanlar, T., Erol, I., amp; Liu, A. (2021). Motivations, barriers and risks of smart home adoption: From systematic literature review to conceptual framework. Energy research and Social Science, 80, 102211.
Liberman, Z., Woodward, A. L., amp; Kinzler, K. D. (2017). The origins of social categorization. Trends in Cognitive Sciences, 21(7), 556?568.
Liu, P., amp; Du, Y. (2022). Blame attribution asymmetry in human-automation cooperation. Risk Analysis, 42(8), 1769?1783.
Liu, S. X., Shen, Q., amp; Hancock, J. (2021). Can a social robot be too warm or too competent? Older Chinese adults' perceptions of social robots and vulnerabilities. Computers in Human Behavior, 125, 106942.
Macrae, C. N., amp; Bodenhausen, G. V. (2000). Social cognition: Thinking categorically about others. Annual Review of Psychology, 51, 93?120.
Madhavan, P., amp; Wiegmann, D. A. (2007). Similarities and differences between human?human and human?automation trust: An integrative review. Theoretical Issues in Ergonomics Science, 8(4), 277?301.
Mann, J. A., Macdonald, B. A., Kuo, I. H., Li, X., amp; Broadbent, E. (2015). People respond better to robots than computer tablets delivering healthcare instructions. Computers in Human Behavior, 43, 112?117.
Mattila, A. S., amp; Patterson, P. G. (2004). Service recovery and fairness perceptions in collectivist and individualist contexts. Journal of Service Research, 6(4), 336?346.
Mayer, R. C., Davis, J. H., amp; Schoorman, F. D. (1995). An integrative model of organizational trust. The Academy of Management Review, 20(3), 709?734.
McGlynn, S. A., Kemple, S., Mitzner, T. L., King, C. A., amp; Rogers, W. A. (2017). Understanding the potential of PARO for healthy older adults. International Journal of Human-Computer Studies, 100, 33?47.
Miller, D. T., amp; Ross, M. (1975). Self-serving biases in the attribution of causality: Fact or fiction? Psychological Bulletin, 82(2), 213?225.
Mittelstadt, B. (2019). Principles alone cannot guarantee ethical AI. Nature Machine Intelligence, 1(11), 501?507.
Naneva, S., Sarda Gou, M., Webb, T. L., amp; Prescott, T. J. (2020). A systematic review of attitudes, anxiety, acceptance, and trust towards social robots. International Journal of Social Robotics, 12(6), 1179?1201.
Nass, C., amp; Moon, Y. (2000). Machines and mindlessness: Social responses to computers. Journal of Social Issues, 56(1), 81?103.
Nass, C., Steuer, J., amp; Tauber, E. R. (1994, April). Computers are social actors. Paper presented at the International Conference on Human Factors in Computing Systems, Boston, USA.
Natarajan, M., amp; Gombolay, M. (2020, March). Effects of anthropomorphism and accountability on trust in human robot interaction. Paper presented at the Proceedings of the 2020 ACM/IEEE International Conference on Human-Robot Interaction, Cambridge, United Kingdom.
Navare, U. P., Ciardo, F., Kompatsiari, K., De Tommaso, D., amp; Wykowska, A. (2024). When performing actions with robots, attribution of intentionality affects the sense of joint agency. Science Robotics, 9(91), eadj3665.
Nicolas, G., de la Fuente, M., amp; Fiske, S. T. (2017). Mind the overlap in multiple categorization: A review of crossed categorization, intersectionality, and multiracial perception. Group Processes amp; Intergroup Relations, 20(5), 621?631.
Peek, S. T., Luijkx, K. G., Rijnaard, M. D., Nieboer, M. E., van der Voort, C. S., Aarts, S., ... Wouters, E. J. (2016). Older adults' reasons for using technology while aging in place. Gerontology, 62(2), 226?237.
Peek, S. T., Wouters, E. J., van Hoof, J., Luijkx, K. G., Boeije, H. R., amp; Vrijhoef, H. J. (2014). Factors influencing acceptance of technology for aging in place: A systematic review. Journal of Medical Informatics, 83(4), 235?248.
Reeves, B., amp; Nass, C. (1996). The media equation: How people treat computers, television, and new media like real people and places. Cambridge: Cambridge University Press.
Reig, S., Carter, E. J., Fong, T., Forlizzi, J., amp; Steinfeld, A. (2021, March). Flailing, hailing, prevailing: Perceptions of multi-robot failure recovery strategies. Paper presented at the 16th ACM/IEEE International Conference on Human-Robot Interaction, Boulder, CO, USA.
Robinson, H., MacDonald, B. A., amp; Broadbent, E. (2014). The role of healthcare robots for older people at home: A Review. International Journal of Social Robotics, 6, 575?591.
Rodrigues Barbosa, G. A., da Silva Fernandes, U., Sales Santos, N., amp; Oliveira Prates, R. (2024). Human-computer integration as an extension of interaction: Understanding its state-of-the-art and the next challenges. International Journal of Human?Computer Interaction, 40(11), 2761? 2780.
Rosales, A., amp; Fernández-Ardèvol, M. (2020). Ageism in the era of digital platforms. Convergence (Lond), 26(5?6), 1074?1087.
Schaefer, K. E., Chen, J. Y. C., Szalma, J. L., amp; Hancock, P. A. (2016). A meta-analysis of factors influencing the development of trust in automation: Implications for understanding Autonomy in Future Systems. Human Factors, 58(3), 377?400.
Schwaninger, I. (2020, March). Robots in older people's living spaces: Designing for trust in situated human-robot interaction. Paper presented at the Companion of the 2020 ACM/IEEE International Conference on Human-Robot Interaction, Cambridge, United Kingdom.
Shi, J.-g., Liu, M., Fu, G., amp; Dai, X. (2023). Internet use among older adults: Determinants of usage and impacts on individuals’ well-being. Computers in Human Behavior, 139, 107538.
Shin, D. (2021). The effects of explainability and causability on perception, trust, and acceptance: Implications for explainable AI. International Journal of Human-Computer Studies, 146, 102551.
Taing, C.-M., Rau, P.-L. P., amp; Huang, H. (2017). Handpad: A virtual mouse for controlling laptops in a smart home. Human-centric Computing Information Sciences, 7, 1?11.
Tay, B., Jung, Y., amp; Park, T. (2014). When stereotypes meet robots: The double-edge sword of robot gender and personality in human?robot interaction. Computers in Human Behavior, 38, 75?84.
Tomasino, K. N., Lattie, E. G., Ho, J., Palac, H. L., Kaiser, S. M., amp; Mohr, D. C. (2017). Harnessing peer support in an online intervention for older adults with depression. The American Journal of Geriatric Psychiatry, 25(10), 1109? 1119.
Tsertsidis, A., Kolkowska, E., amp; Hedstr?m, K. (2019). Factors influencing seniors' acceptance of technology for ageing in place in the post-implementation stage: A literature review. International Journal of Medical Informatics, 129, 324?333.
Weiner, B. (1995). Judgments of responsibility: A foundation for a theory of social conduct. New York: Guilford Press.
Weiner, B. (2000). Intrapersonal and interpersonal theories of motivation from an attributional perspective. Educational Psychology Review, 12(1), 1?14.
Whitmore, A., Agarwal, A., amp; Xu, L. D. (2015). The internet of things—A survey of topics and trends. Information Systems Frontiers, 17(2), 261?274.
Xie, Y., Zhu, K., Zhou, P., amp; Liang, C. (2023). How does anthropomorphism improve human-AI interaction satisfaction: A dual-path model. Computers in Human Behavior, 148, 107878.
Yang, G. Z., Dario, P., amp; Kragic, D. (2018). Social robotics-Trust, learning, and social interaction. Science Robotics, 3(21), eaau8839.
Yang, X. J., Schemanske, C., amp; Searle, C. (2021). Toward quantifying trust dynamics: How people adjust their trust after moment-to-moment interaction with automation. Human Factors, 65(5), 862?878.
Zafrani, O., Nimrod, G., amp; Edan, Y. (2023). Between fear and trust: Older adults’ evaluation of socially assistive robots. International Journal of Human-Computer Studies, 171, 102981.
Zhang, M. X. (2023). Older people's attitudes towards emerging technologies: A systematic literature review. Public Understanding of Science, 32(8), 948?968.
Zhong, R., Ma, M., Zhou, Y., Lin, Q., Li, L., amp; Zhang, N. (2024). User acceptance of smart home voice assistant: A comparison among younger, middle-aged, and older adults. Universal Access in the Information Society, 23(1), 275?292.
Zhou, J., amp; Gao, Q. (2021). Design for aging. In G. Salvendy, amp; W. Karwowski (Eds.), Handbook of human factors and ergonomics (pp. 1249?1286). John Wiley amp; Sons, Inc.
Exploration of multi-level human-machine integration theorybetween elderly users and intelligent systems
HUANG Hanjing1, RAU Pei-Luen Patrick2
(1 School of Economics and Management, Fuzhou University 350108, China)(2 Department of Industrial Engineering, Tsinghua University 100084, China)
Abstract: The development of smart aging is an important measure to meet the challenge of rapid population aging, which can both ease the pressure of social aging and meet the increasingly diversified needs of the elderly. However, the current applications of smart aging systems face a series of problems such as low acceptance of the elderly, low interaction effectiveness, low trust, and unclear responsibility allocations. Therefore, this study aims to construct a theoretical framework of human-machine integration between elderly users and intelligent systems from user needs, interaction behaviors, human-machine trust, and human-machine responsibility at multiple levels, and to deeply investigate the influence mechanisms of user characteristics, system attributes, and situational factors on human-machine integration. At the level of user demands and interaction behavior, this study constructs user persona, demand models, and interaction behavior models, optimizes the attributes of intelligent systems, and enhances the acceptance and interaction effectiveness of elderly users; At the level of human-machine trust, this study investigates the development law of human-machine dynamic trust between elderly users and intelligent systems, analyzes the comprehensive influence mechanism of various factors on dynamic trust, and promotes the sustainable use behavior and stable human-machine relationships. At the level of human-machine responsibility, in the face of the potential positive and negative consequences of applying intelligent systems, this study analyzes the impact mechanisms of various factors on the attribution of human-machine responsibility, and promotes better human-machine collaboration. Conducting this research will facilitate the development of human-machine integration theory and provide theoretical bases and practical contributions for the aging-friendly design and upgrading of intelligent systems.
Keywords: human-machine integration, user need, interaction behavior, human-machine trust, human-machine responsibility
* 國家自然科學(xué)基金青年項(xiàng)目(72301073), 福建省自然科學(xué)基金項(xiàng)目(2022J05018)資助。
通信作者:黃晗靜, E-mail: hhj@fzu.edu.cn