視覺、聽覺、分析、預(yù)測……
或許你還沒有意識(shí)到
人類正在越來越多的領(lǐng)域被AI超越
但說到駕駛
你會(huì)選擇信任一輛無人駕駛汽車嗎?
現(xiàn)在,英特爾正在對(duì)人類和機(jī)器的信任關(guān)系
進(jìn)行研究——
怎樣才能使人們信任,并且愿意乘坐由人工智能駕駛的汽車呢?
開發(fā)者在研發(fā)無人駕駛汽車時(shí),要面對(duì)深度學(xué)習(xí)技術(shù)和車輛控制技術(shù)方面的挑戰(zhàn)。除此之外,如何建立并維系人類與人工智能之間的信任關(guān)系,也是讓一些行業(yè)專家頭疼的問題。
現(xiàn)在,有一個(gè)特別的設(shè)計(jì)領(lǐng)域來專門研究這一問題,我們稱之為“人機(jī)界面(HMI)”。這一領(lǐng)域主要關(guān)注的是人類如何與機(jī)器交流互動(dòng)。為了建造出全自動(dòng)駕駛的車輛,人類與汽車之間的人機(jī)界面設(shè)計(jì)至關(guān)重要。
“無人駕駛汽車既是對(duì)技術(shù)的挑戰(zhàn),也是對(duì)人類和社會(huì)的挑戰(zhàn)?!庇⑻貭枱o人駕駛汽車部門解決方案小組用戶體驗(yàn)創(chuàng)意總監(jiān)馬特?尤爾達(dá)納這樣說道。尤爾達(dá)納和他的團(tuán)隊(duì)正在探尋什么樣的界面是“信任交互界面”——這是一種人類與人工智能之間十分重要的交流方式。
今年早些時(shí)候,尤爾達(dá)納與英特爾無人駕駛部門的首席系統(tǒng)架構(gòu)師杰克·韋斯特,邀請(qǐng)了各式各樣的社區(qū)成員來到美國亞利桑那州錢德勒市的英特爾先進(jìn)車輛實(shí)驗(yàn)室,在閉合道路上試駕無人駕駛汽車。
在這次HMI試駕實(shí)驗(yàn)中,參與者體驗(yàn)了五種信任交互界面設(shè)計(jì),包括叫車、開始行程、對(duì)行程作出改變、處理錯(cuò)誤及突發(fā)事件、靠邊停車及駛出出口。
對(duì)于大多數(shù)參與者來說,安全是他們關(guān)心的首要問題,但他們都表示相信由人工智能駕駛的汽車會(huì)更加安全,因?yàn)檫@些汽車在駕駛過程中不會(huì)有人為造成的失誤。
“我經(jīng)常開車,所以舒舒服服呆在后座對(duì)我來說還是很困難?!币晃粎⑴c者說道。另一位則提出疑問,如果車輛中沒有駕駛?cè)藛T,那么殘疾人將如何獲得幫助。還有一位參與者想知道無人駕駛汽車是否能做出明智的選擇,比如判斷出是否能夠在結(jié)冰的路面上行駛。
理解此項(xiàng)技術(shù)如何運(yùn)作,以及技術(shù)的全部功能對(duì)參與者來說至關(guān)重要。親身體會(huì)車輛怎樣和人溝通、如何應(yīng)對(duì)道路上的危險(xiǎn)、或僅僅只是知曉它是如何行駛的,都能幫助人們對(duì)其增強(qiáng)信心。
要習(xí)慣乘坐沒有實(shí)際駕駛者的汽車需要一個(gè)學(xué)習(xí)的過程
“許多人來的時(shí)候都十分緊張不安。”韋斯特最后補(bǔ)充道,“但之后每位參與者都經(jīng)歷了巨大的信心飛躍?!?/span>
“從技術(shù)的角度上來說,我們可以打造一輛完美的汽車——它可以完美駕駛,可以在各種情況下保證你的安全?!表f斯特說道?!暗侨绻藗冃睦砩嫌X得不安全,就不會(huì)使用這項(xiàng)服務(wù)或購買這種汽車?!?/span>
人性化的技術(shù)
心理學(xué)家、社會(huì)學(xué)家及情感專家研究的是如何建立人與人之間基本的信任關(guān)系——不管是同事之間、愛人之間、還是朋友之間——但是尤爾達(dá)納和他的團(tuán)隊(duì)研究的則是如何建立人與人工智能、無人駕駛汽車之間的信任。
“信任就等于安全?!庇葼栠_(dá)納說道。“它意味著信心,意味著不僅是身體還有心理上的安全感?!?/span>
專家認(rèn)為擬人化——即賦予非人類實(shí)體人類的特性、情感及意圖——能夠幫助人們與科技的關(guān)系更加親近。
芝加哥大學(xué)布斯商學(xué)院行為科學(xué)專業(yè)尼古拉斯·埃普利教授在《實(shí)驗(yàn)社會(huì)心理學(xué)雜志》上發(fā)表了一篇研究,他和研究團(tuán)隊(duì)發(fā)現(xiàn),賦予無人駕駛汽車與人類相似的特質(zhì)之后,人們會(huì)更愿意對(duì)其付諸信任。
研究人員將參與者分為了三組。第一組參與者駕駛普通汽車,第二組乘坐技術(shù)上達(dá)標(biāo)的無人駕駛汽車,而第三組則乘坐同樣的無人駕駛汽車,只不過這些車增加了擬人化特征,比如擁有姓名、性別、和柔和的聲音。
無人駕駛汽車和乘客之間的交流
對(duì)于建立信任關(guān)系十分重要
在三種情境中,參與者都必須要經(jīng)歷一場事故。
總的來說,比起其他兩種汽車,人們更信任擬人化的無人駕駛汽車。他們更喜歡這種汽車的乘坐體驗(yàn)。而出乎意料的是:在事故中,參與者對(duì)非擬人化的無人駕駛汽車責(zé)備更多,對(duì)擬人化的無人駕駛汽車責(zé)備更少。
“把和人類相似的思想注入一輛無人駕駛汽車中,將讓人類對(duì)待汽車的態(tài)度全然不同,這也決定著他們是否愿意、是否能夠信任無人駕駛汽車?!庇葼栠_(dá)納說道。
與Siri及Alexa的單方面交流互動(dòng)——即人問問題,Siri回答——不同的是,與無人駕駛汽車的交流互動(dòng)要更加復(fù)雜。它不僅需要作出反應(yīng),還要發(fā)起對(duì)話并結(jié)合語境。
比如說,假設(shè)晚間下班的路上,人在讀書,而無人駕駛汽車在自動(dòng)駕駛,這時(shí)遇到需要繞道的情況,它要詢問乘客該走哪條路線,同時(shí)權(quán)衡各種情況,包括交通狀況和乘客的喜好。就好像是給一個(gè)出租車司機(jī)指路——只不過沒有司機(jī),尤爾達(dá)納說。
無人駕駛汽車?yán)脭z像頭查看道路的危險(xiǎn)、閱讀指示牌
不管是柔和的聲音還是其他信任機(jī)制,交互界面都是要讓人類信任科學(xué)技術(shù),而不是去信任另一個(gè)人類。人們經(jīng)常會(huì)去信任陌生人——叫車服務(wù)司機(jī)、飛機(jī)飛行員、公交車司機(jī)——但是這些都是人類信任人類。無人駕駛汽車則需要人們建立基本的信任——與科學(xué)技術(shù)。
對(duì)于有些人來說,這是一個(gè)非常可怕的提議——每個(gè)人在他們生活中的某一刻都曾經(jīng)遭遇過技術(shù)上的小故障。
“不是讓人們理解所有技術(shù)路徑與排列組合就能得到他們的信任?!庇葼栠_(dá)納說道。“他們的信任來自這些交流互動(dòng)。”
舉例來說,瑪麗可以告訴金,史蒂夫是一個(gè)好男人,但是只有金親自了解過后,才能完全相信他是一個(gè)好男人。尤爾達(dá)納說只有通過交流互動(dòng),人們才能真心托付信任。
“對(duì)于第一次進(jìn)入無人駕駛汽車的人來說,車?yán)餂]有方向盤或腳踏板會(huì)讓他們十分緊張?!表f斯特說道。
在亞利桑那州進(jìn)行的HMI試駕實(shí)驗(yàn)是該領(lǐng)域的首次嘗試,但這僅僅是一個(gè)開始。
“這就是為什么在人類與機(jī)器之間建立一個(gè)信任關(guān)系如此重要?!表f斯特說。
-
汽車電子
+關(guān)注
關(guān)注
3023文章
7819瀏覽量
166010 -
人工智能
+關(guān)注
關(guān)注
1789文章
46652瀏覽量
237073 -
無人駕駛
+關(guān)注
關(guān)注
98文章
4015瀏覽量
120079
原文標(biāo)題:你會(huì)信任無人駕駛汽車嗎?
文章出處:【微信號(hào):Intel_IoT,微信公眾號(hào):Intel_IoT】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論