采用人工智能的社交媒體監(jiān)控可能會(huì)讓某些人失去工作、影響大學(xué)錄取、租賃房屋等等——而且人們不會(huì)知道它是怎么發(fā)生的。
AirBnB公司希望在客戶租用其別墅之前了解其是否具有“馬基雅維利(狡詐)”個(gè)性。
根據(jù)其客戶在Facebook、Twitter和Instagram上發(fā)布的信息,AirBnB公司可能會(huì)用人工智能軟件來判斷租賃別墅的客戶是否值得信任。
他們將使人工智能系統(tǒng)失去社交性,運(yùn)行算法并獲得結(jié)果。對(duì)于處于此過程另一端的人們來說,該過程將沒有透明度,沒有任何信息,也沒有上訴程序。
該公司擁有一項(xiàng)技術(shù)專利,該技術(shù)旨在通過分析潛在訪客的社交媒體活動(dòng)來確定他們是否是可能損害房東的高風(fēng)險(xiǎn)客戶,從而對(duì)客戶的“個(gè)性”進(jìn)行評(píng)分。
他們技術(shù)的最終產(chǎn)品是為AirBnB每個(gè)客戶分配“可信度評(píng)分”。據(jù)報(bào)道,這不僅將基于社交媒體活動(dòng),而且還將基于在線發(fā)現(xiàn)的其他數(shù)據(jù),其中包括博客文章和法律記錄。
這項(xiàng)技術(shù)是由AirBnB公司三年前收購的Trooliy公司開發(fā)的。Trooly公司創(chuàng)建了一個(gè)基于人工智能的工具,旨在“預(yù)測可信任的關(guān)系和互動(dòng)”,并將社交媒體作為一個(gè)數(shù)據(jù)源。
該軟件根據(jù)軟件識(shí)別出的感知“個(gè)性特征”來建立分?jǐn)?shù),包括一些可能預(yù)測到的特質(zhì)(例如認(rèn)真、開放、外向、隨和,還有一些怪異的特質(zhì)——例如“自戀”和“狡詐”(有趣的是,該軟件還尋找客戶涉及民事訴訟的行為,這表明他們可能會(huì)基于對(duì)客戶可能提起訴訟行為進(jìn)行預(yù)測)。
AirBnB公司尚未透露他們是否使用該軟件。
如果人們對(duì)此消息感到驚訝,震驚或不滿意,則就像大多數(shù)人一樣,他們不知道使用適用于社交媒體的人工智能來判斷人們(客戶、公民、員工和學(xué)生)的巨大且快速增長的做法。
AirBnB公司并不是掃描社交媒體來判斷個(gè)性或預(yù)測行為的唯一組織。其他機(jī)構(gòu)和組織包括美國國土安全部、美國中央情報(bào)局、雇主、學(xué)區(qū)、警察局、保險(xiǎn)公司等。
有人估計(jì),一半以上的大學(xué)招生員使用基于人工智能的社會(huì)監(jiān)測工具作為申請人甄選過程的一部分。
人力資源部門和招聘經(jīng)理在招聘前也越來越多地使用人工智能社交媒體監(jiān)控。美國政府機(jī)構(gòu)(特別是雇用需要安全檢查人員的政府機(jī)構(gòu))也依靠社交媒體監(jiān)控來檢查不信任的員工。
而且,正如在這個(gè)領(lǐng)域所報(bào)告的那樣,當(dāng)人們進(jìn)入美國國境時(shí),美國海關(guān)和邊境保護(hù)局搜索的智能手機(jī)數(shù)量每年都在急劇增長。這些搜索包括社交媒體帳戶,以后可以使用人工智能對(duì)其進(jìn)行監(jiān)視和分析。
不僅越來越多的學(xué)校監(jiān)控學(xué)生的社交媒體活動(dòng),一些州也開始依法要求這樣做?;谌斯ぶ悄艿纳缃幻襟w監(jiān)控是一種潮流。各種各樣的組織都在積極參與。
基于人工智能的社交媒體監(jiān)控不是那么智能
多年來,各種組織一直在質(zhì)疑社交媒體監(jiān)控。但是最近基于人工智能的監(jiān)視工具應(yīng)運(yùn)而生,并創(chuàng)建了新的行業(yè)和專業(yè)。
這些工具尋找的是諸如智力、社會(huì)責(zé)任、經(jīng)濟(jì)責(zé)任和遵紀(jì)守法和負(fù)責(zé)任行為等人格特征。問題不是人工智能是否適用于數(shù)據(jù)收集。當(dāng)然可以。問題在于社交媒體是否揭示了有關(guān)用戶的真相。也有一些專家在質(zhì)疑其數(shù)據(jù)的質(zhì)量。
例如,掃描某人的Instagram帳戶可能“表明”他非常富有,曾經(jīng)環(huán)游世界,并享用香檳和魚子醬。事實(shí)可能是他已經(jīng)破產(chǎn),面臨的經(jīng)濟(jì)壓力很大,他們在酒店和餐廳用餐時(shí)以社交方式進(jìn)行炫耀,他們的自拍純粹是為了建立聲譽(yù)而精心偽造的照片。有些人利用社交工具刻意塑造自己的高大形象。
Twitter帳戶可能會(huì)表明用戶是一個(gè)正直、有建設(shè)性和富有成效的社會(huì)成員,但如果第二個(gè)匿名帳戶被社交媒體監(jiān)控系統(tǒng)所知,則可能會(huì)顯示出這個(gè)人可能是一個(gè)反社會(huì)的不法分子。人們有多個(gè)社交媒體帳戶可以反映其個(gè)性的不同方面。其中一些是匿名的。
而且,某人的Facebook帳戶可能充斥著一些冷幽默信息,其內(nèi)容低俗并且夸張,監(jiān)控工具可能會(huì)得出這樣的結(jié)論,顯示出一種不可信任的性格,而實(shí)際上問題是人工智能并沒有幽默感或諷刺意味。而人工智能工具的創(chuàng)造者本身可能對(duì)個(gè)性沒有真正的理解。
例如,在網(wǎng)上的不良行為可能會(huì)降低對(duì)某人的信任度得分,因?yàn)槿藗冋J(rèn)為這表明缺乏道德。但最近的研究表明情況恰恰相反,通常來說,這樣的人可能更值得信任,也更聰明、更誠實(shí)、更有能力、更專業(yè)。那么開發(fā)人工智能軟件的開發(fā)人員知道或關(guān)心人類個(gè)性的微妙性和復(fù)雜性嗎?
如今,一些人是許多社交媒體網(wǎng)站的持續(xù)用戶。其他人從不使用社交媒體。大多數(shù)都介于兩者之間。
當(dāng)然也存在代際鴻溝。從統(tǒng)計(jì)上看,年輕人不太可能公開發(fā)布信息,他們更喜歡私人信息和小組社交?;谌斯ぶ悄艿纳缃幻襟w監(jiān)控從根本上說是年齡歧視嗎?
女人比男人更有可能在社交媒體上發(fā)布個(gè)人信息(關(guān)于自己的信息),而男人比女人更可能發(fā)布非個(gè)人信息。發(fā)表有關(guān)個(gè)人事務(wù)的信息可能更能揭示人格。人工智能是以社交媒體監(jiān)控為基礎(chǔ)的性別歧視嗎?
而采用這種可能造成極端后果的監(jiān)視技術(shù)之前,有人問過這些問題嗎?
像AirBnB這樣的公司正試圖解決一個(gè)真正的問題。就AirBnB而言,它們本質(zhì)上是一項(xiàng)配對(duì)服務(wù),其中一個(gè)用戶的“產(chǎn)品”是另一個(gè)用戶。這是質(zhì)量保證的問題。它們?nèi)绾巫畲蟪潭鹊販p少對(duì)用戶的傷害?
需要注意的是:在過去40年中,科技的作用總是被夸大。而人工智能現(xiàn)在成為這一新科技。業(yè)界人士擔(dān)心的是像AirBnB這樣的公司會(huì)出現(xiàn)問題,他們認(rèn)為解決問題的辦法就是讓人工智能魔法神奇地解決問題。他們會(huì)使人工智能系統(tǒng)脫離社交網(wǎng)絡(luò),運(yùn)行算法,然后得到結(jié)果。人工智能系統(tǒng)會(huì)告訴他們哪些人不可以進(jìn)入學(xué)校,哪些人不能雇傭,哪些人可以剝奪他們的安全許可,哪些人禁止進(jìn)入AirBnB。
人工智能拒絕了合適的應(yīng)聘者嗎?怎么會(huì)有人知道?一些被人工智能視為“值得信賴”的人員是不是通過某種方式欺騙這個(gè)系統(tǒng)而獲得了這種區(qū)別?怎么會(huì)有人知道?
如果人們在互聯(lián)網(wǎng)上瀏覽有關(guān)社交媒體監(jiān)控的信息,就會(huì)發(fā)現(xiàn)很多關(guān)于“在網(wǎng)上發(fā)布的內(nèi)容”的建議,這聽起來很合理,直到人們真正思考這些建議的含義。他們說,如果某人是一個(gè)真正應(yīng)該被解雇的人,而不是根據(jù)其社交媒體活動(dòng)被學(xué)校錄用或拒絕的人,那么真的需要變得聰明一些,模仿或假冒一個(gè)不令人反感的人員的社交媒體活動(dòng)。
隨著關(guān)于社交媒體監(jiān)控范圍的知識(shí)的傳播,限制人們在社交網(wǎng)站上的一些不良行為(向人工智能受眾提供假數(shù)據(jù),以便機(jī)器判斷是否值得信賴)將變得司空見慣。
從政府機(jī)構(gòu)到企業(yè),再到硅谷的一些科技公司,許多類型的組織都在緊跟基于人工智能的社交媒體監(jiān)控的發(fā)展潮流。專門提供這些工具的數(shù)十家公司正在崛起,這種做法越來越普遍。
而當(dāng)公眾意識(shí)到這一普遍做法的現(xiàn)實(shí)時(shí),他們的反應(yīng)必然是改變社交媒體的行為,采用正確方法來維持自己的“可信分?jǐn)?shù)”,黑客的攻擊使整個(gè)事情變得毫無意義和過時(shí)。
現(xiàn)在是開始關(guān)注基于人工智能的社交媒體監(jiān)控的時(shí)候
人們可以從掃描社交網(wǎng)絡(luò)中獲得一些啟發(fā),即使沒有人工智能技術(shù)也是如此。知識(shí)淵博、熱衷科技的公眾通常對(duì)“監(jiān)視資本主義”的做法持謹(jǐn)慎態(tài)度,并且輕視個(gè)人數(shù)據(jù)收集、網(wǎng)絡(luò)活動(dòng)跟蹤,以及廣泛使用各種網(wǎng)站和應(yīng)用程序的隨機(jī)用戶的聯(lián)系數(shù)據(jù)庫的做法,利用這些行為,企業(yè)可以未經(jīng)用戶了解并許可,即可訪問其認(rèn)識(shí)的每個(gè)人的個(gè)人信息。
同時(shí),人們很少聽到關(guān)于基于人工智能的社交媒體監(jiān)控的在線對(duì)話。然而,潛在的“危害”是巨大的,導(dǎo)致一些人失業(yè)、被學(xué)校拒絕錄取,或者使保險(xiǎn)費(fèi)率提高等。
在這里沒有“不值得信賴”的秘訣來欺騙人工智能系統(tǒng)并獲得機(jī)器信任。而且基于人工智能的社交媒體監(jiān)視來確定“可信賴性”本身就是不可信賴的。
責(zé)任編輯:ct
評(píng)論
查看更多