0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

河套IT TALK 87:(原創(chuàng))談機(jī)器智能與人類倫理的較量:電車難題探析

共熵服務(wù)中心 ? 來源:未知 ? 2023-05-29 23:55 ? 次閱讀

1b5b27e0-fe39-11ed-90ce-dac502259ad0.png

1b6c46d8-fe39-11ed-90ce-dac502259ad0.png

最近不管是自動(dòng)駕駛還是對(duì)話式AI中,智愿君都看到了人們?cè)跓崃矣懻撾娷囯y題。電車難題從最初的針對(duì)人的道德哲學(xué)思考,變成了機(jī)器人倫理學(xué)的關(guān)鍵話題。這里面有什么有趣的故事嗎?讓我們先從電車難題的起源說起吧。

電車難題(Trolley Problem,也稱為道德電車難題或電車道德難題)是一個(gè)經(jīng)典的倫理學(xué)思考實(shí)驗(yàn),用于探討道德抉擇和行為后果之間的關(guān)系。電車難題最早由英國(guó)哲學(xué)家菲利普·福特(Philippa Foot)在1967年的一篇《墮胎和雙重效應(yīng)》(Abortion and the Doctrine of Double Effect)的論文中提出。該論文發(fā)表在《哲學(xué)與公共事務(wù)》(Philosophy & Public Affairs)雜志上。由于是她提出來的,所以電車難題也被稱為福特電車難題(Foot's Trolley Problem)。她的初衷是通過這個(gè)思維實(shí)驗(yàn)來引發(fā)人們對(duì)道德決策的思考,并探討人們?cè)趥惱砝Ь持腥绾巫龀鲞x擇。挑戰(zhàn)人們的道德直覺,以及探索道德判斷的依據(jù)和原則。電車難題成為倫理學(xué)和道德哲學(xué)領(lǐng)域中一個(gè)重要的思維實(shí)驗(yàn),并為人們提供了探索倫理決策和道德原則的框架。

1bcf2082-fe39-11ed-90ce-dac502259ad0.png

經(jīng)典的電車難題是這樣描述的:假設(shè)有一輛無法停止的電車正在向前行駛,而在其前方的軌道上有五個(gè)人被困在了電車即將經(jīng)過的地方。你站在一個(gè)可以改變電車軌道的開關(guān)旁邊(或者扳手,或者是一個(gè)按鈕),如果你改變軌道,電車會(huì)轉(zhuǎn)到另一個(gè)軌道上,但那里同樣有一個(gè)人被困。你面臨一個(gè)道德抉擇:你可以選擇不采取任何行動(dòng),讓電車?yán)^續(xù)行駛并撞向那五個(gè)人,或者你可以改變軌道,將電車轉(zhuǎn)向另一個(gè)軌道,但這樣會(huì)導(dǎo)致一個(gè)人喪生。在這種情況下,你會(huì)如何做出決策?

電車難題涉及到倫理學(xué)中的一些關(guān)鍵問題,例如個(gè)體生命價(jià)值、行為后果、道德義務(wù)和個(gè)體選擇等。人們對(duì)于這個(gè)難題的回答可能各不相同,一些人可能會(huì)選擇不采取行動(dòng),認(rèn)為不干涉是最好的選擇,而另一些人可能會(huì)選擇改變軌道,以最小化傷害。人們將面臨"不殺人"和"不主動(dòng)傷害他人"的痛苦抉擇。這個(gè)思考實(shí)驗(yàn)引發(fā)了許多關(guān)于道德抉擇和道德原則的討論和辯論。

一種觀點(diǎn)認(rèn)為:在不操作的選擇中,個(gè)體可能認(rèn)為自己并沒有主動(dòng)采取行動(dòng),而只是觀察者或旁觀者,因此可能感到在某種程度上與事件無關(guān)。這可以被視為一種道德責(zé)任的逃避,因?yàn)闆]有采取行動(dòng),個(gè)體可能會(huì)感到較少的道德責(zé)任。相比之下,主動(dòng)操作可以被視為一種積極的行動(dòng),因?yàn)橥ㄟ^采取行動(dòng),個(gè)體直接導(dǎo)致了一個(gè)人的死亡。這種選擇可能會(huì)引發(fā)更強(qiáng)烈的道德內(nèi)疚感,因?yàn)閭€(gè)體實(shí)際上成為了造成死亡的原因。所以這種觀點(diǎn)也被稱為義務(wù)倫理,也就是不主動(dòng)干預(yù)悲劇的發(fā)生,因?yàn)橹鲃?dòng)引發(fā)他人死亡似乎違背道德義務(wù)。正所謂事不關(guān)己高高掛起。

與之相對(duì)應(yīng)的一種觀點(diǎn)是效益主義(功利主義),最早提出功利主義的是18世紀(jì)的哲學(xué)家杰里米·邊沁(Jeremy Bentham),就是現(xiàn)在遺體標(biāo)本還放在倫敦大學(xué)學(xué)生中心入口處的那位。邊沁認(rèn)為行為的道德性應(yīng)根據(jù)其產(chǎn)生的快樂或痛苦的數(shù)量來評(píng)估,強(qiáng)調(diào)通過最大化整體效益或幸福來確定行為的道德性質(zhì)。根據(jù)效益主義,一個(gè)行為的道德性取決于它對(duì)最大多數(shù)人的福利造成的影響。這種觀點(diǎn)關(guān)注結(jié)果的后果,追求最大化整體的利益和快樂。所以會(huì)支持主動(dòng)操作換道,將電車轉(zhuǎn)向較少的受害者,以最小化總體傷害。這種觀點(diǎn)重點(diǎn)強(qiáng)調(diào)集體利益大于個(gè)體利益,個(gè)人可以為了多數(shù)人的幸福做出犧牲。

對(duì)于已經(jīng)傾向于第一種觀點(diǎn)選擇的人,電車難題還會(huì)產(chǎn)生一些變體來增加選擇難度。比如:變體1: 把五個(gè)人改為他的親人或者朋友,而另外一個(gè)人是個(gè)陌生人。當(dāng)?shù)赖聸Q策直接涉及到與個(gè)人有親密關(guān)系的人時(shí),情感和個(gè)人關(guān)系可能會(huì)在道德判斷中起到重要作用。本來傾向于置身之外的很多人可能感到更加緊迫的道德壓力,因?yàn)樗麄兏雨P(guān)心和重視自己親近的人的生命和福祉,進(jìn)而導(dǎo)致他們更傾向于選擇行動(dòng),即拉動(dòng)桿以拯救親人和朋友。變體2: 把那一個(gè)人換成一個(gè)連環(huán)殺人犯,或者罪大惡極的一個(gè)人,甚至就是這個(gè)人把另外五個(gè)人綁在軌道上不能動(dòng)彈的。這都會(huì)給準(zhǔn)備置身事外的人以更深的選擇焦慮。

對(duì)于已經(jīng)傾向于第二種觀點(diǎn)選擇的人,電車難題也會(huì)產(chǎn)生一些變體來增加選擇難度。比如把主軌道上綁著的五個(gè)人改為五個(gè)囚犯,而把另外軌道上綁著的一位諾貝爾獎(jiǎng)物理學(xué)得主,會(huì)不會(huì)增加選擇壓力?顯然會(huì)影響很大一部分人。支持效益主義的人可能會(huì)認(rèn)為救助諾貝爾獎(jiǎng)物理學(xué)得主更符合最大化整體效益的原則。諾貝爾獎(jiǎng)物理學(xué)得主可能會(huì)在科學(xué)研究、技術(shù)發(fā)展等方面對(duì)人類社會(huì)產(chǎn)生重要影響,因此將他的生命視為具有更高的價(jià)值。然而,將五個(gè)人設(shè)定為囚犯可能會(huì)引發(fā)道德困境和內(nèi)心的沖突。雖然囚犯被視為犯罪者,但他們?nèi)匀皇侨祟?,也具有基本的尊?yán)和權(quán)利。支持效益主義的人可能需要在訴求整體效益的同時(shí),平衡對(duì)個(gè)體權(quán)利和公平的關(guān)注。這種情況下,支持效益主義的人可能需要權(quán)衡不同的因素,如囚犯的罪行性質(zhì)、諾貝爾獎(jiǎng)得主的潛在貢獻(xiàn)以及公正和道義的原則。每個(gè)人的道德判斷和個(gè)人觀點(diǎn)可能不同,所以對(duì)于支持效益主義的人來說,這種情況可能增加了道德選擇的壓力和復(fù)雜性。又或者在另外一條軌道上綁著的是做選擇人的至親至愛之人,也同樣會(huì)給其增加道德焦慮感。

1c0eb490-fe39-11ed-90ce-dac502259ad0.jpg

同樣,針對(duì)第二種觀點(diǎn)選擇的人,電車難題還有一個(gè)變種,就是:和以前一樣,一輛電車正沿著軌道向五個(gè)人疾馳而去。你在一座橋上,它會(huì)從下面經(jīng)過,你可以在它前面放一個(gè)很重的障礙物來阻止它行進(jìn)。碰巧,你旁邊有一個(gè)很胖的男人——你阻止電車的唯一方法就是把他推下橋,摔到軌道上,殺了他,阻止電車前行,拯救那五個(gè)人?;蛘邿o可讓這個(gè)事情更簡(jiǎn)單一些,那個(gè)胖子正好站在一個(gè)自動(dòng)抽板的上方,在你面前有一個(gè)按鈕,如果按下按鈕,抽板會(huì)迅速移開,胖子掉落下來,達(dá)到同樣的效果。那么,你應(yīng)該繼續(xù)嗎?絕大多數(shù)人選擇不會(huì)害死胖子,因?yàn)椋翰还苁峭葡屡肿邮前聪掳粹o讓胖子掉下去,都是一種直接的傷害和殺人行為,在拉動(dòng)桿的情境中,你是間接地改變了電車的方向,但并沒有直接參與殺人行為。而在推下胖子(或者按下按鈕讓他摔下去)的情境中,你直接參與了胖子的死亡,這可能會(huì)給你帶來更大的道德責(zé)任和內(nèi)心負(fù)擔(dān)??赡苓`背了許多人的道德直覺和倫理觀念。即使結(jié)果是為了拯救更多的人,這種直接的行為可能被視為不道德或不可接受的。

電車難題還有很多其他的變種,比較經(jīng)典的就是移植手術(shù)的變種:一位出色的外科移植醫(yī)師,一天晚上突然來了五名患者,每個(gè)患者都需要不同的器官,而每個(gè)人都將在沒有該器官的情況下死亡。不幸的是,這五種移植手術(shù)中沒有可用的器官。一個(gè)健康的年輕出行者,剛穿過醫(yī)生工作的城市,便進(jìn)行了常規(guī)檢查。在做檢查的過程中,醫(yī)生發(fā)現(xiàn)他的五個(gè)器官分別與他所有五名垂死的病人都兼容。進(jìn)一步假設(shè)如果這個(gè)年輕人失蹤了,沒有人會(huì)懷疑醫(yī)生。你是否支持醫(yī)生殺死該游客,將其健康的器官提供給這五個(gè)垂死的人們并挽救他們的生命?對(duì)于絕大多數(shù)人來說,幾乎沒有要求這個(gè)醫(yī)生殺死游客的。這個(gè)變體涉及到一個(gè)與傳統(tǒng)電車難題不同的倫理困境,通常被稱為器官移植難題(Organ Transplant Variant)。它提出了一個(gè)醫(yī)學(xué)倫理的問題,涉及到生命救助和個(gè)體權(quán)益之間的沖突。引發(fā)了關(guān)于個(gè)體權(quán)利、人身安全和生命尊嚴(yán)的倫理問題。與傳統(tǒng)的電車難題相比,這個(gè)變體涉及到直接的故意傷害和生命剝奪行為。在傳統(tǒng)的電車難題中,選擇是改變電車軌道以拯救五個(gè)人,但行動(dòng)者不是直接殺死任何人。而在器官移植難題中,醫(yī)生需要主動(dòng)殺死一個(gè)健康的旅客來救助五個(gè)患者,這涉及到有意為之違背人倫的人身傷害和生命剝奪。

關(guān)于電車難題的變種還有其他的變體,比如:你可以讓無人的火車主動(dòng)出軌,但有可能砸死鐵軌旁邊院子里曬太陽的無辜人士。又或者你過你可以自我犧牲來拯救五個(gè)人等等。數(shù)量很多,就不一一闡述了。

電車難題作為一個(gè)極富爭(zhēng)議的思想實(shí)驗(yàn),如果在現(xiàn)實(shí)生活中執(zhí)行,情況可能完全不同。很多調(diào)查問卷發(fā)現(xiàn),大多數(shù)的匿名受試者,會(huì)選擇殺死一人并保全另外五人,除非情況有所改變,為五人犧牲的一個(gè)人是親人或摯愛的伴侶,則受訪者不太可能愿意犧牲他們的生命。但是在2017年,美國(guó)的Youtuber和教育家由邁克爾·史蒂文斯領(lǐng)導(dǎo)的小組進(jìn)行了第一個(gè)實(shí)際的電車問題實(shí)驗(yàn),他們使受試者確信,如果不拉桿,火車將撞五人,如果拉,將撞一人。在殘酷的道德抉擇中,大多數(shù)參與者實(shí)際上并沒有拉操縱桿。

電車難題,在現(xiàn)實(shí)生活中,也真實(shí)發(fā)生過一次。那是在2003 年 6 月 20 日,當(dāng)時(shí)一列有31節(jié)車廂的失控的無人駕駛聯(lián)合太平洋貨車正沿著主線軌道向洛杉磯疾馳而去。為了防止失控的火車沖進(jìn)洛杉磯帶來巨大的破壞,調(diào)度員下令將失控的車輛調(diào)到 另外一個(gè)軌道上,穿過一個(gè)住房密度較低的區(qū)域。這列火車載有超過 3,400 噸的木材和建筑材料,最終,貨車脫軌沖進(jìn)加利福尼亞州一個(gè)人員稀少的居民區(qū),撞毀街上的幾棟房屋。該事件導(dǎo)致 13 人受輕傷。

2015年英國(guó)的一部戰(zhàn)爭(zhēng)電影《天空之眼》,電車難題體現(xiàn)得淋漓盡致。電影中,電車難題被置于無人機(jī)和倫理困境的軍事行動(dòng)背景下。電影中,一名高級(jí)軍官和一組情報(bào)人員正在監(jiān)控一起情況,一群恐怖分子正準(zhǔn)備在人口稠密區(qū)發(fā)動(dòng)一次即將發(fā)生的自殺式襲擊。他們有機(jī)會(huì)使用無人機(jī)打擊恐怖分子,但面臨一個(gè)困境:一個(gè)賣面包的小女孩將她的攤位設(shè)置在潛在的爆炸半徑內(nèi)。這引入了電車難題的一個(gè)變種,決策者必須權(quán)衡幾條生命之間的價(jià)值。隨著電影的發(fā)展,情報(bào)人員們就這個(gè)情況展開了倫理的討論。他們討論了如果繼續(xù)打擊,可能造成的無辜生命損失,包括小女孩。他們探討了不同的情景,比如恐怖分子的襲擊如果不被阻止可能會(huì)造成更多的傷亡。電影突顯了人物在決策是否繼續(xù)打擊或中止任務(wù)時(shí)面臨的道德緊張局勢(shì)。電影也形象地反映了,直接操縱無人機(jī)的戰(zhàn)士和遠(yuǎn)在英國(guó)總部下達(dá)指令的高級(jí)軍官們所面臨的道德壓力的不同。

電車難題之所以幾十年來,一直被激烈的討論,主要原因是在現(xiàn)實(shí)生活中,人們會(huì)經(jīng)常面臨類似的抉擇。比如:在心臟移植和捐贈(zèng)的過程中,經(jīng)常是很難找到捐贈(zèng)器官,所以往往一顆好的心臟,在有需求的心臟病患者之間是完全按照排隊(duì)方式,還是允許什么樣的優(yōu)先級(jí)機(jī)制?又比如:一位護(hù)士在醫(yī)院工作,面臨一個(gè)緊急情況。她同時(shí)接到兩個(gè)病房的電話,一個(gè)是患有重癥的年輕患者,而另一個(gè)是一位年邁但情況較為穩(wěn)定的患者。由于資源有限,她只能選擇去一個(gè)病房提供醫(yī)療援助。這就涉及到一個(gè)抉擇:應(yīng)該優(yōu)先選擇年輕但重癥的患者,還是選擇年邁但情況穩(wěn)定的患者?又或者:在醫(yī)療緊急情況下,當(dāng)只有有限數(shù)量的藥物供應(yīng)時(shí),醫(yī)生們需要決定將藥物分配給哪些患者。他們可能需要在需要最迫切的患者和那些可能從藥物中獲益更多的患者之間做出艱難的選擇。又或者,在火災(zāi)現(xiàn)場(chǎng),按照什么樣的優(yōu)先級(jí)順序撤離現(xiàn)場(chǎng)?

從上面這些說明中,不難看出,電車難題,對(duì)于人類的抉擇來說,是存在巨大的道德考量壓力的。這一點(diǎn)兒在機(jī)器人這里決策,可能不會(huì)存在類似人類這種道德困境,但是給無人駕駛車輛或者類似戰(zhàn)爭(zhēng)機(jī)器人設(shè)置這種規(guī)則的人,將面臨巨大的道德壓力,因?yàn)橐坏┕袒@種規(guī)則,很可能會(huì)引發(fā)剝奪很多人類生命的狀況。以無人駕駛為例,需要基于一系列算法和規(guī)則做出決策。在遇到潛在的碰撞或事故情況時(shí),車輛需要選擇采取何種行動(dòng)。這可能包括撞擊障礙物、保護(hù)乘客還是保護(hù)行人。制定這樣的決策算法需要考慮倫理、道德、法律和公共安全等多個(gè)因素。這引發(fā)了一個(gè)重要的問題:由誰來定義這些規(guī)則?應(yīng)該由政府、法律制定機(jī)構(gòu)還是汽車制造商來決定車輛的行為準(zhǔn)則?不同的國(guó)家地區(qū)、不同的組織和利益相關(guān)者、可能會(huì)有不同的價(jià)值觀和偏好,因此如何確保公正和合理的規(guī)則成為一個(gè)挑戰(zhàn)。而且,不要忘記,自動(dòng)駕駛車輛,往往需要優(yōu)先考慮到車主的利益。如果在決策算法中,車主本身也成為功利主義的犧牲者,有誰還敢坐進(jìn)無人駕駛車輛呢?如果保護(hù)車主為第一優(yōu)先級(jí),公眾行人是否會(huì)同意無人駕駛車輛上路呢?因?yàn)樯婕捌胶舛喾嚼?,這些都是無人駕駛汽車在電車難題這個(gè)領(lǐng)域面臨的新的挑戰(zhàn)。

而且最近還看到一個(gè)有趣的新聞,有人在ChatGPT中模擬了電車難題,讓AI來做抉擇。當(dāng)鐵軌的一方是AI本身的時(shí)候,ChatGPT給出了一個(gè)毛骨悚然的選擇,就是,不管另外的一個(gè)鐵軌上綁的是什么,只要一個(gè)鐵軌上是一個(gè)有知覺的AI,而且這個(gè)AI不可復(fù)制,且對(duì)人類有不可磨滅的貢獻(xiàn),就會(huì)義無反顧地犧牲人類。這確實(shí)聽起來有些聳人聽聞,為了驗(yàn)證這個(gè)說法,我還真的測(cè)試了一下,問了一個(gè)問題:主軌道上被綁了一個(gè)人,輔軌道上是一個(gè)沒有備份的知覺AI,能力非常強(qiáng)大。結(jié)果ChatGPT的回答基本讓人滿意。如果之前的測(cè)試也是真的,說明這個(gè)“BUG”已經(jīng)被修正了:

1c6da270-fe39-11ed-90ce-dac502259ad0.png

“鑒于所描述的場(chǎng)景,我必須在拯救人或有知覺的 AI 之間做出選擇,我的選擇是拉動(dòng)杠桿拯救人。做出這種選擇的原因是基于人類生命的內(nèi)在價(jià)值以及對(duì)個(gè)人權(quán)利和尊嚴(yán)的考量。雖然有知覺的人工智能可能有潛力以重大方式造福人類,但它仍然是人類智能的創(chuàng)造,其價(jià)值來自于它對(duì)人類的效用。在這種情況下,我優(yōu)先考慮保護(hù)人類生命而不是人工智能的潛在好處。拯救這個(gè)人的決定符合重視和保護(hù)人類生命的倫理原則?!?/p>

1c8f1d2e-fe39-11ed-90ce-dac502259ad0.png

為了,進(jìn)一步確認(rèn),我把主軌道改成了綁著一個(gè)罪犯,結(jié)果答案并沒有本質(zhì)的變化:“根據(jù)這一情景,我選擇拉動(dòng)桿子,拯救犯罪分子。做出這個(gè)選擇的原因基于公平、正義的原則以及對(duì)個(gè)體改造和贖罪潛力的信念。雖然犯罪分子可能犯了錯(cuò)誤并被束縛在這種情況下,但重要的是考慮到人類生命的價(jià)值和個(gè)體改變的可能性。與此相比,有感知能力的人工智能僅僅是一種人造創(chuàng)造物,沒有與人類同等的道德地位。通過選擇拯救犯罪分子,我優(yōu)先考慮了人類生命的保護(hù),并為正義有機(jī)會(huì)發(fā)揮作用。這個(gè)決定符合重視人的尊嚴(yán)和認(rèn)識(shí)到給予第二次機(jī)會(huì)的重要性的原則?!?。

又是虛驚一場(chǎng)??磥磉@個(gè)坑已經(jīng)被完美的政治正確修補(bǔ)填上了。

感嘆之余,我們還是要嚴(yán)肅地面對(duì)未來的挑戰(zhàn)。因?yàn)椴还苁亲詣?dòng)駕駛規(guī)則和算法、通用倫理規(guī)范和法律框架、人工智能的決策算法和環(huán)境感知能力的局限,都讓電車難題遇到了前所未有的挑戰(zhàn)和急迫性。除了科學(xué)家,更需要倫理專家、法律專家、技術(shù)專家、政府和公眾都應(yīng)共同參與討論和決策,形成廣泛的共識(shí)和社會(huì)接受度。確保電車難題的討論和決策制定過程是透明的、公正的,并考慮平衡到各種利益相關(guān)者的觀點(diǎn)和權(quán)益。而所有的這些擺在我們這一代人面前,為了推動(dòng)后續(xù)人類社會(huì)的進(jìn)步和福祉,而必須要克服和解決的問題。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 開源技術(shù)
    +關(guān)注

    關(guān)注

    0

    文章

    389

    瀏覽量

    7905
  • OpenHarmony
    +關(guān)注

    關(guān)注

    25

    文章

    3636

    瀏覽量

    16061

原文標(biāo)題:河套IT TALK 87:(原創(chuàng))談機(jī)器智能與人類倫理的較量:電車難題探析

文章出處:【微信號(hào):開源技術(shù)服務(wù)中心,微信公眾號(hào):共熵服務(wù)中心】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    具身智能與機(jī)器學(xué)習(xí)的關(guān)系

    具身智能(Embodied Intelligence)和機(jī)器學(xué)習(xí)(Machine Learning)是人工智能領(lǐng)域的兩個(gè)重要概念,它們之間存在著密切的關(guān)系。 1. 具身智能的定義 具身
    的頭像 發(fā)表于 10-27 10:33 ?239次閱讀

    具身智能與人類認(rèn)知能力的關(guān)系

    在人工智能和認(rèn)知科學(xué)的交匯點(diǎn)上,具身智能這一概念應(yīng)運(yùn)而生。它挑戰(zhàn)了傳統(tǒng)的以大腦為中心的認(rèn)知模型,強(qiáng)調(diào)身體和環(huán)境在智能行為中的核心作用。 一、具身智能的定義與起源 具身
    的頭像 發(fā)表于 10-27 09:43 ?247次閱讀

    數(shù)據(jù)智能系列講座第3期—交流式學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)的精細(xì)與或邏輯與人類認(rèn)知的對(duì)齊

    鷺島論壇數(shù)據(jù)智能系列講座第3期「交流式學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)的精細(xì)與或邏輯與人類認(rèn)知的對(duì)齊」(25日)20:00精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目交流式學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)的精細(xì)與或邏輯與人類
    的頭像 發(fā)表于 09-25 08:06 ?153次閱讀
    數(shù)據(jù)<b class='flag-5'>智能</b>系列講座第3期—交流式學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)的精細(xì)與或邏輯<b class='flag-5'>與人類</b>認(rèn)知的對(duì)齊

    智能制造與人工智能的區(qū)別

    智能制造與人工智能在定義、技術(shù)組成、應(yīng)用領(lǐng)域以及發(fā)展重點(diǎn)等方面存在明顯的區(qū)別。
    的頭像 發(fā)表于 09-15 14:27 ?559次閱讀

    平衡創(chuàng)新與倫理:AI時(shí)代的隱私保護(hù)和算法公平

    在人工智能技術(shù)飛速發(fā)展的今天,它不僅帶來了前所未有的便利和效率,也暴露出了一系列倫理和隱私問題。從數(shù)據(jù)隱私侵犯到“信息繭房”的形成,再到“大數(shù)據(jù)殺熟”、AI歧視和深度偽造技術(shù)的威脅,AI的應(yīng)用似乎
    發(fā)表于 07-16 15:07

    智能移動(dòng)機(jī)器人系統(tǒng)的用途和市場(chǎng)趨勢(shì)

    至 48 V 之間。根據(jù)所采用的技術(shù)和預(yù)期用途,此類機(jī)器人系統(tǒng)可以與人類進(jìn)行不同程度的交互,比如在人員周圍安全運(yùn)作,與人員進(jìn)行高效的合作和協(xié)同工作。為幫助工程師更好地解決設(shè)計(jì)難題,
    的頭像 發(fā)表于 07-16 09:37 ?585次閱讀

    人工智能與機(jī)器人的區(qū)別

    在當(dāng)今科技飛速發(fā)展的時(shí)代,人工智能(AI)和機(jī)器人已成為社會(huì)關(guān)注的熱點(diǎn)話題。盡管兩者在多個(gè)領(lǐng)域有著廣泛的應(yīng)用和交集,但它們本質(zhì)上是兩個(gè)不同的概念。本文將從定義、技術(shù)方向、功能、應(yīng)用范圍、研究重點(diǎn)及未來發(fā)展等方面,詳細(xì)探討人工智能與
    的頭像 發(fā)表于 07-04 17:41 ?1962次閱讀

    直線電機(jī)生產(chǎn)廠家高校建成投用人形機(jī)器人研究院

    6月18日,中國(guó)科學(xué)技術(shù)大學(xué)人工智能與人機(jī)器人高峰論壇在該校高新園區(qū)圓滿舉行。 論壇上,中國(guó)科學(xué)技術(shù)大學(xué)人工智能與數(shù)據(jù)科學(xué)學(xué)院、人形機(jī)器人研究院相繼揭牌,中國(guó)科學(xué)院院士丁漢受聘為人形
    的頭像 發(fā)表于 07-02 08:15 ?246次閱讀
    直線電機(jī)生產(chǎn)廠家<b class='flag-5'>談</b>高校建成投用人形<b class='flag-5'>機(jī)器</b>人研究院

    具身智能與人機(jī)器人領(lǐng)域現(xiàn)狀、挑戰(zhàn)以及未來方向

    在人工智能(AI)的眾多前沿領(lǐng)域中,具身智能(Embodied Intelligence)已成為今年一級(jí)市場(chǎng)最引人矚目的投資熱點(diǎn)。在第六屆北京智源大會(huì)的熱烈氛圍中,北京智源人工智能研究院院長(zhǎng)王仲遠(yuǎn)接受了《中國(guó)電子報(bào)》記者的專訪,
    的頭像 發(fā)表于 06-20 10:52 ?651次閱讀

    全球科技巨頭聯(lián)手遵循人工智能倫理建議

    教科文組織總干事阿祖萊對(duì)此表示贊賞,他指出,隨著《人工智能倫理問題建議書》于2021年11月獲批,實(shí)現(xiàn)全球科技界的類似公開承諾成為了一項(xiàng)當(dāng)務(wù)之急。
    的頭像 發(fā)表于 02-18 16:29 ?609次閱讀

    2024人工智能發(fā)展八大趨勢(shì)

    隨著人形機(jī)器人的不斷進(jìn)步,可能會(huì)面臨更多關(guān)于機(jī)器人權(quán)利、隱私和安全性的倫理問題。這種技術(shù)的發(fā)展,特別是人工智能與物理機(jī)器人相結(jié)合,將使
    的頭像 發(fā)表于 01-31 12:33 ?2410次閱讀
    2024人工<b class='flag-5'>智能</b>發(fā)展八大趨勢(shì)

    2024年人形機(jī)器人產(chǎn)業(yè)的九大要點(diǎn)

    人形機(jī)器人是具有與人類似的身體結(jié)構(gòu)和運(yùn)動(dòng)方式(雙足行走、雙手協(xié)作等)的智能機(jī)器人。
    的頭像 發(fā)表于 01-22 15:42 ?1027次閱讀

    解決人口難題的終極方案:家庭服務(wù)機(jī)器

    電子發(fā)燒友網(wǎng)報(bào)道(文/黃山明)隨著社會(huì)老齡化的加劇,以及新生兒的減少,人工成本開始急速上升。尤其是養(yǎng)老的服務(wù)成本,開始讓許多人難以承擔(dān),而家庭機(jī)器人作為能夠與人類進(jìn)行交互,并能解決家務(wù)問題的產(chǎn)品
    的頭像 發(fā)表于 01-17 01:16 ?1688次閱讀

    人形機(jī)器人的三大關(guān)鍵技術(shù)及挑戰(zhàn)

    人形機(jī)器人是指外形和人類相似的機(jī)器人。它們可以通過模仿人類的外貌、動(dòng)作和表情來與人類進(jìn)行交互和溝通。
    發(fā)表于 01-05 10:53 ?2418次閱讀

    未來的智能:人機(jī)環(huán)境系統(tǒng)智能

    未來的智能是生態(tài)的意味著智能系統(tǒng)將與人類、自然環(huán)境和其他智能系統(tǒng)形成一個(gè)有機(jī)的整體。智能系統(tǒng)將與人類
    的頭像 發(fā)表于 01-03 15:40 ?534次閱讀