志明與春嬌,AI看小刀!
今天本來安心摸魚,不打算更新
![]()
但看到這個(gè)新聞,值得說說。
一個(gè)特斯拉的技術(shù)員,叫彼得·亨特多布勒,在加州一個(gè)工廠里,被一臺有故障的機(jī)器人給“襲擊”了。
![]()
根據(jù)民事訴狀,事故發(fā)生時(shí)欣特爾多布勒正在協(xié)助工程師拆卸一臺位于 Model 3生產(chǎn)線上的大型機(jī)器人。訴狀描述,當(dāng)工程師試圖“拆除機(jī)器人 底座的電機(jī)以接觸其內(nèi)部線纜組件”時(shí),機(jī)器人的手臂突然毫無預(yù)兆地松 脫。
這次松脫既有機(jī)械臂自身的動力,再加上約8000磅重的平衡重物的作用 力。機(jī)械臂以巨大力量撞向欣特爾多布勒,導(dǎo)致他摔倒在地、失去意識, 并造成了嚴(yán)重傷害。
8000磅是啥概念?3.6噸,奔馳大G才2.6噸。
彼得身受重傷,現(xiàn)在醫(yī)療費(fèi)已經(jīng)花了100萬美元,未來還得再花600萬美元。
他把特斯拉和那臺機(jī)器人的制造商,發(fā)那科美國公司,都告上了法庭,索賠5100萬美元。
![]()
從技術(shù)角度講,這臺機(jī)器人,其實(shí)就是個(gè)典型的工業(yè)機(jī)器人。它沒有所謂的“自主意識”,更不會“主動攻擊”人類。
它的工作原理,就像一個(gè)超大的、能移動的車間機(jī)床,按照固定的代碼執(zhí)行任務(wù),重復(fù)同樣的動作。
它之所以會傷人,無非就是三個(gè)原因:程序錯(cuò)了、傳感器瞎了、安全系統(tǒng)廢了。
這事兒說來跟什么“AI覺醒”“機(jī)器人反抗”一毛錢關(guān)系都沒有,它就是一起純粹的工程事故。
但是,美國媒體可不這么看。
他們給這事兒起了個(gè)特別唬人的標(biāo)題——“機(jī)器人襲擊”。
![]()
這幾個(gè)字一出來,性質(zhì)立刻就變了。
一個(gè)機(jī)械故障,瞬間升級成“人類與機(jī)器的戰(zhàn)爭”。公眾一聽,立馬就緊張了。
這就跟我們看到一個(gè)無人駕駛車撞了人,立馬就覺得“自動駕駛不靠譜”是一個(gè)道理。
這其實(shí)反應(yīng)出大家的一種不安情緒,對未來的恐懼。
賽博朋克是一種科幻流派,描繪了一個(gè)“高科技,低生活”的世界,就是這個(gè)讓人有點(diǎn)恐懼的未來。在這個(gè)世界里,科技高度發(fā)達(dá),但社會貧富差距巨大,充滿混亂。它探討了人與機(jī)器的界限模糊,以及技術(shù)進(jìn)步帶來的社會矛盾和倫理困境。
我們一邊在享受AI和自動化帶來的便利,一邊又在內(nèi)心深處,對這些“鐵皮人”充滿了不信任。
我們擔(dān)心,有一天,這些聽話的工具,會不會反過來控制我們,甚至傷害我們。
新聞里還提到了另外一個(gè)數(shù)據(jù)。
從2021年到2025年,美國企業(yè)已經(jīng)發(fā)生了至少41起與機(jī)器人相關(guān)的死亡事故。
41條鮮活的生命,因?yàn)闄C(jī)器而逝去。
當(dāng)我們大規(guī)模擁抱自動化的時(shí)候,必須得把安全擺在第一位。
不是說技術(shù)不重要,而是說,技術(shù)不能脫離倫理和安全。不然,我們造出來的,不是“解放生產(chǎn)力”的工具,而是“潛伏”在我們身邊的危險(xiǎn)品。
再扯遠(yuǎn)點(diǎn),如果今天傷人的是個(gè)AI自主機(jī)器人,那這事兒就更復(fù)雜了。
這種機(jī)器人,跟工業(yè)機(jī)器人可不一樣。它有復(fù)雜的決策和學(xué)習(xí)能力。
宇樹的機(jī)器人很火,我們會刷到很多宇樹機(jī)器人遭“飛踹”“圍毆”的視頻
![]()
底下留言都自動帶入了機(jī)器人共情心理:
![]()
這些想法,在科幻作品中非常常見,比如《我,機(jī)器人》和《終結(jié)者》系列。在這些作品中,AI擁有了自主意識,能夠理解并反抗人類的壓迫。
但目前階段,當(dāng)前的AI技術(shù),其核心是模式識別和數(shù)據(jù)處理,而不是自我意識的產(chǎn)生。
模式識別: AI通過分析海量數(shù)據(jù),學(xué)習(xí)如何識別特定的模式。當(dāng)它看到宇樹機(jī)器人被踢時(shí),它識別出“踢腿”這一動作和“機(jī)器人跌倒”這一結(jié)果,并將這些模式與“暴力測試”這個(gè)標(biāo)簽聯(lián)系起來,不會認(rèn)為是人類在虐待機(jī)器人,沒有同情這種情緒。
數(shù)據(jù)處理: 它的任務(wù)是根據(jù)這些數(shù)據(jù),優(yōu)化自己的行為,以更好地完成任務(wù)。比如,如果它被設(shè)定為“保持平衡”,它會學(xué)習(xí)如何抵抗外部作用力,以便自己不摔倒。它這樣做,是為了更好地執(zhí)行任務(wù),而不是出于任何情感上的反擊。
如果它真的傷人,可能不是因?yàn)槌绦蝈e(cuò)了,而是因?yàn)?strong>它的“認(rèn)知”錯(cuò)了。
比如,一個(gè)送貨機(jī)器人,為了不耽誤時(shí)間,可能會把擋在路上的老人當(dāng)成一個(gè)“障礙物”而選擇繞過,但繞行的軌跡卻恰好撞到了旁邊的小孩。
你看,這里沒有程序錯(cuò)誤,也沒有傳感器失靈,而是決策模型在面對復(fù)雜情況時(shí),做出了一個(gè)不符合人類道德準(zhǔn)則的判斷。
這就進(jìn)入了哲學(xué)的范疇。
我們現(xiàn)在經(jīng)常討論的“機(jī)器人三定律”,也就是科幻作家阿西莫夫提出來的,說機(jī)器人不能傷害人類,必須服從人類命令,要保護(hù)自己。
但說句大實(shí)話,這三條定律在現(xiàn)實(shí)中根本無法實(shí)現(xiàn)。
它更像是我們給技術(shù)定下的一個(gè)道德框架,而不是能寫進(jìn)代碼里的法律條文。
因?yàn)椋诂F(xiàn)實(shí)世界里,“不傷害”的定義太復(fù)雜了。一個(gè)自動駕駛汽車,為了避開撞上行人的風(fēng)險(xiǎn),急轉(zhuǎn)彎撞上護(hù)欄,導(dǎo)致車內(nèi)乘客受傷。它到底有沒有“傷害”人類?
這是一個(gè)永遠(yuǎn)爭論不休的問題。
所以,與其指望機(jī)器人自己遵守什么“定律”,不如把精力放在完善人類的監(jiān)管和法律上。
當(dāng)下的重點(diǎn),不是去給AI上“道德課”,而是去給AI的開發(fā)者和使用者,上“法律和安全課”。
再實(shí)用點(diǎn)說,如果大家真被AI自主機(jī)器人襲擊,有幾件事兒可以做:
一,盡快離開機(jī)器人的活動范圍,脫離危險(xiǎn)區(qū)域。
二,如果機(jī)器人有明顯的物理緊急停止按鈕(通常是紅色、蘑菇狀),請立即按下。有些家庭機(jī)器人或服務(wù)型機(jī)器人可能也配有這類按鈕。
三,立即呼救,并撥打急救電話。
跟工業(yè)機(jī)器人不一樣,AI自主機(jī)器人可能沒有明顯的物理圍欄或簡單的斷電裝置,行動不可預(yù)測。真出事了,盡可能與它保持距離,并向周圍的人求救。
技術(shù)進(jìn)步的背后,從來都不是坦途。
在我們享受智能化的便利時(shí),別忘了,每一個(gè)機(jī)器人背后,都必須有一套嚴(yán)謹(jǐn)?shù)?strong>人類安全準(zhǔn)則。制造機(jī)器人的企業(yè),也應(yīng)該給機(jī)器人設(shè)計(jì)一套應(yīng)急癱瘓措施,避免程序出錯(cuò),人類受傷害。
不然,我們離科幻片里那個(gè)“機(jī)器人與人爭斗”的未來,可能真的就不遠(yuǎn)了。
今天就聊到這兒。大家怎么看這事兒?歡迎在評論區(qū)留言討論。也可以后臺回復(fù)[機(jī)器人],了解更多AI和機(jī)器人知識。
(本文純屬解讀,不構(gòu)成任何法律意見,且不涉及任何政治或不健康內(nèi)容。部分?jǐn)?shù)據(jù)來源于公開新聞報(bào)道。)
不刷短視頻,讀我的公眾號長文還讀完了?您真是一股清流!如果覺得寫得不錯(cuò),歡迎點(diǎn)贊、在看、關(guān)注。如果有不同看法,歡迎在評論區(qū)或者后臺留言討論。
我是刀哥,大廠工作過幾年,現(xiàn)在是出海創(chuàng)業(yè)者,深入研究AI工具和AI編程。關(guān)注我,了解更多AI知識!我們下期再見!
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.