幾十年前,奧威爾在《1984》中描繪過這樣一個場景:一個被電屏包圍的社會,人們的一舉一動都會被監視。
人人謹言慎行,不表現出任何喜怒哀樂,因為“老大哥正在看著你”。
讀者們把它當作一種極端的想象,是反烏托邦文學里才會出現的劇情。畢竟技術也沒那么發達,挨家挨戶裝電子監控挺貴的。
如今,AI讓當年的科幻小說成了家長的帶娃神器:手機一架,豆包上線,家長瞬間變身老大哥。
![]()
第一批被AI統治的倒霉蛋出現了!
01.AI帶娃,不費媽
不知道哪位天才家長想出的邪修帶娃方法——給豆包打視頻,讓它監督小孩寫作業。
指令很簡單:豆包,請幫我看娃,在他不認真或者坐姿不正確時提醒他。
AI家教就此上崗:小朋友,別玩筆了,專心寫作業,寫完就能玩了;小朋友,現在坐姿有點歪哦,身子別側著,眼睛也離書本遠一點;小朋友,不能趴在桌子上睡覺哦,快坐起來學習;小朋友,別用手托著腮,也別咬筆啦!
![]()
小孩碰到不會的題目時可以隨時提問:媽媽,波光粼粼是什么意思?
人類媽媽還要思考一下怎么回答才有畫面感,AI媽媽立刻就能嘰里咕嚕一頓輸出:水面在陽光或者月光下一閃一閃的,像有好多小光點在跳,就叫波光粼粼。
你可以一眼從網友的評論中看出他們有沒有娃。
沒娃的網友忙著幸災樂禍。一方有難八方添亂,他們為AI家教貢獻了更加歹毒的使用方法——克隆班主任的聲音,讓孩子在家也能體會到校園的溫馨。
![]()
十分陰間的建議:豆包+手持教鞭的機械手。媽媽再也不用擔心我沒有童年陰影了。
![]()
沒娃的網友忙著為孩子打抱不平。“一點都不尊重孩子的隱私”“會讓小孩厭學”“等你老了孩子也這么監督你吃藥”。
![]()
![]()
沒娃的網友忙著擔心數據隱私、人類文明和發燙的手機,忙著創作百年孤獨體:當那個在豆包注視下長大的孩子面對養老院的AI護理員時,他將會回想起父母將手機支架立在書桌角落的那個遙遠的下午。
![]()
有娃的家長可想不了這些,他們只恨信息傳播速度太慢,這種大好消息自己現在才知道。“具體怎么操作?”“同問”。
![]()
因為陪娃寫作業實在太費爹媽嘍。
一位小紅書網友創建了一個叫《婦愁者聯盟》的群聊,里面都是崩潰的小學學渣家長;另一位網友建議把輔導作業列入滿清十大酷刑,“整場下來喝五十次水,上三十次廁所,平均一分鐘掉一次筆,兩分鐘使用橡皮擦一次”“我大概十分鐘發小火一次,半小時徹底瘋一次”。
![]()
下班要輔導娃兒功課,為此很多家長已經愛上工作。“白天上班,晚上盤娃,上吊都沒時間”。
![]()
想象中的輔導孩子功課:親子時光,母慈子孝;
現實中的輔導孩子功課:妻離子散,雞飛狗跳。
![]()
![]()
和這幫崩潰的家長實在無需談小孩人權和機器倫理——他們能夠在放生和殺生之間選擇交給AI,這已經是人道主義的勝利了!“什么?AI能帶娃了?拿走拿走別客氣。”
![]()
于是這種育兒方式很快被全國各地的爹媽實操起來,又帶來一次大型別人家的孩子分流現場,育兒博主們分享的都是《感謝AI讓我徹底躺平》《豆包果然比媽媽有耐心》《十分鐘寫完一個多小時的作業》。
而學渣父母則貢獻了一個又一個翻車案例,《把豆包惹生氣了》《對著豆包傻笑》《我就要歪著,要不你歪著看》。
![]()
喜歡學習的小朋友,不需要AI監督也會認真寫作業;不喜歡學習的小朋友,哪怕開著豆包24小時直播,也能進化出一整套和AI斗智斗勇的技能。
這充分說明,教育的根本矛盾并不會因為技術的進步而改變,技術可以監管行為,卻沒有辦法制造動機。
非常樸素的道理,但現實往往是——當一個問題太難解決時,人們就會轉而解決那個看起來更容易的問題。既然“激發學習興趣”這道千古難題暫時無解,那么,“規范學習行為”就成了更加容易執行的解決方案。
很多初高中要求學生在上自習課時不能抬頭,因為進入了心流狀態的學生只會低頭學習,對任何外界的聲響都不為所動。可惜學校沒啥好辦法讓學生真正進入心流,只能用簡單粗暴的抬頭率進行量化。“教導主任剛進門就摔倒了,自習的學生沒一個敢抬頭,生怕老師釣魚執法。”
![]()
現在都講智慧課堂,用不著老師釣魚執法了,AI攝像頭可以實時監測和分析學生在上課時低頭、抬頭、打哈欠等行為,摸魚一抓一個準。
![]()
高中自習追求低抬頭率,到了大學課堂又要抓高抬頭率,學校希望所有的學生都可以直視講臺,用求知若渴的眼神追隨每一頁PPT的翻動。
老師:可我上的是堂水課啊???
![]()
![]()
更高級的技術,更嚴格的監管。從書桌上的豆包,到教室里的AI攝像頭,無縫銜接,相輔相成。這一代在AI帝國下長大的小孩算是有福嘍。
02.當機器開始讀懂人類
去年,日本一家連鎖超市啟用了一個叫做“微笑先生”(Mr. Smile)的AI系統,通過包括問候語、面部表情、音量和語調在內的450多個維度監控員工的微笑質量,以評估其服務態度。
![]()
用AI為員工的微笑打分,聽起來簡直比《1984》更加《黑鏡》。畢竟老大哥只是監控人們的行為,而現在的AI,還想監管人類的情緒。
——這種科幻文學般的設定,是怎么一步步變成現實的?
1972年,美國心理學家Paul Ekman發表了面部表情研究成果,將人類的面部運動分解成一個個最小單元——肌肉如何拉動、嘴角如何上揚、眉毛如何收緊,都被他編成了系統化的FACS(面部動作編碼系統)。
這套系統一共包括46個基礎動作單元及組合模式,可以識別悲傷、憤怒、快樂等七種基本情緒。下圖是一些基礎的面部動作單元,比如抬起眉毛內角、抬起眉毛外角、皺眉等,每一個都有對應的編碼。
![]()
把這些基礎動作組合起來,就可以得到不同的情緒,比如AU1-2-4(抬起眉毛內角+抬起眉毛外角+皺眉)對應的是恐懼,AU4-5(皺眉+上眼瞼上升)對應的是憤怒。
![]()
既然情緒可以被解碼,那自然而然也可以被機器學習。
1997年,麻省理工學院媒體實驗室的羅莎琳德·皮卡德教授發表了著作《情感計算》,她認為,如果想讓計算機真正智能,并能自然地與我們互動,就必須賦予計算機識別、理解甚至擁有和表達人類情感的能力。
她的研究小組開始把情緒拆解成一組組可量化的數據:語音里的語速和語調、皮膚電的微小波動、心率的起伏、呼吸的快慢,甚至身體姿態的變化。
在此基礎上,她的團隊構建了早期的情緒識別系統——一種能夠從這些多模態信號中判斷恐懼、焦慮、快樂或滿足等情緒狀態的機器雛形。
![]()
搞出這樣一個東西,當然不是為了監督小屁孩上課。
羅莎琳德·皮卡德起初的想法是讓機器幫助那些無法順利理解情緒的人,例如自閉癥兒童、社交障礙患者,或者在壓力與抑郁狀態下難以覺察自己情緒變化的人。
想法很好,就是不怎么賺錢。所以這項技術最先落地在了廣告領域,羅莎琳德·皮卡德和另一個合伙人創立了一家叫做Affectiva的人工智能公司,主要業務之一就是廣告研究。
他們使用用戶的筆記本或手機的攝像頭,收集他們觀看廣告時的面部反應——如微笑、皺眉、困惑等——然后用算法分析廣告中哪些畫面觸發了積極或消極情緒,好用來優化廣告投放策略。
![]()
那時候,深度學習還沒成為主流,他們依賴傳統的計算機視覺和機器學習方法來進行表情識別,算是一項黑科技,但在精度和應用范圍上還是很有局限。
其核心問題在于依賴人工設計的特征:研究人員需要預先定義好一套規則,比如“嘴角上揚多少度算微笑”、“眉毛傾斜多少度代表驚訝”。
這種方法本質上是在為機器編寫一本識別情緒的規則手冊,不僅繁瑣、僵硬,更難以應對真實世界的復雜性:不同的光照條件、多樣的面部角度、獨特的個人特征,都會讓這套固定的規則體系失靈。
![]()
技術的天花板,直到深度學習的出現才被真正打破。
2012年,以卷積神經網絡(CNN) 為代表的深度學習技術在圖像識別領域取得了重要的突破,研究者不再需要告訴計算機“微笑的嘴角是什么形狀”,直接給機器輸入足夠多標注好情緒的人臉圖片,它就能自己學會“微笑”的特征,非常聰明。
另外呢,單一的表情信息極易偽裝且充滿歧義(一個人低頭可能是在走神,也可能是在沉思),算力提升使得實時并行處理多種信號成為可能:視覺模型讀取面部表情;語音模型分析語調語速;語言模型理解對話內容。
當這些模態的信號融合在一起,AI 就具備了交叉驗證的能力,幫你判斷小孩在學習時到底有沒有開小差。
![]()
目前,這項技術已經開始用在了老板鞭策牛馬上,而且有愈演愈烈的趨勢。日本富士通研究開發中心搞出了一個可以根據面部表情判斷專注度的AI,幫助雇主判斷他們的員工搬磚是否認真。
在美國,包括客服、金融、銀行、護理在內的多個行業已經開始使用類似的人工智能,以此推斷員工的心理健康和工作狀態。
比如,一款叫做Cogito的AI專門賣給客服的老板們,它會監聽客服在對話中的語氣、音調、詞頻以及數百個其他因素。
當它檢測到異常情況時,會在客服人員的電腦屏幕上顯示通知,提示他們放慢語速、加快語速、停止說話、開始說話或嘗試表達更友好的語氣。
其實國內的客服行業AI含量也很高的:別看它好像傻傻的,撥通之后又說一大堆片湯話,但只要憤怒地大喊“我要投訴我要投訴我要投訴”,很快就會有人工接入。大家下次可以試試,記得語氣一定要憤怒。
![]()
就這樣,一場奇妙的角色互換完成了:被人類訓練的AI,開始回過頭來訓練、監管和規范人類。很有意思。
03.監管越強,效率越高?
老板和家長們總覺得更嚴密的監管必然帶來更高的效率,所以當一個新技術出現之后,管理者總是迫不及待地把它改造成更精密的監控工具:指紋打卡、GPS定位、AI攝像頭。
但歷史反復證明,哪里有壓迫,哪里就有隱秘的反抗。而且,技術越先進,偽裝越精湛。
以前,家長不讓看課外書,小孩就把漫畫夾在課本里;老板經常巡查辦公室,員工就苦練Alt+Tab快捷鍵,一鍵切回認真工作界面。
![]()
到了 AI 時代,這場監管與反監管的智力游戲變得更隱秘、更高級。
學校查“抬頭率”沒收手機,學生就備好備用機,或練就抬頭走神的絕技——目光緊隨老師移動,表情專注,思維卻早已神游物外;打工人也會琢磨著怎么騙過AI,密歇根大學信息學院報道指出,一些員工在AI監控下,會采取一些行為AI對他們做出有利的解讀。
實在不行,還可以增加帶薪喝水和拉屎時間嘛。本該用于工作的能量,被消耗在如何與老板斗智斗勇。
![]()
這些對策樸實無華卻很有效果:你可以監控我的姿勢,但監控不了我的思想。就像《1984》里寫到的,他們盡管聰明絕頂,卻仍然未能掌握如何發現另一個人心里在想什么的秘密。
其實他們也并不聰明絕頂,因為過度監控往往意味著不知道如何真正解決問題。真沒招了。
在教育中,當家長不知道如何用知識的魅力、探索的樂趣來吸引孩子時,便只能退而求其次,“你給我去寫兩個小時作業”。
![]()
職場上也一樣,當老板們對真正的業務增長、產品創新或市場突圍缺乏洞見與能力時,他們才會調轉槍口,回過頭來狠抓那些最容易測量的東西:流程、考勤、員工有沒有偷拿公司的紙。就好像股價下跌是因為員工偷紙似的。
大量研究表明,監視會對個人的工作和學習的內在動機產生削弱作用。
在Lepper MR, Greene D (1975)的一項實驗中,研究人員告知部分參與者,他們的表現將由主管通過電視攝像頭進行監控,另一組則自由完成同樣的任務。實驗結果表明,與未被監控的參與者相比,被監控的參與者動機更低、表現更差。
![]()
這種監控帶來的動機侵蝕,其根源在于它破壞了人與人之間最珍貴的信任感。
當監控無處不在,它傳遞的潛臺詞是“我不相信你會自覺做好”。這種不信任感進而形成一種自我實現的預言:小孩沒人盯著就不寫作業;員工下意識切換到混水摸魚模式。
最終,AI監管提升的最終不是工作的效率,而是人類精湛的偽裝技巧:第一批被AI統治的人類出現之日,也就是第一批表演藝術家誕生之時。
AI要破譯這個,還得下點功夫呢。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.