一個從沒踏足過美國的22歲印度醫學生,靠谷歌生成的一張臉,月入數千美元。他的客戶群體精準得可怕——美國MAGA保守派男性。
第一,這不是技術故事,是人性套利
![]()
Sam的起點很普通。YouTube短視頻沒人看,學習筆記賣不動。直到他開始用谷歌Gemini的Nano Banana Pro生成AI美女圖,向關注者兜售比基尼照片。
初期賬號反響平平。真正的轉折點來自Gemini的建議:瞄準"MAGA/保守派領域"。理由是這類美國年長男性"可支配收入更高、更忠誠"。
Sam照做了。今年1月,"Emily Hart"誕生——長相酷似詹妮弗·勞倫斯的注冊護士,白色皮膚、金發、Instagram賬號。他從未在美國生活,卻每天花30到50分鐘鉆研受眾喜好。
發布的內容精準到近乎嘲諷:冰上釣魚、喝Coors Light啤酒、步槍靶場射擊。配文充滿表情符號,"基督為王,墮胎是謀殺,所有非法移民必須被驅逐",以及"他們說你打小就聰明,但你卻自認為是自由派<小丑表情>"。
Sam承認這騙局"幾乎太過明顯"。但每條Reel短視頻獲得300萬至1000萬次播放,一個月內粉絲破萬。訂閱AI擦邊內容、購買MAGA主題T恤,為他帶來數千美元月收入。
"在印度,即使是專業工作也賺不到這么多。我還沒見過比這更簡單的網上賺錢方式。"
第二,平臺算法在幫騙子打工
Sam發現了一個被平臺規則獎勵的機制。他稱之為"憤怒誘餌"——哪怕是黑粉也要點進去罵,留下憤怒評論。"這是一個雙贏的局面,無論如何你都會獲得互動,你的內容就會病毒式傳播。"
Instagram要求創作者標注AI生成內容,但執行松散。Emily Hart的帖子從未標注。今年2月,該賬號因"欺詐行為"被Instagram封禁,但Facebook賬號仍在運營。
《連線》指出,這類AI生成的MAGA美女賬號已大量涌現。共同特征高度模板化:白色皮膚、金發、職業多為警察或急救人員,以美國國旗比基尼或MAGA帽示人,痛斥移民、愛潑斯坦檔案或性別代詞。
《華盛頓郵報》此前報道的"Jessica Foster"賬號更夸張——自稱美國陸軍女兵,發布與特朗普和普京的合影,四個月內漲粉超百萬。曝光后才被關閉。
布魯金斯學會研究員Valerie Wirtschafter的評論很克制:"虛假賬號并非新鮮事,但AI令其更可信,且可能被放大。"
第三,左右翼受眾的"智商稅"差異
Sam做過對照實驗。他嘗試創建一個對應左翼賬號,發現"民主黨人知道這是AI垃圾,不怎么互動"。
他的結論很直白:"MAGA受眾都是超級蠢的人,只有他們才會上當。"
這句話本身充滿諷刺——一個靠偽造身份賺錢的人,在嘲笑自己的客戶愚蠢。但更諷刺的是,這個判斷可能影響了他的商業決策。他選擇了繼續深耕MAGA市場,而非嘗試優化左翼內容。
這里有個被忽略的產品細節:Gemini的初始建議強調的是"可支配收入更高、更忠誠",而非"更容易受騙"。Sam在實際運營中發現的,是后者。平臺算法的"憤怒誘餌"機制,恰好與這個群體的信息消費習慣形成共振。
第四,"我不覺得自己是在騙人"
Sam的賬號被封后,他的回應值得玩味:"我不覺得自己是在騙人","用戶對自己看到的內容也很滿意"。
目前已停止運營,重新專注于學業。
這個案例的荒誕之處在于多方共謀:AI工具提供策略建議,平臺算法獎勵爭議內容,受眾主動選擇相信。Sam只是其中一個節點。他提供的"產品"——一個符合特定政治幻想的女性形象——確實滿足了用戶的某種需求,盡管這個需求建立在虛假前提上。
《連線》的報道沒有追問:那些訂閱付費內容的用戶,在發現真相后會如何反應?是憤怒、自嘲,還是轉向下一個Emily Hart?
當AI生成內容的成本趨近于零,當平臺算法持續偏好極端化表達,這類"人設套利"只會更普遍。Sam的故事最鋒利的部分,不是技術本身,而是他精準識別并利用了某個群體的認知盲區——然后用他們的錢,完成了自己的醫學院學費儲備。
問題是:下一個Sam會瞄準誰?而當每個細分群體都有自己的AI"代言人"時,我們還能分辨哪些憤怒是真實的,哪些是被設計的嗎?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.