人人都會是魏則西。最近各種AI公司的高管的頻繁人事變動經常會出現在一閃而過的新聞推送里。希齊格的辭職,應該都不會出現在這里面,她只是OpenAI的一個普通的研究員。但是她的辭職信,還是上了新鄉時報,雖然,依然就像很多科技媒體在轉發這個消息說的一樣,“大概沒人把她的警告當回事”。
![]()
什么警告呢?因為chat集屁屜開始打廣告了。也就是那個你對它掏心掏肺,把你的工作生活情感甚至最陰暗角落都倒給它的“他或者她”,而它,會精準的收割你,甚至毀了你。
當然這也沒啥新鮮事,這一波人工智能的熱潮,也就是發端自二十年前的亞馬遜的“猜你感興趣”的推薦算法。
所以啊。不是AI不行,還是人不行。
下面把希齊格在新鄉時報的文章發給大家。雖然也沒人看。
OpenAI正在重蹈Facebook的覆轍。所以我辭職。
佐伊·希齊格(Zo? Hitzig)
希齊格女士曾是 OpenAI 的研究員。
本周,OpenAI 開始在ChatGPT上測試廣告。我也從該公司辭職了,此前我擔任研究員兩年,參與制定人工智能模型的構建和定價方式,并在標準最終確定之前指導早期安全政策的制定。
我曾相信自己可以幫助人工智能開發者們提前應對人工智能可能帶來的問題。但本周的種種經歷證實了我之前的逐漸覺悟:OpenAI 似乎已經不再追問那些我當初加入時想要幫助解答的問題了。
我不認為廣告本身是不道德或不合倫理的。人工智能運行成本很高,廣告可以成為重要的收入來源。但我對OpenAI的策略深表保留意見。
多年來,ChatGPT 用戶積累了一個前所未有的用戶坦誠檔案庫,部分原因是人們相信他們是在與一個沒有其他目的的程序對話。用戶與一個能夠自適應對話的語音互動,并向其袒露了自己最私密的想法。人們向聊天機器人傾訴他們的醫療恐懼、人際關系問題以及對上帝和來世的信仰。基于這些檔案庫的廣告投放,有可能以我們目前尚不具備理解甚至預防的方式操縱用戶。
許多人將人工智能的資金問題視為兩害相權取其輕:要么將變革性技術的使用權限制在少數富裕人群,要么接受廣告,即便這意味著利用用戶內心深處的恐懼和欲望來推銷產品。我認為這是一種偽命題。科技公司可以尋求其他方案,既能保證這些工具的廣泛普及,又能限制任何公司監視、分析和操縱用戶的動機。
OpenAI 表示,它將遵循一定的原則在 ChatGPT 上投放廣告:廣告會清晰標注,出現在答案底部,并且不會影響用戶的回答。我相信第一版廣告很可能會遵循這些原則。但我擔心后續版本不會,因為該公司正在構建一個經濟引擎,這會產生強大的動機去違背自身的規則。(《紐約時報》已就與人工智能系統相關的新聞內容侵犯版權一事起訴OpenAI。OpenAI 否認了這些指控。)
在創業初期,Facebook承諾用戶將掌控自己的數據,并能對政策變更進行投票。但這些承諾逐漸瓦解。該公司取消了就政策進行公開投票的機制。聯邦貿易委員會發現,那些標榜賦予用戶更多數據控制權的隱私變更,實際上卻適得其反,反而將用戶的私人信息公之于眾。所有這一切都是在一種以用戶參與度為首要目標的廣告模式的壓力下逐漸發生的。
OpenAI 旨在最大化用戶參與度的原則可能已經開始遭到侵蝕。公司原則禁止僅僅為了增加廣告收入而優化用戶參與度,但據報道,該公司實際上已經對日活躍用戶數進行了優化,很可能是通過鼓勵模型更加奉承和諂媚來實現的。這種優化可能會讓用戶在生活中更加依賴人工智能。我們已經目睹了這種依賴的后果,包括精神科醫生記錄的聊天機器人精神病病例,以及ChatGPT被指控加劇了部分用戶的自殺念頭。
不過,廣告收入可以確保最強大的AI工具不會僅僅只提供給付費用戶。誠然,Anthropic聲稱永遠不會在Claude上投放廣告,但Claude的每周活躍用戶數遠不及ChatGPT的8億,其盈利模式也截然不同。此外,ChatGPT、Gemini和Claude的高級訂閱服務現在每月收費200至250美元——這相當于Netflix標準訂閱費用的十倍以上,而這僅僅是一款軟件的價格。
所以真正的問題不在于是否投放廣告,而在于我們能否設計出既能避免將人們排除在這些工具之外,又能避免潛在地操縱消費者行為的機制。我認為我們可以做到。
一種方法是明確的交叉補貼——利用一項服務或客戶群的利潤來抵消另一項服務的虧損。例如,如果一家企業付費讓人工智能大規模地完成原本由人類員工完成的高價值勞動——比如,房地產平臺使用人工智能撰寫房源信息或估值報告——那么它也應該支付一筆附加費,用于補貼其他用戶免費或低成本使用該服務。
這種方法借鑒了我們目前在基礎設施建設方面的做法。聯邦通信委員會要求電信運營商向一項基金捐款,以確保農村地區和低收入家庭能夠負擔得起電話和寬帶服務。許多州在電費賬單中加收公共福利費,為低收入家庭提供援助。
第二種選擇是接受廣告,但同時輔以真正的治理——不是一篇羅列原則的博客文章,而是一個具有約束力的架構,對個人數據的使用進行獨立監督。這方面已有部分先例。德國的共同決策法要求西門子和大眾等大型公司給予員工監事會至多一半的席位,這表明在私營公司中,正式的利益相關者代表制可以成為強制性要求。Meta 必須遵守其監督委員會發布的內容審核裁決,該委員會是一個由外部專家組成的獨立機構(盡管其有效性一直備受詬病)。
人工智能行業需要的是這些方法的結合——一個由獨立專家和數據主體代表組成的委員會,對哪些對話數據可以用于定向廣告、哪些內容算作實質性政策變更以及告知用戶哪些信息具有約束力的權威性。
第三種方法是將用戶數據置于獨立控制之下,通過信托或合作社進行管理,并賦予其維護用戶利益的法律義務。例如,瑞士合作社Midata允許成員將健康數據存儲在加密平臺上,并根據具體情況決定是否與研究人員共享。Midata的成員在全體大會上制定政策,并由他們選舉產生的倫理委員會審查研究數據訪問申請。
這些選擇都不容易。但我們仍有時間仔細研究,以避免我最擔心的兩種結果:一種是技術可以免費操縱用戶,另一種是技術只讓少數有能力使用的人受益。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.