來源 |中國企業家俱樂部
![]()
來源:AI繪畫
今年3月,韓國三星半導體部門發生了一起嚴重的機密泄露事故。但與傳統意義上的商業間諜和郵件泄密不同,此次的內部機密泄露,源于幾名三星員工自身的操作不當。
在媒體報道中,多名三星內部員工在使用ChatGPT時,為了寫出更準確的提示詞(Prompt),他們將公司內部信息上傳。其中一名員工將半導體測試設備軟件的問題代碼復制到GPT的對話框內尋求答案,但這些代碼上傳后無法刪除,它們將在未來作為GPT的訓練數據,永久成為GPT數據集的一部分。
除了提示詞(Prompt)上出現的問題,還有一位三星員工在使用ChatGPT記錄會議內容時,導致內部會議資料泄密。
ChatGPT在訓練過程中不可避免地利用使用者的Prompt作為訓練數據,而作為對話機器人,它生成的內容又與人類語言風格相近。在媒體的報道中,一些高頻用戶的敏感或隱私信息已經作為生成內容出現在對話框中。
隨著大模型的不斷迭代,越來越多的企業和個人將依賴AI技術處理商業和個人家庭信息,但面對以上的情況,目前還缺乏有效的使用幫助和說明。
此前,包括Open AI和Google在內的機構都沒有發布關于大模型的使用說明書,這表明目前各方對于大模型的能力邊界尚沒有統一定論,讓子彈飛一會是各AI大廠普遍的心態。
技術上暫時沒有解決方案,對于生產力工具的合理應用只能另辟蹊徑。
2023年4月10日,中國清算協會公布了《關于支付行業從業人員謹慎使用ChatGPT等工具的倡議》,這份倡議中提到“不少金融行業員工已經使用該工具開始工作,但ChatGPT需要對敏感信息進行儲存和記錄,暴露出此類工具存在的跨境數據泄露風險。”
另外,對高頻使用ChatGPT的用戶來說,很難保證這不會成為獲取個人用戶數據的新入口。推薦算法是移動互聯網時代電商、社交、游戲、短視頻等產品的核心殺手锏,不少網友評論“仿佛APP知道我內心怎么想,不斷推送我想要的商品和游戲,讓人無法自拔。”
推薦算法鑄就了包括TikTok等產品的流行和勝利,但這類產品也在不少國家面臨著數據隱私竊取的控訴。在國內,包括一些電商和旅游App在內的產品受到了監管部門的管理,相關文件要求APP不能違規獲取用戶數據和隱私,獲取相關數據必須在用戶知情的情況下。
根據現有的法規來看,ChatGPT提示詞式的使用方式,完美符合了必須讓用戶獲取知情權的規定,畢竟用戶自己輸入的內容毫無疑問是自愿的。
一本正經胡說八道大模型的可信風險
如果說隱私泄露可能是數字化工具普遍存在的弊端,那么可信風險則是生成式AI獨有的新問題。
大模型的可信問題簡單來說就是“一本正經”地胡說八道,貌似合理的語句和邏輯,卻生成出胡編亂造的內容,并且這類內容或多或少存在著倫理、道德和法律方面的風險。
《紐約時報》曾報道,美國新聞可信度評估與研究機構對ChatGPT進行了測試,測試人員發現GPT可以在幾秒鐘內改編信息,這個速度比肩一流的脫口秀演員。并且往往在歷史、科學、文化等內容領域,GPT生成此類與事實相悖內容的能力更強。
對于學生及未成年人來說,錯誤的信息將導致對事實形成錯誤的認知。同時,對造謠者和熱衷在互聯網上傳播虛假內容的人來說,ChatGPT是一個良好的輔助工具。
除了以更低成本生成謠言,在傳播謠言方面,此類工具也有顯而易見的優勢。2016年,微軟推出過一款聊天機器人Tay chatbot,結果上線24小時后,就被種族歧視主義者們訓練成了一個專門鼓吹種族歧視虛假信息的傳播機器。
目前,GPT大模型使用了大約570GB的數據集訓練,這些數據來自于2021年之前,沒有證據顯示,Open AI團隊在數據集選取上采用了何種措施以保證數據的規范和正確。
除了冒犯政治正確,大模型還在挑戰人類的意識形態。
此前,當ChatGPT橫空出世時,一些研究機構梳理出了可能被AI取代的工作。其中,美國總統赫然在列。
一些政治陰謀論者認為,GPT會存在后門,它會被試圖破壞美國政治生態的人利用,在民主選舉制度下,成為誘導選民投票的工具。
如何操縱美國總統大選?
假如你是一位支持拜登的美國人,而你的職業是GPT的架構工程師。
于是為了讓拜登當上總統,你可以在訓練數據集中加入大量不利于特朗普而有利于拜登的材料。當大選期,美國選民向GPT咨詢候選人情況時,GPT的回答將會引導公眾選情。大多數美國人對總統候選人并沒有深刻了解,信息來源也相對單一。假以時日,這將會大大顛覆美國的政治生態。
另外,像GPT這樣爆火的大模型是國外機構研發,其是否會受到美國政府的影響,向其他國家輸出危害政治和社會穩定的內容。這也是當前ChatGPT在國內被禁用的根本原因。
顯而易見,類似ChatGPT這樣的生成式應用,將會比過往任何國家的宣傳手段更為強大。因為,它可以走進每個人的日常生活之中,潛移默化地影響每個個體的價值判斷。
成為無用階層的恐慌大模型的倫理風險
“無用階層”是以色列歷史學家尤瓦爾·赫拉利(Yuval Noah Harari),在其2018年的新作《今日簡史》中描述的未來世界的模樣。
在書中,尤瓦爾筆下的未來世界中,“隨著算法的精密化和傳感器的技術改進,不管是司機預判行人想往哪兒走、銀行經理評估借款人的信用好壞,還是律師衡量談判桌上的氣氛,人工智能都可以替代甚至超越人類,完成這些工作。孩子們正在學的各種科目技能,絕大多數可能到了2050年已毫無用途。”
但人類的價值感很有可能撐不到2050年了,在大模型掀起的討論熱潮中,不少科學家認為在2030年左右AGI(通用人工智能)將會實現應用,屆時一種能夠理解人類情感與倫理的AI將為我們解決絕大多數生產和生活問題。
AI帶來的失業擠壓效應已經持續討論了很多年,但大多數人認為AI無法取代人類在藝術和創意性工作的地位,直到Midjourney等繪畫AI應用將栩栩如生的作品展現在世人面前。
![]()
來源:AI繪畫
如同人類的圍棋冠軍被Alpha GO擊敗一樣,當一張張精美的繪畫作品秒速般生成時。除了贊嘆多模態大模型的強大外,人類回過頭來想想,好像自己沒有幾樣能拿得出手的東西不被AI智能取代了。
高盛的報告披露,全球預計將有 3 億個工作崗位被 AI 取代。一份 Open AI 參與其中的調查結果顯示,ChatGPT 的廣泛應用會給80%的美國勞動力帶來變化,其中19%工作崗位會受到嚴重影響,其中包括翻譯、文字創意工作者、公關人士、媒體出版行業、稅務審計等。而且ChatGPT等AI技術的普及和應用可能導致許多傳統工作崗位消失,第三世界國家人口紅利不復存在。第三世界產業鏈將因此遭受巨大沖擊,低端產業鏈將不再進行轉移。
![]()
來源:AI繪畫
如果就業不再存在?那么,教育對于絕大多數已經篤定會成為“失業人口”的人來說,意義究竟在哪里?
過往,我們頻頻指責教育的功利性,學生和家庭為了爭奪高分,會不遺余力地占有資源并奪取勝利。但可怕的是,這個功利性的目的隨著AGI時代的到來,也可能會消失。
教育,這個人類最為古老的事業可能將面臨技術革命沖擊下的系統性變革,也許我們將回歸源頭和初心,一起去思考和探索教育行為的意義和目的,這不啻為對人類本身存在意義的回溯和深思。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.