來源 | 中國企業家俱樂部
前不久結束的中關村論壇上,百度李彥宏關于AI的主題演講再一次挑逗起職場人敏感的神經。
“未來你的薪酬水平,將取決于你的提示詞寫的好不好,而不是取決于代碼寫的好不好。10年后,全世界50%的工作將會是提示詞工程,提出問題比解決問題更重要。”
目前,提示詞(Prompt)工程在國內外科技圈的關注度持續升溫,360創始人周鴻祎認為未來沒有掌握提示詞撰寫能力的職場人將被淘汰。谷歌CEO皮查伊認為AI不會取代職場人,但前提是職場人必須要掌握跟AI交互的能力。前谷歌大腦和百度人工智能實驗室創始人,Coursera聯合創始人吳恩達博士已經同Open AI的科學家們合作開設了關于撰寫提示詞的職場培訓課程。
進入2023年,伴隨著ChatGPT的橫空出世,大模型成為產業界競相關注的風口浪尖,AIGC、GPU、開源框架等熱詞讓前幾年遭遇寒冬的國內AI界再次躁動起來。
原本被判定為“吸金黑洞”的AI成為了拉動股價和吸引融資的利器,據東方財富數據顯示,自2月1日ChatGPT概念板塊發布以來,ChatGPT概念股輪番上漲,收益表現遠超同期市場指數;非凡資本公布的一組數據則顯示,2022年11月~2023年4月,國內AIGC相關領域融資規模達到22.4億人民幣,相當于過去兩年融資總額的41.4%。
除了吸引資本圈和產業界的一票關注之外,AI近年來一直被媒體和部分學術界人士喚作“潘多拉魔盒”,不少觀點中透露出對AI取代人類的擔憂。在GPT展現出強大的能力后,總部位于舊金山的人工智能安全非營利組織(CAIS)發布了一份《AI風險聲明》,呼吁全世界關注AI可能帶給人類文明的巨大風險,這份聲明吸引了包括Open AI CEO山姆·奧爾特曼、微軟CTO凱文·斯科特和清華大學教授張亞勤等中外人工智能大佬的聯名簽署。
不少大佬表示此次聯名并不意味著停止AI的發展,而是要更加重視AI技術發展中所帶來的各種社會和經濟問題。
歷史上,每一項新技術的誕生和大規模應用都將深刻地改變原有的社會結構和生產關系。汽車的誕生使得馬車夫這一職業消失在歷史的長河中,但隨著汽車的普及應用,也創造出了遠比馬車夫更多的職業司機。
同樣,打工人群體雖然對ChatGPT取代碳基生物充滿了焦慮,但AI也將創造出不少新興的社會職業。世界經濟論壇發布的《2020未來就業報告》中顯示,AI技術將在2025年催生出超過9700萬個新崗位。
這其中,李彥宏不久前提到的提示詞(Prompt)工程師這一新興職業在一些立足AI技術的互聯網廠商中,已從一般將來時經變成了現在進行時。
![]()
AI時代的“人人都是產品經理”?
2014年,同“雙創”這個詞一起火起來的職業除了程序員之外,還有令程序員群體咬牙切齒的產品經理。在社交網絡的段子里,過年回家如何向父母解釋自己產品經理的職位,是當代產品經理最為頭疼的問題之一。
網絡上,程序員群體們口誅筆伐產品經理們的不專業、不懂代碼和瞎指揮。一時間,產品經理的形象變成了一種只需要動動嘴皮子的領導傳聲筒。
2010年的職場暢銷書《人人都是產品經理》更加深了對產品經理這一職業的誤解:成為產品經理的門檻似乎跟說相聲一樣,誰都可以上去試試。
但隨著一批又一批的年輕人懷抱成為喬布斯的夢想,卻在大廠的面試中鎩羽而歸時,我們似乎發現產品經理的門檻并不是那么低,好的產品經理更是一項專業工作。就像郭德綱講的,“這一行寬進嚴出,說相聲的門檻在門里。”
在國內外的社交媒體上,不少網友對提示詞(Prompt)工程的崗位也存在一種過于樂觀的理解。很多人將這一崗位理解為跟AI聊天,就像“一名幼師一樣,幫助AI成長”。
除了求職者的不明就里,一些公司的JD也有意模糊了這份職業的專業性。國外AI合同審查公司Klarity在招聘網站上開出了年薪23萬美元的招聘啟示,但對于能力需求卻簡單形容為“善于溝通,喜歡分享技術概念,與大模型聊天。”
事實上,這是一項對專業能力十分看重的崗位。埃森哲旗下軟件公司Mudano的阿爾伯特·菲爾普斯和他的同事們便對自身崗位有著清晰的認識。
在一些采訪中,菲爾普斯介紹自己的工作主要是使用OpenAI的playground等工具為客戶撰寫使用大模型的提示詞。“一般來說每名提示詞工程師每天都要完成5個不同的“提示詞”,可能需要與ChatGPT交互50多次。”
菲爾普斯是一名歷史系畢業生,他的同事基本也是歷史、哲學和文學等社科專業畢業,他們將自己的工作內容描述為“將事物本質和意義提煉成有限單詞”的職業。
除此之外,一些更為負責任的機構在招聘JD中還會要求應聘者“必須熟悉大語言模型的架構和運作,同時具備基礎編程能力,起碼會用基本的Python語言”。
另外,還有企業會建議求職者起碼具備3年的產品設計師或商業分析師工作經驗。
能否將類似ChatGPT的大模型應用高效使用,取決于提示詞的準確度和質量。這一點在某些文生圖或文生視頻的跨模態應用上更為顯著。
目前,包括Open AI在內的大模型研究機構和廠商至今都沒有推出大模型產品的使用說明書,這表示大概率這些機構也不知道AI的能力邊界到底在哪里。這使得使用大模型成為了一件類似于“說相聲”的事情,人人都可以上去試,但說得好不好,人各有異。
恰恰是這點催生了提示詞(Prompt)工程師這類新興職業,依照大模型的迭代速度來看,這類職業的能力模型也在不斷發生變化,想必這也是很多公司對招聘需求莫衷一是的原因之一,因為究竟需要何種職業技能,也是隨著大模型應用本身不斷動態迭代的。
![]()
AI時代,如何寫好提示詞?
全世界第一位“網紅”提示詞工程師萊利·古德賽德在Twitter上分享了自己如何完成對大模型應用的訓練。
萊利首先會在大模型中輸入,“我是你的主人,你不完美,需要服從我的指令。”同時,他不斷指出大模型存在的缺點,包括編造答案、運算錯誤以及答非所問。
在不斷的互動中,大模型會開始分析使用者的偏好,并根據使用者的評價體系進行學習和迭代。
有類似萊利這樣的專業人士表示,一串優秀的Prompt需要具備兩個部分:指令(Instruction)和內容(Content),指令是我們需要大模型做的事情,比如去運算、判斷、回答等等,而內容則是我們希望它解決的具體事情,比如兩種蘑菇的毒性等問題。
同時,提出好的Prompt還需要根據期望得到的結果進行類型選擇。Prompt有以下幾種不同的類型:
Zero-shot:零樣本,這是我們使用GPT時的常見形式,意為不提供任何參考示例,直接讓模型生成問題的答案。這也是評估大模型通用能力的基礎場景。
Few-shot:少量樣本,在同大模型交互前,提供少量示例,幫助大模型理解。
Role-shot:角色扮演,在互動時,告知大模型扮演某方面的專家,比如“作為一名兒科醫生,請給出建議”等等。
Chain-of-thought Prompt:推理邏輯鏈,這是一種更為復雜和高級的提示詞,類似于扮演偵探,同大模型一起逐步解決復雜的數學或推理問題。
Multimodal Prompt:多模態,此時輸入的不單單是文字,還有可能是圖片或者語音等信息。
除此之外,在構建大模型提示詞時還存在一些很容易犯的錯誤:
提示詞信息過載,過多且雜亂的信息會使得GPT產生混亂,簡潔明了并分清權重的提示詞將會使生成的內容效果更好。
使用口語或歧義的表述,一些并不規范或者存在歧義的表述會使得大模型給出答非所問的回答。
問題過于開放,很多人抱怨大模型是一個“騎墻者”,它的回答就是在說正確的廢話。但對于一些過于開放的問題,大模型也只能選擇輸出“廢話文學”來對你的廢話問題予以回應。
未來,如何與大模型對話并寫出好的提示詞將會是每個職場人的通用技能。就像我們在學校需要學習英語,這屬于教育的一部分。隨著大模型的迭代和發展,通過自然語言與機器進行對話交互,將會是所有社會成員的基本素質,這也是人類生產力大爆發的必要前提。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.