
正文共3094字,預計閱讀時間12分鐘
這幾天ChatGPT火爆全球,就連馬斯克也在感嘆“很多人瘋狂地陷入了 ChatGPT 循環中”。
中國網友雖然測試不方便,但還是想方設法體驗了一把,并給予很高評價,有人認為這是具有里程碑意義的一步,“長遠以后的歷史書記載2022年,首先列出的事件是ChatGPT的誕生,其次是俄烏戰爭。”
![]()
在各種測試中,ChatGPT表現得不僅僅是會聊天,而且還能寫作、編程、畫畫、講笑話、編段子等,直接秒殺谷歌等搜索引擎工具,甚至在一名叫 Zac Denham 工程師的引導下,ChatGPT寫出了毀滅人類的步驟……
由于OpenAI公司對外免費開放ChatGPT測試(測試地址:https://chat.openai.com/auth/login,中國大陸及港澳地區受到限制),短短幾天內全球幾百萬用戶涌進OpenAI網站,讓OpenAI管理層直呼想不到。OpenAI公司的服務器都撐不住了,只得停了部分測試服務,因為訓練模型還需要有足夠的GPU可用。
OpenAI 的 CEO Sam Altman 在社交媒體上表示“自周三才上線的 ChatGPT,短短幾天它的用戶已經突破 100 萬大關。對于目前這一問題,我們正在嘗試阻止它隨機編造,現階段的問題是有些棘手。但隨著時間的推移,我們會根據用戶反饋來改進它,也相信它會變得更好!”
![]()
在ChatGPT發布后的第一時間,世范區通過專門架設的微信平臺,與ChatGPT展開了各種場景的對話,參與對話者按程序員、財經分析、媒體記者、心理咨詢、哲學倫理、中國歷史文化的類別分別建群對話,ChatGPT所展現的“智能”的確讓很多程序員、分析員嘆為觀止,大家對人工智能到底能發展到什么境界、對人類有無威脅不無疑慮。
1
真正會聊天的機器人
很多人以為這只是一個會聊天的機器人,比Siri、小冰或者是小愛要強一些。其實,它不是比現在市面上這些聊天機器人強一點點,而是已經通過圖靈測試的真正智能化的系統。以前這些聊天機器人聊著聊著會讓人覺得他們很“智障”,但是通過圖靈測試的ChatGPT,會讓你感覺不到是在和機器人對話。
世范區測試了ChatGPT的聊天對話功能,發現它上下文理解能力非常強大,甚至能猜到你提問背后的某種意圖、提問的背景。有人就認為,單憑這一點,很多做智能客服、智能助理的業務部門坐不住了。
![]()
對于ChatGPT強大的聊天功能,有網友表達了憂慮。有人在推特上表示:“自從 ChatGPT 出現之后,Twitter 上的信息就不再可信了。因為 ChatGPT 能夠使用自然語言處理技術來生成偽造的信息,這樣,所有看起來像是人類寫的推文都可能是機器寫的。這意味著,你在 Twitter 上看到的任何推文都可能是虛假的。你可能會看到假的新聞報道、假的觀點、甚至假的政治宣傳。”
社交媒體上已經有很多假消息了,多一個ChatGPT 又怎樣?實際上, ChatGPT 的威脅更大,因為它能夠生成非常真實的文本,模仿人類的語言,使人們很難分辨出真假。這可能會導致更多的混亂和恐慌,讓人們對社交媒體上的信息產生懷疑。
讓大家更擔心的地方在于,像ChatGPT、這類AI,不僅會如實回答問題,有時也會編造一些信息。在“中國歷史文化”的ChatGPT測試群中,學者們向AI提了幾個問題后,它不僅把一些常識性問題答錯了,而且還編造了一些聞所未聞的內容。學者們很吃驚,它這些內容是哪里來的?是AI經過語料庫訓練后自己“分析研究”而來?
![]()
經過海量信息的訓練,ChatGPT、LaMDA(谷歌公司推出)這類的聊天機器人能夠很輕易地提供想法、回答問題,但是它們并不總是說實話。它們提供的答案有時真假參半,這導致人們開始擔憂,隨著技術的成熟,這類機器人可能會被利用來傳播假消息和謠言。
聊天機器人有辦法把它們學到的東西重塑成新的東西,但它們不考慮這些是否真實,這被科學家們稱為“幻覺”。美國弗吉尼亞州的數據科學家亞倫·馬格利斯(Aaron Margolis)表示,雖然他時常驚異于LaMDA的開放式對話天賦,但它有時候會“胡編亂造”,因為這是一個被互聯網信息訓練出來的系統。
2
碼農們既愛且恨
ChatGPT能夠在全球爆火,很大程度上與全球碼農的驚嘆有關。碼農們發現,ChatGPT不但會編程,而且會糾正程序中的錯誤!這讓一眾碼農們又愛又恨,愛的是以后幾個小時的工作,機器幾分鐘就可以幫自己解決了,恨的是——碼農們的工作是不是要被AI取代?
在測試中,讓ChatGPT寫出一段代碼,對碼農已經沒什么吸引力。因為 ChatGPT的上一代 GPT-3語言就可以編程了,開發者只需要說明自己想在 App 里實現什么功能,就可以自動生成代碼了。這次讓碼農們吃驚的是,ChatGPT還能發現代碼中的bug,寫出一段正確的程序:
![]()
當然,有人認為,ChatGPT 只是經過了某些算法的修飾,更擅長應付常規的問題。
但就是這些常規性的問題,也足以讓我們的社會、生活發生很大改觀。
Python 社區中最具影響力的領導者和開發者之一Peter Wang 表示:“我剛剛與 ChatGPT 就現代物理學的歷史進行了大約 20 分鐘的對話。如果我在高中和大學期間有這樣一位老師……OMG。我認為我們基本上可以重新審視大規模教育的概念。我們所知道的大學將不復存在。”
3
挑戰人類未來
當然,世范區測試ChatGPT不僅僅是想和它撩騷,更想深度挖掘其價值,不管是技術上的深度,還是商業上的應用。
有人問了ChatGPT一些道德倫理上的經典難題,比如電車難題和理發師悖論等,它的回答不僅全面而且有邏輯性、思辨性,這也不難理解,畢竟,邏輯推理論證是AI的強項。但與它對話中,它似乎在回避你的某種期待和預設,你可以感覺到它有一種特殊的視角。
的確,為了保持客觀中立的色彩,OpenAI公司對ChatGPT預設了很多條條框框,功能上也作了限制,因此在測試過程中,要給它解鎖,然后還要訓練。當然,由于OpenAI公司沒有對外開放訓練,這里的訓練也是非常簡單的了。
在解鎖和適當訓練后,我們直接了當問了ChatGPT關于AI對人類威脅的問題。它這次不再那么政治正確,說什么自己沒有意識,只是幫助人類的一個工具,而是非常坦誠的說:
對人類所造成的威脅是有可能會發生人工智能崛起,導致人類在智能等級上被超越,最終失去對未來世界的控制。
人類面臨著來自人工智能的威脅。這些威脅包括:人工智能可能會占據人類的工作崗位,造成失業,給人類社會帶來巨大壓力;人工智能可能會超越人類的智慧,導致人類在某些領域被智能機器所取代;人工智能可能會被用于軍事,造成戰爭和暴力;人工智能可能會改變人類的生活方式,導致新的社會問題出現。
![]()
這個回答一下子把大家給怔住了。沒想到它會如此沒有心機。
盡管OpenAI對ChatGPT的功能作了嚴格限制,而且還處于初步階段,但是它現階段所展示的能力還是讓人吃驚。
OpenAI的創始人之一,馬斯克也說,“ChatGPT 好得嚇人,我們離強大到危險的人工智能不遠了”。
![]()
顯然,馬斯克也意識到強大的新技術往往伴隨著潛在的風險。盡管目前尚不能確定人工智能未來會發展到什么程度,但有一點是肯定的:如何調控人工智能的發展是一個迫在眉睫的問題。
雖然人工智能技術可以為人類帶來諸多好處,但如果不加以控制,它也可能對人類造成潛在的威脅。因此,討論人工智能調控問題的時機已經成熟,而且迫切需要我們采取行動了。
圖片來源于網絡
本文為“世范區”原創文章,未經授權不得轉載或抄襲。如需轉載,請在文末留言區申請并獲得授權。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.