<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      滿滿干貨!OpenAI大神免費公開課,有關大語言模型,該講的都講了

      0
      分享至

      VIA:寶玉xp



      OpenAI 的大神 Andrej Karpathy 前幾天在他的 YouTube 頻道講了一堂課,系統的介紹了大語言模型,內容深入淺出,非常贊,抽空將它翻譯成了雙語。

      下是第一部分

      Intro: Large Language Model (LLM) talk

      大家好。最近,我進行了一場關于大語言模型的30分鐘入門講座。遺憾的是,這次講座沒有被錄制下來,但許多人在講座后找到我,他們告訴我非常喜歡那次講座。因此,我決定重新錄制并上傳到 YouTube,那么,讓我們開始吧,為大家帶來“忙碌人士的大語言模型入門”系列,主講人 Scott。好的,那我們開始吧。

      LLM Inference

      首先,什么是大語言模型 (Large Language Model) 呢?其實,一個大語言模型就是由兩個文件組成的。在這個假設的目錄中會有兩個文件。

      以 Llama 2 70B 模型為例,這是一個由 Meta AI 發布的大語言模型。這是 Llama 系列語言模型的第二代,也是該系列中參數最多的模型,達到了700億。LAMA2系列包括了多個不同規模的模型,70億,130億,340億,700億是最大的一個。

      現在很多人喜歡這個模型,因為它可能是目前公開權重最強大的模型。Meta 發布了這款模型的權重、架構和相關論文,所以任何人都可以很輕松地使用這個模型。這與其他一些你可能熟悉的語言模型不同,例如,如果你正在使用 ChatGPT 或類似的東西,其架構并未公開,是 OpenAI 的產權,你只能通過網頁界面使用,但你實際上沒有訪問那個模型的權限。

      在這種情況下,Llama 2 70B 模型實際上就是你電腦上的兩個文件:一個是存儲參數的文件,另一個是運行這些參數的代碼。這些參數是神經網絡(即語言模型)的權重或參數。我們稍后會詳細解釋。因為這是一個擁有700億參數的模型,每個參數占用兩個字節,因此參數文件的大小為140 GB,之所以是兩個字節,是因為這是 float 16類型的數據。

      除了這些參數,還有一大堆神經網絡的參數。你還需要一些能運行神經網絡的代碼,這些代碼被包含在我們所說的運行文件中。這個運行文件可以是 C 語言或 Python,或任何其他編程語言編寫的。它可以用任何語言編寫,但 C 語言是一種非常簡單的語言,只是舉個例子。只需大約500行 C 語言代碼,無需任何其他依賴,就能構建起神經網絡架構,并且主要依靠一些參數來運行模型。所以只需要這兩個文件。

      你只需帶上這兩個文件和你的 MacBook,就擁有了一個完整的工具包。你不需要連接互聯網或其他任何設備。你可以拿著這兩個文件,編譯你的 C 語言代碼。你將得到一個可針對參數運行并與語言模型交互的二進制文件。

      比如,你可以讓它寫一首關于 Scale AI 公司的詩,語言模型就會開始生成文本。在這種情況下,它會按照指示為你創作一首關于 Scale AI 的詩。之所以選用 Scale AI 作為例子,你會在整個演講中看到,是因為我最初在 Scale AI 舉辦的活動上介紹過這個話題,所以演講中會多次提到它,以便內容更具體。這就是我們如何運行模型的方式。只需要兩個文件和一臺 MacBook。

      我在這里稍微有點作弊,因為這并不是在運行一個有700億參數的模型,而是在運行一個有70億參數的模型。一個有700億參數的模型運行速度大約會慢10倍。但我想給你們展示一下文本生成的過程,讓你們了解它是什么樣子。所以運行模型并不需要很多東西。這是一個非常小的程序包,但是當我們需要獲取那些參數時,計算的復雜性就真正顯現出來了。

      那么,這些參數從何而來,我們如何獲得它們?因為無論 run.c 文件中的內容是什么,神經網絡的架構和前向傳播都是算法上明確且公開的。

      第二部分:

      ** LLM Training

      但真正的關鍵在于這些參數,我們如何得到它們?所以,為了獲得模型參數,所謂的模型訓練過程比我之前展示的模型推斷要復雜得多。模型推斷只是在 MacBook 上運行模型。而模型訓練則是一個計算上極為復雜的過程。簡單來說,我們所做的可以被理解為對大量互聯網內容的壓縮。

      因為 Llama 2 70B 是一個開源模型,我們對其訓練方式有相當深入的了解,這得益于 Meta 在論文中公開的信息。以下是一些相關的數據。你需要從互聯網上獲取大約10 TB 的文本,通常這些文本來自于對互聯網的爬取。想象一下,從各種不同的網站上收集大量的文本,并將它們匯集起來。接下來,你需要獲取一大塊互聯網數據,然后,你需要配置一個 GPU 集群,這些 GPU 是為了處理像神經網絡訓練這樣復雜的計算任務而專門設計的高性能計算機。

      你需要大約6,000個 GPU,并且需要運行大約12天才能得到一個 Llama 2 7B,整個過程大約需要花費200萬美元。這個過程基本上就是將這大量的文本壓縮成你可以想象的一種 zip 文件。我在早些時候的幻燈片中向你展示的這些參數,可以被理解為互聯網的 zip 文件。例如,在這種情況下,最終生成的是140GB 的參數。大致來說,這里的壓縮比率達到了大約100倍。

      但這種壓縮與 zip 文件不同,因為 zip 文件是無損壓縮,而這里是有損壓縮。我們只是大致獲取了我們訓練文本的概念,而不是在這些參數中保留了文本的完整副本。所以,可以把它理解為一種有損壓縮方式。另外需要指出的是,按照目前最先進技術的標準,這些數據其實只是入門級別的。如果考慮到像 ChatGPT、Claude 或 Bard 這樣的頂尖神經網絡,這些數字可能需要增加十倍甚至更多。

      這意味著在實際操作中,我們需要將這些數字大幅上調。這也解釋了為什么如今這些神經網絡的訓練成本高達數千萬甚至數億美元,它們需要龐大的計算集群和大量數據集,而且在獲取參數的過程中需要付出巨大努力。一旦獲得了這些參數,實際運行神經網絡的計算成本就相對較低了。

      那么,這個神經網絡到底在做什么呢?正如我之前提到的那些參數,神經網絡的主要任務其實是預測文本序列中的下一個詞。你可以這樣理解:當你輸入一連串詞語,比如 "cat sat on a",這些詞就會被送入神經網絡。神經網絡中分布著的這些參數,就是完成這一任務的關鍵。通過神經元的相互連接和激發,來預測下一個單詞。

      你可以這么理解這個過程:輸入一段文本后,神經網絡會預測下一個詞是什么。舉個例子,在 "cat sat on a" 這四個

      詞的上下文中,神經網絡可能會預測下一個詞是“mat”,并且給出了97% 的高概率。這就是神經網絡要解決的核心問題。從數學上可以證明,預測與數據壓縮之間存在密切聯系。這也是為什么我會說,這種神經網絡訓練在某種意義上是一種數據壓縮:因為如果你能夠非常準確地預測下一個詞,你就可以利用這個能力來壓縮數據集。

      所以,這其實是一個專注于預測下一個詞的神經網絡。你輸入一些詞,它就會告訴你接下來的詞是什么。這種訓練的結果之所以顯得有些神奇,是因為盡管下一個詞預測看似是一個簡單的任務,但實際上它是一個非常強大的目標。因為這個目標迫使神經網絡在其參數中學習到大量關于世界的信息。

      我舉個例子,我在準備這個演講時隨機找了一個網頁。這個頁面是從維基百科的主頁抓取的,講的是 Ruth Handler 的故事。所以,想象一下你是神經網絡,你需要根據給定的詞來預測下一個詞。在這個例子中,我用紅色標出了一些信息量很大的詞。例如,如果你的目標是預測下一個詞,那么你的參數必須要學習很多這樣的知識。你得知道 Ruth Handler 是誰,她何時出生,何時去世,她是誰,她的成就等等。在這個預測下一個詞的任務中,你實際上學到了大量關于世界的知識,所有這些知識都被壓縮到權重和參數中。

      ** LLM Dreams

      那么,我們如何實際使用這些神經網絡呢?當我們訓練好它們后,我演示了模型推斷是個非常簡單的過程。我們基本上是生成下一個詞,我們從模型中采樣,選擇一個詞,然后我們繼續將其反饋進去并得到下一個詞,然后繼續這樣反饋。我們可以重復這個過程,讓這個網絡仿佛在“夢游”互聯網文檔。打個比方,如果我們只是運行神經網絡,或者說進行推理,我們會得到類似于在網絡上瀏覽的夢境體驗。

      可以這么理解:因為這個神經網絡是基于網頁內容進行訓練的,然后它可以自由遨游于其中。例如,在左邊,我們可以看到類似于 Java 代碼的“夢境”。中間的部分,看起來像是對亞馬遜產品描述的“夢境”。而右邊,則似乎呈現出一篇維基百科文章的樣子。以中間的這個例子為例,標題、作者、ISBN 編號等等,這些內容都是神經網絡完全自行創造的。這個網絡正在“夢想”出它所訓練數據集中的文本類型,它在模仿這些文檔,但其實,這些都像是它的幻覺一樣。

      比如說 ISBN 號碼,這個號碼幾乎可以肯定是不存在的。網絡只是知道在“ISBN:”后面通常會跟著這樣長度的數字,然后就隨機生成一個。實際上,它只是隨意插入看起來合理的內容。因此,它在模仿訓練數據集的分布模式。在右邊,黑鼻鮭魚,我查了一下,它實際上是一種魚。這里的情況是,這段文字在訓練集文檔中并未原樣出現,但如果你真的去查證,會發現對這種魚的這些描述信息大致上是正確的。因此,這個網絡對這種魚有一定的了解,它知道很多關于這種魚的信息。它不會完全復制訓練集中看到的文檔,但它會對互聯網的信息進行某種程度的壓縮和整合,它能夠記住整體的輪廓。它大致掌握了相關知識,然后開始創造。它構建了一種合適的形式,并用自己的知識填充其中。

      但我們永遠不能百分之百確定它生成的內容是幻覺、錯誤的回答,還是正確的回答。所以,它的一部分內容可能是記憶中的,而另一部分則不是,我們無法精確區分。但大多數情況下,這就像是它在夢游或在做關于互聯網文本的夢,源于它的數據分布。這種能力使得神經網絡能夠生成各種文本,從代碼到商品描述再到百科全書條目,但它也意味著生成的內容需要謹慎驗證和審查,以確保準確性和可信度。這就是模型訓練和模型推斷的關鍵過程,它們共同構建了人工智能模型的能力和潛力。

      第三部分:

      ** How do they work?

      好了,讓我們換個話題,來看看這個神經網絡是怎么運作的?它是如何完成下一個詞預測任務的?它內部的運作機制是什么?這里的情況稍微復雜一些。如果我們放大神經網絡的簡化圖,這有點像是神經網絡的示意圖。這就是我們稱之為 Transformer 的神經網絡架構,這是它的一個示意圖。現在,這個神經網絡的一個顯著特點是,我們對其架構有著完整的理解。我們清楚地知道在它的各個階段會發生哪些數學運算。

      但問題在于,這1000億個參數分散在整個神經網絡中。因此,基本上,這上千億個參數散布在整個網絡中,我們所了解的只是如何逐步調整這些參數,以使整個網絡在下一個詞預測的任務上表現得更好。我們知道如何優化這些參數,也知道如何隨時間調整它們以獲得更佳的下一詞預測效果,但我們并不真正清楚這些參數具體是如何工作的。我們可以觀察到它在下一個詞預測方面的進步,但并不清楚這些參數是如何協同工作以實現這一點的。我們手頭有些模型,可以讓我們從宏觀層面思考網絡可能在做的事情。

      我們大致理解,它們構建并維護了某種知識庫,但這個數據庫卻非常奇特、不完美且怪異。最近有一個廣為流傳的例子,我們稱之為“反轉詛咒”。比如,如果你和目前最先進的語言模型 GPT-4(ChatGPT 的一部分)對話,你問,誰是湯姆·克魯斯的母親?它會告訴你是瑪麗·李·菲弗,這是正確的。但如果你問,誰是瑪麗·菲弗的兒子,它會告訴你它不知道。這種知識很古怪,它似乎是單向的。這些信息并不是簡單存儲后就能從各種角度獲取,你必須從某個特定的角度去提問。

      這真是既奇怪又令人困惑。歸根結底,我們實際上并不真正了解其工作原理,只能大致判斷它是否有效,以及有效的可能性有多大。簡而言之,可以將大語言模型 (LLM) 視為難以完全解讀的產物。它們與你可能在工程學科中建造的任何其他東西都不相似。它們不像汽車,我們了解汽車的每一個部件。

      它們是這些來自長期優化過程的神經網絡。我們目前并不完全理解它們是如何工作的,盡管有一個叫做可解釋性或機械可解釋性的領域,正在嘗試研究并理解這些神經網絡的每一個部分。目前,我們可以在一定程度上做到這一點,但還未能全面實現。現在,我們主要將它們視為基于經驗的產品。我們可以給它們輸入一些數據,然后測量輸出結果。我們基本上可以測量它們的行為表現。我們可以觀察它們在許多不同情況下生成的文本。因此,我認為這需要

      相應的復雜評估來處理這些模型,因為它們主要是基于經驗的。

      ** Finetuning into an Assistant

      現在,讓我們來看看我們如何實際獲得一個助手模型。到目前為止,我們只談論了這些互聯網文檔生成器,對吧?這是訓練的第一階段,我們稱之為預訓練。我們現在正在進入訓練的第二階段,我們稱之為微調。這一階段我們會獲得所謂的助手模型。因為我們實際上不僅僅需要文檔生成器,文檔生成器對許多任務幫助不大。我們希望能向某個系統提問,并讓它根據這些問題生成答案。所以我們真正需要的是一個助手模型。

      獲得這些助手模型的過程主要如下:我們保持優化過程相同,訓練方式也相同。這本質上是一個下一步工作預測的任務。但我們將更換訓練用的數據集。原本我們是在互聯網文檔上進行訓練,現在我們轉而使用手動收集的數據集。我們收集這些數據的方式是通過雇傭大量的人。通常,公司會雇傭人員,給他們標注指南,并要求他們提出問題,再為這些問題寫出答案。這里有一個具體示例:它很可能就是你訓練集中的一部分。比如,有一個用戶提問,內容可能是:“你能簡要介紹一下‘壟斷買方’這個術語在經濟學中的相關性嗎?”

      接著,有一個助手角色,同樣由人來填寫理想的回復應當是什么。理想的回復,以及如何定義它,以及它應該是什么樣子,都是根據我們為這些參與者提供的標注文檔來確定的。像 OpenAI 或 Anthropic 這樣的公司的工程師會制定這些標注文檔。現在,預訓練階段主要處理大量的文本,但這些文本可能質量不高,因為它們都是從互聯網上獲取的,有數十甚至數百 TB 的文本,而且并非所有的都是高質量的。但在第二階段,我們更看重質量而非數量。所以我們可能只有很少的文檔,比如10萬份,但這些文檔都是對話形式,并且都是非常高質量的,由專業人士基于標注指南創建的。

      所以我們現在更換數據集,轉而在這些問答形式的文檔上進行訓練。這個過程被稱為微調。完成這些步驟后,我們就能得到所謂的助手型模型。這個助手模型現在遵循它新訓練文檔的形式。舉個例子,如果你問它一個問題,比如:“你能幫我查一下這段代碼嗎?似乎有個 bug。請打印 hello world。”即使這個問題并不是訓練集的一部分,模型在微調后理解它應該以一個有用的助手的風格回答這類問題。它會這樣做。它會再次逐字采樣,從左到右,從上到下,所有這些詞都是對這個問題的回復。

      這是相當了不起的,也有點令人費解,還不完全被理解,這種模型能夠改變它們的格式,現在變成了有用的助手,因為它們在微調階段看到了很多這樣的文檔,但它們仍然能夠訪問并以某種方式利用所有在第一階段(預訓練階段)積累的知識。大致來說,預訓練階段是在海量互聯網數據上進行訓練,重點是知識積累;而微調階段則更關注對齊,它是關于給予,即將格式從互聯網文檔轉變為問答形式,就像一個有用的助手一樣。

      第四部分:

      ** Summary so far

      構建像 ChatGPT 這樣的模型包括兩個主要階段:預訓練和微調。預訓練階段需要從互聯網上搜集大量文本資料,使用GPU集群進行處理。這些高性能計算機的成本非常昂貴,通常需要幾百萬美元的投入。完成后,就得到了基礎模型。由于這個過程計算量巨大且成本高昂,公司通常一年或幾個月才會做一次。微調階段相對便宜,需要編寫標注指南和雇傭人員進行幫助。例如,可以通過Scale AI等公司進行文檔標注。這個階段需要收集約100,000個高質量的問答回應樣本,成本要低得多,可能只需一天就能完成。接下來是進行大量的評估工作,部署模型,并監控和收集任何不當行為。對于每個不當行為,都需要修復并返回第一步重復這個過程。修復方法通常是找到錯誤回應的對話,然后用正確的回應替換。由于微調成本較低,可以每周或每天進行迭代,許多公司在微調階段而非預訓練階段會更頻繁地進行迭代。

      Meta發布的Llama 2系列包括基礎模型和助手模型。基礎模型無法直接使用,因為它們無法直接對問題回復正確的答案,而助手模型則可以直接進行問答。Meta已經完成了極其昂貴的預訓練階段,提供了基礎模型,允許用戶基于這些結果進行自己的微調。此外,還有一個你可以選擇進行的第三階段微調,即人類反饋強化學習(RLHF),主要通過使用比較標簽來提升額外性能。在OpenAI,這個過程被稱為人類反饋強化學習(RLHF),這其實是一個可選的第三階段,它能在大語言模型中提升額外性能,主要是通過使用比較標簽。例如,OpenAI的InstructGPT項目就是這樣的一個例子。

      ** Appendix: Comparisons, Labeling docs, RLHF, Synthetic data, Leaderboard

      在第二階段提到了“和/或對比標注”。對于人類標注員而言,比起自己撰寫答案,比較候選答案通常更為簡單。例如,對于一個要求寫關于回形針的俳句的問題,給標注員提供助手模型生成的候選俳句,讓他們挑選出更佳的一首,比自己創作要容易得多。這也是為什么在很多情況下,進行比較比創作來得容易。此外,還有一個第三階段的微調過程,可以利用這些比較結果來進一步優化模型。在OpenAI,這個過程被稱為人類反饋強化學習(RLHF),是通過使用比較標簽來提升模型性能的可選第三階段。

      關于標注文檔,盡管可能會長達幾十甚至上百頁且頗具復雜性,但其核心是要求參與者保持有幫助、真實和無害。隨著大語言模型能力的提升,人機協作在創建這些標簽中的作用日益增強。例如,可以讓模型先生成答案樣本,然后由人工挑選

      部分形成最優答案,或者讓模型幫助檢查工作。

      在市面上領先的大語言模型排行榜上,例如加州大學伯克利分校管理的Chatbot Marina,使用ELO評分對不同的模型進行排名。ELO分數的計算方式與國際象棋類似,基于模型間的對比勝率。頂部的是專有模型,如OpenAI的GPT系列和Antropic的Claude系列,這些模型表現最佳但無法獲取其權重,只能通過網絡界面訪問。其次是公開權重的模型,例如Meta的Llama 2系列和法國Mistral系列的Zephyr 7B Beta。總體上,封閉模型的表現更好,但無法進行微調或下載,只能通過網絡界面使用。然后是所有的開源模型和整個開源生態系統,它們的性能相對較差,但可能已經滿足某些應用需求。目前,開源生態系統正在努力提升性能,試圖追趕專有生態系統。

      第五部分:

      好的,現在我要轉換話題,我們將討論語言模型,它們是如何改進的,以及這些改進將帶我們走向何方。首先要理解的關于大語言模型的重要概念是“規模化法則”。事實證明,這些大語言模型在預測下一個詞的準確性方面的表現是一個非常平滑、規律性強,并且只有兩個變量的預測函數。一個變量是 N,即網絡中的參數數量;另一個變量是 D,即你用來訓練的文本量。只要有了這兩個數據,我們就能非常準確地預測你在下一詞預測任務上能達到的準確度。令人驚奇的是,這些趨勢看起來并沒有出現停滯或達到極限的跡象。這意味著,如果你在更多文本上訓練更大規模的模型,我們可以非常自信地預期下一詞預測的表現將會提升。

      因此,在算法上取得進步并非必要條件。算法進步當然是很好的加分項,但我們能夠在不增加成本的情況下獲得更強大的模型,因為我們只需要更強大的計算機。我們有理由相信這是可行的,并且我們可以在更長時間內訓練一個更大的模型。我們非常有信心我們將得到更好的結果。當然,在實際操作中,我們并不是真的那么關心預測下一個詞的準確度。但是,從經驗上看,這種準確度與我們真正關心的許多評估指標是相關的。例如,你可以對這些大語言模型進行很多不同的測試。你會看到,如果你訓練一個更大的模型更長的時間,例如,在 GPT 系列中從 3.5 提升到 4,所有這些測試的準確性都會提高。所以,當我們訓練更大規模的模型和更多的數據時,我們自然而然地期待有性能的提升。這正是當前計算領域的一場淘金熱的根本驅動力,每個人都在努力獲取更強大的 GPU 集群,收集更多的數據,因為人們有很大的信心,通過這樣做,可以獲得更優秀的模型。算法的進步就像是額外的獎勵,許多機構對此投入巨大。但從根本上說,擴大規模提供了一條通往成功的確定途徑。

      **Tool Use (Browser, Calculator, Interpreter, DALL-E)**

      接下來,我想通過一些具體的例子來講解這些語言模型的能力,以及它們是如何隨著時間發展的。不是泛泛而談,我會用一個具體的例子,逐步分析來說明。所以我打開 ChatGPT,給出了以下的查詢。我說,收集關于 Scale AI 及其融資輪次的信息,包括發生的時間、日期、金額和估值,并將這些信息整理成一張表。根據我們收集的大量數據,ChatGPT 在微調學習階段就已經理解,在這種類型的查詢中,ChatGPT 不會僅僅依靠自己作為一個大語言模型來直接回答問題。相反,它學會了在需要時使用一些外部工具來幫助完成任務。在這個例子中,一個很合適的工具就是瀏覽器。

      假設你和我遇到同樣的問題,你可能會選擇上網搜索,對吧?ChatGPT 做的正是這樣的事情。它能夠發出特定的詞匯,我們可以通過這些詞匯觀察它是如何嘗試進行搜索的。在這種情況下,我們可以拿著這個查詢去 Bing 搜索,查看搜索結果。就像你我在瀏覽搜索結果一樣,我們可以把搜索到的文本反饋給語言模型,讓它基于這些文本生成回答。這個過程非常類似于我們使用瀏覽器進行研究的方式。然后,它會將這些信息整理成以下形式,并以此方式進行回應。

      所以,它收集了信息,我們得到了一張表格,上面列出了 A、B、C、D 和 E 輪融資的具體日期、籌資金額和對應的估值。接著,它還提供了引用鏈接,你可以通過這些鏈接去核實這些信息的準確性。在底部,它表示,實際上我要道歉,我沒有找到 A 輪和 B 輪的估值數據,只找到了籌集的金額。所以你可以看到表格中有一項標記為不可用。好的,我們現在可以繼續這種互動。我提出,讓我們嘗試基于 C 輪、D 輪和 E 輪中看到的比例,來推測或估算 A 輪和 B 輪的估值。可以看到,在 C、D 和 E 輪中,籌資金額和估值之間存在一定的比例關系。那么,我們該如何解決這個問題呢?當我們嘗試推算“不可用”的數據時,并不是僅憑腦海中的計算就能解決。你不可能只是試圖在你的腦海中解決它。這樣做相當復雜,因為我們在數學方面并不特別擅長。同樣,ChatGPT 也不是通過單純“思考”就能擅長數學運算。實際上,ChatGPT 知道它應該使用計算器來處理這類任務。因此,它會發出特定的指令,告訴程序它需要使用計算器來計算這個數值。它實際上做的是,首先計算所有的比率,然后根據這些比率來推算 A 輪和 B 輪的估值,可能是 7000 萬或者 2.83 億。所以,現在我們的目標是得到所有不同融資輪次的估值數據。接下來,我們將這些數據制作成一個二維圖表:橫軸表示日期,縱軸顯示 Scale AI 的估值。為了更精確地展示,我們會在縱軸上使用對數刻度,并且加上網格線,使圖表看起來既專業又美觀。ChatGPT 實際上可以使用工具,這次是編寫代碼,使用 Python 語言中的 Matplotlib 庫來繪制這些數據。它會進入一個 Python 解釋器,輸入所有數據,然后生成圖表。這就是圖。它清晰地展示了底部的數據,完全按照我們用自然語言提出的要求制作完成。

      與 ChatGPT 交流就像與人交談一樣自然。現在我們看著這張圖表,想要進行更多的分析。比如,我們現在想在這個圖表上加一條線性趨勢線,并嘗試推算 Scale AI 到 2025 年底的估值。再比如,在圖表上標出今天的日期,并基于趨勢線來估算今天和 2025 年底的估值。ChatGPT 完成了所有編碼工作,雖然這些代碼沒有展示出來,但它提供了詳細的分析結果。在圖表的底部,我們可以看到日期和估值的推算結果。根據這個趨勢線的擬合結果,今天 Scale AI 的估值大約是 1500 億美元。而到了 2025 年底,這個公司預計會成長為價值高達 2 萬億美元的科技巨頭。所以,祝賀 Scale AI 團隊。但這只是 ChatGPT 擅長的分析類型之一。我想通過這個例子展示的核心點是,語言模型在工具使用方面的能力以及它們的發展趨勢。它們的功能不再局限于在大腦中處理信息和選擇詞匯。如今,它們開始利用各種工具和現有的計算基礎設施,將一切緊密聯系并用詞匯交織在一起,如果這有意義的話。

      因此,工具使用已成為這些模型日益增強能力的重要一環。它們能夠編寫大量代碼、進行全面分析、從互聯網上檢索信息等等。再舉一個例子。根據上述信息,試圖生成一個代表 Scale AI 公司的圖像。所以,基于上面的所有內容,依據大語言模型的上下文理解,它對 Scale AI 有深刻的了解。它可能還記得關于 Scale AI 的一些信息以及網絡中儲存的知識。然后它去使用另一個工具,在這種情況下這個工具是 DALL-E,這也是 OpenAI 開發的一種工具,可以根據自然語言描述生成圖像。所以在這里 DALL-E 被用作生成圖像的工具。希望這個演示能具體說明問題解決過程中大量使用工具的情況,這與人類解決很多問題的方式高度相關。我們在解決問題時不僅僅依賴思考,而是廣泛運用各種工具,比如電腦就非常有用。對于大語言模型也是如此,利用工具正逐漸成為大語言模型發展的一個重要方向。

      責任編輯:郭鵬_NO4657

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      “90后”健美運動員王昆去世,曾橫掃CBBA賽事8連冠 協會人員:疑心臟病去世

      “90后”健美運動員王昆去世,曾橫掃CBBA賽事8連冠 協會人員:疑心臟病去世

      紅星新聞
      2025-12-17 12:16:45
      陳慧琳演唱會穿三角褲衩,五十多了合適嗎?人老心不老

      陳慧琳演唱會穿三角褲衩,五十多了合適嗎?人老心不老

      蕾爸退休日記
      2025-12-16 22:37:37
      公公花19萬買金絲楠木衣柜,我擦拭發現暗門,打開后全家懵了

      公公花19萬買金絲楠木衣柜,我擦拭發現暗門,打開后全家懵了

      小秋情感說
      2025-12-05 14:25:36
      泰國打的不是柬埔寨,是臉

      泰國打的不是柬埔寨,是臉

      求實處
      2025-12-16 23:00:43
      著名播音員鐘瑞在加拿大病逝!丈夫宋世雄的三件禮物溫暖她一生

      著名播音員鐘瑞在加拿大病逝!丈夫宋世雄的三件禮物溫暖她一生

      銀河史記
      2025-12-16 16:18:24
      沐曦股份開盤暴漲近568%,葛衛東爆賺超100億!幻方量化、衍復投資、九坤投資再度成為贏家!

      沐曦股份開盤暴漲近568%,葛衛東爆賺超100億!幻方量化、衍復投資、九坤投資再度成為贏家!

      每日經濟新聞
      2025-12-17 10:28:02
      又見神秘力量!泰國軍隊士氣如虹,洪森的臭棋又來了

      又見神秘力量!泰國軍隊士氣如虹,洪森的臭棋又來了

      超級學爸蛋總
      2025-12-16 23:26:13
      海南明天正式封關,一文講透你想知道的7件事

      海南明天正式封關,一文講透你想知道的7件事

      劉潤
      2025-12-17 10:46:54
      央視《老舅》被觀眾要求下架,理由:劇情太假,掛羊頭賣狗肉!

      央視《老舅》被觀眾要求下架,理由:劇情太假,掛羊頭賣狗肉!

      甜檸聊史
      2025-12-17 09:23:55
      ESPN:保羅經常帶領替補擊敗首發,這使快船與保羅爆發矛盾

      ESPN:保羅經常帶領替補擊敗首發,這使快船與保羅爆發矛盾

      懂球帝
      2025-12-17 11:04:20
      又放大招了!為鼓勵生孩,2026年實施生孩“零自付”,評論區炸鍋

      又放大招了!為鼓勵生孩,2026年實施生孩“零自付”,評論區炸鍋

      火山詩話
      2025-12-15 18:11:48
      官宣!2025式警服正式列裝!9大升級戳中基層痛點,經費反降2.36%

      官宣!2025式警服正式列裝!9大升級戳中基層痛點,經費反降2.36%

      娛樂八卦木木子
      2025-12-16 11:51:07
      萬寧宣布關停中國內地所有門店,系香港最大藥妝連鎖,在內地約120家分店

      萬寧宣布關停中國內地所有門店,系香港最大藥妝連鎖,在內地約120家分店

      DoNews
      2025-12-16 22:41:17
      銀行人勸告:家里有老人存款的,務必加上第二存款人!越早越安心

      銀行人勸告:家里有老人存款的,務必加上第二存款人!越早越安心

      小白鴿財經
      2025-12-17 07:05:02
      轟動全國的游戲軍費貪污案,欠鋪路民工80,沒有萬

      轟動全國的游戲軍費貪污案,欠鋪路民工80,沒有萬

      遠方青木
      2025-12-16 23:38:18
      湖南省第四工程有限公司永州分公司經理譚亞波被查

      湖南省第四工程有限公司永州分公司經理譚亞波被查

      三湘都市報
      2025-12-17 10:39:57
      上訴了!上訴了!傾家族之力想保一條命?金毛還想逆風翻盤?

      上訴了!上訴了!傾家族之力想保一條命?金毛還想逆風翻盤?

      魔都姐姐雜談
      2025-12-17 08:58:26
      小米,炸場了

      小米,炸場了

      放毒
      2025-12-17 14:28:49
      房產稅的前身“房屋養老金”要來了,博主分析:明年的二手房慘了

      房產稅的前身“房屋養老金”要來了,博主分析:明年的二手房慘了

      三言四拍
      2025-12-17 11:43:14
      G聯賽:楊瀚森背靠背14+6秀暴扣手腕出現不適 混音慘負國王

      G聯賽:楊瀚森背靠背14+6秀暴扣手腕出現不適 混音慘負國王

      醉臥浮生
      2025-12-17 12:08:51
      2025-12-17 18:00:49
      齊天候 incentive-icons
      齊天候
      酷愛學習的候先生
      458文章數 162123關注度
      往期回顧 全部

      科技要聞

      特斯拉值1.6萬億靠畫餅 Waymo值千億靠跑單

      頭條要聞

      男子花十幾萬"賭石"付款前說是頂級貨 切開全是邊角料

      頭條要聞

      男子花十幾萬"賭石"付款前說是頂級貨 切開全是邊角料

      體育要聞

      短短一年,從爭冠到0勝墊底...

      娛樂要聞

      鞠婧祎收入曝光,絲芭稱已支付1.3億

      財經要聞

      重磅信號!收入分配制度或迎重大突破

      汽車要聞

      一車多動力+雙姿態 長城歐拉5上市 限時9.18萬元起

      態度原創

      手機
      房產
      旅游
      游戲
      公開課

      手機要聞

      小米開伙伴大會,vivo聯手田曦薇搞活動,OPPO在比賽,榮耀在定檔

      房產要聞

      封關前夜!海南綠發20億拿下三亞重磅宅地!

      旅游要聞

      旅超|兩天一夜,解鎖長寧23個“超”級點位

      《FF7重制版》制作人透露 自己平時最愛玩《健身環》

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 一本色道无码DvD免费视频| 九九在线精品| 色偷偷综合网,欧美日韩| 成人亚洲欧美成αⅴ人在线观看| 久久婷婷五月综合97色直播| 免费乱理伦片在线观看| 国产精品中文| 欧洲亚洲av| 风流少妇bbwbbw69视频| 无码av不卡免费播放| 操碰网| 一本久道久久综合无码中文 | 国产精品成人无码A片噜噜| 国产中年熟女高潮大集合| 国产成人精品免费视频大全| 亚洲成av人片在线观看ww| 亚洲性日韩精品一区二区| 尹人成人| www夜片内射视频日韩精品成人| 国产精品中文久久久久久久| 最新精品露脸国产在线| 同心县| 国产综合色在线精品| 亚洲精品无码永久在线观看性色 | 中文字幕无码专区亚洲一区18P| 精品无码专区久久久水蜜桃| 91免费看| av女人的天堂| 久久熟| 丁香五香天堂网| 亚洲日本在线电影| 中文无久久香码精品欧美日韩| 欧美影院成年免费版| 亚洲成人A√| 2020无码专区人妻系列日韩| 欧美肏屄网| 97久久精品人人澡人人爽| www91色色con在线观看视频| 成人国内精品久久久久一区| 老司机性色福利精品视频| 中文AV电影网|