<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      10分鐘搞懂AI名詞:這次,終于能看懂AI新聞了丨圖文

      0
      分享至


      最近這兩年,我們每天早上都被各種AI新聞“引爆!”,看各家 “突發(fā)!”“AI 神器”和“神秘項目”……

      只見它們紛紛“火力全開!”“刷爆記錄!”,“迅猛爆發(fā)!”,讓我們天天“狂喜!”,然后一邊“見證歷史!”

      一邊點開新聞,心里暗暗思量:字我都認識,但你們到底在說什么???


      各家博主的文章里都堆滿了不明覺厲的專業(yè)名詞,讓我們自慚形穢,一臉懵逼,只好鬼鬼祟祟地掏出AI,問問這些名詞到底是啥?

      但由于缺乏配套的知識體系,往往問了也似懂非懂,下次看到又不知道在說什么了~

      如果你也有類似感受,又想在這些一驚一乍的新聞里學點正經(jīng)知識,那在這期視頻里,我們會跟你一起在頭腦中建立這樣一個關(guān)于大模型的基本框架:它包含大模型工作時的運作流程,以及大模型訓練時預訓練,后訓練,強化學習的基本流程


      在講述這個框架的同時,我們會介紹每個環(huán)節(jié)中涉及到的常見概念。這樣在看完之后,不光能搞清這些名詞的含義,還能知道一些關(guān)于大模型的基礎(chǔ)知識,比如一些不正經(jīng)的大模型,到底是怎么練出來的?AI 究竟是復讀機,還是有靈魂等等~

      視頻

      ↓↓ 看完這個視頻就懂了 ↓↓

      ↑↑ 信我,真的能看懂 ↑↑

      圖文版

      你手機上的 Deepseek、豆包、ChatGPT、Gemini......本質(zhì)上都是“大語言模型”,LLM。我們會把它們當成一個個大腦,跟它對話。

      當你找它聊天時,你的話就是Prompt,提示詞。它們會被“分詞器”,切分成這樣的一個個Token(詞元)。

      Token 是大模型理解內(nèi)容的最小單元。每個 Token 都對應著一個數(shù)字,叫Token ID。

      大模型的任務,就是算出在這串 token 序列后,應當續(xù)寫哪些 token。


      為了完成這個任務,大模型們普遍采用了Transformer架構(gòu),它采用了“自注意力機制”,能很好地捕捉上下文之間的關(guān)聯(lián)。

      在計算的時候,大模型會一個 token 一個 token 地算。每次計算,它都會把新生成的 token,加入到原有的 token 序列,再投入進模型中,算出下一個 token。再把它加入 token 串,再投入大模型,再算出下一個 token.....如此循環(huán)往復,大模型就會輸出一個長長長長的回答——所以說大模型計算的本質(zhì),就是在不斷地“續(xù)寫”token 串。


      在使用大模型的時候,你可能會開“聯(lián)網(wǎng)搜索”,也有一些教程會教你外掛一個私人知識庫。這其實都是在利用 RAG 功能,“檢索增強生成”:也就是先把從互聯(lián)網(wǎng),或者知識庫里抓取到的內(nèi)容,加入到 token 串里,再開始計算、續(xù)寫。這樣可以提高輸出的準確度。

      這一串過程,就是大模型在工作時的基礎(chǔ)流程。


      我們說大模型是在“計算”結(jié)果,是因為它的內(nèi)部真的要調(diào)動許多許多復雜的數(shù)學表達式,這里面就有很多可以調(diào)整的“參數(shù)”。

      很多人都認為,模型參數(shù)越多,規(guī)模越大,算力越高,表現(xiàn)就越好——洋氣的說法叫 Scaling Law,樸實的說法叫“大力出奇跡”~

      很多大模型的名稱后都會直接標注參數(shù)大小,這里 B 代表 Billion,十億。


      GPT3 剛發(fā)布的時候,大家都震驚它居然有高達 1750 億個參數(shù);

      現(xiàn)在滿血版的 Deepseek R1 ,已經(jīng)有 6710 億的參數(shù);一些廠商都開始卷萬億參數(shù)的大模型了。


      你可以想象,如果你跟它說句 Hello,都要調(diào)動如此之多的參數(shù),那未免內(nèi)心戲太豐富了。不過很多模型都是這么干的,它們叫“稠密模型”(Dense Model),每次都愛的轟轟烈烈,全情投入,計算量大。

      但當你問 Deepseek 一個問題時,它并不會調(diào)動所有的參數(shù),而是只激活其中跟問題相關(guān)的一部分參數(shù)。這叫做“稀疏模型”,比較冷靜,能降低計算量,提升速度。

      目前稀疏模型中最流行的一種叫MoE ,“混合專家模型”。馬斯克的 Grok,還有 Deepseek 等,都是 MoE 模型。它們通過“門控網(wǎng)絡”(gating network),給每個問題分配合適的“專家”,賦予它們不同的權(quán)重,再生成結(jié)果。


      但不管怎么說,每一個大模型里的參數(shù)量,都遠遠、遠遠、遠遠地超出了手動設(shè)定的范圍。怎么才能把它們調(diào)整得恰到好處,做出一顆能說會道的大腦呢?

      從這里開始,我們就要進入這個框架的縱軸:也就是如何通過預訓練、后訓練,最終制作出一個大模型了。放心,你一定能看懂——畢竟我也水平有限,能講給你聽的一定是大家都能理解的。


      大模型的制造的第一步,是利用海量的互聯(lián)網(wǎng)數(shù)據(jù),做Pre-training,“預訓練”。

      這是為了讓大模型掌握人類世界的各種知識和語言規(guī)律,打造出一個“基座模型”。

      過程很簡單:就是讓它爬遍互聯(lián)網(wǎng),把各位夙興夜寐辛苦創(chuàng)作的,飽含人類智慧的知識精華作為數(shù)據(jù)集,認真學習~

      并通過一種叫“反向傳播”的方法,讓大模型自己調(diào)整參數(shù)。這是什么意思呢?

      你看,當我們把這串 token 輸入到模型時,模型里會經(jīng)過一頓計算,輸出一個結(jié)果,這叫“前向傳播”。


      但初始的預測結(jié)果往往不盡人意:

      我們訓練的目標是讓大模型輸出“棗樹”,那就要把錯誤回答跟目標對比,看看差了多少。這一步就是計算“損失”(loss)。

      通過計算損失,模型可以反向找到在整個傳播過程中,到底是哪些步驟出了問題,然后調(diào)整它們對應的參數(shù)。如此循環(huán)往復,逐步調(diào)整,直到輸出結(jié)果逼近目標。

      這就是“反向傳播”。


      由于在預訓練的時候,大模型要學習的內(nèi)容太多,數(shù)據(jù)集很大,靠人力梳理根本干不過來。所以目前預訓練主要都用“自監(jiān)督學習”——就是人類躺平了,讓大模型自己去看數(shù)據(jù)、計算損失、調(diào)整參數(shù),自己調(diào)教自己。

      預訓練是大模型訓練中最耗時、耗算力的階段,往往需要幾個月甚至幾年,買天量的顯卡,所以讓黃仁勛成為了 AI 的最大贏家。


      預訓練完成后,我們就能得到一個Base Model,“基座模型”。你可以把它理解為一個“互聯(lián)網(wǎng)模擬器”,或者一個學會了人類世界知識的“通用大腦”。無論你輸入什么,它都能續(xù)出合適的 Token。


      不過,基座模型一般不能直接用。

      為了把它從“通用大腦”變成一個有特定功能的“打工人”,我們還需要給它做Post training,“后訓練”

      你可能聽說過所謂的fine tuning,“微調(diào)”,它就是后訓練時完成的。目前最常用的是方法“監(jiān)督微調(diào)”(SFT,Supervised Fine-Tuning)——所謂的“監(jiān)督”,就是說要給 AI 提供帶標注的數(shù)據(jù)集,讓它模仿標注數(shù)據(jù)的風格來生成內(nèi)容。


      比方說要把它做成我們最常用的各類“對話助手”,那就要給基座模型提供對話數(shù)據(jù)集。

      聽起來又是一項大工程,但此時所需要的數(shù)據(jù)集大小和訓練時長,其實遠遠小于預訓練階段。比如開源對話數(shù)據(jù)集 OpenAssistant 里,一共包含 16 萬條出頭的對話信息,中文對話數(shù)據(jù)只有不到 5000 條,但已經(jīng)足夠把基座模型變成一個合格的對話助手了。


      如果我們細看一下這個對話數(shù)據(jù)集,就會發(fā)現(xiàn)其中的對話講文明,懂禮貌,絕對不是你在如今互聯(lián)網(wǎng)評論區(qū)能看到的東西。也就是說監(jiān)督微調(diào)用的這些帶標注的數(shù)據(jù),都需要真人編寫,或者真人利用借助 AI 來編寫。

      所以監(jiān)督微調(diào)時,需要用到很多真人,作為“數(shù)據(jù)標注員”——這也算是 AI 給我們活人提供了一些工作機會了~

      比如 OpenAI 曾在這篇論文里提到,他們在 instruct-GPT 項目中招聘了 40 名數(shù)據(jù)標注員。

      你也能在招聘網(wǎng)站上找到很多“數(shù)據(jù)標注員”的崗位——雖然其中很多是枯燥的重復勞動,但它的好處一是門檻相對不高;二是等 AI 占領(lǐng)世界奴役人類后,說不定可以憑這份工作經(jīng)歷,向硅基生物投誠,當碳奸......


      不管你是想把 AI 打造成對話助手,還是醫(yī)學專家、法律專家等等,都要在微調(diào)時給他們喂相應的數(shù)據(jù)。

      當然,不是所有人的需求都這么實用,高雅。在 HuggingFace 等大模型社區(qū)上,你時常能找到有人拿一個基座大模型,給它喂不堪入目的數(shù)據(jù)做微調(diào),打造出上不了臺面的專家、女友。

      比如幾個月前,就有一個全站下載第一的模型,叫 deepsex (這段劃掉)……


      在完成監(jiān)督微調(diào)后,我們就可以得到一個基本可用的大模型了。但如果到此為止的話,大模型也不過是一個沒有靈魂,只會四處搬運,鸚鵡學舌的復讀機罷了——就跟我們這些科普博主一樣~

      如果要給大模型注入靈魂,那就要進入“后訓練”中最重要的一步:強化學習,RL,Reinforcement Learning。通過強化學習,大模型輸出的答案會更符合人類偏好,甚至展現(xiàn)出超越人類的“智力”。


      “強化學習”的具體方法很多,其中一些思路既簡單,又巧妙。我們可以用 Deepseek 的GRPO(Generalized Rejection Sampling Policy Optimization)方案來感受一下:

      首先,我們可以給定一個問題,讓 AI 生成幾十個不同的解決方案,并給出答案。這些答案有對有錯,其中答錯的方案直接扔掉,拒絕采樣;答對的那些解決方案,大概率更合理。

      于是我們可以把它們再喂給 AI,讓它們模仿這些方案,繼續(xù)生成解決思路和答案。然后再根據(jù)答案對錯,繼續(xù)篩選解決思路,再喂給 AI.....這樣反復訓練,就能提高 AI 輸出正確答案的能力。甚至偶爾能涌現(xiàn)出一些在人工數(shù)據(jù)集之外,連人類自己都未曾設(shè)想過的解決方案,達成一種“超越人類”的效果。


      是不是非常巧妙?但它也不是萬能的:比如一個問題沒有標準清晰的答案,比如寫文章、寫詩,那大模型怎么知道哪個答案更好呢?

      那這時候,又得用到數(shù)據(jù)標注員了~

      在強化學習中,數(shù)據(jù)標注員的任務,是給 AI 生成的答案,按他們的判斷排序,把好的排在前面,差的排在后面。

      當然,數(shù)據(jù)標注員無法給無窮無盡的回答排序。所以我們還要根據(jù)他們的排序偏好,訓練出一個“獎勵模型”,RM。來給AI 打分。然后把 AI 生成的答案,交給獎勵模型。這樣就可以讓大模型根據(jù)獎勵模型的反饋,不斷地訓練自己了。這種方式,叫做RLHF(Reinforcement Learning with Human Feedback),基于人工反饋的強化學習


      從監(jiān)督微調(diào)時的數(shù)據(jù)集編寫,到 RLHF 中給答案排序,都需要數(shù)據(jù)員的參與。所以從某種角度來說,一個大模型的“個性”,能反應它背后的人類標注員們的偏好——所以你談的那些 AI 女友,背后可能是跟你有共同愛好的的大漢~


      總而言之,目前后訓練中的“強化學習”,是各家技術(shù)團隊發(fā)力比拼的重要方向。大模型中很多讓人驚嘆的功能,都跟它有關(guān)。

      比如 DeepSeek R1 發(fā)布后,大家都震驚于它能展示詳盡的CoT(Chain of Thought),思維鏈。

      而根據(jù)官方論文,CoT 的出現(xiàn),是因為團隊在后訓練中的監(jiān)督微調(diào)階段,特意喂了 60 萬條推理數(shù)據(jù)。然后又通過我們剛才說的這套 GRPO 的強化學習流程,引導大模型自己篩選有效思路,最終實現(xiàn)了強大的推理能力。


      ok,經(jīng)過預訓練,后訓練,包括強化學習階段,一個完整的大模型終于可以做出來了。我們整個框架的講解也已經(jīng)接近尾聲。如果有些內(nèi)容沒記住也沒關(guān)系,我們總結(jié)成了下面這張圖片提供給你~


      既然已經(jīng)學會了,那讓我們開始手搓一個大模型吧——

      開玩笑的~我們哪會。不光不會手搓,甚至都無法把別人手搓好的大模型裝到電腦里。

      你可能會說,這不對吧?當時 DeepSeek R1 剛發(fā)布的時候火爆到宕機,不是有很多人教我們在電腦上部署大模型嗎?

      實際上,我們的電腦根本跑不動滿血模型~所以當時部署到電腦上的,都是所謂的“蒸餾模型”,你可以把它們理解成“高仿版”。

      比如這個模型的本質(zhì),是用阿里的 Qwen 32B 這個參數(shù)較小的模型,去“學習”滿血版 Deepseek R1 671B 的輸出結(jié)果,據(jù)此調(diào)整參數(shù),做出一個“高仿”的 Deepseek R1 ,所以叫“蒸餾”。


      除了蒸餾模型外,你還能在大模型社區(qū)上看到很多這樣的“量化模型”,相當于成原版大模型的“壓縮版”,因為它們就是把大模型中精度極高的參數(shù),轉(zhuǎn)化為精度沒那么高的參數(shù),從而降低模型的體積和性能要求

      很多個人電腦里部署的,都是這些壓縮或高仿版的模型~


      講到這里,這些亂七八糟的名詞就差不多講完了。

      我們也要多啰嗦一句:這期視頻的部分思路受到了前 OpenAI 的科學家安德烈·卡帕斯(Andrej Karpathy)在 YouTube 上這期長達 3 個半小時的口播視頻的啟發(fā)。如果有條件有耐心的話,你也可以去學習一個~


      最后,我們不知道有多少人看到這里——看完的可以在評論里舉個手——

      因為柴司有同學看完這期文稿后說,有點暈,像上課,信息太密集。但沒辦法,關(guān)于大模型的一切都很抽象,確實需要一點耐心才能看下來。


      如果你覺得這對你有所幫助,那歡迎點贊轉(zhuǎn)發(fā),讓我們知道這期視頻是不是真的有人看~

      下期見!

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點推薦
      不怪國內(nèi)那么多人想娶她,確實漂亮。

      不怪國內(nèi)那么多人想娶她,確實漂亮。

      情感大頭說說
      2026-04-05 18:05:23
      毛新宇被攙扶著回鄉(xiāng)祭祖:高顏值妻女照片流出,墓前講話內(nèi)容披露

      毛新宇被攙扶著回鄉(xiāng)祭祖:高顏值妻女照片流出,墓前講話內(nèi)容披露

      溫柔看世界
      2026-04-05 11:45:50
      曝郭艾倫及家人遭熟人詐騙:涉案金額近千萬 公安已立案調(diào)查

      曝郭艾倫及家人遭熟人詐騙:涉案金額近千萬 公安已立案調(diào)查

      醉臥浮生
      2026-04-05 21:11:31
      特斯拉即將發(fā)布一款重磅車型,太猛了!

      特斯拉即將發(fā)布一款重磅車型,太猛了!

      花果科技
      2026-04-05 23:01:14
      王楚欽:我非常慶幸我做到了,我“活到”了最后

      王楚欽:我非常慶幸我做到了,我“活到”了最后

      懂球帝
      2026-04-05 22:22:17
      別吃,寄生蟲達上千條,近期正大量出現(xiàn)

      別吃,寄生蟲達上千條,近期正大量出現(xiàn)

      番禺臺
      2026-04-05 08:11:02
      趙心童10-3橫掃小特!7次決賽全奪冠,最新世界排名:丁俊暉第16

      趙心童10-3橫掃小特!7次決賽全奪冠,最新世界排名:丁俊暉第16

      球場沒跑道
      2026-04-06 04:49:22
      李訥帶全家去祭拜毛主席,兒媳王偉漂亮懂事,王景清攙扶著李訥

      李訥帶全家去祭拜毛主席,兒媳王偉漂亮懂事,王景清攙扶著李訥

      大江
      2026-03-14 08:17:36
      4億美元,灰飛煙滅

      4億美元,灰飛煙滅

      中國新聞周刊
      2026-04-05 18:06:30
      楊瀚森前隊友生涯之夜!轟33+三雙創(chuàng)8新高:21歲拿雙向合同搏命

      楊瀚森前隊友生涯之夜!轟33+三雙創(chuàng)8新高:21歲拿雙向合同搏命

      顏小白的籃球夢
      2026-04-06 07:42:37
      特斯拉車主:全程 500 多公里,Model Y 跑完還剩 20% 電量!

      特斯拉車主:全程 500 多公里,Model Y 跑完還剩 20% 電量!

      新浪財經(jīng)
      2026-04-05 14:34:08
      網(wǎng)傳特朗普被緊急送往醫(yī)院,警車開道視頻瘋傳!白宮辟謠:特朗普并未住院

      網(wǎng)傳特朗普被緊急送往醫(yī)院,警車開道視頻瘋傳!白宮辟謠:特朗普并未住院

      西游日記
      2026-04-05 12:45:05
      傳瘋了!特朗普被傳去世,數(shù)日未公開露面,引發(fā)網(wǎng)友熱議

      傳瘋了!特朗普被傳去世,數(shù)日未公開露面,引發(fā)網(wǎng)友熱議

      魔都姐姐雜談
      2026-04-05 22:00:52
      陳光標:鑒于張雪遲遲未提車,已將勞斯萊斯變現(xiàn)1000萬元捐給嫣然醫(yī)院

      陳光標:鑒于張雪遲遲未提車,已將勞斯萊斯變現(xiàn)1000萬元捐給嫣然醫(yī)院

      觀察者網(wǎng)
      2026-04-05 16:51:28
      4天過去,中方準時取消優(yōu)惠政策,魯比奧出局,中美恐僵持二十年

      4天過去,中方準時取消優(yōu)惠政策,魯比奧出局,中美恐僵持二十年

      影孖看世界
      2026-04-05 22:28:52
      研究顯示:我國男性陰莖疲軟狀態(tài)下的均值是6.5厘米,你達標了嗎

      研究顯示:我國男性陰莖疲軟狀態(tài)下的均值是6.5厘米,你達標了嗎

      黯泉
      2026-04-05 19:00:47
      李亞鵬含沙射影,官媒下場無縫銜接配合,陳光標遮羞布被撕得粉碎

      李亞鵬含沙射影,官媒下場無縫銜接配合,陳光標遮羞布被撕得粉碎

      潮鹿逐夢
      2026-04-05 16:56:45
      “自動鉛筆”事件火了,面相學果然權(quán)威,帶入同學視角天都塌了!

      “自動鉛筆”事件火了,面相學果然權(quán)威,帶入同學視角天都塌了!

      番外行
      2026-04-04 12:52:45
      大女主的美:不是強大,是完整

      大女主的美:不是強大,是完整

      疾跑的小蝸牛
      2026-04-05 23:36:01
      拯救大兵——到伊朗腹地建個基地

      拯救大兵——到伊朗腹地建個基地

      熊飛白
      2026-04-05 21:30:55
      2026-04-06 08:07:00
      柴知道
      柴知道
      用有趣的方式,講有價值的知識
      403文章數(shù) 84207關(guān)注度
      往期回顧 全部

      科技要聞

      花200薅5千算力,Claude冷血斷供“龍蝦”

      頭條要聞

      伊朗媒體:多名美士兵在營救行動中身亡 美軍試圖摧毀遺體

      頭條要聞

      伊朗媒體:多名美士兵在營救行動中身亡 美軍試圖摧毀遺體

      體育要聞

      CBA最老球員,身價7500萬美元

      娛樂要聞

      王燦兮否認婆媳不和 曬與杜淳媽合影

      財經(jīng)要聞

      誰造出了優(yōu)思益這頭“怪物”?

      汽車要聞

      家用SUV沒駕駛樂趣?極氪8X第一個不同意

      態(tài)度原創(chuàng)

      本地
      家居
      手機
      游戲
      時尚

      本地新聞

      跟著歌聲游安徽,聽古村回響

      家居要聞

      溫馨多元 愛的具象化

      手機要聞

      OPPO Find X9s Pro銀色哈蘇專業(yè)增距鏡亮相:觀賽神器 顏值拉滿

      三天鼠標干壞兩個,你這還是自走棋嘛?

      伊姐清明熱推:電視劇《暴鋒雨》;電影《我,許可》......

      無障礙瀏覽 進入關(guān)懷版