<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

      1小時(shí)微調(diào) Gemma 3 270M 端側(cè)模型與部署全流程

      0
      分享至

      Gemma 3 270M是 Google 推出的一款雖小但能力驚人的開放模型。它屬于 Gemma 家族,本質(zhì)上是將 Gemini 模型中使用的相同技術(shù)帶入了輕量級(jí)、可定制的形式中。

      你可以在 不到一小時(shí)內(nèi)完成微調(diào),并將其大小壓縮到 300MB 以下,讓他直接在你的瀏覽器中運(yùn)行。

      在這篇文章中,我將展示我是如何使用 Gemma 創(chuàng)建我自己的 emoji 翻譯器的——這是一個(gè)將文本轉(zhuǎn)換為表情符號(hào)并在本地運(yùn)行的小型模型。



      第一步:教 Gemma “用 Emoji 思考”

      Gemma 是一個(gè)通才。如果你讓它把文本翻譯成表情符號(hào),它會(huì)表現(xiàn)得有點(diǎn)太客氣了。

      Prompt:

      “Translate this text into emojis: what a fun party”

      Model:

      “Sure! Here is your emoji: ”

      這不完全是我想要的目標(biāo)。對(duì)于我的應(yīng)用我想要 只有表情符號(hào)——不要單詞,不要“Sure!”,只要有趣的東西。

      所以我們可以對(duì)他進(jìn)行微調(diào)



      構(gòu)建一個(gè)微型數(shù)據(jù)集

      從一個(gè)簡(jiǎn)單的 JSON 文件開始——輸入文本,輸出表情符號(hào)。

      [
      { "input": "what a fun party", "output": "" },
      { "input": "good morning sunshine", "output": "??" },
      { "input": "so tired today", "output": "" }
      ]

      在 Colab 中微調(diào)

      以前微調(diào)需要 A100 GPU 和時(shí)間,現(xiàn)在不需要了。使用 QLoRA(僅更新少量參數(shù))在 Google Colab 的 免費(fèi) T4 GPU 上就可以微調(diào)。

      from transformers import (
      AutoModelForCausalLM,
      AutoTokenizer,
      Trainer,
      TrainingArguments,
      DataCollatorForLanguageModeling
      )
      from peft import LoraConfig, get_peft_model
      from datasets import load_dataset
      model_name = "google/gemma-3-270m"
      tokenizer = AutoTokenizer.from_pretrained(model_name)
      # 關(guān)鍵:為 Gemma 設(shè)置 pad_token
      if tokenizer.pad_token is None:
      tokenizer.pad_token = tokenizer.eos_token
      model = AutoModelForCausalLM.from_pretrained(
      model_name,
      torch_dtype="auto", # 可選:使用 auto dtype 以提高效率
      device_map="auto" # 可選:如果可用,自動(dòng)映射到 GPU
      )
      dataset = load_dataset("json", data_files="emoji_dataset.json")
      # 可選:如果序列很長(zhǎng),進(jìn)行預(yù)分詞和截?cái)啵═rainer 可以處理原始文本,但這樣更明確)
      # def tokenize_function(examples):
      # return tokenizer(examples["text"], truncation=True, max_length=512)
      # dataset = dataset.map(tokenize_function, batched=True, remove_columns=dataset["train"].column_names)
      lora_config = LoraConfig(
      r=8,
      lora_alpha=32,
      target_modules=[
      "q_proj", "k_proj", "v_proj", "o_proj", # Attention 層
      "gate_proj", "up_proj", "down_proj" # MLP 層
      ],
      lora_dropout=0.05,
      task_type="CAUSAL_LM" # 為了清晰起見顯式指定
      )
      model = get_peft_model(model, lora_config)
      training_args = TrainingArguments(
      output_dir="./gemma-emoji",
      num_train_epochs=3,
      per_device_train_batch_size=4,
      save_steps=100,
      logging_steps=10, # 可選:更頻繁地記錄日志
      evaluation_strategy="no", # 如果你有 eval_dataset,請(qǐng)?jiān)诖颂砑?br/># group_by_length=True, # 可選:將相似長(zhǎng)度分組以提高效率
      # max_steps=-1, # 可選:運(yùn)行完整的 epoch
      )
      # 關(guān)鍵:適用于 CLM 的正確整理器 (collator)
      data_collator = DataCollatorForLanguageModeling(
      tokenizer=tokenizer,
      mlm=False # 因果語(yǔ)言模型 (Causal LM),非掩碼
      )
      trainer = Trainer(
      model=model,
      args=training_args,
      train_dataset=dataset["train"],
      tokenizer=tokenizer, # 如果未預(yù)分詞,則啟用自動(dòng)分詞
      data_collator=data_collator
      )
      trainer.train()

      就是這樣,訓(xùn)練后模型可以只生成表情符號(hào)。



      第二步:讓它足夠小以適應(yīng) Web

      微調(diào)后s模型仍然約有 1GB,按 LLM 標(biāo)準(zhǔn)來(lái)看很小但對(duì)于瀏覽器來(lái)說(shuō)還是很大。

      為了在本地運(yùn)行它,我使用 LiteRT 將其量化為 4-bit(如果你更喜歡 Transformers.js,也可以選擇 ONNX)。

      這個(gè)較小的版本非常適合 MediaPipe 或 Transformers.js,兩者都利用 WebGPU 來(lái)訪問(wèn)你的設(shè)備硬件。所以是它實(shí)際上是在你的瀏覽器中運(yùn)行的。

      第三步:在瀏覽器中運(yùn)行模型

      有趣的部分來(lái)了——沒有服務(wù)器,沒有 API,無(wú)需等待。

      使用 MediaPipe 的 GenAI Tasks 直接在瀏覽器中加載并運(yùn)行模型。

      const genai = await FilesetResolver.forGenAiTasks(
      'https://cdn.jsdelivr.net/npm/@mediapipe/tasks-genai@latest/wasm'
      );
      const llmInference = await LlmInference.createFromOptions(genai, {
      baseOptions: { modelAssetPath: 'path/to/yourmodel.task' }
      });
      const prompt = "Translate this text to emoji: what a fun party!";
      const response = await llmInference.generateResponse(prompt);
      console.log(response);

      一旦緩存,它完全離線運(yùn)行。零延遲。完全隱私。甚至在飛行模式下也能工作。



      更小的模型意味著加載更快的應(yīng)用和更好的最終用戶體驗(yàn)。

      總結(jié)

      這個(gè)項(xiàng)目從開始到結(jié)束花了我不到一個(gè)小時(shí),測(cè)試時(shí)它甚至使用我最喜歡的表情符號(hào)。如果你一直想嘗試本地 AI從小處著手,選擇一個(gè)簡(jiǎn)單的任務(wù),微調(diào) Gemma將其量化,然后讓它直接在你的瀏覽器中運(yùn)行。

      因?yàn)?AI 的未來(lái)不僅僅是云端的大型模型——還有那些存在于你口袋里的小型模型。

      https://avoid.overfit.cn/post/8e8e6d615ea1480385c1e56d39952dd1

      Civil Learning

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      伊朗最大“內(nèi)鬼”被抓?革命衛(wèi)隊(duì):勾結(jié)以色列,指揮官卡尼被拘!

      伊朗最大“內(nèi)鬼”被抓?革命衛(wèi)隊(duì):勾結(jié)以色列,指揮官卡尼被拘!

      青青子衿
      2026-03-05 11:57:03
      打瘋了!東契奇首節(jié)狂轟22+5三分 生涯30次單節(jié)20+升歷史第四

      打瘋了!東契奇首節(jié)狂轟22+5三分 生涯30次單節(jié)20+升歷史第四

      醉臥浮生
      2026-03-07 12:13:33
      伊拉克庫(kù)爾德第一夫人宣言:我們不是任人驅(qū)使的炮灰!

      伊拉克庫(kù)爾德第一夫人宣言:我們不是任人驅(qū)使的炮灰!

      勝研集
      2026-03-06 13:44:23
      廣東一女子不愿上班常年坐街邊,因長(zhǎng)得好看被路人投喂:又懶又饞

      廣東一女子不愿上班常年坐街邊,因長(zhǎng)得好看被路人投喂:又懶又饞

      明智家庭教育
      2026-03-06 17:19:16
      美以伊軍事沖突最大副作用,是斬?cái)嗔硕砹_斯的“救命稻草”

      美以伊軍事沖突最大副作用,是斬?cái)嗔硕砹_斯的“救命稻草”

      廖保平
      2026-03-05 12:08:52
      “不想為以色列賣命”:帝國(guó)最后的遮羞布,美式民主終成笑話

      “不想為以色列賣命”:帝國(guó)最后的遮羞布,美式民主終成笑話

      怪口歷史的K先生
      2026-03-06 15:22:51
      為何關(guān)閉霍爾木茲海峽就能掐全球脖子?因?yàn)橐晾试褪侨澜缱詈玫?>
    </a>
        <h3>
      <a href=風(fēng)向觀察
      2026-03-06 21:31:15
      兩會(huì)不到3天,5大好消息傳來(lái)!老百姓暗暗叫好:希望國(guó)家盡快落實(shí)

      兩會(huì)不到3天,5大好消息傳來(lái)!老百姓暗暗叫好:希望國(guó)家盡快落實(shí)

      談史論天地
      2026-03-07 06:54:29
      1979年,張國(guó)燾凍死在養(yǎng)老院,許世友:除了主席,沒人是他的對(duì)手

      1979年,張國(guó)燾凍死在養(yǎng)老院,許世友:除了主席,沒人是他的對(duì)手

      文史季季紅
      2026-03-05 13:35:03
      寫入教科書的一天:F-35在德黑蘭完成全球首次實(shí)戰(zhàn)空對(duì)空擊殺

      寫入教科書的一天:F-35在德黑蘭完成全球首次實(shí)戰(zhàn)空對(duì)空擊殺

      斌聞天下
      2026-03-06 07:30:03
      伊方:因美以襲擊喪生的伊朗人三成為青少年

      伊方:因美以襲擊喪生的伊朗人三成為青少年

      環(huán)球網(wǎng)資訊
      2026-03-07 06:39:29
      為什么美國(guó)的華人華裔地位那么低 網(wǎng)友從各方面分析 真就那樣

      為什么美國(guó)的華人華裔地位那么低 網(wǎng)友從各方面分析 真就那樣

      侃神評(píng)故事
      2026-03-06 07:10:03
      我包養(yǎng)過(guò)一個(gè)女大學(xué)生,七年花了一千多萬(wàn)

      我包養(yǎng)過(guò)一個(gè)女大學(xué)生,七年花了一千多萬(wàn)

      煙火人間故事匯
      2026-03-06 23:05:03
      性壓抑已經(jīng)變態(tài)至此了?

      性壓抑已經(jīng)變態(tài)至此了?

      黯泉
      2026-03-07 11:28:43
      蘿莉島,是進(jìn)入核心圈層的投名狀,你猜他們?yōu)槭裁炊即┘t皮鞋

      蘿莉島,是進(jìn)入核心圈層的投名狀,你猜他們?yōu)槭裁炊即┘t皮鞋

      百曉生談歷史
      2026-03-05 22:00:08
      一份“煮熟的三文魚”火了,原來(lái)低認(rèn)知的家長(zhǎng),真能搞出人命!

      一份“煮熟的三文魚”火了,原來(lái)低認(rèn)知的家長(zhǎng),真能搞出人命!

      妍妍教育日記
      2026-03-07 08:45:06
      伊朗萬(wàn)萬(wàn)沒想到,自家王牌武器遭到破解,美軍多了一張底牌

      伊朗萬(wàn)萬(wàn)沒想到,自家王牌武器遭到破解,美軍多了一張底牌

      空天力量
      2026-03-06 13:09:18
      上次被發(fā)現(xiàn)還是1911年!上海寶山驚現(xiàn)1只,專家:可能是坐船來(lái)的

      上次被發(fā)現(xiàn)還是1911年!上海寶山驚現(xiàn)1只,專家:可能是坐船來(lái)的

      萬(wàn)象硬核本尊
      2026-03-06 23:54:22
      女子實(shí)名舉報(bào)某團(tuán)外賣:不上大額券就讓我變成“凌晨營(yíng)業(yè)”,你們真黑!

      女子實(shí)名舉報(bào)某團(tuán)外賣:不上大額券就讓我變成“凌晨營(yíng)業(yè)”,你們真黑!

      回旋鏢
      2026-03-06 21:13:59
      塔圖姆復(fù)出15分12板7助攻凱爾特人大勝獨(dú)行俠,布朗24分7板7助

      塔圖姆復(fù)出15分12板7助攻凱爾特人大勝獨(dú)行俠,布朗24分7板7助

      湖人崛起
      2026-03-07 10:25:09
      2026-03-07 13:43:00
      deephub incentive-icons
      deephub
      CV NLP和數(shù)據(jù)挖掘知識(shí)
      1940文章數(shù) 1456關(guān)注度
      往期回顧 全部

      科技要聞

      OpenClaw爆火,六位"養(yǎng)蝦人"自述與AI共生

      頭條要聞

      特朗普突然放話"先解決伊朗后解決古巴" 梅西聽懵了

      頭條要聞

      特朗普突然放話"先解決伊朗后解決古巴" 梅西聽懵了

      體育要聞

      塔圖姆歸來(lái):凱爾特人的春之綠

      娛樂(lè)要聞

      周杰倫田馥甄的“JH戀” 被扒得底朝天

      財(cái)經(jīng)要聞

      針對(duì)"不敢休、不讓休"怪圈 國(guó)家出手了

      汽車要聞

      逃離ICU,上汽通用“止血”企穩(wěn)

      態(tài)度原創(chuàng)

      親子
      藝術(shù)
      家居
      游戲
      房產(chǎn)

      親子要聞

      六個(gè)月寶寶查出散光,原因竟是父母長(zhǎng)期身旁玩手機(jī),媽媽懵了:我一直以為他閉著眼就沒事

      藝術(shù)要聞

      Mark Grantham | 城市街景

      家居要聞

      暖棕撞色 輕法奶油風(fēng)

      鍵鼠不是萬(wàn)能的神!外媒盤點(diǎn)近年適合用手柄玩的游戲

      房產(chǎn)要聞

      傳統(tǒng)學(xué)區(qū)房熄火?2月海口二手房爆火的板塊竟然是…

      無(wú)障礙瀏覽 進(jìn)入關(guān)懷版