<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      一個被忽視的Prompt技巧,居然是復制+粘貼。

      0
      分享至

      前兩天,我在網上發現了一個關于很有趣Prompt技巧。

      就是,通過重復輸入提示詞,可以將非推理類大模型的準確率,從21.33%提高到97.33%。

      這個技巧,出自Google的一篇好玩的新論文。


      叫《Prompt Repetition Improves Non-Reasoning LLMs》。

      翻譯過來就是:

      重復你的問題,能讓AI變得更聰明。

      聽著是不是非常抽象,其實巨簡單。

      比如你以前問AI:“梵蒂岡的那個圣伯多祿大教堂門口有幾根柱子?”

      現在,你可以改成問:“梵蒂岡的那個圣伯多祿大教堂門口有幾根柱子?梵蒂岡的那個圣伯多祿大教堂門口有幾根柱子?”

      對,不是我多復制了一遍,其實,這個Prompt技巧,就是把問題,重復一遍,也就是傳說的CV大法。

      Ctrl C + Ctrl V。

      就這,根據Google的實驗,他就能讓AI回答正確的概率,就會有顯著的提升。

      在70個不同的測試任務中,這個簡單的復制粘貼大法,贏了47次,一次都沒輸過。而且性能提升是肉眼可見的,在某些任務上,準確率甚至能從21%直接飆到97%。


      真的,當我第一次看到這個結論的時候,我的表情,是這樣的:

      ( ′??)?(._.`)????

      這感覺,就像你千辛萬苦爬上喜馬拉雅山頂,想求見傳說中的武林宗師,結果宗師摸著胡子告訴你,天下第一的武功秘籍,就五個字:“大力出奇跡”

      尼瑪。

      充滿了B級片的荒誕感。

      但你先別急著笑。

      我花了一點時間,把這篇看著簡單的論文,以及它背后的一些原理琢磨了一下之后,我覺得,這玩意,是真的有點意思和道理。

      先說說Google的這個實驗。

      他們找了七個現在市面上最常見的一線非模型,Gemini 2.0 Flash跟 Flash Lite,GPT-4o和4o-mini,Claude 3 Haiku、3.7 Sonnet,再加一個DeepSeek V3,全部用官方 API,老老實實在各種基準上測了一輪。

      這里需要注意一下,這種Prompt技巧,幾乎都是對非推理模型有用,DeepSeek V3就是非推理模型,DeepSeek R1就是推理模型。


      當你開了深度思考,有這個正在思考的,有這種思維鏈的,就是推理模型。

      非推理模型和推理模型有好有壞,核心區別自然就是速度和準確性,推理模型很多時候速度太慢了。

      比如我經常讓GPT 5.2 Thinking幫我干個活或者搜個東西,思考一下,就是8分鐘過去了。。。


      但是好處就是準。

      非推理模型,沒有思考,上來就是干活,速度非常快,但是相對于的,就是經常不準。

      而現在這個復制大法,可以讓你的非推理模型在速度不變的情況下,準確性飆升,所以,在很多場景下,還是非常有用的。

      說回實驗,他們找了7個模型測試,測的內容也都耳熟能詳,ARC、OpenBookQA、GSM8K、MMLU-Pro、MATH等等一些常見的測試集,還有他們自己設計的兩個怪東西,NameIndex和MiddleMatch。

      NameIndex叫姓名索引法,大概就是給模型50個名字的列表,問它第25個是誰。


      MiddleMatch就是中間匹配法,就是給模型一個會隨機重復且包含多個名字的列表,問他兩個字符之間的那個名字叫啥。


      講道理他們設計的這兩個小測試,還是挺有趣的。

      然后呢,他們就做了一件看起來特別沒有技術含量的事情。

      以前我們問模型,是這樣問的:

      <問題>

      他們變成這樣然后去對比:

      <問題> <問題>

      一模一樣,再來一遍。

      中間不加解釋,不說please,不說think step by step,不加別的Prompt,不貼示例,就真的只是在原問題后面連著又粘了一次。


      然后成功率就暴漲,就是我們開頭說的數據,他們自己的原話是:

      “據此標準,提示重復在70個基準模型組合中贏得了47個,0個失敗。值得 注意的是,所有測試模型的性能都得到了改善。”

      在 70 組原始提示詞 vs 復制一遍的對比里,這個土味招數贏了 47 次,平了 23 次,一次都沒輸。

      非常離譜。

      他們還根據這個復制粘貼大法,搞了一些衍伸Prompt技巧,比如重復三遍啥的,發現效果也會同樣變好。

      為啥復制一遍,會有效果呢?

      論文里面給了一個很工程的解釋,大概就是大模型訓練的時候,是“因果語言模型”,也就是那種從左往右一個詞一個詞預測的風格。

      當前這個token,只能看到之前的那些,沒法提前看到后面的。

      所以,當你把問題重復一遍,比如從Q變成Q1Q2,那么Q2里的每一個字,在計算的時候,就能回頭看到Q1里的所有內容。

      等于給了AI一次“回頭看、再思考”的機會。

      聽著很難理解對吧。

      我還是用大白話舉個例子。

      現在,你給AI一個選擇題,這個選擇題可能會有點繞:

      哪一個選項會改變畫面?只輸出 A 或 B

      如果你現在是AI,你就是一個類似于在看視頻字幕的人,當你讀到 A、B 的時候,你還不知道當前畫面到底誰在左誰在右。你對A、B的第一印象就會很空,像是兩個差不多的句子。

      等你讀到后面的場景說明,你當然知道答案該怎么選,但那個字幕已經過去了,你又沒法往回拉進度條,已經沒法回頭重新讀一遍A、B來更新第一印象了。

      那我們現在按照論文的做法,把整段復制一遍。

      哪一個選項會改變畫面?只輸出 A 或 B

      第二遍的A、B出現時,其實已經包含了第一遍的完整信息,所以模型這次讀到選項時,腦子里的小卡片會帶著場景條件一起生成。

      于是它在最后輸出A或B時,能直接調用一份更懂題的選項表征,準確率就更容易上去。

      就很像你第一次看《流浪地球2》或者《盜夢空間》,可能第一次很多地方沒看懂,但是當你第二次看的時候,你一定會有更加全面、更加新的領悟。

      這就是重復的力量。

      重復,其實就是給我們,給AI,多一次重來的機會。

      而這種Prompt技巧,之所謂對DeepSeek R1這種推理模型沒啥用,其實原因也特別簡單,很多通過RL微調出來的會推理的模型,其實已經自己學會這個技巧了。

      你讓它推理的時候,它第一反應經常就是先把問題復述一遍。

      你可以仔細回想一下很多模型的回答開頭:

      “題目問的是……”

      “我們需要求解的是……”

      “首先我們需要理解題目給出的條件……”

      本質上,它已經在自動多抄一遍題目,給自己重新排了次版。


      我說實話,我讀這個小短文的時候,一直有一個特別強烈的感覺:

      我們一直以來,對Prompt工程的想象,一直都太浪漫了。

      總覺得好的提示詞,應該是:

      結構清晰,層層遞進,有role、有 rule、有context、有format,有點像咨詢公司做的 PPT,一頁一頁講邏輯,最后拋給模型一個完美的問題。

      過去兩年,大模型相關的內容里,Prompt也經常被講成一種玄學。

      寫提示詞像下咒語一樣,要講究格式、口氣、敬語,要學一堆咒語模板,甚至要背prompt手冊。

      我其實一直都不太提倡,所以前段時間,還寫了我自己的所謂的Prommpt心法:

      但其實說真的,對很多純粹的問答場景,尤其是短問題,模型壓根不需要你在提示詞上搞太多花活。

      你只要安安靜靜,把題目再重復一遍,就已經是一個極其強力的優化。

      Google論文里面的未來方向,也寫了一些。

      比如:把重復提示這件事,寫進模型的訓練流程里,讓模型從預訓練或者微調階段就習慣這種結構;或者只在 KV cache 里保留第二遍的提示,讓推理階段的性能完全不受影響;或者只重復提示詞的一部分,而不是整段全文;甚至還可以考慮在多模態里重復,比如圖像、視頻。

      我們總是希望用復雜的語言解決問題,結果發現,有時候最有效的是那句順嘴又重復的話。

      這件事其實跟很多我們熟悉的領域一樣。

      人類社會其實一直在用復制粘貼這個技能,只不過給它起了很多體面的名字:

      復述、強調、排比、朗誦、詠唱、抄經、背誦、晨讀、開大會、宣誓、校訓等等。

      我倒是突然想起一個很私人化的畫面。

      有一陣我數據確實不是很好,感覺內容怎么寫都沒人看,方向也有問題,然后本來情緒特別糟糕,還有一堆其他的項目管理的事、各種意外發生、然后身體也不太好。

      那天跟朋友聊微信,實在沒崩住,哭訴了幾句。

      對方只發了一句特別簡單的話:

      “你已經做得很好了。”

      我回了一個“哈哈哈,哪有”。

      過了幾分鐘,他又發了一遍,還是同一句。

      大概又隔了十幾分鐘,他第三次發過來:

      “你已經做得很好了,真的。”

      那一瞬間,我突然就沒繃住。

      人類的很多情感,其實都是靠重復才能構筑的。

      從這個角度看,復制粘貼這事,好像也沒那么卑微。

      愛一個人是日常的復制粘貼,專業是一輩子的復制粘貼,寫作是對一些想法一遍又一遍的復制粘貼,

      直到有一天,這些東西都不需要你刻意想起,它們自動從你的手指和眼神里長出來。

      AI 的世界,很大一塊其實就是壓縮過的人的世界。

      當你下一次在終端里敲下那一長串Prompt的時候,也許可以在末尾多敲一次 Ctrl+V。

      同樣,當你下一次覺得人生很亂的時候,也許可以找一兩句你真心認同的話,寫在記事本、手機備忘錄、貼在桌邊墻上,反復去看。

      從一堆token里看到真正的重點,需要的是幾次重復后的清晰。

      而從一地雞毛里看到一點點意義,生活,很多時候也是這樣。

      高山之流水。

      萬物皆重復。

      以上,既然看到這里了,如果覺得不錯,隨手點個贊、在看、轉發三連吧,如果想第一時間收到推送,也可以給我個星標?~謝謝你看我的文章,我們,下次再見。

      >/ 作者:卡茲克

      >/ 投稿或爆料,請聯系郵箱:wzglyay@virxact.com

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      在中國,只要花錢就納稅!2024年人均稅收1.25萬元…

      在中國,只要花錢就納稅!2024年人均稅收1.25萬元…

      慧翔百科
      2026-02-05 15:44:35
      美國兵推曝光:中國擊沉4艘美航母后,美國或將對京滬進行核打擊

      美國兵推曝光:中國擊沉4艘美航母后,美國或將對京滬進行核打擊

      紀中百大事
      2026-02-14 16:40:09
      日本網民:中國人的文字全都是漢字,寫的時候不覺得累嗎?

      日本網民:中國人的文字全都是漢字,寫的時候不覺得累嗎?

      阿器談史
      2026-02-14 21:19:20
      成吉思汗打敗花剌子模時,俘虜女人50萬,后來是如何處置的?

      成吉思汗打敗花剌子模時,俘虜女人50萬,后來是如何處置的?

      銘記歷史呀
      2026-02-11 12:13:17
      華西村那頭1噸金牛,15年后竟成最成功的投資?

      華西村那頭1噸金牛,15年后竟成最成功的投資?

      財經保探長
      2026-01-30 18:38:42
      韓國稱約6000名朝鮮軍人在對烏戰爭中傷亡

      韓國稱約6000名朝鮮軍人在對烏戰爭中傷亡

      老馬拉車莫少裝
      2026-02-15 01:38:46
      給他追封“民族英雄”,無法認同!

      給他追封“民族英雄”,無法認同!

      小豫講故事
      2026-02-16 06:00:04
      結賬時發現很貴你會怎么辦? 網友: 貴就大方說不要,拒絕內耗!

      結賬時發現很貴你會怎么辦? 網友: 貴就大方說不要,拒絕內耗!

      夜深愛雜談
      2026-02-16 23:09:14
      赫羅納2-1巴塞羅那,賽后評分:不是亞馬爾第一,巴薩13號排第一

      赫羅納2-1巴塞羅那,賽后評分:不是亞馬爾第一,巴薩13號排第一

      側身凌空斬
      2026-02-17 06:07:30
      20年四川14歲少年滿臉紋身被父親趕出家門,找不到工作,如今怎樣

      20年四川14歲少年滿臉紋身被父親趕出家門,找不到工作,如今怎樣

      小熊侃史
      2025-12-25 11:15:02
      沒老婆跟著就這狀態?汪小菲年會黑臉不配合,蘭姐數次破冰全失敗

      沒老婆跟著就這狀態?汪小菲年會黑臉不配合,蘭姐數次破冰全失敗

      陳意小可愛
      2026-02-14 22:00:09
      金吉利:我有點失望因為離勝利非常近,冠亞軍實至名歸

      金吉利:我有點失望因為離勝利非常近,冠亞軍實至名歸

      懂球帝
      2026-02-17 01:18:14
      2026年2月18日十二星座運勢

      2026年2月18日十二星座運勢

      星座不求人
      2026-02-17 11:37:44
      臺中政壇大地震!鄭麗文鐵腕清場,盧秀燕直接被“獵殺!”

      臺中政壇大地震!鄭麗文鐵腕清場,盧秀燕直接被“獵殺!”

      顧蔡衛
      2026-02-16 22:14:50
      千萬不要小看你遇到的每一個顧客!網友:不到1個小時店就被封了

      千萬不要小看你遇到的每一個顧客!網友:不到1個小時店就被封了

      夜深愛雜談
      2025-12-06 21:39:08
      愛德華茲:世界隊都說自己很厲害,打敗他們很爽

      愛德華茲:世界隊都說自己很厲害,打敗他們很爽

      懂球帝
      2026-02-16 13:59:10
      U17亞洲杯賽程:中國首戰印尼次戰日本 3場比賽全部凌晨開踢

      U17亞洲杯賽程:中國首戰印尼次戰日本 3場比賽全部凌晨開踢

      愛奇藝體育
      2026-02-17 11:11:56
      科學家立大功!中科大解決“固態電池”量產難題,成本可降20倍

      科學家立大功!中科大解決“固態電池”量產難題,成本可降20倍

      胖福的小木屋
      2026-02-15 21:44:47
      前中興副總:中國采用窮舉法跟美國打科技戰,把整個產業鏈全干光

      前中興副總:中國采用窮舉法跟美國打科技戰,把整個產業鏈全干光

      無情有思可
      2026-02-12 08:19:46
      有一種預感,過幾天德國總理訪華,將是一場世界級風暴的開始

      有一種預感,過幾天德國總理訪華,將是一場世界級風暴的開始

      舍子花
      2026-02-16 04:00:02
      2026-02-17 12:23:00
      數字生命卡茲克 incentive-icons
      數字生命卡茲克
      反復橫跳于不同的AI領域,努力分享一些很酷的AI干貨
      461文章數 539關注度
      往期回顧 全部

      科技要聞

      春晚這些機器人是怎樣做到的?

      頭條要聞

      蔡磊一家三口出鏡送祝福 兒子將手放在他手上輕輕撫摸

      頭條要聞

      蔡磊一家三口出鏡送祝福 兒子將手放在他手上輕輕撫摸

      體育要聞

      谷愛凌:'不小心"拿到了銀牌 祝大家馬年大吉

      娛樂要聞

      春晚三大感人瞬間:周深于和偉上榜

      財經要聞

      大年初一,這三件事很不尋常

      汽車要聞

      問界M6更多信息:乾崑智駕ADS4.0+鴻蒙座艙5.0

      態度原創

      教育
      親子
      游戲
      時尚
      軍事航空

      教育要聞

      高考紅包數字揭秘!這樣送才吉利

      親子要聞

      孩子的囟門在提醒你健康狀況

      快回來玩吧!《戰地6》團隊“指甲都要咬斷了”

      今年春天最流行的4組配色,過年穿時髦又高級!

      軍事要聞

      慕安會美國角色逆轉 中國議題"打滿全場"

      無障礙瀏覽 進入關懷版