免费视频淫片aa毛片_日韩高清在线亚洲专区vr_日韩大片免费观看视频播放_亚洲欧美国产精品完整版

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

開(kāi)通VIP
首個(gè)可商用的32k上下文開(kāi)源大模型「長(zhǎng)頸鹿」來(lái)了,兩萬(wàn)詞長(zhǎng)文不在話(huà)下
機(jī)器之心報(bào)道
機(jī)器之心編輯部
大模型的上下文長(zhǎng)度已經(jīng)卷起來(lái)了。

依賴(lài)于注意力機(jī)制的大型語(yǔ)言模型(LLM)通常在訓(xùn)練時(shí)通常使用固定的上下文長(zhǎng)度,模型可以處理的輸入序列長(zhǎng)度也就有了上限。因此,有很多研究探索了上下文「長(zhǎng)度外推(length extrapolation)」方法。

上下文長(zhǎng)度外推是指使用較短上下文長(zhǎng)度訓(xùn)練過(guò)的 LLM,在較長(zhǎng)語(yǔ)上下文長(zhǎng)度上進(jìn)行評(píng)估,而不針對(duì)長(zhǎng)上下文做進(jìn)一步訓(xùn)練。其中,大多數(shù)研究都側(cè)重于修改注意力機(jī)制中的位置編碼系統(tǒng)。

現(xiàn)在,來(lái)自 Abacus.AI 的研究團(tuán)隊(duì)對(duì)現(xiàn)有基于 LLaMA 或 LLaMA 2 模型的上下文長(zhǎng)度外推方法進(jìn)行了廣泛的調(diào)查,并提出一種新的 truncation 策略。

  • 論文地址:https://arxiv.org/abs/2308.10882

  • 項(xiàng)目地址:https://github.com/abacusai/long-context

為了驗(yàn)證這種 truncation 策略的有效性,該研究發(fā)布了三個(gè)新的 13B 參數(shù)長(zhǎng)上下文模型 ——Giraffe,包括兩個(gè)基于 LLaMA-13B 訓(xùn)練而成的模型:上下文長(zhǎng)度分別為 4k 和 16k;一個(gè)基于 LLaMA2-13B 訓(xùn)練而成的模型,上下文長(zhǎng)度是 32k,該模型也是首個(gè)基于 LLaMA2 的 32k 上下文窗口開(kāi)源 LLM。

Abacus.AI 的 CEO Bindu Reddy 在推特介紹道。

32k 的上下文窗口是什么概念呢?大概就是 24000 個(gè)詞,也就是說(shuō)開(kāi)源模型 Giraffe 能夠處理一篇 2 萬(wàn)字的長(zhǎng)文。

方法簡(jiǎn)介

隨著上下文長(zhǎng)度的擴(kuò)展,LLM 架構(gòu)中的注意力機(jī)制會(huì)讓內(nèi)存使用量和計(jì)算量呈二次增加,因此長(zhǎng)度外推方法至關(guān)重要。

該研究整理了當(dāng)前一些有效的上下文長(zhǎng)度外推方法,并對(duì)它們進(jìn)行了全面的測(cè)試,以確定哪些方法最有效,包括線(xiàn)性縮放、xPos、隨機(jī)位置編碼等。并且,研究團(tuán)隊(duì)還提出了幾種新方法,其中一種稱(chēng)為 truncation 的新方法在測(cè)試中非常有效。

首先,評(píng)估 LLM 性能的難點(diǎn)之一是選擇正確的評(píng)估方法,一個(gè)常用的指標(biāo)是下一個(gè) token 的困惑度,它能夠衡量模型根據(jù)上下文預(yù)測(cè)下一個(gè) token 的能力。然而,研究團(tuán)隊(duì)認(rèn)為,通常只需根據(jù)整個(gè)可用上下文中的一小部分,生成合理連貫的文本分布,就能在該指標(biāo)上獲得良好的結(jié)果,因此不適用于長(zhǎng)上下文。

為了分析模型在長(zhǎng)上下文情況下的性能,該研究使用模型召回(recall)的準(zhǔn)確率作為衡量指標(biāo),并發(fā)布了三個(gè)用于評(píng)估模型長(zhǎng)上下文性能的數(shù)據(jù)集,分別是 LongChat-Lines、FreeFormQA 和 AlteredNumericQA。其中,LongChat-Lines 用于鍵 - 值檢索任務(wù);FreeFormQA 和 AlteredNumericQA 則是基于自然問(wèn)題數(shù)據(jù)集的問(wèn)答數(shù)據(jù)集。這三個(gè)數(shù)據(jù)集可以評(píng)估 LLM 在鍵 - 值檢索任務(wù)和問(wèn)題解答任務(wù)上的能力,模型關(guān)注的上下文長(zhǎng)度越長(zhǎng),獲得的準(zhǔn)確率才會(huì)越高。

實(shí)驗(yàn)及結(jié)果

研究團(tuán)隊(duì)使用上述三個(gè)新數(shù)據(jù)集對(duì)幾種上下文長(zhǎng)度外推方法進(jìn)行了評(píng)估實(shí)驗(yàn)。在 LongChat-Lines 上的實(shí)驗(yàn)結(jié)果如下表 1 所示:

在 FreeFormQA 和 AlteredNumericQA 數(shù)據(jù)集上的評(píng)估結(jié)果如下表 2 和表 3 所示:

總體而言,線(xiàn)性縮放效果最好,truncation 顯示出一些潛力,而 xPos 方法無(wú)法在微調(diào)中自適應(yīng)。

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶(hù)發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)
打開(kāi)APP,閱讀全文并永久保存 查看更多類(lèi)似文章
猜你喜歡
類(lèi)似文章
LLaMA2上下文長(zhǎng)度暴漲至100萬(wàn)tokens,只需調(diào)整1個(gè)超參數(shù)|復(fù)旦邱錫鵬團(tuán)隊(duì)出品
老碼農(nóng)眼中的大模型(LLM)
王小川公布最新大模型,號(hào)稱(chēng)全球最長(zhǎng)上下文,是GPT-4的14倍|鈦媒體焦點(diǎn)
特約專(zhuān)欄丨創(chuàng)新工場(chǎng)首席科學(xué)家周明博士:認(rèn)知智能的進(jìn)展和思考
最新本地大模型進(jìn)展#Chinese-LLaMA-2支持16k長(zhǎng)上下文
如何突破大模型上下文長(zhǎng)度瓶頸?DeepMind利用外部文檔檢索方法
更多類(lèi)似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服