女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用LoRA和Hugging Face高效訓(xùn)練大語(yǔ)言模型

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:Hugging Face ? 2023-04-14 17:37 ? 次閱讀

在本文中,我們將展示如何使用 大語(yǔ)言模型低秩適配 (Low-Rank Adaptation of Large Language Models,LoRA) 技術(shù)在單 GPU 上微調(diào) 110 億參數(shù)的 FLAN-T5 XXL 模型。在此過(guò)程中,我們會(huì)使用到 Hugging Face 的 TransformersAccelerate 和 PEFT 庫(kù)。

快速入門: 輕量化微調(diào) (Parameter Efficient Fine-Tuning,PEFT)

PEFT 是 Hugging Face 的一個(gè)新的開源庫(kù)。使用 PEFT 庫(kù),無(wú)需微調(diào)模型的全部參數(shù),即可高效地將預(yù)訓(xùn)練語(yǔ)言模型 (Pre-trained Language Model,PLM) 適配到各種下游應(yīng)用。

注意: 本教程是在 g5.2xlarge AWS EC2 實(shí)例上創(chuàng)建和運(yùn)行的,該實(shí)例包含 1 個(gè) NVIDIA A10G

1. 搭建開發(fā)環(huán)境

在本例中,我們使用 AWS 預(yù)置的 PyTorch 深度學(xué)習(xí) AMI,其已安裝了正確的 CUDA 驅(qū)動(dòng)程序和 PyTorch。在此基礎(chǔ)上,我們還需要安裝一些 Hugging Face 庫(kù),包括 transformers 和 datasets。運(yùn)行下面的代碼就可安裝所有需要的包。

#installHuggingFaceLibraries
!pipinstallgit+https://github.com/huggingface/peft.git
!pipinstall"transformers==4.27.1""datasets==2.9.0""accelerate==0.17.1""evaluate==0.4.0""bitsandbytes==0.37.1"loralib--upgrade--quiet
#installadditionaldependenciesneededfortraining
!pipinstallrouge-scoretensorboardpy7zr

2. 加載并準(zhǔn)備數(shù)據(jù)集

這里,我們使用 samsum 數(shù)據(jù)集,該數(shù)據(jù)集包含大約 16k 個(gè)含摘要的聊天類對(duì)話數(shù)據(jù)。這些對(duì)話由精通英語(yǔ)的語(yǔ)言學(xué)家制作。

{
"id":"13818513",
"summary":"AmandabakedcookiesandwillbringJerrysometomorrow.",
"dialogue":"Amanda:Ibakedcookies.Doyouwantsome?
Jerry:Sure!
Amanda:I'llbringyoutomorrow:-)"
}

我們使用 Datasets 庫(kù)中的 load_dataset() 方法來(lái)加載 samsum 數(shù)據(jù)集。

fromdatasetsimportload_dataset

#Loaddatasetfromthehub
dataset=load_dataset("samsum")

print(f"Traindatasetsize:{len(dataset['train'])}")
print(f"Testdatasetsize:{len(dataset['test'])}")

#Traindatasetsize:14732
#Testdatasetsize:819

為了訓(xùn)練模型,我們要用 Transformers Tokenizer 將輸入文本轉(zhuǎn)換為詞元 ID。

fromtransformersimportAutoTokenizer,AutoModelForSeq2SeqLM

model_id="google/flan-t5-xxl"

#LoadtokenizerofFLAN-t5-XL
tokenizer=AutoTokenizer.from_pretrained(model_id)

在開始訓(xùn)練之前,我們還需要對(duì)數(shù)據(jù)進(jìn)行預(yù)處理。生成式文本摘要屬于文本生成任務(wù)。我們將文本輸入給模型,模型會(huì)輸出摘要。我們需要了解輸入和輸出文本的長(zhǎng)度信息,以利于我們高效地批量處理這些數(shù)據(jù)。

fromdatasetsimportconcatenate_datasets
importnumpyasnp
#Themaximumtotalinputsequencelengthaftertokenization.
#Sequenceslongerthanthiswillbetruncated,sequencesshorterwillbepadded.
tokenized_inputs=concatenate_datasets([dataset["train"],dataset["test"]]).map(lambdax:tokenizer(x["dialogue"],truncation=True),batched=True,remove_columns=["dialogue","summary"])
input_lenghts=[len(x)forxintokenized_inputs["input_ids"]]
#take85percentileofmaxlengthforbetterutilization
max_source_length=int(np.percentile(input_lenghts,85))
print(f"Maxsourcelength:{max_source_length}")

#Themaximumtotalsequencelengthfortargettextaftertokenization.
#Sequenceslongerthanthiswillbetruncated,sequencesshorterwillbepadded."
tokenized_targets=concatenate_datasets([dataset["train"],dataset["test"]]).map(lambdax:tokenizer(x["summary"],truncation=True),batched=True,remove_columns=["dialogue","summary"])
target_lenghts=[len(x)forxintokenized_targets["input_ids"]]
#take90percentileofmaxlengthforbetterutilization
max_target_length=int(np.percentile(target_lenghts,90))
print(f"Maxtargetlength:{max_target_length}")

我們將在訓(xùn)練前統(tǒng)一對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理并將預(yù)處理后的數(shù)據(jù)集保存到磁盤。你可以在本地機(jī)器或 CPU 上運(yùn)行此步驟并將其上傳到 Hugging Face Hub。

defpreprocess_function(sample,padding="max_length"):
#addprefixtotheinputfort5
inputs=["summarize:"+itemforiteminsample["dialogue"]]

#tokenizeinputs
model_inputs=tokenizer(inputs,max_length=max_source_length,padding=padding,truncation=True)

#Tokenizetargetswiththe`text_target`keywordargument
labels=tokenizer(text_target=sample["summary"],max_length=max_target_length,padding=padding,truncation=True)

#Ifwearepaddinghere,replacealltokenizer.pad_token_idinthelabelsby-100whenwewanttoignore
#paddingintheloss.
ifpadding=="max_length":
labels["input_ids"]=[
[(lifl!=tokenizer.pad_token_idelse-100)forlinlabel]forlabelinlabels["input_ids"]
]

model_inputs["labels"]=labels["input_ids"]
returnmodel_inputs

tokenized_dataset=dataset.map(preprocess_function,batched=True,remove_columns=["dialogue","summary","id"])
print(f"Keysoftokenizeddataset:{list(tokenized_dataset['train'].features)}")

#savedatasetstodiskforlatereasyloading
tokenized_dataset["train"].save_to_disk("data/train")
tokenized_dataset["test"].save_to_disk("data/eval")

3. 使用 LoRA 和 bnb int-8 微調(diào) T5

除了 LoRA 技術(shù),我們還使用 bitsanbytes LLM.int8() 把凍結(jié)的 LLM 量化為 int8。這使我們能夠?qū)?FLAN-T5 XXL 所需的內(nèi)存降低到約四分之一。

訓(xùn)練的第一步是加載模型。我們使用 philschmid/flan-t5-xxl-sharded-fp16 模型,它是 google/flan-t5-xxl 的分片版。分片可以讓我們?cè)诩虞d模型時(shí)不耗盡內(nèi)存。

fromtransformersimportAutoModelForSeq2SeqLM

#huggingfacehubmodelid
model_id="philschmid/flan-t5-xxl-sharded-fp16"

#loadmodelfromthehub
model=AutoModelForSeq2SeqLM.from_pretrained(model_id,load_in_8bit=True,device_map="auto")

現(xiàn)在,我們可以使用 peft 為 LoRA int-8 訓(xùn)練作準(zhǔn)備了。

frompeftimportLoraConfig,get_peft_model,prepare_model_for_int8_training,TaskType

#DefineLoRAConfig
lora_config=LoraConfig(
r=16,
lora_alpha=32,
target_modules=["q","v"],
lora_dropout=0.05,
bias="none",
task_type=TaskType.SEQ_2_SEQ_LM
)
#prepareint-8modelfortraining
model=prepare_model_for_int8_training(model)

#addLoRAadaptor
model=get_peft_model(model,lora_config)
model.print_trainable_parameters()

#trainableparams:18874368||allparams:11154206720||trainable%:0.16921300163961817

如你所見,這里我們只訓(xùn)練了模型參數(shù)的 0.16%!這個(gè)巨大的內(nèi)存增益讓我們安心地微調(diào)模型,而不用擔(dān)心內(nèi)存問(wèn)題。

接下來(lái)需要?jiǎng)?chuàng)建一個(gè) DataCollator,負(fù)責(zé)對(duì)輸入和標(biāo)簽進(jìn)行填充,我們使用 Transformers 庫(kù)中的 DataCollatorForSeq2Seq 來(lái)完成這一環(huán)節(jié)。

fromtransformersimportDataCollatorForSeq2Seq

#wewanttoignoretokenizerpadtokenintheloss
label_pad_token_id=-100
#Datacollator
data_collator=DataCollatorForSeq2Seq(
tokenizer,
model=model,
label_pad_token_id=label_pad_token_id,
pad_to_multiple_of=8
)

最后一步是定義訓(xùn)練超參 ( TrainingArguments)。

fromtransformersimportSeq2SeqTrainer,Seq2SeqTrainingArguments

output_dir="lora-flan-t5-xxl"

#Definetrainingargs
training_args=Seq2SeqTrainingArguments(
output_dir=output_dir,
auto_find_batch_size=True,
learning_rate=1e-3,#higherlearningrate
num_train_epochs=5,
logging_dir=f"{output_dir}/logs",
logging_strategy="steps",
logging_steps=500,
save_strategy="no",
report_to="tensorboard",
)

#CreateTrainerinstance
trainer=Seq2SeqTrainer(
model=model,
args=training_args,
data_collator=data_collator,
train_dataset=tokenized_dataset["train"],
)
model.config.use_cache=False#silencethewarnings.Pleasere-enableforinference!

運(yùn)行下面的代碼,開始訓(xùn)練模型。請(qǐng)注意,對(duì)于 T5,出于收斂穩(wěn)定性考量,某些層我們?nèi)员3?float32 精度。

#trainmodel
trainer.train()

訓(xùn)練耗時(shí)約 10 小時(shí) 36 分鐘,訓(xùn)練 10 小時(shí)的成本約為 13.22 美元。相比之下,如果 在 FLAN-T5-XXL 上進(jìn)行全模型微調(diào) 10 個(gè)小時(shí),我們需要 8 個(gè) A100 40GB,成本約為 322 美元。

我們可以將模型保存下來(lái)以用于后面的推理和評(píng)估。我們暫時(shí)將其保存到磁盤,但你也可以使用 model.push_to_hub 方法將其上傳到 Hugging Face Hub。

#SaveourLoRAmodel&tokenizerresults
peft_model_id="results"
trainer.model.save_pretrained(peft_model_id)
tokenizer.save_pretrained(peft_model_id)
#ifyouwanttosavethebasemodeltocall
#trainer.model.base_model.save_pretrained(peft_model_id)

最后生成的 LoRA checkpoint 文件很小,僅需 84MB 就包含了從 samsum 數(shù)據(jù)集上學(xué)到的所有知識(shí)。

4. 使用 LoRA FLAN-T5 進(jìn)行評(píng)估和推理

我們將使用 evaluate 庫(kù)來(lái)評(píng)估 rogue 分?jǐn)?shù)。我們可以使用 PEFT 和 transformers 來(lái)對(duì) FLAN-T5 XXL 模型進(jìn)行推理。對(duì) FLAN-T5 XXL 模型,我們至少需要 18GB 的 GPU 顯存。

importtorch
frompeftimportPeftModel,PeftConfig
fromtransformersimportAutoModelForSeq2SeqLM,AutoTokenizer

#Loadpeftconfigforpre-trainedcheckpointetc.
peft_model_id="results"
config=PeftConfig.from_pretrained(peft_model_id)

#loadbaseLLMmodelandtokenizer
model=AutoModelForSeq2SeqLM.from_pretrained(config.base_model_name_or_path,load_in_8bit=True,device_map={"":0})
tokenizer=AutoTokenizer.from_pretrained(config.base_model_name_or_path)

#LoadtheLoramodel
model=PeftModel.from_pretrained(model,peft_model_id,device_map={"":0})
model.eval()

print("Peftmodelloaded")

我們用測(cè)試數(shù)據(jù)集中的一個(gè)隨機(jī)樣本來(lái)試試摘要效果。

fromdatasetsimportload_dataset
fromrandomimportrandrange

#Loaddatasetfromthehubandgetasample
dataset=load_dataset("samsum")
sample=dataset['test'][randrange(len(dataset["test"]))]

input_ids=tokenizer(sample["dialogue"],return_tensors="pt",truncation=True).input_ids.cuda()
#withtorch.inference_mode():
outputs=model.generate(input_ids=input_ids,max_new_tokens=10,do_sample=True,top_p=0.9)
print(f"inputsentence:{sample['dialogue']}
{'---'*20}")

print(f"summary:
{tokenizer.batch_decode(outputs.detach().cpu().numpy(),skip_special_tokens=True)[0]}")

不錯(cuò)!我們的模型有效!現(xiàn)在,讓我們仔細(xì)看看,并使用 test 集中的全部數(shù)據(jù)對(duì)其進(jìn)行評(píng)估。為此,我們需要實(shí)現(xiàn)一些工具函數(shù)來(lái)幫助生成摘要并將其與相應(yīng)的參考摘要組合到一起。評(píng)估摘要任務(wù)最常用的指標(biāo)是 rogue_score,它的全稱是 Recall-Oriented Understudy for Gisting Evaluation。與常用的準(zhǔn)確率指標(biāo)不同,它將生成的摘要與一組參考摘要進(jìn)行比較。

importevaluate
importnumpyasnp
fromdatasetsimportload_from_disk
fromtqdmimporttqdm

#Metric
metric=evaluate.load("rouge")

defevaluate_peft_model(sample,max_target_length=50):
#generatesummary
outputs=model.generate(input_ids=sample["input_ids"].unsqueeze(0).cuda(),do_sample=True,top_p=0.9,max_new_tokens=max_target_length)
prediction=tokenizer.decode(outputs[0].detach().cpu().numpy(),skip_special_tokens=True)
#decodeevalsample
#Replace-100inthelabelsaswecan'tdecodethem.
labels=np.where(sample['labels']!=-100,sample['labels'],tokenizer.pad_token_id)
labels=tokenizer.decode(labels,skip_special_tokens=True)

#Somesimplepost-processing
returnprediction,labels

#loadtestdatasetfromdistk
test_dataset=load_from_disk("data/eval/").with_format("torch")

#runpredictions
#thiscantake~45minutes
predictions,references=[],[]
forsampleintqdm(test_dataset):
p,l=evaluate_peft_model(sample)
predictions.append(p)
references.append(l)

#computemetric
rogue=metric.compute(predictions=predictions,references=references,use_stemmer=True)

#printresults
print(f"Rogue1:{rogue['rouge1']*100:2f}%")
print(f"rouge2:{rogue['rouge2']*100:2f}%")
print(f"rougeL:{rogue['rougeL']*100:2f}%")
print(f"rougeLsum:{rogue['rougeLsum']*100:2f}%")

#Rogue1:50.386161%
#rouge2:24.842412%
#rougeL:41.370130%
#rougeLsum:41.394230%

我們 PEFT 微調(diào)后的 FLAN-T5-XXL 在測(cè)試集上取得了 50.38% 的 rogue1 分?jǐn)?shù)。相比之下,flan-t5-base 的全模型微調(diào)獲得了 47.23 的 rouge1 分?jǐn)?shù)。rouge1 分?jǐn)?shù)提高了 3%。

令人難以置信的是,我們的 LoRA checkpoint 只有 84MB,而且性能比對(duì)更小的模型進(jìn)行全模型微調(diào)后的 checkpoint 更好。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • PLM
    PLM
    +關(guān)注

    關(guān)注

    2

    文章

    135

    瀏覽量

    21295
  • AWS
    AWS
    +關(guān)注

    關(guān)注

    0

    文章

    435

    瀏覽量

    25075
  • LoRa模塊
    +關(guān)注

    關(guān)注

    5

    文章

    141

    瀏覽量

    14489
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    809

    瀏覽量

    13756

原文標(biāo)題:使用 LoRA 和 Hugging Face 高效訓(xùn)練大語(yǔ)言模型

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    小白學(xué)大模型訓(xùn)練語(yǔ)言模型的深度指南

    在當(dāng)今人工智能飛速發(fā)展的時(shí)代,大型語(yǔ)言模型(LLMs)正以其強(qiáng)大的語(yǔ)言理解和生成能力,改變著我們的生活和工作方式。在最近的一項(xiàng)研究中,科學(xué)家們?yōu)榱松钊肓私馊绾?b class='flag-5'>高效地
    的頭像 發(fā)表于 03-03 11:51 ?587次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:<b class='flag-5'>訓(xùn)練</b>大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>的深度指南

    DeepSeek 推理型AI盡顯高效訓(xùn)練的小模型之威

    工智能模型,不久前,在人工智能開源平臺(tái)?Hugging Face?上發(fā)布數(shù)小時(shí),便躍居下載量和活躍度最高模型的榜首;同時(shí)因其促使投資者重新考慮英
    的頭像 發(fā)表于 02-10 15:04 ?282次閱讀

    騰訊公布大語(yǔ)言模型訓(xùn)練新專利

    近日,騰訊科技(深圳)有限公司公布了一項(xiàng)名為“大語(yǔ)言模型訓(xùn)練方法、裝置、計(jì)算機(jī)設(shè)備及存儲(chǔ)介質(zhì)”的新專利。該專利的公布,標(biāo)志著騰訊在大語(yǔ)言模型
    的頭像 發(fā)表于 02-10 09:37 ?335次閱讀

    Hugging Face推出最小AI視覺語(yǔ)言模型

    Hugging Face平臺(tái)于1月23日發(fā)布博文,推出了兩款令人矚目的輕量級(jí)AI模型——SmolVLM-256M-Instruct和SmolVLM-500M-Instruct。 其中
    的頭像 發(fā)表于 01-24 14:15 ?804次閱讀

    模型訓(xùn)練框架(五)之Accelerate

    Hugging Face 的 Accelerate1是一個(gè)用于簡(jiǎn)化和加速深度學(xué)習(xí)模型訓(xùn)練的庫(kù),它支持在多種硬件配置上進(jìn)行分布式訓(xùn)練,包括 C
    的頭像 發(fā)表于 01-14 14:24 ?561次閱讀

    AI大語(yǔ)言模型開發(fā)步驟

    開發(fā)一個(gè)高效、準(zhǔn)確的大語(yǔ)言模型是一個(gè)復(fù)雜且多階段的過(guò)程,涉及數(shù)據(jù)收集與預(yù)處理、模型架構(gòu)設(shè)計(jì)、訓(xùn)練與優(yōu)化、評(píng)估與調(diào)試等多個(gè)環(huán)節(jié)。接下來(lái),AI部
    的頭像 發(fā)表于 12-19 11:29 ?711次閱讀

    語(yǔ)言模型開發(fā)框架是什么

    語(yǔ)言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語(yǔ)言模型的軟件工具和庫(kù)。下面,AI部落小編為您介紹大語(yǔ)言
    的頭像 發(fā)表于 12-06 10:28 ?451次閱讀

    語(yǔ)言模型開發(fā)語(yǔ)言是什么

    在人工智能領(lǐng)域,大語(yǔ)言模型(Large Language Models, LLMs)背后,離不開高效的開發(fā)語(yǔ)言和工具的支持。下面,AI部落小編為您介紹大
    的頭像 發(fā)表于 12-04 11:44 ?580次閱讀

    什么是大模型、大模型是怎么訓(xùn)練出來(lái)的及大模型作用

    ,基礎(chǔ)模型。 ? 大模型是一個(gè)簡(jiǎn)稱,完整的叫法,應(yīng)該是“人工智能預(yù)訓(xùn)練模型”。預(yù)訓(xùn)練,是一項(xiàng)技術(shù),我們后面再解釋。 ? 我們現(xiàn)在口頭上常說(shuō)
    的頭像 發(fā)表于 11-25 09:29 ?1.2w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓(xùn)練</b>出來(lái)的及大<b class='flag-5'>模型</b>作用

    從零開始訓(xùn)練一個(gè)大語(yǔ)言模型需要投資多少錢?

    一,前言 ? 在AI領(lǐng)域,訓(xùn)練一個(gè)大型語(yǔ)言模型(LLM)是一個(gè)耗時(shí)且復(fù)雜的過(guò)程。幾乎每個(gè)做大型語(yǔ)言模型(LLM)
    的頭像 發(fā)表于 11-08 14:15 ?693次閱讀
    從零開始<b class='flag-5'>訓(xùn)練</b>一個(gè)大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>需要投資多少錢?

    語(yǔ)言模型如何開發(fā)

    語(yǔ)言模型的開發(fā)是一個(gè)復(fù)雜且細(xì)致的過(guò)程,涵蓋了數(shù)據(jù)準(zhǔn)備、模型架構(gòu)設(shè)計(jì)、訓(xùn)練、微調(diào)和部署等多個(gè)階段。以下是對(duì)大語(yǔ)言
    的頭像 發(fā)表于 11-04 10:14 ?512次閱讀

    摩爾線程與羽人科技完成大語(yǔ)言模型訓(xùn)練測(cè)試

    近日,摩爾線程與羽人科技攜手宣布,雙方已成功實(shí)現(xiàn)夸娥(KUAE)千卡智算集群與羽人系列模型解決方案的訓(xùn)練兼容適配。在本次測(cè)試中,羽人科技通過(guò)摩爾線程夸娥千卡智算集群,高效完成了70億參數(shù)羽人7B
    的頭像 發(fā)表于 08-27 16:19 ?763次閱讀

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語(yǔ)法結(jié)構(gòu)的學(xué)習(xí),還包括對(duì)語(yǔ)言的深層次理解,如文化背景、語(yǔ)境含義和情感色彩等。 自監(jiān)督學(xué)習(xí):模型采用自監(jiān)督學(xué)習(xí)策略,在大量無(wú)標(biāo)簽文本數(shù)據(jù)上學(xué)習(xí)語(yǔ)
    發(fā)表于 08-02 11:03

    Hugging Face科技公司推出SmolLM系列語(yǔ)言模型

    7月22日最新資訊,Hugging Face科技公司在語(yǔ)言模型領(lǐng)域再創(chuàng)新高,正式推出了SmolLM系列——一款專為適應(yīng)多樣計(jì)算資源而設(shè)計(jì)的緊湊型語(yǔ)言
    的頭像 發(fā)表于 07-23 16:35 ?598次閱讀

    語(yǔ)言模型的預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語(yǔ)言模型的預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過(guò)在海量無(wú)標(biāo)簽數(shù)據(jù)上進(jìn)行訓(xùn)練,使模型學(xué)習(xí)到
    的頭像 發(fā)表于 07-11 10:11 ?873次閱讀