女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

LLM預(yù)訓(xùn)練的基本概念、基本原理和主要優(yōu)勢

CHANBAEK ? 來源:網(wǎng)絡(luò)整理 ? 2024-07-10 11:03 ? 次閱讀

一、引言

人工智能和自然語言處理(NLP)領(lǐng)域,大型語言模型(Large Language Model,簡稱LLM)的興起極大地推動了技術(shù)的進(jìn)步和應(yīng)用的發(fā)展。LLM通過在大規(guī)模文本數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,獲得了理解和生成自然語言的能力,為各種NLP任務(wù)提供了強(qiáng)大的支持。本文將詳細(xì)介紹LLM預(yù)訓(xùn)練的基本概念、基本原理以及主要優(yōu)勢,并附上相關(guān)的代碼示例。

二、LLM預(yù)訓(xùn)練的基本概念

1. 定義

LLM預(yù)訓(xùn)練是指在大規(guī)模、多樣化的文本數(shù)據(jù)集上對深度學(xué)習(xí)模型進(jìn)行初步訓(xùn)練的過程。這個過程旨在讓模型學(xué)習(xí)到語言的統(tǒng)計規(guī)律、語義信息和上下文關(guān)系,為后續(xù)的任務(wù)特定微調(diào)或直接應(yīng)用提供堅實的基礎(chǔ)。

2. 重要性

預(yù)訓(xùn)練是LLM成功的關(guān)鍵步驟之一。通過預(yù)訓(xùn)練,模型能夠捕獲語言的普遍規(guī)律和特征,從而在面對具體任務(wù)時能夠快速適應(yīng)并表現(xiàn)出色。此外,預(yù)訓(xùn)練還使得模型具有更強(qiáng)的泛化能力和魯棒性,能夠在不同領(lǐng)域和任務(wù)中展現(xiàn)出良好的性能。

3. 常用模型

在LLM預(yù)訓(xùn)練領(lǐng)域,Transformer結(jié)構(gòu)模型因其出色的性能而備受青睞。例如,BERT(Bidirectional Encoder Representations from Transformers)、GPT(Generative Pre-trained Transformer)等模型都采用了Transformer結(jié)構(gòu),并在預(yù)訓(xùn)練過程中取得了顯著成果。

三、LLM預(yù)訓(xùn)練的基本原理

1. 數(shù)據(jù)準(zhǔn)備

預(yù)訓(xùn)練的第一步是準(zhǔn)備大規(guī)模、多樣化的文本數(shù)據(jù)集。這些數(shù)據(jù)集通常包含來自不同來源的文本數(shù)據(jù),如書籍、文章、網(wǎng)頁等。數(shù)據(jù)集的規(guī)模和多樣性對于模型的學(xué)習(xí)效果至關(guān)重要。

2. 模型選擇

選擇合適的模型結(jié)構(gòu)是預(yù)訓(xùn)練的關(guān)鍵。Transformer結(jié)構(gòu)模型因其強(qiáng)大的序列建模能力而被廣泛應(yīng)用于LLM預(yù)訓(xùn)練中。這些模型通常包含多個編碼器(Encoder)和解碼器(Decoder)層,能夠捕獲文本中的長程依賴關(guān)系。

3. 訓(xùn)練目標(biāo)

預(yù)訓(xùn)練的目標(biāo)是讓模型學(xué)習(xí)到語言的統(tǒng)計規(guī)律和語義信息。這通常通過無監(jiān)督學(xué)習(xí)的方式實現(xiàn),即模型不需要人工標(biāo)注的數(shù)據(jù)即可進(jìn)行訓(xùn)練。一種常見的訓(xùn)練方法是語言建模(Language Modeling),即讓模型預(yù)測給定文本序列中的下一個詞或標(biāo)記。

4. 訓(xùn)練過程

預(yù)訓(xùn)練過程通常包括以下幾個步驟:

  • 數(shù)據(jù)預(yù)處理 :對原始文本進(jìn)行清洗、分詞等處理,以便模型能夠處理。
  • 模型初始化 :使用隨機(jī)參數(shù)或預(yù)訓(xùn)練好的小型模型參數(shù)初始化大型模型。
  • 迭代訓(xùn)練 :通過多次迭代訓(xùn)練過程,不斷調(diào)整模型的參數(shù)以優(yōu)化訓(xùn)練目標(biāo)。
  • 評估與調(diào)整 :在訓(xùn)練過程中定期評估模型的性能,并根據(jù)評估結(jié)果調(diào)整訓(xùn)練策略或參數(shù)。

5. 關(guān)鍵技術(shù)

  • Tokenization :將文本切分成一系列標(biāo)記(Token),以便模型處理。常見的Tokenization方法包括WordPiece和BPE(Byte Pair Encoding)等。
  • Attention Mechanism :Transformer模型中的Attention機(jī)制使得模型能夠關(guān)注到輸入序列中的重要部分,從而提高模型的性能。
  • Positional Encoding :由于Transformer模型本身不具有處理序列順序的能力,因此需要引入位置編碼來提供序列中每個標(biāo)記的位置信息。

四、LLM預(yù)訓(xùn)練的主要優(yōu)勢

1. 泛化能力強(qiáng)

由于預(yù)訓(xùn)練過程中使用了大規(guī)模、多樣化的文本數(shù)據(jù)集,因此LLM具有很強(qiáng)的泛化能力。它們能夠處理各種領(lǐng)域和風(fēng)格的文本數(shù)據(jù),并在不同任務(wù)中展現(xiàn)出良好的性能。

2. 遷移學(xué)習(xí)效果好

預(yù)訓(xùn)練模型可以通過微調(diào)(Fine-tuning)快速適應(yīng)新任務(wù)。在微調(diào)過程中,模型只需要在少量特定任務(wù)數(shù)據(jù)上進(jìn)行訓(xùn)練即可達(dá)到較好的性能。這種遷移學(xué)習(xí)能力大大降低了新任務(wù)訓(xùn)練的成本和時間。

3. 強(qiáng)大的語言理解和生成能力

通過預(yù)訓(xùn)練過程,LLM獲得了強(qiáng)大的語言理解和生成能力。它們能夠準(zhǔn)確理解輸入文本的含義和上下文信息,并生成流暢、連貫的文本輸出。這種能力使得LLM在文本生成、摘要、問答等任務(wù)中表現(xiàn)出色。

4. 支持多任務(wù)學(xué)習(xí)

由于預(yù)訓(xùn)練模型具有廣泛的適用性和靈活性,因此它們可以支持多任務(wù)學(xué)習(xí)(Multi-task Learning)。在多任務(wù)學(xué)習(xí)中,模型可以同時處理多個相關(guān)任務(wù),并通過共享表示層來提高整體性能。

5. 易于擴(kuò)展和集成

預(yù)訓(xùn)練模型通常具有可擴(kuò)展的架構(gòu)和靈活的接口設(shè)計,因此可以方便地與其他模型和工具進(jìn)行集成和擴(kuò)展。這使得LLM能夠應(yīng)用于更廣泛的場景和任務(wù)中,并與其他技術(shù)相結(jié)合產(chǎn)生更大的價值。

五、代碼示例

以下是一個簡化的代碼示例,展示了如何使用PyTorch和Transformers庫來加載預(yù)訓(xùn)練的BERT模型,并進(jìn)行簡單的文本分類任務(wù)。請注意,由于篇幅限制和復(fù)雜性考慮,這里僅提供一個非常基礎(chǔ)的代碼框架,用于說明如何加載預(yù)訓(xùn)練模型、處理輸入數(shù)據(jù),并進(jìn)行前向傳播以獲取預(yù)測結(jié)果。

import torch  
from torch.utils.data import DataLoader, TensorDataset  
from transformers import BertTokenizer, BertForSequenceClassification, AdamW  
  
# 假設(shè)已有預(yù)訓(xùn)練模型和tokenizer  
model_name = 'bert-base-uncased'  
tokenizer = BertTokenizer.from_pretrained(model_name)  
model = BertForSequenceClassification.from_pretrained(model_name, num_labels=2)  # 假設(shè)是二分類任務(wù)  
  
# 示例輸入數(shù)據(jù)  
texts = ["I love this book!", "This book is terrible."]  
inputs = tokenizer(texts, padding=True, truncation=True, return_tensors="pt")  
  
# 假設(shè)這些文本對應(yīng)的標(biāo)簽(在真實場景中,這些標(biāo)簽應(yīng)該來自數(shù)據(jù)集)  
labels = torch.tensor([1, 0]).unsqueeze(1)  # 1表示正面情感,0表示負(fù)面情感  
  
# 由于我們僅用于演示,這里不創(chuàng)建DataLoader,而是直接使用inputs  
  
# 將模型設(shè)置為評估模式(雖然這里我們實際上在演示前向傳播,但注意在評估或推理時應(yīng)設(shè)置)  
model.eval()  
  
# 關(guān)閉梯度計算,因為我們不進(jìn)行反向傳播  
with torch.no_grad():  
    outputs = model(**inputs)  
  
# 獲取logits(未經(jīng)softmax處理的預(yù)測結(jié)果)  
logits = outputs.logits  
  
# 如果需要,可以將logits轉(zhuǎn)換為概率(使用softmax)  
probs = torch.nn.functional.softmax(logits, dim=1)  
  
# 輸出預(yù)測結(jié)果(概率最高的類別)  
predictions = torch.argmax(probs, dim=1)  
  
print("Predictions:", predictions.tolist())  
# 這里的輸出將是文本對應(yīng)的情感分類預(yù)測(0或1)  
  
# 注意:在真實場景中,你需要將預(yù)測結(jié)果與真實標(biāo)簽進(jìn)行比較,以計算準(zhǔn)確率、損失等評估指標(biāo)  
# 并且在訓(xùn)練過程中,你還需要進(jìn)行反向傳播和參數(shù)更新  
  
# 假設(shè)我們有一個損失函數(shù)和優(yōu)化器(在訓(xùn)練階段使用)  
# criterion = torch.nn.CrossEntropyLoss()  
# optimizer = AdamW(model.parameters(), lr=5e-5)  
  
# 訓(xùn)練過程(簡化版,不包含完整的數(shù)據(jù)加載和迭代)  
# for epoch in range(num_epochs):  
#     model.train()  
#     for batch in dataloader:  
#         inputs, labels = batch  
#         outputs = model(**inputs)  
#         loss = criterion(outputs.logits, labels)  
#         loss.backward()  
#         optimizer.step()  
#         optimizer.zero_grad()  
  
# 注意:上述訓(xùn)練過程僅為示例,實際應(yīng)用中需要完整的循環(huán)和錯誤處理

六、挑戰(zhàn)與展望

盡管LLM預(yù)訓(xùn)練在自然語言處理領(lǐng)域取得了顯著進(jìn)展,但仍面臨一系列挑戰(zhàn)和需要進(jìn)一步探索的方向。

1. 計算資源消耗

隨著模型規(guī)模的擴(kuò)大,LLM預(yù)訓(xùn)練對計算資源的需求急劇增加。這包括高性能的GPU、TPU等硬件資源,以及大量的存儲空間來保存模型參數(shù)和訓(xùn)練數(shù)據(jù)。高昂的計算成本限制了LLM在學(xué)術(shù)研究和工業(yè)應(yīng)用中的普及和推廣。因此,如何降低計算資源消耗、提高訓(xùn)練效率成為了一個亟待解決的問題。

2. 數(shù)據(jù)隱私與安全

LLM預(yù)訓(xùn)練依賴于大規(guī)模、多樣化的文本數(shù)據(jù)集。然而,這些數(shù)據(jù)集往往包含敏感信息和個人隱私,如用戶對話、醫(yī)療記錄等。如何在保護(hù)數(shù)據(jù)隱私和安全的前提下進(jìn)行LLM預(yù)訓(xùn)練,成為了一個重要的研究課題。研究人員需要探索差分隱私、聯(lián)邦學(xué)習(xí)等技術(shù),以確保數(shù)據(jù)在訓(xùn)練過程中的安全性和隱私性。

3. 模型可解釋性

盡管LLM在性能上表現(xiàn)出色,但其決策過程往往缺乏可解釋性。這意味著我們很難理解模型是如何做出預(yù)測的,也無法對模型的錯誤進(jìn)行有效的調(diào)試和修正。為了提高LLM的可解釋性,研究人員需要探索新的模型架構(gòu)和解釋方法,如注意力機(jī)制的可視化、知識蒸餾等,以便更好地理解模型的內(nèi)部機(jī)制和決策過程。

4. 倫理與偏見

LLM預(yù)訓(xùn)練過程中使用的數(shù)據(jù)集往往存在偏見和不平衡性,這可能導(dǎo)致模型在生成文本或進(jìn)行決策時產(chǎn)生不公平或歧視性的結(jié)果。例如,模型可能更傾向于生成與特定性別、種族或文化相關(guān)的刻板印象。因此,研究人員需要在數(shù)據(jù)預(yù)處理、模型訓(xùn)練和后處理階段采取措施,以減少和消除偏見,確保LLM的公平性和公正性。

5. 跨語言與多模態(tài)

隨著全球化的深入和多媒體技術(shù)的發(fā)展,跨語言和多模態(tài)的LLM預(yù)訓(xùn)練成為了重要的研究方向。跨語言LLM能夠處理不同語言的文本數(shù)據(jù),實現(xiàn)語言之間的翻譯和理解;而多模態(tài)LLM則能夠同時處理文本、圖像、音頻等多種類型的數(shù)據(jù),實現(xiàn)更加全面的感知和理解。為了實現(xiàn)這些目標(biāo),研究人員需要探索新的模型架構(gòu)和訓(xùn)練方法,以適應(yīng)不同語言和模態(tài)的數(shù)據(jù)特點。

6. 實時性與動態(tài)性

在實際應(yīng)用中,LLM往往需要處理實時生成的文本數(shù)據(jù),并快速做出響應(yīng)。然而,當(dāng)前的LLM預(yù)訓(xùn)練模型往往存在推理速度慢、響應(yīng)延遲等問題。此外,隨著新知識的不斷涌現(xiàn)和舊知識的過時,LLM也需要具備動態(tài)更新和適應(yīng)的能力。為了解決這些問題,研究人員可以探索模型壓縮、剪枝、知識蒸餾等技術(shù)來提高推理速度;同時,也可以利用增量學(xué)習(xí)、在線學(xué)習(xí)等方法來實現(xiàn)模型的動態(tài)更新和適應(yīng)。

七、結(jié)論

LLM預(yù)訓(xùn)練是自然語言處理領(lǐng)域的一項重要技術(shù),它通過在大規(guī)模文本數(shù)據(jù)集上進(jìn)行初步訓(xùn)練,使模型學(xué)習(xí)到語言的統(tǒng)計規(guī)律和語義信息。這種預(yù)訓(xùn)練方式不僅提高了模型的泛化能力和遷移學(xué)習(xí)效果,還使得模型能夠支持多任務(wù)學(xué)習(xí)和擴(kuò)展集成。隨著技術(shù)的不斷進(jìn)步和模型的不斷優(yōu)化,LLM預(yù)訓(xùn)練將在更多領(lǐng)域和任務(wù)中發(fā)揮重要作用。

在未來的發(fā)展中,我們可以期待LLM預(yù)訓(xùn)練在以下幾個方面取得進(jìn)一步突破:

  1. 模型規(guī)模的持續(xù)擴(kuò)大 :隨著計算能力的提升和數(shù)據(jù)量的增加,更大規(guī)模的LLM將被訓(xùn)練出來,以捕獲更多的語言知識和模式。
  2. 訓(xùn)練效率的提升 :研究人員將不斷探索新的訓(xùn)練方法和優(yōu)化技術(shù),以提高LLM預(yù)訓(xùn)練的效率和質(zhì)量。
  3. 多模態(tài)預(yù)訓(xùn)練 :除了文本數(shù)據(jù)外,圖像、音頻等多模態(tài)數(shù)據(jù)也將被納入LLM預(yù)訓(xùn)練的范圍,以實現(xiàn)更加全面的理解和生成能力。
  4. 可解釋性和可控性 :隨著LLM應(yīng)用的深入,人們對其可解釋性和可控性的要求也越來越高。未來的研究將致力于提高LLM的透明度和可控性,以更好地滿足實際應(yīng)用的需求。
    LLM預(yù)訓(xùn)練作為自然語言處理領(lǐng)域的一項重要技術(shù),已經(jīng)在多個任務(wù)和場景中取得了顯著成果。然而,隨著技術(shù)的不斷發(fā)展和應(yīng)用的不斷深入,LLM預(yù)訓(xùn)練仍面臨一系列挑戰(zhàn)和需要進(jìn)一步探索的方向。未來,我們可以期待在計算資源消耗、數(shù)據(jù)隱私與安全、模型可解釋性、倫理與偏見、跨語言與多模態(tài)以及實時性與動態(tài)性等方面取得更多突破和進(jìn)展。這些突破和進(jìn)展將進(jìn)一步推動LLM預(yù)訓(xùn)練技術(shù)的發(fā)展和應(yīng)用,為自然語言處理領(lǐng)域帶來更多的創(chuàng)新和變革。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48701

    瀏覽量

    246458
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14008
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    319

    瀏覽量

    680
收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    MCS-51單片機(jī)基本原理

    MCS-51單片機(jī)基本原理[學(xué)習(xí)要求] 掌握MCS-51單片機(jī)的基本概念基本原理。[重點與難點]重點:單片機(jī)的基本原理與內(nèi)部結(jié)構(gòu)。難點:MCS-51單片機(jī)存儲器結(jié)構(gòu)。[理論內(nèi)容]一、
    發(fā)表于 03-19 16:39

    人工智能基本概念機(jī)器學(xué)習(xí)算法

    目錄人工智能基本概念機(jī)器學(xué)習(xí)算法1. 決策樹2. KNN3. KMEANS4. SVM5. 線性回歸深度學(xué)習(xí)算法1. BP2. GANs3. CNN4. LSTM應(yīng)用人工智能基本概念數(shù)據(jù)集:訓(xùn)練
    發(fā)表于 09-06 08:21

    無線充電的基本原理是什么

    狀態(tài),接收端線圈也是如此下圖就是實際電路應(yīng)用無線充電工作基本原理圖發(fā)射板主要有控制ic,驅(qū)動ic,發(fā)射線圈,諧振電容組成這個是接收線圈,扎數(shù)比發(fā)射線圈多所以諧振電容可以小一些,方便安裝...
    發(fā)表于 09-15 06:01

    RAID技術(shù)的基本原理是什么

    RAID技術(shù)的基本原理是什么?RAID技術(shù)有哪幾個優(yōu)勢
    發(fā)表于 10-14 12:01

    RAID技術(shù)的主要優(yōu)勢有哪些

    RAID的基本原理是什么?RAID主要分為哪幾種?RAID技術(shù)的主要優(yōu)勢有哪些?
    發(fā)表于 10-25 09:29

    VoIP的基本原理與技術(shù)

    VoIP的基本原理與技術(shù): 電話網(wǎng)和IP網(wǎng)的基本概念VoIP的基本原理VoIP的基本結(jié)構(gòu)VoIP在中國科技網(wǎng)
    發(fā)表于 07-31 11:47 ?58次下載
    VoIP的<b class='flag-5'>基本原理</b>與技術(shù)

    FPGA高級班前言基本原理基本概念

    FPGA高級班前言基本原理基本概念 在數(shù)字化、信息化的時代,集成電路應(yīng)用的非常廣泛。經(jīng)過長期的進(jìn)步發(fā)展成為可以完成超大規(guī)模復(fù)雜組合邏輯與時序邏輯
    發(fā)表于 02-09 11:22 ?70次下載
    FPGA高級班前言<b class='flag-5'>基本原理</b><b class='flag-5'>基本概念</b>

    電壓比較器基本原理及設(shè)計應(yīng)用

    電壓比較器基本原理及設(shè)計應(yīng)用  本文主要介紹電壓比較器基本概念、工作原理及典型工作電路,并介紹一些常用的電壓比較器。電壓比較器(以
    發(fā)表于 12-31 10:14 ?4692次閱讀
    電壓比較器<b class='flag-5'>基本原理</b>及設(shè)計應(yīng)用

    淺析單片機(jī)中PWM的基本概念基本原理

    PWM 在單片機(jī)中的應(yīng)用是非常廣泛的,它的基本原理很簡單,但往往應(yīng)用于不同場合上意義也不完全一樣,這里我先把基本概念基本原理給大家介紹一下,后邊遇到用的時候起碼知道是個什么東西。
    的頭像 發(fā)表于 09-10 11:01 ?1.1w次閱讀

    安全光柵的基本原理優(yōu)勢

    安全光柵的基本原理優(yōu)勢
    的頭像 發(fā)表于 06-29 09:41 ?1436次閱讀
    安全光柵的<b class='flag-5'>基本原理</b>及<b class='flag-5'>優(yōu)勢</b>

    基于一個完整的 LLM 訓(xùn)練流程

    ? ? 在這篇文章中,我們將盡可能詳細(xì)地梳理一個完整的 LLM 訓(xùn)練流程。包括模型預(yù)訓(xùn)練(Pretrain)、Tokenizer 訓(xùn)練、指令
    的頭像 發(fā)表于 06-29 10:08 ?2644次閱讀
    基于一個完整的 <b class='flag-5'>LLM</b> <b class='flag-5'>訓(xùn)練</b>流程

    OFDM的基本原理和PAPR的基本概念

    電子發(fā)燒友網(wǎng)站提供《OFDM的基本原理和PAPR的基本概念.pdf》資料免費下載
    發(fā)表于 10-25 09:57 ?1次下載
    OFDM的<b class='flag-5'>基本原理</b>和PAPR的<b class='flag-5'>基本概念</b>

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    訓(xùn)練好的模型,這些模型通常在某些通用任務(wù)上表現(xiàn)出色,并且可以作為后續(xù)特定任務(wù)的起點,通過遷移學(xué)習(xí)或微調(diào)(Fine-tuning)等方式進(jìn)行適應(yīng)和優(yōu)化。以下是對預(yù)訓(xùn)練模型的詳細(xì)探討,包括其定義、
    的頭像 發(fā)表于 07-03 18:20 ?4169次閱讀

    人工神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練基本原理

    圖像識別、語音識別、自然語言處理等。本文將介紹人工神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練基本原理。 1. 神經(jīng)網(wǎng)絡(luò)的基本概念 1.1 神經(jīng)元 神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的基本單元,它接收輸入信號,對信號進(jìn)行加權(quán)求和,然后通過激活函數(shù)進(jìn)行非線性變換,生成輸出信
    的頭像 發(fā)表于 07-05 09:16 ?1236次閱讀

    大語言模型的預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點。大語言模型的預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過在海量無標(biāo)簽數(shù)據(jù)上進(jìn)行訓(xùn)練,使模型學(xué)習(xí)到語言的通用知識,為后續(xù)的任務(wù)微調(diào)奠定基礎(chǔ)。本文將深入探討大語言模型
    的頭像 發(fā)表于 07-11 10:11 ?884次閱讀