女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

KerasHub統(tǒng)一、全面的預(yù)訓(xùn)練模型庫

谷歌開發(fā)者 ? 來源:谷歌開發(fā)者 ? 2024-12-20 10:32 ? 次閱讀

深度學(xué)習(xí)領(lǐng)域正在迅速發(fā)展,在處理各種類型的任務(wù)中,預(yù)訓(xùn)練模型變得越來越重要。Keras 以其用戶友好型 API 和對易用性的重視而聞名,始終處于這一動向的前沿。Keras 擁有專用的內(nèi)容庫,如用于文本模型的 KerasNLP 和用于計算機視覺模型的 KerasCV。

然而,隨著模型使各模態(tài)之間的界限越來越模糊(想象一下強大的聊天 LLM 具有圖像輸入功能或是在視覺任務(wù)中利用文本編碼器),維持這些獨立的領(lǐng)域變得不那么實際。NLP 和 CV 之間的區(qū)別可能會阻礙真正多模態(tài)模型的發(fā)展和部署,從而導(dǎo)致冗余的工作和碎片化的用戶體驗。

為了解決這個問題,我們很高興地宣布 Keras 生態(tài)系統(tǒng)迎來重大變革:隆重推出 KerasHub,一個統(tǒng)一、全面的預(yù)訓(xùn)練模型庫,簡化了對前沿 NLP 和 CV 架構(gòu)的訪問。KerasHub 是一個中央存儲庫,您可以在穩(wěn)定且熟悉的 Keras 框架內(nèi)無縫探索和使用最先進的模型,例如用于文本分析的 BERT 以及用于圖像分類的 EfficientNet。

KerasHub https://keras.io/keras_hub/

統(tǒng)一的開發(fā)者體驗

這種統(tǒng)一不僅簡化了對模型的探索和使用,還有助于打造更具凝聚力的生態(tài)系統(tǒng)。通過 KerasHub,您可以利用高級功能,例如輕松的發(fā)布和共享模型、用于優(yōu)化資源效率的 LoRA 微調(diào)、用于優(yōu)化性能的量化,以及用于處理大規(guī)模數(shù)據(jù)集的強大多主機訓(xùn)練,所有這些功能都適用于各種模態(tài)。這標志著在普及強大的 AI 工具以及加速開發(fā)創(chuàng)新型多模態(tài)應(yīng)用方面邁出了重要一步。

KerasHub 入門步驟

首先在您的系統(tǒng)上安裝 KerasHub,您可以在其中探索大量現(xiàn)成的模型和主流架構(gòu)的不同實現(xiàn)方式。然后,您就可以輕松地將這些預(yù)訓(xùn)練的模型加載并整合到自己的項目中,并根據(jù)您的具體需求對其進行微調(diào),以獲得最佳性能。

現(xiàn)成的模型 https://keras.io/api/keras_hub/models/

安裝 KerasHub

要安裝帶有 Keras 3 的 KerasHub 最新版本,只需運行以下代碼:

$ pip install --upgrade keras-hub
現(xiàn)在,您可以開始探索可用的模型。使用 Keras 3 開始工作的標準環(huán)境設(shè)置在開始使用 KerasHub 時并不需要任何改變:
import os


# Define the Keras 3 backend you want to use - "jax", "tensorflow" or "torch"
os.environ["KERAS_BACKEND"] = "jax"


# Import Keras 3 and KerasHub modules
import keras
import keras_hub

通過 KerasHub 使用

計算機視覺和自然語言模型

現(xiàn)在,您可以通過 KerasHub 訪問和使用 Keras 3 生態(tài)系統(tǒng)中的模型。以下是一些示例:

Gemma

Gemma 是由 Google 開發(fā)的一系列前沿且易于使用的開放模型。依托于與 Gemini 模型相同的研究和技術(shù),Gemma 的基礎(chǔ)模型在各種文本生成任務(wù)中表現(xiàn)出色,包括回答問題、總結(jié)信息以及進行邏輯推理。此外,您還可以針對特定需求自定義模型。

Gemma https://ai.google.dev/gemma/docs/base

在此示例中,您可以使用 Keras 和 KerasHub 加載并開始使用 Gemma 2 2B 參數(shù)生成內(nèi)容。有關(guān) Gemma 變體的更多詳細信息,請查看 Kaggle 上的 Gemma 模型卡。

# Load Gemma 2 2B preset from Kaggle models 
gemma_lm = keras_hub.models.GemmaCausalLM.from_preset("gemma_2b_en")


# Start generating contents with Gemma 2 2B
gemma_lm.generate("Keras is a", max_length=32)

Gemma 模型卡 https://www.kaggle.com/models/google/gemma/

PaliGemma

PaliGemma 是一款緊湊型的開放模型,可以理解圖像和文本。PaliGemma 從 PaLI-3 中汲取靈感,以 SigLIP 視覺模型和 Gemma 語言模型等開源組件為基礎(chǔ),可以針對有關(guān)圖像的問題提供詳細且富有洞察力的答案。因此,該模型可以更深入地了解視覺內(nèi)容,從而實現(xiàn)諸多功能,例如為圖像和短視頻生成描述、識別對象甚至理解圖像中的文本。

import os


# Define the Keras 3 backend you want to use - "jax", "tensorflow" or "torch"
os.environ["KERAS_BACKEND"] = "jax"


# Import Keras 3 and KerasHub modules
import keras
import keras_hub
from keras.utils import get_file, load_img, img_to_array




# Import PaliGemma 3B fine tuned with 224x224 images
pali_gemma_lm = keras_hub.models.PaliGemmaCausalLM.from_preset(
    "pali_gemma_3b_mix_224"
)


# Download a test image and prepare it for usage with KerasHub
url = 'https://storage.googleapis.com/keras-cv/models/paligemma/cow_beach_1.png'
img_path = get_file(origin=url)
img = img_to_array(load_img(image_path))


# Create the prompt with the question about the image
prompt = 'answer where is the cow standing?'


# Generate the contents with PaliGemma
output = pali_gemma_lm.generate(
    inputs={
        "images": img,
        "prompts": prompt,
    }
)

PaliGemma https://ai.google.dev/gemma/docs/paligemma

PaLI-3 https://arxiv.org/abs/2310.09199

SigLIP 視覺模型 https://arxiv.org/abs/2303.15343

Gemma 語言模型 https://arxiv.org/abs/2403.08295

有關(guān) Keras 3 上可用的預(yù)訓(xùn)練模型的更多詳細信息,請在 Kaggle 上查看 Keras 中的模型列表。

Kaggle 上查看 Keras 中的模型列表 https://www.kaggle.com/organizations/keras/models

Stability.ai Stable Diffusion 3

您也可以使用計算機視覺模型。例如,您可以通過 KerasHub 使用 stability.ai Stable Diffusion 3:

from PIL import Image
from keras.utils import array_to_img
from keras_hub.models import StableDiffusion3TextToImage


text_to_image = StableDiffusion3TextToImage.from_preset(
    "stable_diffusion_3_medium",
    height=1024,
    width=1024,
    dtype="float16",
)


# Generate images with SD3
image = text_to_image.generate(
    "photograph of an astronaut riding a horse, detailed, 8k",
)


# Display the generated image
img = array_to_img(image)
img

Stable Diffusion 3 https://stability.ai/news/stable-diffusion-3

有關(guān) Keras 3 上可用的預(yù)訓(xùn)練計算機視覺模型的更多詳細信息,請查看 Keras 中的模型列表。

Keras 中的模型列表 https://keras.io/api/keras_hub/models/

對于 KerasNLP 開發(fā)者而言,

有哪些變化?

從 KerasNLP 到 KerasHub 的過渡是一個簡單的過程。只需要將 import 語句從 keras_nlp 更新為 keras_hub。

示例: 以前,您可能需要導(dǎo)入 keras_nlp 才能使用 BERT 模型,如下所示

import keras_nlp


# Load a BERT model 
classifier = keras_nlp.models.BertClassifier.from_preset(
    "bert_base_en_uncased", 
    num_classes=2,
)
現(xiàn)在,您只需調(diào)整 import,即可使用 KerasHub:
import keras_hub


# Load a BERT model 
classifier = keras_hub.models.BertClassifier.from_preset(
    "bert_base_en_uncased", 
    num_classes=2,
)

對于 KerasCV 開發(fā)者而言,

有哪些變化?

如果您當前是 KerasCV 用戶,更新到 KerasHub 能夠為您帶來以下好處:

簡化模型加載:KerasHub 為加載模型提供了統(tǒng)一的 API,如果您同時使用 KerasCV 和 KerasNLP,這可以簡化您的代碼。

框架靈活性:如果您有興趣探索 JAX 或 PyTorch 等不同框架,KerasHub 可以讓您更輕松地將這些框架與 KerasCV 和 KerasNLP 模型結(jié)合起來使用。

集中式存儲庫:借助 KerasHub 的統(tǒng)一模型存儲庫,您可以更輕松地查找和訪問模型,未來還可以在其中添加新架構(gòu)。

如何使我的代碼適配 KerasHub?

模型

目前,我們正在將 KerasCV 模型遷移到 KerasHub。雖然大多數(shù)模型已經(jīng)可用,但有些仍在遷移中。請注意,Centerpillar 模型不會被遷移。您應(yīng)該能夠在 KerasHub 使用任何視覺模型,方法如下:

import keras_hub


# Load a model using preset
Model = keras_hub.models..from_preset('preset_name`)


# or load a custom model by specifying the backbone and preprocessor
Model=keras_hub.models.(backbone=backbone,preprocessor=preprocessor)

Centerpillar https://www.kaggle.com/models/keras/centerpillar

KerasHub 為 KerasCV 開發(fā)者帶來了激動人心的新功能,提供了更高的靈活性和擴展能力。其中包括:

內(nèi)置預(yù)處理

每個模型都配備了一個定制的預(yù)處理器,用于處理包括調(diào)整大小、重新縮放等常規(guī)任務(wù),從而簡化您的工作流程。 在此之前,預(yù)處理輸入是在向模型提供輸入之前手動執(zhí)行的。

# Preprocess inputs for example
def preprocess_inputs(image, label):
    # Resize rescale or do more preprocessing on inputs
    return preprocessed_inputs
backbone = keras_cv.models.ResNet50V2Backbone.from_preset(
    "resnet50_v2_imagenet",
)
model = keras_cv.models.ImageClassifier(
    backbone=backbone,
    num_classes=4,
)
output = model(preprocessed_input)
目前,任務(wù)模型的預(yù)處理已集成到現(xiàn)成的預(yù)設(shè)中。預(yù)處理器會對輸入進行預(yù)處理,對樣本圖像進行大小調(diào)整和重新縮放。預(yù)處理器是任務(wù)模型的內(nèi)在組件。盡管如此,開發(fā)者還是可以選擇使用個性化的預(yù)處理器。
classifier = keras_hub.models.ImageClassifier.from_preset('resnet_18_imagenet')
classifier.predict(inputs)

損失函數(shù)

與增強層類似,以前 KerasCV 中的損失函數(shù)現(xiàn)在可在 Keras 中通過 keras.losses. 使用。例如,如果您當前正在使用 FocalLoss 函數(shù):

import keras
import keras_cv


keras_cv.losses.FocalLoss(
    alpha=0.25, gamma=2, from_logits=False, label_smoothing=0, **kwargs
)

FocalLoss 函數(shù) https://keras.io/api/keras_cv/losses/focal_loss/

您只需調(diào)整損失函數(shù)定義代碼,使用 keras.losses 而不是 keras_cv.losses:

import keras


keras.losses.FocalLoss(
    alpha=0.25, gamma=2, from_logits=False, label_smoothing=0, **kwargs
)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3486

    瀏覽量

    49992
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5554

    瀏覽量

    122482
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22482

原文標題:Keras Hub,您的一站式預(yù)訓(xùn)練模型庫

文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    ABAQUS內(nèi)置了豐富的材料模型庫

    在現(xiàn)代工程設(shè)計與分析中,材料模型的準確選擇與應(yīng)用是決定仿真結(jié)果可靠性的關(guān)鍵因素之。ABAQUS作為有限元分析(FEA)領(lǐng)域的旗艦軟件,憑借其內(nèi)置的豐富材料模型庫,為工程師們提供了仿真分析靈活性
    的頭像 發(fā)表于 05-14 10:34 ?137次閱讀
    ABAQUS內(nèi)置了豐富的材料<b class='flag-5'>模型庫</b>

    用PaddleNLP為GPT-2模型制作FineWeb二進制預(yù)訓(xùn)練數(shù)據(jù)集

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《用PaddleNLP在4060單卡上實踐大模型預(yù)訓(xùn)練技術(shù)》發(fā)布后收到讀者熱烈反響,很多讀者要求進步講解更多的技術(shù)細節(jié)。本文主要針對大語言
    的頭像 發(fā)表于 03-21 18:24 ?1048次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進制<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集

    從Open Model Zoo下載的FastSeg大型公共預(yù)訓(xùn)練模型,無法導(dǎo)入名稱是怎么回事?

    從 Open Model Zoo 下載的 FastSeg 大型公共預(yù)訓(xùn)練模型。 運行 converter.py 以將 FastSeg 大型模型轉(zhuǎn)換為中間表示 (IR): pyth
    發(fā)表于 03-05 07:22

    AI開源模型庫有什么用

    AI開源模型庫作為推動AI技術(shù)發(fā)展的重要力量,正深刻改變著我們的生產(chǎn)生活方式。接下來,AI部落小編帶您了解AI開源模型庫有什么用。
    的頭像 發(fā)表于 02-24 11:50 ?317次閱讀

    用PaddleNLP在4060單卡上實踐大模型預(yù)訓(xùn)練技術(shù)

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 之前我們分享了《從零開始訓(xùn)練個大語言模型需要投資多少錢》,其中高昂的預(yù)訓(xùn)練費用讓許多對大
    的頭像 發(fā)表于 02-19 16:10 ?852次閱讀
    用PaddleNLP在4060單卡上實踐大<b class='flag-5'>模型</b><b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>技術(shù)

    開源AI模型庫是干嘛的

    開源AI模型庫是指那些公開源代碼、允許自由訪問和使用的AI模型集合。這些模型通常經(jīng)過訓(xùn)練,能夠執(zhí)行特定的任務(wù)。以下,是對開源AI模型庫的詳細
    的頭像 發(fā)表于 12-14 10:33 ?698次閱讀

    什么是大模型、大模型是怎么訓(xùn)練出來的及大模型作用

    ,基礎(chǔ)模型。 ? 大模型個簡稱,完整的叫法,應(yīng)該是“人工智能預(yù)訓(xùn)練模型”。
    的頭像 發(fā)表于 11-25 09:29 ?1.3w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓(xùn)練</b>出來的及大<b class='flag-5'>模型</b>作用

    從零開始訓(xùn)練個大語言模型需要投資多少錢?

    關(guān)于訓(xùn)練技巧和模型評估的文章,但很少有直接告訴你如何估算訓(xùn)練時間和成本的。前面分享了些關(guān)于大模型/本地知識
    的頭像 發(fā)表于 11-08 14:15 ?707次閱讀
    從零開始<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>一</b>個大語言<b class='flag-5'>模型</b>需要投資多少錢?

    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第4期「預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報告題目預(yù)
    的頭像 發(fā)表于 10-18 08:09 ?527次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的基礎(chǔ)<b class='flag-5'>模型</b>下的持續(xù)學(xué)習(xí)

    AI算法/模型/框架/模型庫的含義、區(qū)別與聯(lián)系

    在人工智能(Artificial Intelligence,簡稱AI)的廣闊領(lǐng)域中,算法、模型、框架和模型庫是構(gòu)成其技術(shù)生態(tài)的重要基石。它們各自承擔著不同的角色,但又緊密相連,共同推動著AI技術(shù)的不斷發(fā)展。以下是對這四者含義、區(qū)別與聯(lián)系的詳細闡述。
    的頭像 發(fā)表于 07-17 17:11 ?7531次閱讀

    預(yù)訓(xùn)練和遷移學(xué)習(xí)的區(qū)別和聯(lián)系

    預(yù)訓(xùn)練和遷移學(xué)習(xí)是深度學(xué)習(xí)和機器學(xué)習(xí)領(lǐng)域中的兩個重要概念,它們在提高模型性能、減少訓(xùn)練時間和降低對數(shù)據(jù)量的需求方面發(fā)揮著關(guān)鍵作用。本文將從定義、原理、應(yīng)用、區(qū)別和聯(lián)系等方面詳細探討
    的頭像 發(fā)表于 07-11 10:12 ?1895次閱讀

    大語言模型預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點。大語言模型預(yù)訓(xùn)練是這技術(shù)發(fā)展的關(guān)鍵步驟,它通過在海量無標簽數(shù)據(jù)上進行訓(xùn)練,使
    的頭像 發(fā)表于 07-11 10:11 ?887次閱讀

    LLM預(yù)訓(xùn)練的基本概念、基本原理和主要優(yōu)勢

    在人工智能和自然語言處理(NLP)領(lǐng)域,大型語言模型(Large Language Model,簡稱LLM)的興起極大地推動了技術(shù)的進步和應(yīng)用的發(fā)展。LLM通過在大規(guī)模文本數(shù)據(jù)上進行預(yù)訓(xùn)練,獲得了
    的頭像 發(fā)表于 07-10 11:03 ?2712次閱讀

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    預(yù)訓(xùn)練模型(Pre-trained Model)是深度學(xué)習(xí)和機器學(xué)習(xí)領(lǐng)域中的個重要概念,尤其是在自然語言處理(NLP)和計算機視覺(CV)等領(lǐng)域中得到了廣泛應(yīng)用。
    的頭像 發(fā)表于 07-03 18:20 ?4174次閱讀

    解讀PyTorch模型訓(xùn)練過程

    PyTorch作為個開源的機器學(xué)習(xí),以其動態(tài)計算圖、易于使用的API和強大的靈活性,在深度學(xué)習(xí)領(lǐng)域得到了廣泛的應(yīng)用。本文將深入解讀PyTorch模型訓(xùn)練的全過程,包括數(shù)據(jù)準備、
    的頭像 發(fā)表于 07-03 16:07 ?1729次閱讀