近日,韓國科研團(tuán)隊成功研發(fā)出KOALA這一種新型AI,在提升效能的同時,顯著減輕了對硬件的要求。僅使用8GB內(nèi)存,便可在短短2秒鐘內(nèi)生成高品質(zhì)圖像。
由此模型的核心在于其運(yùn)用了“知識蒸餾”(knowledge distillation)技術(shù),這使得開源圖像生成工具Stable Diffusion XL可大幅縮小其規(guī)模。原Stable Diffusion XL擁有25.6億個參數(shù),經(jīng)過團(tuán)隊處理后,參數(shù)規(guī)模縮減至7億。
這也意味著KOALA無需高端顯卡或其他高配置設(shè)備即能順暢運(yùn)行。
實際上,“知識蒸餾”是指挑選大型模型中的有效信息,轉(zhuǎn)移至小模型并保持其質(zhì)量與性能。如此,小型模型便能快速生成優(yōu)質(zhì)圖像。
據(jù)試測顯示,以同一主題“月球下的星際迷航員閱讀一本書”作為提示,KOALA模型完成用時只需1.6秒,相較之下,Open AI的兩款知名模型DALL-E 3(13.7秒)及DALL-E 2(12.3秒)則相對耗時更長。
-
AI
+關(guān)注
關(guān)注
87文章
34090瀏覽量
275196 -
模型
+關(guān)注
關(guān)注
1文章
3480瀏覽量
49947 -
圖像生成
+關(guān)注
關(guān)注
0文章
25瀏覽量
6994
發(fā)布評論請先 登錄
NVIDIA助力初創(chuàng)公司BioTuring發(fā)布新型AI模型
Kioxia開源發(fā)布AiSAQ?技術(shù),降低生成式AI的DRAM需求
【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+第一章初體驗
借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

評論