近日,韓國科研團隊成功研發(fā)出KOALA這一種新型AI,在提升效能的同時,顯著減輕了對硬件的要求。僅使用8GB內(nèi)存,便可在短短2秒鐘內(nèi)生成高品質圖像。
由此模型的核心在于其運用了“知識蒸餾”(knowledge distillation)技術,這使得開源圖像生成工具Stable Diffusion XL可大幅縮小其規(guī)模。原Stable Diffusion XL擁有25.6億個參數(shù),經(jīng)過團隊處理后,參數(shù)規(guī)??s減至7億。
這也意味著KOALA無需高端顯卡或其他高配置設備即能順暢運行。
實際上,“知識蒸餾”是指挑選大型模型中的有效信息,轉移至小模型并保持其質量與性能。如此,小型模型便能快速生成優(yōu)質圖像。
據(jù)試測顯示,以同一主題“月球下的星際迷航員閱讀一本書”作為提示,KOALA模型完成用時只需1.6秒,相較之下,Open AI的兩款知名模型DALL-E 3(13.7秒)及DALL-E 2(12.3秒)則相對耗時更長。
-
AI
+關注
關注
87文章
31279瀏覽量
269641 -
模型
+關注
關注
1文章
3279瀏覽量
48974 -
圖像生成
+關注
關注
0文章
22瀏覽量
6902
發(fā)布評論請先 登錄
相關推薦
評論