現(xiàn)在,,AI繪畫完全可以做到指哪打哪了!
這邊哈士奇,,那邊牧羊犬,,背景在下雪天。
啪嘰,!一幅畫就這么完成了,。
這個(gè)最新MultiDiffusion模型,,不管選的區(qū)域位置有多離譜,,它都能給你畫出指定的東西來(lái)。
比如,,你能看到大象和奶牛同時(shí)握草,??
而且在線可試,,親測(cè)大概15秒就能出,你甚至可以看到泰勒與愛(ài)因斯坦跨時(shí)空同框,。
要知道以前AI繪畫最大的一個(gè)bug就是不可控,但現(xiàn)在人類擁有了更多的控制權(quán),。
總之就是,,想畫什么就畫什么,想往哪畫就往哪畫,!
有網(wǎng)友趕緊上手試了試:Not Bad,!
想往哪畫就往哪畫
從效果來(lái)看,,主要有三個(gè)方面的應(yīng)用,。
文本到高分辨率全景生成;
精確區(qū)域生成,;
任意長(zhǎng)寬比粗略區(qū)域生成,。
首先,只需要一句話,,就可以生成512*4609分辨率的全景圖,。
一張有滑雪者的雪山頂峰的照片。
攝影師也不用爬樓了,,直接獲得城市夜景圖。
當(dāng)然更為主體功能,,那就是給特定區(qū)域單獨(dú)提示,,然后AI繪畫就來(lái)指哪畫哪。
比如在黑色部分是一個(gè)明亮的盥洗室,,紅色區(qū)域是一面鏡子,、藍(lán)色部分是花瓶、黃色部分是白色的水槽,。
就這么隨手一個(gè)拼圖畫,結(jié)果就生成了真實(shí)場(chǎng)景,。
不過(guò)也有一些bug,像一些超現(xiàn)實(shí)的,,他就有點(diǎn)太天馬行空了,。
比如三體人在宇宙中大戰(zhàn)人類。
當(dāng)然也可以無(wú)需那么精確,,只需標(biāo)個(gè)大致位置,還支持任意長(zhǎng)寬比的圖像,。
藍(lán)色部分是埃菲爾鐵塔、紅色是粉色的云,、綠色是熱氣球 。
關(guān)鍵是各種構(gòu)圖都十分地合理,、場(chǎng)景效果以及實(shí)際物體相對(duì)大小也都十分精準(zhǔn)。
圖像生成可控
背后的這個(gè)模型叫做MultiDiffusion,,這是一個(gè)統(tǒng)一的框架,,能實(shí)現(xiàn)多功能和可控的圖像生成。
以往即便Diffusion模型給圖像生成帶來(lái)變革性影響,,但用戶對(duì)生成圖像的可控性,、以對(duì)新任務(wù)的快速適應(yīng)仍是不小的挑戰(zhàn)。
研究人員主要是通過(guò)重新訓(xùn)練,、微調(diào),,或者另外開(kāi)發(fā)工具等方式來(lái)解決。前不久爆火插件ControlNet正是解決了圖像生成的可控性,,
而MultiDiffusion無(wú)需進(jìn)一步訓(xùn)練或微調(diào),,就可一次實(shí)現(xiàn)對(duì)生成內(nèi)容的多種靈活控制,包括期望的長(zhǎng)寬比、空間引導(dǎo)信號(hào)等,。
簡(jiǎn)單來(lái)說(shuō),MultiDiffusion的關(guān)鍵在于,,在預(yù)先訓(xùn)練好的擴(kuò)散模型上定義一個(gè)全新的生成過(guò)程,。從噪聲圖像開(kāi)始,在每個(gè)生成步驟中,,解決一個(gè)優(yōu)化任務(wù),。
然后再將多個(gè)擴(kuò)散生成過(guò)程與一組共享的參數(shù)或約束結(jié)合起來(lái),目標(biāo)是將每個(gè)部分都盡可能去接近去噪版本,。
即便有時(shí)候每個(gè)步驟都可能會(huì)將圖像拉向不同的方向,但最終融合到一個(gè)全局去噪步驟當(dāng)中,,得到一個(gè)無(wú)縫圖像,。
來(lái)自魏茨曼科學(xué)研究所
這篇論文主要來(lái)自位于以色列雷霍沃特的魏茨曼科學(xué)研究所,。
兩位共同一作Omer Bar-Tal、Lior Yariv分別是魏茲曼科學(xué)研究院計(jì)算機(jī)科學(xué)和應(yīng)用數(shù)學(xué)系的研究生和博士生,,后兩位分別是他們的導(dǎo)師,。
△左:Omer Bar-Tal,;右:Lior Yariv
好了,,感興趣的旁友可戳下方試一試哦!
https://huggingface.co/spaces/weizmannscience/MultiDiffusion
主頁(yè)鏈接:https://multidiffusion.github.io/
論文鏈接:https://arxiv.org/abs/2302.08113
文章出處:量子位