講師:曾繁斌 智匯創新股份有限公司G-Wise Design負責人,兼任長庚大學工業設計系實務講師。 曾任中華工業股份有限公司造型部課長從事汽車造型噢數位設計相關工作。畢業於成功大學工業設計研究所,曾獲IF與遊艇設計競賽獎項等。 前言 AI技術的快速發展不僅為我們的日常生活帶來許多便利,它也已經成為許多人在工作上不可或缺的好幫手。本次課程我們將為大家介紹如何利用生成式AI繪圖軟體Stable Diffusion輔助設計工作,提升設計的效率。 一、什麼是Stable Diffusion? Stable Diffusion是一款由Stability AI於2022年發布的AI繪圖軟體。它與Midjourney都是目前市面上主流的AI繪圖軟體之一。但與Midjourney不同,Stable Diffusion是一套不須付費的軟體,它可以直接在本地的PC運行且隱私性高。另外,Stable Diffusion是一個開源軟體(open source software),也因此會有許多AI大神幫Stable Diffusion製作外掛,提供更多擴充模組給我們使用,也讓Stable Diffusion快速進步。Stable Diffusion在前一陣子也推出了一個名為「ControlNet」的外掛,此外掛中有許多模組可以選擇,包含OpenPose、Normal、Canny、Scribble、Lineart、MLSD等。每種模組都有不同的功能和效果,例如OpenPose可以偵測照片生成動作骨架;Normal可以參考原圖色彩更換生成圖片的色彩與材質;Canny、Scribble與Lineart則可以從簡單的線稿或塗鴉搞生成圖像,而MLSD則可以擷取建物主體提供建築與室內設計使用。由於本次課程重點為Stable Diffusion與產品設計,因此課程內容將會著重於Scribble和Lineart兩個功能。 二、Stable Diffusion如何協助產品圖面設計 設計工作通常可以分成三個階段:發散、轉變、收斂。首先,「發散階段」即設計師透過各種方式尋找靈感與刺激,進而找出可行的創新方案的階段。「轉變階段」則是篩選、合併或調整發散階段的方案,從多個設計案中找出最佳方案。最後的「收斂階段」則是將最佳方案的呈現效果加以整理修飾,形成最終的設計提案。針對以上三個階段,我們將逐一介紹如何透過AI咒語召喚術、偷龍轉鳳與一鍵轉效果圖協助設計師有效地產出提案。 咒語召喚術 進入Stable Diffusion的操作頁面後,我們可以看到許多功能頁面標籤,本次課程使用的為「文生圖」功能。點擊後會出現兩個提示詞輸入格,上方為「正面提示詞」欄位,我們可以將想放進圖片的特徵等圖像敘述輸入此欄位;下方則為「負面提示詞」欄位,我們可以將不想要在圖片出現的東西輸入此欄位。在操作時,因為負面提示詞不輸入也無妨,所以我們可以將精力集中於完善正面提示詞。輸入正面提示詞時,我們可以掌握以下七個要點: 可以使用英文自然語法,並以逗號分隔關鍵字與提示詞。如果英文能力有限,我們也可以請ChatGPT或Bing協助我們將提示詞翻譯成英文。 使用正面提示詞指定要生成的內容。我們除了可以直接輸入a dog表示要生成一隻狗之外,也可以利用括號或引號指定提示詞的範圍,例如 (a cute dog),表示要生成一隻可愛的狗。 使用冒號或等號指定提示詞的權重。例如 (a cute dog:0.8), (a blue sky:0.2)表示要生成一隻可愛的狗和一片藍天,但在圖片中狗的權重要比藍天高。 愈靠前的提示詞權重愈大。也就是說,如果我們將景色的提示詞放在前面,人物的提示詞至於其後,則景色的權重會較多,人物就會在圖片中相對較小,反之亦然。 使用加號「+」。我們可以利用「+」連接短關鍵字,表示我們希望AI生成的圖片同時滿足這些條件。 使用循環符號「|」。我們可以在多個提示詞之間使用「|」,創造循環繪製效果。例如,輸入(coffee machine:1.5) | (bluetooth speaker),則AI會根據此權重在咖啡機和藍芽喇叭之間循環繪製,我們就能夠得到融合藍芽喇叭的咖啡機的圖片(圖 1)。 操控步驟百分比。我們可以輸入此提示詞 [A:B:步驟%]操控AI在繪製A直到多少步驟%後,改為繪製B。例如,a [cat:dog:0.3],代表要求AI在繪製了30%的貓之後,就改畫狗。 圖 1使用「|」要求AI生成一台融合藍芽喇叭和咖啡機的圖片。除此之外,我們也可以依照需求調整融合權重。 除了學習以上七種技巧外,我們也提供大家一個產品設計的簡易咒語格式:「畫質, 圖面風格, 主體, 形容, 色彩材質」。例如想要設計一台咖啡機,則可以依照上述格式輸入:Best quality(畫質), masterpiece, ultra high res, (photorealistic:1.4)(圖面風格), concept art, product, coffee machine(主體), steampunk, silver+copper(色彩材質)。 另外,咒語召喚也有它的優缺點。其優點為,我們可以使用不同的提示詞與模型組合,創造無窮組合,而AI也因為沒有人類既有的成見,所以經常可以產生出超乎我們想像的構想。不過AI對於我們語言的理解可能會有缺陷,又或者我們很難用文字描述一張圖片,因此我們會需要花時間不斷地反覆嘗試,才能得到符合我們需求的圖片。另外,AI生成的圖片常缺乏合理性,因此工業產品較難直接應用。 一鍵轉效果圖 當我們手上握有設計草稿後,下一步最重要的便是將這些草圖轉換成效果圖,提供客戶觀看產品最後的樣貌。然而,這個動作在以往相當費時,能夠花兩小時將草稿轉換成效果圖已經算是頂尖,但現在有AI技術的輔助,我們就可以縮短將草稿轉成效果圖的時間。在利用Stable Diffusion將草圖轉換成效果圖時,我們需要選擇「文生圖」的功能,並輸入正面與負面提示詞,再選擇「Euler a」為取樣方法,其他數值則依照個人需求設定即可。需要注意的是,如果我們希望AI生成的圖片與提示詞較相近,則可以提高「提示詞相關性(CFG)」;如果希望與ControlNet較接近的話,則可降低CFG,通常較為理想的CFG控制值是在5.0至7.0,在此範圍內我們所得到的圖片不會偏離原圖太多,但仍會有些許的不同。 那麼要如何設定ControlNet呢?由於ControlNet是一個外掛模組,所以下載Stable Diffusion後仍要另外安裝,並在外掛的選項中開啟。我們可以在開啟ControlNet後選擇要使用的模組。請大家記得要勾選啟用,並確認有一個爆炸的圖示,這樣就會出現預覽的圖片了。另外,ControlNet介面中的「開始控制步數」與「停止控制步數」如果是0與1,代表圖片的生成全程由ControlNet控制。如果將停止控制步數設在0.5,則代表繪圖時的步數到了0.5就會停止,並開始由AI自由發揮剩下的圖片生成(圖 2)。設定完成後,只要按下產生就能得到圖片了。 圖 2使用ControlNet時要記得勾選啟用,並依照自己的需求選擇內建的模型與調整步數。 偷龍轉鳳 我們可以用一個簡單的概念圖來理解ControlNet在Stable Diffusion產生圖片時的功用(圖 3)。其實,ControlNet的功能就是用來引導AI,讓它在生圖過程中不要偏離軌道太多。若我們讓AI生圖時只單純輸入提示詞,它就會依照資料庫內的資訊生成圖片,但很有可能這並不是我們想要的,例如要生成一隻蝦子,如果AI內的圖庫只有紅色煮熟的蝦子,那麼它就無法升成活蝦的圖片。另外,由於Stable Diffusion中的各種模組有些適合畫人像,有些則適合畫物品,所以即便我們套用了ControlNet,我們所選擇使用的模組也會影響生成圖片的品質。 圖 3 ControlNet的概念圖。ControlNet其實就是一個引導AI生圖的外掛模組,讓AI生成的圖片可以更接近我們的想像。 接著,我們將簡單介紹如何使用ControlNet優化我們的產品設計圖。我們除了可以直接讓AI生成圖片,也可以透過降低ControlNet的控制步數讓圖片更有創意。當我們調降了ControlNet中的停止控制步數時,AI所產生的圖片就會依照我們調整的比例產生與原圖有些微不同的圖片。第二種方式則是維持停止控制步數在1,但調降控制權重,這樣也可以讓AI產生與原圖也些微差距的圖片,提供更多圖片供我們在設計時選擇。 在進行偷龍轉鳳增加圖片的創意性時,我們常用的ControlNet處理器為Lineart和Scribble。Lineart較Scribble精準,如果我們的原圖是線條稿的話,則必須選擇「Lineart_standard」或「Lineart (from white bg & black line)」。選擇之後也會跟著自動帶入建議的模型,這個部分就不建議自由調整。然而,如果我們的手繪原圖線條太亂,或者線條不漂亮但又希望AI可以自動調整時,就推薦大家使用Scribble。相較於Lineart,Scribble生成的圖會偏離原圖較多,但相對地也能基於底圖再加上一些提示詞,依照此架構生成出不同圖片。大家可以依據手中的原稿,決定使用Lineart或Scribble,並透過調整參數得到想要的圖片。 綜合應用技巧 在了解了Stable Diffusion和ControlNet之後,我們可以靈活運用幾項結合ControlNet,生成出更多不同的圖片。首先,我們可以透過不同引導詞讓AI生成圖片(圖 4)。 圖 4 圖中左下角為一張看似鯨魚又不像鯨魚的草稿,我們可以透過輸入不同提示詞,讓AI根據提示詞產出不同圖片。如太空船(右上)、海洋生物(右中)、陸上交通工具(右下)。 另外,我們也可以調整權重與色彩引導詞來引導AI生成圖片(圖 5)。 圖 5我們可以在引導詞中加入色彩,並調整ControlNet的開始與停止控制步數,產生多種圖片 最後,我們可以從不同模型所生成的圖片中挑選一張喜歡的圖片,並將其作為基礎車型,利用ControlNet中的Lineart進行深入造型探索(圖 6)。產生線條圖後,我們可以再利用此圖並調整ControlNet的權重,讓它產生更多圖片。 圖 6以汽車設計而言,我們從不同模型所生成的圖片中選定基礎車型後,可以利用Lineart進行深入造型探索得到線條圖,並再調整ControlNet的權重,產生更多不同的圖片。 三、結語 Stable Diffusion開源的特徵使它得以快速發展,日前Stable Diffusion也推出了更多的外掛程式,讓其所生成的圖片畫質更高,也讓我們能夠更快更簡單地利用AI生成圖片。對於設計師來說,AI時代的來臨讓設計師從原本的擔心提案數不足,到現在提案數量多到難以篩選,可能需要花更多的時間篩選適合的方案。另外,AI也讓設計師有被AI取代的擔憂存在。因此,不管我們從事何種行業,都不能固執地一昧使用舊方法,而是抱持開放學習的態度,了解AI工具的利與弊,思考如何善用AI工具提高我們的工作效率,優化我們的工作成果。 【若要下載講師簡報,請點選此連結;想回顧完整版課程影音,請點選此連結;有任何問題或分享,也歡迎在本文底下留言。】