
大家好,前兩天比子去韓國拍了個婚紗照,結果回來倆禮拜了,連張像樣的成片都沒見著????

關鍵是,這次咱找的還是韓國團隊,人家給我比劃動作,我都得豆包穀歌翻譯GPT換著用才能聽懂,現在回國更完蛋,我都不知道咋開口催啊思密達。
發朋友圈求助,有哥們說交給他,點名即夢出列,5分鐘就能給咱從人模狗樣P成衣冠禽獸。


謝謝,婉拒了哈。
不是,咱前兩年是吹過AI生圖,還說妙鴨相機一齣,海馬體都得被嘎腰子。這兩年一看,就嘎了一個啊,人家海馬體生意還是能做啊,因為受影響的是證件照那種大頭照,這玩意AI來,確實能整得像模像樣。
但什麼寫真照啊,穿小裙子拿著鮮花棚拍,包括出外景,全身寫真,婚紗照這種,但凡涉及背景、動作、光線,AI就有點力不從心了。
(好好一個出嫁照,P了個老外
給新郎P成陪嫁丫鬟了)


出來的效果,別說正式場合,婚紗照這種掛家裡半輩子的,發朋友圈都夠嗆能糊弄過別人。
所以最後,咱還是老老實實將頭髮梳成大人模樣,穿上一身帥氣西裝,趁週末去拍婚紗照了。
現在的情況就是等,等小韓那邊,給咱把鬍子鼻毛髮際線P一P,調光影背景啥的,才能拿到最終的成片。


8過我也瞅了一哈評論區指路的AI的P圖效果:??!!這AI,啥時候進修了一波?!
擱充電寶前面美美自拍了一張,尋思人挺好,背景拉了啊,欻欻欻就給自己挪到海邊了,氛圍感撓兒一下就上來了。
(👈左滑,檢視AI重製大作)


還有人真的跑到海邊,大失所望,這海咋還沒門口水溝出片呢,只能搖人兒。
人兒工智慧出列,原本5塊錢的照片,瞬間值500了。
(👈左滑,檢視AI重製大作)


有專業的攝影師,拍完覺得emmm光影差點意思,但爺們要臉啊,用即夢調整了一波,3分鐘,拯救一張廢片?!
(👈左滑,檢視AI重製大作)



看了一圈,我發現之前容易露破綻的地方,光影啊,人物和景深這些,現在完全能做到以假亂真了。
就有一點,哪怕是召喚AI來P圖,這事兒也得自己來。不然放心把後背交給好兄弟,鬼知道人家給P成啥樣。

我先試著丟過去一張化妝間自拍,斯斯喊我來的時候,我頭上夾了一堆小夾子,能給我P掉,還不影響咱辛辛苦苦做好的韓男小中分嗎?

丟過去照片,跟它說把這夾子給我拿掉。褲衩一下,就給我整好了,其他啥也沒動,小油頭還是根根分明,這麼絲滑?
(提示詞:把男生頭上的髮夾拿掉
其他光線佈景都不動)


再來再來,有張照片,我跟斯斯倆人都捯飭得賊精緻,表情也很到位,就有一點,背景是個大白牆,這。。。。
結果它換了個背景,分分鐘給我安排到冬天的北海道了?!

(提示詞:背景換成冬天的日本北海道
陽光自然點,婚紗換個款式)
還有,出外景的時候,本來是要拍我倆擁抱的鏡頭,結果我一個戰術性後仰,倆人關係瞬間就生分了

。
讓它給我P直一點,抱緊緊的,也能行?

(提示詞:把圖片中的男生扶正)
一通P完,我算是發現了,僅憑我做完近視眼手術1.5的雙眼,已經完全分不清了。
現在丟給AI,就能整出想去哪拍就去哪拍的感覺,還要啥鉑爵旅拍,自己折騰半天啊?
不然40度的天,我穿上嘎嘎厚的西裝四件套,又或者大冬天,新娘得光膀子穿婚紗凹造型……
拍個婚紗照,小命都得去掉半條。

怪了,最近這AI咋就一下開悟了?一研究才發現,合著現在讓大夥P得不亦樂乎的,是最新的影像模型,豆包·影像編輯模型3.0。
之前用過AI P圖的朋友應該有個體驗,用起來非常靠抽卡,有時候效果hin不錯,有時出來的,這都啥啊,讓他給我把痘給我P掉,結果呢,把我書包帶當成麻花辮,給我整成女的了。。。


用了一下午豆包·影像編輯模型3.0,基本沒遇到這個問題,跟它叭叭叭說下換背景啊畫面,就能理解我說的啥意思,畫面的主體保持的很好,不會添油加醋自己發揮,把好好一張照片整成畢加索的風格。

(提示詞:把石頭路換成和背景協調的草地
其他光線佈景都不動)

這點確實挺牛逼凹,而且還不止是人像,咱有時拍個風景靜物吧,這引數那引數老跟我過不去,拍出來效果不好,朋友圈都不好意思發,現在讓它換個光影色調,上下嘴皮一碰,就能給我P出個賊唬人的照片。
徠卡?哈蘇?飛思?
我選擇哀鳳+AI,這才叫真正的人機協同。

(提示詞:加一道自然灑落的陽光)
還有個很dio的點,之前我用一些大模型P圖,裡面有中文的時候,會發現它們P著P著就化身倉頡,開始造字兒了。
但是豆包·影像編輯模型3.0,是個老實孩子,規規矩矩把字兒換成正確的中文,在中文識別能力這塊的確是遙遙領先,屬於是更適合中國寶寶的影像編輯模型了。
(左:豆包·影像編輯模型3.0右:某國外模型)

至於讓它換個畫風,比如拿一個手稿,讓它把這抽象派作品轉成嘎嘎逼真的實物圖,也能做得有模有樣的,什麼設計師、原畫師,分鏡只會畫火柴人的導演,這下不就有福了?!

(提示詞:把這個手稿還原成真實圖片)
一圈試完,我發現這模型一定程度上,雖然還靠抽卡,但相比之前的模型,成功機率更高,還能在保持主體的情況下,更遵循咱給出的指令,出來的圖片效果也更好。
已經降維打擊市面上常見的修圖APP,以後每次去完一個地方,拍完照片,再也不會斯斯在旁邊P圖,我卻幫不上忙,只能埋頭乾飯了。
(同事手機裡有的照片都在這了
相機裡的一張都沒p出來

)

更重要的是,它的商業化潛力很大啊。
我之前跟電商公司聊,他們還在用真人模特試衣服,一下午模特要換幾十上百套,一秒18個動作,換角度換姿勢換展示。

現在呢,拍一組圖片,就讓模特吹空調歇著,AI老老實實按指令,換衣服,動作和場景了。

昨天,豆包·影像編輯模型3.0正式上線火山方舟,對於有大量作圖需求的公司,這就是瞌睡了遞枕頭啊。

(火山方舟是火山引擎旗下的一站式大模型服務平臺,主要幫助企業落地AI應用)
比如一個耳機品牌吧,就可以讓它根據提示詞,之前的風格調整最新的產品圖,輸出更符合要求的海報。
你不說,誰能知道這玩意是AI 3分鐘攢出來的?

還有遊戲公司的原畫師,用新上崗的豆包·影像編輯模型3.0,能生成各種原畫,創作體驗飛昇,跟之前比,這就是機械降神啊。
做漫畫的公司,也能用統一風格,給線稿上色,敲完指令,撒泡尿的功夫,就能按指令輸出質量相當高的畫稿。

而且所有的這些,既能沿用公司之前的風格,也不用鑽研半天prompt,只要自然語言輸入,就能得到理想的效果。

看完一圈,我覺得這次火山引擎釋出的豆包·影像編輯模型3.0,最大的意義是解決了不少創意行業,效率和效果無法得兼的問題。
以前創意行業有個悖論:“創意越個性化,生產越難規模化”。一旦想提高效率,擴大生產規模,那完了,出來的效果,一定跟之前的精工細作差得遠。
所以像P圖、設計、拍照這種工作,除了要腦子活泛,還要花大量時間去落實創意,成本始終降不下來。對不少企業而言,創意生意就是個“利潤絞肉機”,投入是不少,利潤卻被一點點擠幹。

而現在呢,豆包·影像編輯模型3.0能聽懂人話,出來的影像效果,也已經不輸一些經驗豐富的老員工。把一些勞力密集型的創意行業,從重複勞動中解放,讓AI變成手裡最快的那把刀,從一天P八百張圖的苦力活裡撈出來,去幹更有創造性的事。
8說了,我現在已經迫不及待了,這就火速翻譯一哈,看怎麼讓小韓那邊也能用上火山方舟,他們團隊早用上一秒,咱就能早一秒拿到婚紗照成片,發朋友圈炫耀彙報啊。
作者:比比
責編:嗚嗚
主筆:嗚嗚
設計:頓頓
