全球短讯!如何简单高效地定制自己的文本作画模型?
强烈建议先阅读:一文弄懂DiffusionModel1 论文信息标题:Multi-ConceptCustomizationofText-to-Ima
强烈建议先阅读:一文弄懂 Diffusion Model
1. 论文信息标题:Multi-Concept Customization of Text-to-Image Diffusion
作者:Nupur Kumari, Bingliang Zhang, Richard Zhang, Eli Shechtman, Jun-Yan Zhu.
(资料图片仅供参考)
原文链接:https://arxiv.org/pdf/2212.04488.pdf
代码链接:https://www.cs.cmu.edu/~custom-diffusion/
2. 引言最近通过文本生成图像的深度学习相关技术取得了非常大的进展,2021已经成为了图像生成的一个新的milestone,诸如DALL-E和Stable diffusion这种模型都取得了长足的进步,甚至达到了“出圈”的效果。通过简单文本prompts,用户能够生成前所未有的质量的图像。这样的模型可以生成各种各样的对象、风格和场景,并把它们进行组合排序,这让现有的图像生成模型看上去是无所不能的。
但是,尽管这些模型具有多样性和一些泛化能力,用户经常希望从他们自己的生活中合成特定的概念。例如,亲人、朋友、宠物或个人物品和地点,这些都是非常有意义的concept,也和个人对于生成图像的信息有对齐。由于这些概念天生就是个人的,因此在大规模的模型训练过程中很难出现。事后通过详细的文字,来描述这种概念是非常不方便的,也无法保留足够多的视觉细节来生成新的personal的concepts。这就需要模型具有一定的“定制”能力。也就是说如果给定少量用户提供的图像,我们能否用新概念(例如宠物狗或者“月亮门”,如图所示)增强现有的文本到图像扩散模型?经过微调的模型应该能够将它们与现有概念进行概括并生成新的变化。这带来了几个比较严峻的挑战:
首先,模型倾向于遗忘现有概念的含义:例如,在添加“moon gate”这一concept的时候,“moon”的含义就会丢失。其次,由于stable diffusion这样的网络往往参数会超级多,所以在小数据上训练模型,容易造成对训练样本进行过拟合,而且采样中变化也有限。此外,论文还关注了一个更具挑战性的问题,即组group fine-tuning,即能够超越单个个体concept的微调,并将多个概念组合在一起。学习多个新的concepts同时也是存在一定的挑战的,比如 concept mixing以及concept omission。在这项工作中,论文提出了一种fine-tuning技术,即文本到图像扩散模型的“定制扩散”。我们的方法在计算和内存方面都很有效。为了克服上述挑战,新方法固定一小部分模型权重,即文本到潜在特征的key值映射在cross-attention layer中。fine-tuning这些足以更新模型的新concepts。为了防止模型丧失原来强大的表征能力,新方法仅仅使用一小组的图像与目标图像类似的真实图像进行训练。我们还在微调期间引入data的augamation,这可以让模型更快的收敛,并获得更好的结果。论文提出的方法实验是构建在Stable Diffusion之上,并对各种数据集进行了实验,其中最少有四幅训练图像。对于添加单个concept,新提出的方法显示出比相似任务的作品和基线更好的文本对齐和视觉相似性。更重要的是,我们的方法可以有效地组成多个新concepts,而直接对不同的concepts进行组合的方法则遇到困难,经常会省略一个。最后,我们的方法只需要存储一小部分参数(模型权重的3%),消耗的GPU memory非常有限,同时也减少了fine-tuning的时间。
3. 方法总结来讲,论文提出的方法,就是仅更新权重的一小部分,即模型的交叉注意力层。此外,由于目标概念的训练样本很少,所以使用一个真实图像的正则化集,以防止过拟合。
对于Single-Concept Fine-tuning,给定一个预训练的text-to-image diffusion model,我们的目标是在模型中加入一个新的concept,只要给定四张图像和相应的文本描述进行训练。fine-tuning后的模型应保留其先验知识,允许根据文本提示使用新概念生成新的图像类型。这可能具有挑战性,因为更新的文本到图像的映射可能很容易过拟合少数可用图像。所以保证泛化性就非常有必要,也比较有挑战。所以就仅仅fine-tuning新的K和V,而对于query,则保持不变,这样就可以增加新概念的同时,保证模型的表征能力不受到太多的影响。优化目标还是diffusion的形式:
概括起来实际上非常简单,就是训练一个k和v的矩阵,来扩充维度,增加模型的表征能力,使其能生成更为丰富的图像内容。
而对于Multiple-Concept Compositional Fine-tuning,为了对多个概念进行微调,我们将每个概念的训练数据集合并,并使用我们的方法将它们联合训练。为了表示目标概念,我们使用不同的修饰符的
由于我们的方法仅更新与文本特征相对应的key和value投影矩阵,因此我们可以将它们合并,以允许使用多个微调概念生成。让集合
[ 相关文章 ]
强烈建议先阅读:一文弄懂DiffusionModel1 论文信息标题:Multi-ConceptCustomizationofText-to-Ima
【来源:综合自中国气象局】信阳12月31日(周六)天气预报,白天天气现象阴,风向风力:东南风<3级,气温11摄氏度。夜间天气现象多云,风向风力:
格隆汇12月30日丨新维国际控股公布,由于有关续聘开元信德会计师事务所有限公司为公司核数师的第12项普通决议案于股东周年大会上未获通过,开
关于南瓜什么样的最好的内容,包含什么样的南瓜好吃蒸南瓜选什么样南瓜好?最好是又甜又面的
买年货、预定年夜饭时这些点要注意!北京发布“两节”消费提示2022年12月30日14:18中国网财经
同花顺(300033)金融研究中心12月30日讯,有投资者向汇川技术(300124)提问,你好,董秘,请问有跟蔚来换电站有合作吗。具体是哪方面合作。
卡塔尔世界杯结束了,阿根廷夺冠,梅西封王,圆满了。我想说青春结束了,却又怕显得矫情。第一次看世界杯,还是在20年前的2002年。那时候还小
格隆汇12月29日丨华立科技公布,今日,公司收到深交所出具的《关于终止对广州华立科技股份有限公司申请向不特定对象发行可转换公司债券审核的
三羊马12月29日主力资金净流出1091 49万元,涨跌幅为-4 15%,主力净量(dde大单净额 流通股)为-0 82%,两市排名4840 4902。投顾分析:该股今日
康力电梯(002367)12月29日在投资者关系平台上答复了投资者关心的问题。投资者:政策密集支持房地产“保交楼”,对公司电梯业务的影响预计如何
2022年12月29日广联航空(300900)发布公告称公司于2022年12月28日接受机构调研,东北证券王凤华要文强王璐、工银瑞信基金张力涛、太平基金王伟
证券代码:002846 证券简称:英联股份 公告编号:2022-132债券代码:128079 债券简称:英联转债
为了满足更多用户的尝鲜体验需求,现开启OPPOPadAirColorOS13 0升级公测版本用户招募。版本审核和推送时间:预计将在招募结束后5个工作日内分
证券代码:603055 证券简称:台华新材 公告编号:2022-101债券代码:113525 债券简称:台华
现金折扣相关账务处理:销售实现时,按销售总价确认收入,借记“应收账款”科目,按销售商品实际售价,贷记“主营业务收入”科目,按应收取的
以下是跨境通在北京时间12月28日10:47分盘口异动快照:12月28日,跨境通盘中快速上涨,5分钟内涨幅超过2%,截至10点47分,报4 88元,成交4 82
叙利亚外长梅克达德同俄罗斯外长拉夫罗夫通电话
格隆汇12月27日丨九州一轨(688485 SH)发布首次公开发行股票并在科创板上市发行安排及初步询价公告,拟公开发行股份3757 3016万股,占此次公开发行
“南北互跨”带来满满仪式感,也将助推酒店、景区、餐饮等多业态本地、异地双客群消费回暖。其中,海南、云南目的地订单占比接近70% “反向
山海杨阳:黄金弱势反弹做空,原油强势关注82 5得失!不怕不如意,就怕想不通,上帝只有一个,人有千千万,上帝很忙,你是你真正的上帝。你的
[ 相关新闻 ]
Copyright 2015-2022 西南医院网 版权所有 备案号:皖ICP备2022009963号-8 联系邮箱:39 60 29 14 2@qq.com