新型图像生成模型Hourglass Diffusion Transformer(HDiT)

12次阅读
没有评论

共计 1189 个字符,预计需要花费 3 分钟才能阅读完成。

Stability AI、慕尼黑大学和 Birchlabs 的开发人员提出了一种名为 Hourglass Diffusion Transformer(HDiT)的新型图像生成模型,该模型在保持高分辨率图像合成能力的同时,实现了线性(O(n))的计算复杂度增长,从而在像素空间直接生成图像。HDiT 模型基于 Transformer 架构,结合了 Diffusion Transformers(DiT)和 Hourglass Transformers 的设计,使得模型能够在高分辨率下直接进行训练,而不需要依赖于多尺度架构、潜在自编码器或自条件化等技术。

项目主页:https://crowsonkb.github.io/hourglass-diffusion-transformers

GitHub 地址:https://github.com/crowsonkb/k-diffusion

论文地址:https://arxiv.org/abs/2401.11605

新型图像生成模型 Hourglass Diffusion Transformer(HDiT)

特点:

  1. 线性复杂度: HDiT 在目标分辨率增加时,计算复杂度保持线性增长,这使得模型能够扩展到高分辨率(例如 1024x1024 像素)的直接像素空间图像合成。
  2. 无需高分辨率特定训练技巧: HDiT 能够在不使用渐进式增长或多尺度损失等高分辨率特定训练技巧的情况下,与现有模型在 ImageNet 2562 数据集上竞争。
  3. 高效的 Transformer 架构: HDiT 通过引入 Hourglass 结构,有效地利用了 Transformer 的层次化特性,同时避免了全局自注意力机制的二次方复杂度。
  4. 直接在像素空间生成: HDiT 能够在像素空间直接生成图像,而不需要依赖于潜在空间的表示,这简化了整体架构并提高了生成图像的质量。

实现方法:

  1. Hourglass 结构: HDiT 采用了 Hourglass 结构,这是一种层次化的 Transformer 架构,通过在不同分辨率层次上交替缩短和扩展序列长度来提高效率。
  2. 局部注意力机制: 在高分辨率层次上,HDiT 使用局部注意力(如 Neighborhood Attention)来处理细节,而在低分辨率层次上使用全局注意力来保持图像的全局一致性。
  3. 自适应位置编码: HDiT 使用了自适应的旋转位置编码(RoPE),这是一种改进的位置编码方式,能够更好地处理图像的层次结构。
  4. 损失权重调整: HDiT 采用了软最小信噪比(soft-min-snr)损失权重策略,以改善模型在不同噪声水平下的训练表现。
  5. 高效的 Transformer 块设计: HDiT 的 Transformer 块设计采用了 GEGLU 激活函数,并在前馈网络中应用了自适应的缩放因子,以提高模型的稳定性和性能。

总的来说,HDiT 通过结合高效的 Transformer 架构和 Diffusion 模型,实现了在高分辨率下直接生成高质量图像的能力,同时保持了计算效率,为未来的图像生成任务提供了一个有前景的方向。

正文完
关注公众号获取最新教程
post-qrcode
 
AI小诸葛
版权声明:本站原创文章,由 AI小诸葛 2024-01-26发表,共计1189字。
转载说明:除特殊说明外本站文章皆由原创发布,请勿转载。
评论(没有评论)
验证码