苹果发布自回归视觉模型AIM

52次阅读
没有评论

共计 269 个字符,预计需要花费 1 分钟才能阅读完成。

来自苹果的团队提出一组使用自回归生成目标进行预训练的视觉模型 AIM,展示了图像特征的自回归预训练具有与文本对应物(即大型语言模型)类似的缩放属性。具体来说,该论文主要有两个发现:模型容量可以轻松地扩展到数十亿个参数;AIM 有效地利用了大量未经筛选的图像数据集。官方今天正式在 huggingface 上释出了模型。

模型地址:https://huggingface.co/collections/apple/aim-65aa3ce948c718a574f09eb7

GitHub 地址:https://github.com/apple/ml-aim

苹果发布自回归视觉模型 AIM

正文完
关注公众号获取最新教程
post-qrcode
 
AI小诸葛
版权声明:本站原创文章,由 AI小诸葛 2024-01-20发表,共计269字。
转载说明:除特殊说明外本站文章皆由原创发布,请勿转载。
评论(没有评论)
验证码