精选论文
-
Attention Is All You Need2017
本文提出了一种全新的神经网络架构——Transformer,完全基于注意力机制,摒弃了传统的循环和卷积结构。该模型在机器翻译任务上取得了显著效果,并为后续的AIGC模型奠定了基础。
显示摘要 -
Language Models are Few-Shot Learners2020
介绍了GPT-3模型,一个拥有1750亿参数的自回归语言模型。研究表明,大规模语言模型在无需梯度更新或微调的情况下,仅通过上下文学习即可完成多种任务。
显示摘要 -
Hierarchical Text-Conditional Image Generation with CLIP Latents2022
提出了DALL·E 2模型,利用CLIP的图像和文本嵌入空间,通过扩散模型生成高质量、高分辨率的图像,显著提升了文本到图像生成的质量和可控性。
显示摘要 -
Blended Diffusion for Text-to-Image Personalization2022
提出了一种个性化文本到图像生成方法,允许用户通过少量图像(3-5张)微调预训练的扩散模型,从而在新图像中重现特定主体。
显示摘要