1月5日消息,百度技术委员会主席吴华表示,熟练地掌握AIGC,创作者将能够更加轻松、高效、快乐地创作,甚至一个人就可以完成编剧、美术创作及后期剪辑等内容创作全流程工作,成为天才创作者。
据吴华介绍,通过使用百度文心ERNIE 3.0 Zeus,创作者只需输入一个题目,就可以瞬间结合语境写出上百篇不同体裁、风格的作品,甚至是完成剧本创作。此外,通过百度文心ERNIE-ViLG 2.0,创作者还可以根据一句话或一段描述文本生成画作;如果再通过百度专门的视频内容生成与编辑技术对该画作或者视频进行处理,就可以得到全新或更精美的视频。
据吴华透露,在1月10日即将召开的2022百度Create大会上,百度还将推出更多的AIGC工具产品并对相关技术进行讲解。
“大模型的进步,让我们在文字、图像、视频等创作领域全面感受到了AI技术的魅力。如果你掌握了这项内容创作能力,那你几乎可以完成一部影片的许多重要工作,成为天才鬼才创作者。再配上自己设计的虚拟人演员,那你就可以成为一个真正的‘独立’制作人、真正的‘独立导演’。”吴华表示。
此前,百度创始人、董事长兼首席执行官李彦宏曾指出,“过去一年间,人工智能无论是在技术层面还是在商业应用层面,都有了巨大的进展,有些甚至是方向性的改变。”而在诸多被提及的方向性改变中,AIGC成为了被重点提及的对象。
2022年5月,百度发布了融合任务相关知识的千亿大模型ERNIE 3.0 Zeus。该模型能够从丰富多样的无标注数据中学习,同时在学习过程中融入知识图谱指导模型学习世界知识和语言知识,进而提升学习的效率。此外,该模型还能从摘要、对联、翻译、分类、阅读理解等百余种不同形式的任务中学习知识,能够做到多种语言理解和生成任务。
吴华指出,文心ERNIE 3.0系列模型已经在几十类自然语言理解和生成公开权威任务,以及零样本、小样本学习任务上处于世界领先水平。此外,它还发布了业界首个开放的千亿参数中文生成API,供各行各业开发者到文心大模型官网上调用、学习。
2022年10月,百度发布了业界首个知识增强的AI作画大模型ERNIE-ViLG 2.0。它能根据一句话或者一段描述文本,生成一幅精美的画作。吴华介绍,为提高文本生成图像的准确性,百度在AI预训练学习过程中创新性地提出了知识增强的扩散模型,实现了精准的细粒度语义控制;同时通过引入混合降噪专家网络,对图像生成不同阶段对模型、计算性能要求的不同,使用不同网络进行了针对性地建模和优化,进而提升了图像生成的质量。
据吴华介绍,在视觉内容生成方面,百度在文生图扩散模型的基础上加入时序建模,使得模型能根据文本或者图像生成新的视频。创作者可以根据用户提供的一段描述文本,或者一幅图像,自动地生成高清、流畅的视频。
此外,通过百度研发的VIMER-TCIR多任务大模型,还可以实现对生成视频的修复和编辑,通过画质提升、边缘锐化等方式增强视频的清晰度,达到全方位提升视频编辑效率和观感体验。
目前,VIMER-TCIR多任务大模型也已经在老电影修复等场景实现落地,每天单机可修复视频28.5万帧,解决了绝大部分画面的修复问题。(一橙)