AI 图片生成展示的视频可以通过以下几种方式生成:
– 利用阿里达摩院推出的文本到视频生成扩散模型,此模型由文本特征提取、文本特征到图像特征生成扩散模型、图像特征到视频像素生成模型、视频插帧扩散模型、视频超分扩散模型这 5 个子网络组成,整体模型参数约 60 亿,支持英文输入,可到 hugging face 上去体验,不过目前还在测试阶段,只提供一次 2 秒的输出,输出一次视频大概需要两分钟,也可以复制模型购买更好的算力以达到更快的速度,若电脑够好还可部署到自己电脑上。
– 使用 AI 图片展示视频在线生成工具,只需简单四步即可,上传图片和文字,选择视频时长和配乐,选择视频风格和动画(可选的),点击生成按钮等待视频生成,几分钟内就能拥有一个专业的、令人惊叹的视频展示,无需任何专业的技术或者软件知识。
– 对于自媒体来说,如从黑白照片生成彩色视频,可先使用基于生成对抗网络(GANs)的图像翻译技术对黑白照片进行超分辨率处理,如老牌开源库 Real-ESRGAN,若只是想看效果可调用其在 huggingface 空间的演示,上传图片并选择偏好即可;若为高级玩家,可下载并运行该项目,其支持环境为 Python >= 3.7、PyTorch >= 1.7 等,操作是用 git 从 github 地址 clone 项目代码,然后 pip 依赖库,最后运行.py 脚本文件并传递参数执行处理操作,安装完成后可对运行参数进行说明,如 -h 显示帮助信息,-i 为输入图像或文件夹路径等。
– 以 Runway 为例,首先准备好科学上网工具,打开其网址 https://app.runwayml.com/login 并注册或登录,点击【开始生成】,上传图片(如水珠滑落,微风 Water droplets slide down, breeze 等描述),然后设置动效,包括相机设置(控制画面镜头的放大缩小平移旋转等)和运动画笔(智能识别区域并提供 X Y Z 轴运动,拉动【氛围】可调整),稍加等待后即可生成视频,若需调整时长可在此处进行,生成后点击 Download 即可下载。
© 版权声明
文章版权归作者所有,转载请带原文链接。
THE END
喜欢就支持一下吧
暂无评论内容