目前有多种方式可以生成展示 ai 图片生成的视频。

目前有多种方式可以生成展示 ai 图片生成的视频。

阿里达摩院推出的文本到视频生成扩散模型由文本特征提取、文本特征到图像特征生成扩散模型、图像特征到视频像素生成模型、视频插帧扩散模型、视频超分扩散模型这 5 个子网络组成,整体模型参数约 60 亿,支持英文输入,目前可到 hugging face 上去体验,因处于测试阶段,一次输出 2 秒视频约需两分钟,也可复制模型购买更好算力以达更快速度,电脑够好还可部署到自己电脑上。

Runway 提供了从图片+文字描述生成视频的方式,首先打开其网址 https://app.runwayml.com/login ,点击右上角注册或登录,接着点击【开始生成】,上传图片并加上描述(如水珠滑落,微风 Water droplets slide down, breeze ),然后设置动效,动效设置有相机设置(控制画面镜头的放大缩小平移旋转等)和运动画笔(智能识别区域并提供 X Y Z 轴运动),画完笔画需拉动参数调整,等待生成后即可下载,默认时长 4s,如需调整可根据经验操作,越往后生成画面精度可能不如原图(未升级会员情况下)。

老牌开源库 Real-ESRGAN 可用于图像超分辨率处理,不但能修复图片,也能修复视频,很多老动画片的高清版就是用它修复的。仅想看效果可调用其在 huggingface 空间的演示,上传图片并选择偏好点击确定即可;高级玩家可下载并运行该项目,支持环境为 Python >= 3.7、PyTorch >= 1.7 等,操作是用 git 从 github 地址 clone 项目代码,然后 pip 依赖库,最后运行.py 脚本文件并传递参数执行处理操作,参数包括 -h(显示帮助信息)、-i(输入图像或文件夹路径,默认为 inputs 文件夹)、-o(输出文件夹路径,默认为 results 文件夹)、-n(模型名称,默认为 RealESRGAN_x4plus )、-s(图像最终上采样比例,默认为 4 表示放大四倍)、–suffix(恢复图像后缀,默认为 out)、-t(切片大小,0 表示测试过程中不切片,默认为 0)、–face_enhance(是否使用 GFPGAN 对人脸增强,默认为 False)、–fp32(推理过程中是否使用半精度)。

百度 AI 的 Createlab 提供手动生成视频和 API 接口调用生成视频两种方式,第一次使用手动生成视频需填写百家号文章链接(最好是娱乐领域),还需下载度小刚的发音类型,可根据需要选择 15 秒、30 秒、60 秒、90 秒、120 秒等不超过 120 秒的视频时长,点击生成视频。

打开 Web UI 程序(默认地址为 http://127.0.0.1:7860 ),上传音频和图片,选择模型和参数,点击生成即可等待魔法发生。https://tuingai.com/

© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享
的头像-AI星球圈
评论 抢沙发

请登录后发表评论

    暂无评论内容