3分钟一个大片!视频版Midjourney上线iPhone,网友实测太绚了|免费
没想到,「视频版的Midjourney」已经上线APP Store了!
划重点,能够免费体验。
只需上传5秒内的视频,选好风格,就可以在2-3分钟,瞬时得到AI生成视频了。
这个最新应用是由初创公司Runway推出,前脚官宣了进化版Gen-2,现在又在搞事情了。
最新上线的RunwayML仅支持视频-视频的生成AI模型Gen-1,并且只能在iOS上体验。
话不多说,小编立马下载一个,上手体验了一把。
3分即生视频
想要在手机上体验Gen-1的快乐,首先需要先下载RunwayML,然后登录/创建账户。
登录成功后,就可以开始创建自己的视频之旅。
与网页版最大的不同是,RunwayML不仅能编辑视频,还能拍摄视频。也就是,你随手这么一拍,就能做个效果。
当然了,从手机相册上传一个已经拍好的视频也是可以的。
进入前,RunwayML提示每个人都会有525credits。每秒的视频,会用掉14credits,大概一共能免费生成38秒的视频。
你可以上传一段视频,然后选择一个文本、图片作为输入,或者直接选择预设风格,Gen-1可以根据输入的内容来转换视频的风格。
预设风格
RunwayML预设了6种图片风格,包括黏土、水彩、折纸、水笔画、素描、云景。
先来个黏土风格的,上传视频后,生成的狗子多少有点……掉san值……
其实,小编的狗子是这样子的...
再试一个云景
上传图片来设定风格,比如梵高的「星空」。
给办公室来一个特效吧,是这样的:
此外,你还上传一段在公园里骑车的视频,然后选择一幅水彩画作为输入,视频风格立马变成水彩画了。
还可以上传一张猫咪的照片,让视频中的人物变成猫咪。
当前阶段的RunwayML表现还不尽如人意,输出的视频会存在变形、变色等情况。另外,限制上传的视频时长不能超过5秒。
还有一些prompt是被禁止的,比如生成裸体,还有受保护的作品也是不允许的。
比如the Verge的作者尝试让RunwayML生成宫崎骏「吉卜力工作室」风格的视频就被拒绝了。
目前,Runway移动版只支持运行Gen-1,未来,Gen-2也会上线移动版。
Gen-2更强了
上个月,Runway发布了文字生成视频模型Gen-2。
有了Gen-2,你就能用任意的图像、视频或文本,生成一段酷炫大片,想要啥风格,就有啥风格。
最新版的Gen-2一口气带来了八大功能:
文生视频、文本+参考图像生视频、静态图片转视频、视频风格迁移、故事板(Storyboard)、Mask(掩码)、渲染和个性化。
就比如Mask功能就可以将一走走路的小狗秒变斑点狗。
网友玩疯了
网友上手实操,黏土风格的小男孩。
先拿自己的狗子试试,太魔幻了。
太神奇了吧!将来也许可以通过一些文字输入来创造自己的电影!
已经有网友开始坐等Gen-2上线了。
安卓版的啥时候有?
Valenzuela将当前的人工智能生成时代与19世纪火热的「光学玩具」时期相提并论。
当时,科学家正发明各种各样的设备,尽管这些设备在性能上并不怎么样,但却是现代照相机的鼻祖。
同样,Runway的APP感觉就像这些玩具中的一个。
谁也无法想象,这一工具在未来会产生多大的影响力。