3分钟一个大片!视频版Midjourney上线iPhone,网友实测太绚了|免费

  没想到,「视频版的Midjourney」已经上线APP Store了!

  划重点,能够免费体验。

  只需上传5秒内的视频,选好风格,就可以在2-3分钟,瞬时得到AI生成视频了。

    这个最新应用是由初创公司Runway推出,前脚官宣了进化版Gen-2,现在又在搞事情了。

    最新上线的RunwayML仅支持视频-视频的生成AI模型Gen-1,并且只能在iOS上体验。

  话不多说,小编立马下载一个,上手体验了一把。

    3分即生视频

  想要在手机上体验Gen-1的快乐,首先需要先下载RunwayML,然后登录/创建账户。

    登录成功后,就可以开始创建自己的视频之旅。

  与网页版最大的不同是,RunwayML不仅能编辑视频,还能拍摄视频。也就是,你随手这么一拍,就能做个效果。

    当然了,从手机相册上传一个已经拍好的视频也是可以的。

  进入前,RunwayML提示每个人都会有525credits。每秒的视频,会用掉14credits,大概一共能免费生成38秒的视频。

    你可以上传一段视频,然后选择一个文本、图片作为输入,或者直接选择预设风格,Gen-1可以根据输入的内容来转换视频的风格。

    预设风格

  RunwayML预设了6种图片风格,包括黏土、水彩、折纸、水笔画、素描、云景。

    先来个黏土风格的,上传视频后,生成的狗子多少有点……掉san值……

    其实,小编的狗子是这样子的...

    再试一个云景

    上传图片来设定风格,比如梵高的「星空」。

    给办公室来一个特效吧,是这样的:

    此外,你还上传一段在公园里骑车的视频,然后选择一幅水彩画作为输入,视频风格立马变成水彩画了。

  还可以上传一张猫咪的照片,让视频中的人物变成猫咪。

  当前阶段的RunwayML表现还不尽如人意,输出的视频会存在变形、变色等情况。另外,限制上传的视频时长不能超过5秒。

  还有一些prompt是被禁止的,比如生成裸体,还有受保护的作品也是不允许的。

  比如the Verge的作者尝试让RunwayML生成宫崎骏「吉卜力工作室」风格的视频就被拒绝了。

    目前,Runway移动版只支持运行Gen-1,未来,Gen-2也会上线移动版。

  Gen-2更强了

  上个月,Runway发布了文字生成视频模型Gen-2。

  有了Gen-2,你就能用任意的图像、视频或文本,生成一段酷炫大片,想要啥风格,就有啥风格。

    最新版的Gen-2一口气带来了八大功能:

  文生视频、文本+参考图像生视频、静态图片转视频、视频风格迁移、故事板(Storyboard)、Mask(掩码)、渲染和个性化。

  就比如Mask功能就可以将一走走路的小狗秒变斑点狗。

    网友玩疯了

  网友上手实操,黏土风格的小男孩。

    先拿自己的狗子试试,太魔幻了。

    太神奇了吧!将来也许可以通过一些文字输入来创造自己的电影!

    已经有网友开始坐等Gen-2上线了。

    安卓版的啥时候有?

    Valenzuela将当前的人工智能生成时代与19世纪火热的「光学玩具」时期相提并论。

    当时,科学家正发明各种各样的设备,尽管这些设备在性能上并不怎么样,但却是现代照相机的鼻祖。

  同样,Runway的APP感觉就像这些玩具中的一个。

  谁也无法想象,这一工具在未来会产生多大的影响力。