今天來給大家介紹一位老朋友,估計他出道的時間比很多AI視頻新星(例如Sora、Luma、可靈)還要早很多年呢~這可是曾經稱霸AI影片生成界的大佬——Runway!👑
時間倒回到去年11月,他們悄悄地更新了Gen2模型,然後説要組建世界模型團隊,就沒啥動靜了,足足沈寂了快8個月。但就在大家被Sora、Vidu、LTX、Luma、可靈刷屏的時候,今天就在剛剛,這位AI視頻界的王者,頂著「沉入海底的墓碑」梗圖,終於王者歸來,發布了Gen3模型!💫
Runway Gen-3 釋出
趕緊來看看Runway 官網釋出的 Gen3 示範影片,這光影和效果真讓人嘆為觀止:
- 光影效果超穩定
想象一下:日本城市裡,以超高速行進的火車窗戶上的一個女人的微妙倒影。即使是這樣高速變化的夜景燈光,Gen3的效果依然超穩定。 - 10秒生成
所有案例都是10秒長度的,而Gen3的生成速度也是超快:5秒的視頻只需45秒就能生成,10秒的視頻需要90秒。比市面上其他第二代AI視頻快了不止一倍。 - 審美大躍進
不像有些AI視頻產品審美感人,很多add-on的東西可醜了,Runway的審美一向很強,畢竟人家是從做電影視效開始的比如《瞬息全宇宙》的特效也很棒呢。 - 充滿想象力
雖然很多模型在真實效果上表現不俗,但在幻想、玄幻等場景中就表現不佳。但是Runway Gen3真的很強,比如:在夜晚的破舊城市,透過窗戶看到巨大奇怪生物走過,只有一盞街燈微弱著。這畫面想想就帥爆了! - 物理規律
從 Demo 的影片來看 Gen3的物理規律也是無敵了,簡直是行業第一梯隊水平。
Runway 官網文檔裡還有這麼段介紹:
"Gen-3 Alpha 是 Runway 在為大規模多模態訓練上構建的新基礎設施上訓練的一系列模型中的第一個。相較於 Gen-2,它在保真度、一致性和動作上有重大改進,朝著構建通用世界模型邁出了一步。"
最讓我們期待的是,Runway不僅有運動筆刷、高級攝影機控制和導演模式等現有工具,他們還推出了更多工具來更細緻的控制結構、風格和動作。這意味著什麼?更可控更精細的創作體驗!
所以,Runway的Gen3 Alpha真的帶著全套工具回歸了。未來的幾天內就會對大家開放! 迎接 AI 影片生成的變革吧!🎉
Gen3 測試結論
人工智慧影片生成在短時間內取得了巨大的進步,從具有明顯變形和失真的 2 秒剪輯到幾乎與拍攝片段無法區分的鏡頭。 Gen3 讓 Runway 目前成為領域釋出正式工具的領導工具。
現在大家都可以到官網是用 Gen-3,至少是文字到影片的版本。文字到圖像即將推出。可以輕易產生 10-11 秒的真實感剪輯,其動作極其精確,包括反映場景和設定的人類動作的表現。
從我們最初的測試來看,它在某些任務中與Sora一樣好,儘管我們現在還無從根 OpenAI 的 Sora 模型比較,但目前 Gen-3 已經推出了可以試用的版本,並開放所有人試用。而它在理解運動方面也比 Luma Labs Dream Machine 更好,值得期待。
—
更多關於 Runway AI Gen-3
- Gen-3 Alpha 簡介:影片產生的新領域
- Runway AI 的 Gen-3 Alpha 文字轉視頻模型擊敗 OpenAI 的 Sora:9 個令人難以置信的影片 |科技新聞 - 印度快報
- 如何存取 Runway Gen-3 Alpha Text2Video 模型
- Gen-3 Alpha is WILD (and available now) - YouTube
- Runway 的 Gen-3 Alpha AI 影片模型現已推出 – 但有一個問題 |創業節拍
- 什麼是 Runway Gen-3 Alpha?它是如何工作的、用例、替代方案和 M |數據營
- Gen-3 Alpha 文字轉影片現已向所有人開放:r/StableDiffusion
- Runway’s ‘better and faster’ Gen-3 AI video model is coming in the ‘next few days’ | Tom's Guide
- Runway 的新型視訊生成人工智慧 Gen-3 提供改進的控制 | TechCrunch