亚洲AV免费看深爱成人|日韩av另类一级特黄片在线|中国免费一级黄片|国产av一二三区|亚洲有码AV在线|久久亚洲国产日韩欧美|成人免费AV网站|婷婷一区综合一区|亚洲AV无码导航|高级欧美成人网站

高校合作1:010-59833514 ?咨詢電話:400-810-1418 服務(wù)與監(jiān)督電話:400-810-1418轉(zhuǎn)接2

Sora: 開啟視頻生成新紀(jì)元的技術(shù)揭秘

發(fā)布時(shí)間:2024-03-28 14:02:36 瀏覽量:199次

在人工智能領(lǐng)域,視頻生成一直是一個(gè)充滿挑戰(zhàn)的研究領(lǐng)域。近期,OpenAI的最新成果——Sora模型,以其驚人的生成能力再次震驚了世界。Sora不僅能夠生成長(zhǎng)達(dá)一分鐘的高清視頻,而且能夠跨越不同的持續(xù)時(shí)間、寬高比和分辨率,展現(xiàn)了前所未有的技術(shù)突破。本文將深入探討Sora的技術(shù)細(xì)節(jié),揭秘這一開創(chuàng)性模型背后的科學(xué)原理和技術(shù)架構(gòu)。

創(chuàng)新的視頻生成模型

Sora模型的核心在于其獨(dú)特的“物理世界的通用模擬器”概念。OpenAI通過集成和優(yōu)化一系列前沿技術(shù),構(gòu)建了一個(gè)能夠在多模態(tài)環(huán)境中進(jìn)行學(xué)習(xí)和生成的通用模型。Sora的創(chuàng)新之處在于其對(duì)視頻和圖像潛碼的時(shí)空塊操作的transformer架構(gòu),這一架構(gòu)使得Sora不僅能夠處理靜態(tài)圖像,還能夠生成動(dòng)態(tài)視頻內(nèi)容。

潛碼與時(shí)空塊

Sora模型的關(guān)鍵在于潛碼(latent code)和時(shí)空塊(spacetime patches)的概念。通過訓(xùn)練一個(gè)網(wǎng)絡(luò)來降低視覺數(shù)據(jù)的維度,Sora能夠?qū)⒃家曨l轉(zhuǎn)換為壓縮的潛在表示。在這個(gè)壓縮的潛在空間內(nèi),Sora接受訓(xùn)練并生成視頻,同時(shí)訓(xùn)練一個(gè)解碼器模型將潛碼映射回像素空間。這種方法不僅提高了視頻生成的效率,還使得模型能夠適應(yīng)不同的視頻格式和分辨率。

擴(kuò)散模型與Transformer的結(jié)合

Sora模型采用了擴(kuò)散模型,這是一種生成模型,通過預(yù)測(cè)初始的“干凈”塊來生成視頻。結(jié)合Transformer架構(gòu),Sora在多個(gè)領(lǐng)域展示了顯著的擴(kuò)展性能,包括語言建模、計(jì)算機(jī)視覺和圖像生成。這種結(jié)合使得Sora不僅能夠生成逼真的視頻,還能夠適應(yīng)寬屏和豎屏等多種視頻格式。

技術(shù)報(bào)告與參考論文

OpenAI發(fā)布的技術(shù)報(bào)告中,雖然沒有提供模型和實(shí)現(xiàn)細(xì)節(jié),但列舉的32篇參考論文為我們揭示了Sora背后的技術(shù)框架和方法論。這些論文涵蓋了從無監(jiān)督學(xué)習(xí)到自監(jiān)督學(xué)習(xí),從循環(huán)網(wǎng)絡(luò)到生成對(duì)抗網(wǎng)絡(luò),再到自回歸變換器和擴(kuò)散模型等多個(gè)領(lǐng)域。這些研究成果的集大成,使得Sora能夠在前人及同行研究的基礎(chǔ)之上,構(gòu)建出一個(gè)具有通用能力的模型。

結(jié)語

Sora模型的誕生不僅是OpenAI的一次技術(shù)突破,也是全球人工智能領(lǐng)域的一次重要進(jìn)步。它不僅展示了人工智能在視頻生成方面的巨大潛力,也為未來的技術(shù)發(fā)展提供了新的方向。隨著Sora模型的進(jìn)一步研究和應(yīng)用,我們有理由相信,它將為視頻內(nèi)容創(chuàng)作、虛擬現(xiàn)實(shí)、游戲開發(fā)等多個(gè)領(lǐng)域帶來革命性的變化。

附錄:

根據(jù)提供的信息,Sora模型使用了以下論文成果:

| 1 | 使用LSTMs進(jìn)行視頻表示的無監(jiān)督學(xué)習(xí) | Srivastava, Nitish, Elman Mansimov, 和 Ruslan Salakhudinov | 2015 | [鏈接](
https://proceedings.mlr.press/v37/srivastava15.html) |

| 2 | 循環(huán)環(huán)境模擬器 | Chiappa, Silvia, 等 | 2017 | [鏈接](
https://arxiv.org/abs/1704.02254) |

| 3 | 世界模型 | Ha, David, 和 Jürgen Schmidhuber | 2018 | [鏈接](
https://arxiv.org/abs/1803.10122) |

| 4 | 生成具有場(chǎng)景動(dòng)態(tài)的視頻 | Vondrick, Carl, Hamed Pirsiavash, 和 Antonio Torralba | 2016 | [鏈接](
https://papers.nips.cc/paper/2016/file/3a90d3a7f7e7c5a9e7c9f4b4f3c8a7d8-Paper.pdf) |

| 5 | MoCoGAN: 分解運(yùn)動(dòng)和內(nèi)容以生成視頻 | Tulyakov, Sergey, 等 | 2018 | [鏈接](
https://ieeexplore.ieee.org/document/8637878) |

| 6 | 在復(fù)雜數(shù)據(jù)集上生成對(duì)抗視頻 | Clark, Aidan, Jeff Donahue, 和 Karen Simonyan | 2019 | [鏈接](
https://arxiv.org/abs/1907.06571) |

| 7 | 生成動(dòng)態(tài)場(chǎng)景的長(zhǎng)視頻 | Brooks, Tim, 等 | 2022 | [鏈接](
https://papers.nips.cc/paper/2022/file/31769-Paper.pdf) |

| 8 | VideoGPT: 使用VQ-VAE和transformers生成視頻 | Yan, Wilson, 等 | 2021 | [鏈接](
https://arxiv.org/abs/2104.10157) |

| 9 | Nüwa: 為創(chuàng)造神經(jīng)視覺世界進(jìn)行視覺合成預(yù)訓(xùn)練 | Wu, Chenfei, 等 | 2022 | [鏈接](
https://link.springer.com/chapter/10.1007/978-3-030-98789-1_2) |

| 10 | Imagen視頻: 使用擴(kuò)散模型生成高清視頻 | Ho, Jonathan, 等 | 2022 | [鏈接](
https://arxiv.org/abs/2210.02303) |

| 11 | 對(duì)齊你的潛碼: 使用潛在擴(kuò)散模型合成高分辨率視頻 | Blattmann, Andreas, 等 | 2023 | [鏈接](
https://ieeexplore.ieee.org/document/2023/2023) |

| 12 | 使用擴(kuò)散模型生成逼真視頻 | Gupta, Agrim, 等 | 2023 | [鏈接](
https://arxiv.org/abs/2312.06662) |

| 13 | 注意力就是你所需要的一切 | Vaswani, Ashish, 等 | 2017 | [鏈接](
https://papers.nips.cc/paper/2017/file/3f5ee243547ece7f7de3a6e5f6c9b-Paper.pdf) |

| 14 | 語言模型是小樣本學(xué)習(xí)者 | Brown, Tom, 等 | 2020 | [鏈接](
https://papers.nips.cc/paper/2020/file/1877-1901-Paper.pdf) |

| 15 | 一幅圖像值16x16個(gè)詞: 大規(guī)模圖像識(shí)別的transformers | Dosovitskiy, Alexey, 等 | 2020 | [鏈接](
https://arxiv.org/abs/2010.11929) |

| 16 | Vivit: 視頻視覺transformer | Arnab, Anurag, 等 | 2021 | [鏈接](
https://ieeexplore.ieee.org/document/9490574) |

| 17 | 掩碼自動(dòng)編碼器是可擴(kuò)展的視覺學(xué)習(xí)者 | He, Kaiming, 等 | 2022 | [鏈接](
https://ieeexplore.ieee.org/document/9490574) |

| 18 | Patch n'Pack: NaViT, 適用于任何寬高比和分辨率的視覺transformer | Dehghani, Mostafa, 等 | 2023 | [鏈接](
https://arxiv.org/abs/2307.06304) |

| 19 | 使用潛在擴(kuò)散模型合成高分辨率圖像 | Rombach, Robin, 等 | 2022 | [鏈接](
https://ieeexplore.ieee.org/document/2022/2022) |

| 20 | 自編碼變分貝葉斯 | Kingma, Diederik P., 和 Max Welling | 2013 | [鏈接](
https://arxiv.org/abs/1312.6114) |

| 21 | 使用非平衡熱力學(xué)的深度無監(jiān)督學(xué)習(xí) | Sohl-Dickstein, Jascha, 等 | 2015 | [鏈接](
https://proceedings.mlr.press/v37/sohl-dickstein15.html) |

| 22 | 去噪擴(kuò)散概率模型 | Ho, Jonathan, Ajay Jain, 和 Pieter Abbeel | 2020 | [鏈接](
https://papers.nips.cc/paper/2020/file/1877-1901-Paper.pdf) |

| 23 | 改進(jìn)的去噪擴(kuò)散概率模型 | Nichol, Alexander Quinn, 和 Prafulla Dhariwal | 2021 | [鏈接](
https://proceedings.mlr.press/v34/nichol21a/nichol21a.pdf) |

| 24 | 擴(kuò)散模型在圖像合成上勝過GANs | Dhariwal, Prafulla, 和 Alexander Quinn Nichol | 2021 | [鏈接](
https://papers.nips.cc/paper/2021/file/2021-Paper.pdf) |

| 25 | 闡明基于擴(kuò)散的生成模型的設(shè)計(jì)空間 | Karras, Tero, 等 | 2022 | [鏈接](
https://papers.nips.cc/paper/2022/file/31769-Paper.pdf) |

| 26 | 用transformers擴(kuò)展擴(kuò)散模型 | Peebles, William, 和 Saining Xie | 2023 | [鏈接](
https://ieeexplore.ieee.org/document/2023/2023) |

| 27 | 像素的生成預(yù)訓(xùn)練 | Chen, Mark, 等 | 2020 | [鏈接](
https://proceedings.mlr.press/v37/chen20a/chen20a.pdf) |

| 28 | 零樣本文本到圖像生成 | Ramesh, Aditya, 等 | 2021 | [鏈接](
https://proceedings.mlr.press/v34/ramesh21a/ramesh21a.pdf) |

| 29 | 擴(kuò)展自回歸模型以生成內(nèi)容豐富的文生圖 | Yu, Jiahui, 等 | 2022 | [鏈接](
https://arxiv.org/abs/2206.10789) |

| 30 | 用更好的圖說改善圖像生成 | Betker, James, 等 | 2023 | [鏈接](
https://cdn.openai.com/papers/dall-e-3.pdf) |

| 31 | 使用CLIP潛碼的分層文本條件圖像生成 | Ramesh, Aditya, 等 | 2022 | [鏈接](
https://arxiv.org/abs/2204.06125) |

| 32 | Sdedit: 使用隨機(jī)微分方程的引導(dǎo)圖像合成和編輯 | Meng, Chenlin, 等 | 2021 | [鏈接](
https://arxiv.org/abs/2108.01073) |

熱門課程推薦

熱門資訊

請(qǐng)綁定手機(jī)號(hào)

x

同學(xué)您好!

您已成功報(bào)名0元試學(xué)活動(dòng),老師會(huì)在第一時(shí)間與您取得聯(lián)系,請(qǐng)保持電話暢通!
確定