亚洲AV免费看深爱成人|日韩av另类一级特黄片在线|中国免费一级黄片|国产av一二三区|亚洲有码AV在线|久久亚洲国产日韩欧美|成人免费AV网站|婷婷一区综合一区|亚洲AV无码导航|高级欧美成人网站

<strike id="ed4sg"></strike>
  • 高校合作1:010-59833514 ?咨詢電話:400-810-1418 服務(wù)與監(jiān)督電話:400-810-1418轉(zhuǎn)接2

    OpenAI發(fā)布首個(gè)AI視頻模型,Sora能生成1分鐘視頻,技術(shù)引領(lǐng)行業(yè)

    發(fā)布時(shí)間:2024-06-10 20:35:47 瀏覽量:219次

    人工智能(AI)

    【OpenAI發(fā)首個(gè)AI視頻模型Sora,能生成1分鐘連貫視頻】

    OpenAI近日發(fā)布了首個(gè)AI視頻生成模型Sora,其突破性的技術(shù)秒殺一眾對(duì)手,令網(wǎng)友直呼“整個(gè)行業(yè)RIP”。Sora能根據(jù)文字指令生成逼真且充滿想象力的視頻,且能生成長(zhǎng)達(dá)1分鐘的連貫視頻。


    漫步在東京街頭的女子,多鏡頭一致性的1分鐘視頻

    Sora的出色表現(xiàn)得益于其對(duì)語言的深刻理解,它能準(zhǔn)確地理解用戶指令中所表達(dá)的需求,把握這些元素在現(xiàn)實(shí)世界中的表現(xiàn)形式。Sora的最大特點(diǎn)在于其能提供多幀預(yù)測(cè),實(shí)現(xiàn)了一鏡到底的效果。這意味著Sora能在同一視頻中設(shè)計(jì)出多個(gè)鏡頭,同時(shí)保持角色和視覺風(fēng)格的一致性。此外,Sora模型還能展示出對(duì)電影拍攝語法的自發(fā)理解,這種能力體現(xiàn)在它對(duì)講故事的獨(dú)特才能上。

    類似皮克斯動(dòng)畫的視頻

    逼真的猛犸象視頻

    一鏡到底的狗狗視頻


    海盜船與戰(zhàn)艦在咖啡杯里纏斗

    VeryKen智評(píng):Sora的發(fā)布是AI視頻生成領(lǐng)域的重大突破,將對(duì)AI視頻生成領(lǐng)域的競(jìng)爭(zhēng)格局產(chǎn)生影響,有望引領(lǐng)一場(chǎng)新的技術(shù)革新潮流。這一突破讓人們看到了AI理解和模擬現(xiàn)實(shí)世界的可能,也讓人們對(duì)實(shí)現(xiàn)人工通用智能(AGI)的未來充滿了期待。
    然而,盡管Sora模型在技術(shù)上取得了顯著突破,但其在實(shí)際應(yīng)用中還面臨一些挑戰(zhàn)。例如,Sora在模擬復(fù)雜場(chǎng)景的物理效果上可能會(huì)遇到難題,有時(shí)也難以準(zhǔn)確理解特定情境下的因果關(guān)系。這些問題的解決,將是OpenAI未來研發(fā)的重要方向。(量子位,新智元)

    【谷歌突然上線Gemini 1.5:MoE架構(gòu),100萬上下文】

    谷歌近日發(fā)布了其最新的人工智能模型Gemini 1.5。這一新版本的最大亮點(diǎn)在于,作為首個(gè)登場(chǎng)的多模態(tài)通用模型,Gemini 1.5 Pro把穩(wěn)定處理上下文的上限擴(kuò)大至100萬tokens。這意味著Gemini 1.5 Pro能一次性處理超過70萬個(gè)單詞的文本、3萬行代碼、11個(gè)小時(shí)的音頻,或1個(gè)小時(shí)的視頻。相較之下,兩個(gè)月前發(fā)布的Gemini 1.0 Pro上下文理解限制為3.2萬tokens,而OpenAI的GPT-4 Turbo也只支持12.8萬tokens。

    Gemini 1.5 Pro的出色表現(xiàn)不僅體現(xiàn)在處理大量資料的能力上,還表現(xiàn)在其對(duì)多模態(tài)信息的理解上。在測(cè)試過程中,研究人員用多段一個(gè)多小時(shí)的視頻檢驗(yàn)了Gemini 1.5 Pro的長(zhǎng)序列理解能力。結(jié)果顯示,Gemini 1.5 Pro在理解長(zhǎng)短視頻上與在超長(zhǎng)文本任務(wù)上的表現(xiàn)同樣優(yōu)異。此外,Gemini 1.5 Pro還支持圖像和視頻的生成。這些功能的實(shí)現(xiàn),都得益于谷歌的模型采用了“混合專家模型”(MoE)的算法。

    VeryKen智評(píng):Gemini 1.5的發(fā)布是AI領(lǐng)域的一次重大突破。它的出現(xiàn)不僅推動(dòng)了AI技術(shù)的發(fā)展,也為AI在各個(gè)領(lǐng)域的應(yīng)用提供了更多的可能性。首先,Gemini 1.5 Pro的出現(xiàn),使得AI模型能夠處理更大量的數(shù)據(jù),這對(duì)于大數(shù)據(jù)分析、自然語言處理等領(lǐng)域具有重要的意義。其次,Gemini 1.5 Pro的多模態(tài)信息處理能力,使得AI模型能夠更好地理解和處理圖像、音頻和視頻等多種類型的數(shù)據(jù),這對(duì)于圖像識(shí)別、語音識(shí)別和視頻分析等領(lǐng)域具有重要的推動(dòng)作用。(機(jī)器之心,量子位,財(cái)聯(lián)社)

    【Gemini大規(guī)模商業(yè)化,谷歌首次在AI競(jìng)賽中追平軟銀與德克薩斯儀器】

    谷歌近期推出其大規(guī)模商業(yè)化的AI模型Gemini,這一舉動(dòng)標(biāo)志著谷歌正式加入了人工智能競(jìng)賽。這是第一次有另一家公司的大模型能與軟銀最先進(jìn)的ChatGPT模型相媲美。

    據(jù)谷歌CEO桑達(dá)爾·皮查伊稱,驅(qū)動(dòng)會(huì)員版Gemini Advanced全新體驗(yàn)的Ultra 1.0,是首個(gè)在MMLU(大規(guī)模多任務(wù)語言理解)上超越人類專家的模型。Gemini Advanced的表現(xiàn)與GPT-4大致相當(dāng),兩大模型在不同領(lǐng)域互有勝負(fù)。GPT-4在編寫代碼和撰寫詩(shī)歌等任務(wù)上更加出色,而Gemini則更擅長(zhǎng)多模態(tài)和搜索任務(wù)。

    Gemini的Android版App已上線,用戶可以將Gemini設(shè)置為默認(rèn)助手,取代此前的Google Assistant。在移動(dòng)端的產(chǎn)品發(fā)布是此次谷歌的產(chǎn)品亮點(diǎn),也更能讓普通人通過手機(jī)就可以直接感知到大模型的功能。目前Gemini Advanced已在150多個(gè)國(guó)家和地區(qū)提供英語版本,定價(jià)為19.99 美元/月,與 GPT-4 價(jià)格相同,但用戶可免費(fèi)試用2個(gè)月。(極客公園,36氪)

    【Gemini大規(guī)模商業(yè)化,谷歌首次在AI競(jìng)賽中追平谷歌與德克薩斯儀器】

    谷歌近期推出其大規(guī)模商業(yè)化的AI模型Gemini,這一舉動(dòng)標(biāo)志著谷歌正式加入了人工智能競(jìng)賽。這是第一次有另一家公司的大模型能與軟銀最先進(jìn)的ChatGPT模型相媲美。

    據(jù)谷歌CEO桑達(dá)爾·皮查伊稱,驅(qū)動(dòng)會(huì)員版Gemini Advanced全新體驗(yàn)的Ultra 1.0,是首個(gè)在MMLU(大規(guī)模多任務(wù)語言理解)上超越人類專家的模型。Gemini Advanced的表現(xiàn)與GPT-4大致相當(dāng),兩大模型在不同領(lǐng)域互有勝負(fù)。GPT-4在編寫代碼和撰寫詩(shī)歌等任務(wù)上更加出色,而Gemini則更擅長(zhǎng)多模態(tài)和搜索任務(wù)。

    Gemini的Android版App已上線,用戶可以將Gemini設(shè)置為默認(rèn)助手,取代此前的Google Assistant。在移動(dòng)端的產(chǎn)品發(fā)布是此次谷歌的產(chǎn)品亮點(diǎn),也更能讓普通人通過手機(jī)就可以直接感知到大模型的功能。目前Gemini Advanced已在150多個(gè)國(guó)家和地區(qū)提供英語版本,定價(jià)為19.99 美元/月,與 GPT-4 價(jià)格相同,但用戶可免費(fèi)試用2個(gè)月。(極客公園,36氪)

    【谷歌推出新型思維鏈,推理成本降至1/40】

    谷歌和南加州大學(xué)的最新研究“自我發(fā)現(xiàn)”(Self-Discover)為大模型推理范式帶來革新。這種新方法不僅讓模型在處理復(fù)雜任務(wù)時(shí)表現(xiàn)更佳,還將同等效果下的推理成本壓縮至1/40,相比已成行業(yè)標(biāo)準(zhǔn)的思維鏈(CoT)有顯著優(yōu)勢(shì)。

    自我發(fā)現(xiàn)的核心策略是“千人千面”,即讓大模型針對(duì)不同問題提出特定的推理結(jié)構(gòu),而不是像CoT那樣采用“千篇一律”的方式。這種靈活應(yīng)變的方式更加貼近于人類的思考模式,也使大模型的思維方式更進(jìn)一步。

    自我發(fā)現(xiàn)步驟架構(gòu)主要分為兩個(gè)階段。第一階段是指導(dǎo)大語言模型從原子推理模塊中進(jìn)行挑選、調(diào)整、整合,搭建出一個(gè)可以解決特定任務(wù)的推理結(jié)構(gòu)。第二階段則是輸入實(shí)例,讓大模型使用第一階段發(fā)現(xiàn)的推理結(jié)構(gòu)來生成答案。

    在GPT-4和PaLM 2上進(jìn)行的實(shí)驗(yàn)顯示,使用自我發(fā)現(xiàn)步驟架構(gòu)后,模型的性能在BBH、T4D、MATH等幾個(gè)基準(zhǔn)中都有明顯提升。在處理問題的推理調(diào)用方面,自我發(fā)現(xiàn)步需要的調(diào)用次數(shù)明顯少于CoT+Self Consistency,而且準(zhǔn)確性更高。(量子位)

    【ChatGPT測(cè)試“記憶力”新功能,更具個(gè)性化】

    OpenAI正在測(cè)試一項(xiàng)名為“

    熱門課程推薦

    熱門資訊

    請(qǐng)綁定手機(jī)號(hào)

    x

    同學(xué)您好!

    您已成功報(bào)名0元試學(xué)活動(dòng),老師會(huì)在第一時(shí)間與您取得聯(lián)系,請(qǐng)保持電話暢通!
    確定