Gate 廣場「創作者認證激勵計劃」開啓:入駐廣場,瓜分每月 $10,000 創作獎勵!
無論你是廣場內容達人,還是來自其他平台的優質創作者,只要積極創作,就有機會贏取豪華代幣獎池、Gate 精美週邊、流量曝光等超 $10,000+ 豐厚獎勵!
參與資格:
滿足以下任一條件即可報名👇
1️⃣ 其他平台已認證創作者
2️⃣ 單一平台粉絲 ≥ 1000(不可多平台疊加)
3️⃣ Gate 廣場內符合粉絲與互動條件的認證創作者
立即填寫表單報名 👉 https://www.gate.com/questionnaire/7159
✍️ 豐厚創作獎勵等你拿:
🎁 獎勵一:新入駐創作者專屬 $5,000 獎池
成功入駐即可獲認證徽章。
首月發首帖(≥ 50 字或圖文帖)即可得 $50 倉位體驗券(限前100名)。
🎁 獎勵二:專屬創作者月度獎池 $1,500 USDT
每月發 ≥ 30 篇原創優質內容,根據發帖量、活躍天數、互動量、內容質量綜合評分瓜分獎勵。
🎁 獎勵三:連續活躍創作福利
連續 3 個月活躍(每月 ≥ 30 篇內容)可獲 Gate 精美週邊禮包!
🎁 獎勵四:專屬推廣名額
認證創作者每月可優先獲得 1 次官方項目合作推廣機會。
🎁 獎勵五:Gate 廣場四千萬級流量曝光
【推薦關注】資源位、“優質認證創作者榜”展示、每週精選內容推薦及額外精選帖激勵,多重曝光助你輕
文本、圖像、音頻和視頻......隨意組合,微軟的跨模態模型CoDi 究竟有多強大
微軟Azure 研究團隊與北卡羅萊納大學研究人員發布了一篇論文《通過可組合擴散實現任意生成》,介紹了一種新的多模態生成模型——CoDi(Composable Diffusion)。
CoDi 能夠從輸入模態的任意組合生成輸出模態的任意組合,例如語言、圖像、視頻或音頻。與現有的生成式人工智能係統不同,CoDi 可以並行生成多種模態,並且其輸入不限於文本或圖像等模態子集。 CoDi 可以自由地調節任何輸入組合併生成任何模態組,即使它們不存在於訓練數據中。
CoDi 通過同時處理和生成文本、圖像、音頻和視頻等多模式內容,引入了前所未有的內容生成水平。使用擴散模型和可組合技術,CoDi 可以從單個或多個輸入生成高質量、多樣化的輸出,從而改變內容創建、可訪問性和個性化學習。
CoDi具有高度可定制性和靈活性,可實現強大的聯合模態生成質量,並且優於或與單模態合成的最先進的單模態相媲美。
近日,CoDi 有了新進展,已經正式在微軟Azure 平台可用,目前可以免費使用12 個月。
CoDi 究竟有多麼強大
CoDi的出現是微軟雄心勃勃的i-Code 項目的一部分,該項目是一項致力於推進多模態AI 能力的研究計劃。 CoDi 能夠無縫整合各種來源的信息並生成一致的輸出,有望徹底改變人機交互的多個領域。
CoDi可以帶來變革的領域之一是輔助技術,使殘疾人能夠更有效地與計算機交互。通過跨文本、圖像、視頻和音頻無縫生成內容,CoDi 可以為用戶提供更加身臨其境且易於訪問的計算體驗。
此外,CoDi有潛力通過提供全面的交互式學習環境來重塑定制學習工具。學生可以參與無縫集成各種來源信息的多模式內容,增強他們對主題的理解和參與。
CoDi也將徹底改變內容生成。該模型能夠跨多種模式生成高質量的輸出,可以簡化內容創建過程並減輕創作者的負擔。無論是生成引人入勝的社交媒體帖子、製作交互式多媒體演示,還是創建引人入勝的講故事體驗,CoDi 的功能都有可能重塑內容生成格局。
為了解決傳統單模態AI 模型的局限性,CoDi 為組合特定模態生成模型的繁瑣且緩慢的過程提供了解決方案。
這種新穎的模型採用了獨特的可組合生成策略,可以橋接擴散過程中的對齊,並促進交織模態的同步生成,例如時間對齊的視頻和音頻。
CoDi的模型訓練流程也頗具特色。它涉及將圖像、視頻、音頻和語言等輸入模式投影到公共語義空間中。這允許靈活處理多模態輸入,並且通過交叉注意模塊和環境編碼器,它能夠同時生成輸出模態的任意組合。
丨單個或多個輸入——>多個輸出
CoDi模型可以採用單個或多個提示(包括視頻、圖像、文本或音頻)來生成多個對齊的輸出,例如帶有伴音的視頻。
例如:
1.文本+圖像+音頻——>音頻+視頻
“滑板上的泰迪熊,4k,高分辨率”+紐約時代廣場的圖片+一段下雨的音頻——>經過CoDi 生成之後,得到一段“一隻泰迪熊在雨中在時代廣場玩滑板,伴隨著同步的雨聲和街道噪音。”
2 文本+音頻+圖像——>文本+圖像
丨多個輸入——>單個輸出
1. 文本+音頻——圖像
丨單輸入——單輸出
1 文本——>圖像