亚洲精品网站在线观看不卡无广告,国产a不卡片精品免费观看,欧美亚洲一区二区三区在线,国产一区二区三区日韩,日本久久久久,日本-区二区三区免费精品,中文字幕日本亚洲欧美不卡

您當前的位置是:  首頁 > 技術 > 技術動態(tài) >
 首頁 > 技術 > 技術動態(tài) > AI生成更接近人類感知 Meta開源新模型ImageBind

AI生成更接近人類感知 Meta開源新模型ImageBind

2023-05-11 11:39:46   作者:   來源:CTI論壇原創(chuàng)   評論:0  點擊:


  Meta 宣布開源新的 AI 模型,可將多種不同方式的數據數據連結在一起,未來可望創(chuàng)造身臨其境的多種感官體驗。

  Meta開源的新模型ImageBind,是第一個能夠一次從6種不同方式結合信息的AI模型。 核心概念是將 6 種類型的數據數據鏈接到單一的 embedding space,包括視覺數據(圖片和視頻的形式)、熱(像是紅外線影像)、文字、音頻、深度信息,以及最耐人尋味的 IMU(Inertial Measurement Unit,慣性測量單元)讀數。

   ImageBind 模型的概念架構

  這聽起來有點抽象,但正是這個概念支撐起近來生成式 AI 的蓬勃發(fā)展。

  比方說,Midjourney、Stable Diffusion、DALL-E 等文字轉成圖片的 AI 工具,在模型訓練階段就將文字和圖片鏈接在一起,它們在視覺數據中尋找模式,同時將信息和圖片描述鏈接在一起。 這就是這些 AI 工具能夠根據用戶的文字提示產生圖片的原因,許多同樣以文字提示產生視頻或音頻的 AI 工具也是如此。

  在這概念下,未來的 AI 系統統能以同樣的模式交叉引用數據資料。 比方說,想象有個新的虛擬現實設備,它不僅可以產生聲音、視覺影像,還能產生物理環(huán)境中的動作感受。 當你想要模擬一趟海上之旅,虛擬現實系統不僅讓你置身在一艘船上,背景有海浪聲,還會讓你感受腳下的甲板搖晃、吹來涼爽的海風等等。

  Meta 認為其他感官的數據資料,未來可望加入模型當中,例如觸摸、口語、氣味或者大腦 fMRI(功能性磁振造影)等。

  雖然ImageBind只是Meta旗下一項項目,還沒有具體應用成果,卻指出生成式AI未來一大發(fā)展方向,同時對應到Meta重金投入的虛擬現實、混合實境以及元宇宙等愿景。

  ImageBind 的研究不僅很有意思,Meta 更是堅定站在開源陣營當中,相較于 OpenAI、Google 等公司有不同做法。 ImageBind 也延續(xù) Meta 既有策略,向開發(fā)者和研究人員公開研究成果。

【免責聲明】本文僅代表作者本人觀點,與CTI論壇無關。CTI論壇對文中陳述、觀點判斷保持中立,不對所包含內容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。

相關閱讀:

專題

CTI論壇會員企業(yè)

马鞍山市| 昆明市| 哈尔滨市| 隆林| 柘荣县| 富平县| 壤塘县| 金乡县| 沙洋县| 桂东县| 历史| 莱阳市| 璧山县| 开鲁县| 利津县| 吉安县| 元谋县| 开原市| 宁都县| 泸溪县| 盐津县| 甘德县| 宁河县| 文成县| 周宁县| 阳城县| 石屏县| 新余市| 板桥市| 扎兰屯市| 文化| 区。| 文昌市| 姜堰市| 丰原市| 虎林市| 稻城县| 赤峰市| 衡阳市| 西宁市| 宁夏|