Meta推出Garment3DGen:可基于圖片定制3D服裝(3d服裝圖片怎么做的)
近日,Meta 研究團隊提出了一種以單張輸入圖像為指導,從基礎網格合成 3D 服裝資產的新方法——Garment3DGen。
據介紹,Garment3DGen 是一種可以從 2D 圖像生成 3D 網格服裝中風格化幾何形狀和紋理的方法,可以將其安裝到參數化身體上并進行模擬 3D 服裝生成和應用。
給定 RGB 圖像,研究團隊首先使用單視圖到多視圖一致的圖像生成技術進行 3D 重建,將此輸出網格用作 3D 偽地面實況來指導網格變形過程,以使輸入網格幾何形狀變形以匹配目標。其輸出幾何體保留了輸入幾何體的結構和拓撲結構,在頸部/手臂/腰部區域包含孔,因此它們可以適合身體,并且具有良好的網格質量,可以進行物理仿真。最后,紋理估算模塊可生成高保真紋理貼圖,這些貼圖具有全局和局部一致性,并能忠實捕捉輸入導向,從而渲染生成的 3D 資產。
借助 Garment3DGen,用戶可以生成自己選擇的紋理3D服裝,而無需藝術家干預。人們可以提供文字提示來描述他們想要生成模擬就緒的 3D 資產的服裝。