
据科技媒体9to5Mac昨日报道,苹果公司正式开源名为SHARP的新型AI模型,该技术突破性地实现了单张2D照片到逼真3D场景的秒级转换。根据苹果发布的论文《一秒内实现清晰的单目视图合成》,SHARP通过神经网络单次前馈传递,即可重建具有真实物理比例的3D场景,速度较传统方法提升三个数量级。
技术原理上,SHARP采用3D高斯泼溅技术,将3D场景分解为数百万个带有颜色和光影信息的”高斯球”。传统3D重建需多角度拍摄和复杂计算,而苹果通过海量数据训练,使模型掌握了通用深度与几何规律,仅需输入一张照片即可瞬间完成建模。性能方面,SHARP在基准测试中表现卓越,将图像相似度指标(LPIPS)降低25-34个百分点,纹理相似度(DISTS)提升21-43%,生成的3D视图支持真实相机移动模拟。
尽管存在视角范围限制(仅重建拍摄视角附近区域),但苹果已将SHARP代码开源至GitHub,开发者可自由测试。这一创新有望大幅推动移动端3D内容创作与空间计算应用发展,为AR/VR领域注入新动能。
原创文章,作者:秋秋,如若转载,请注明出处:https://www.kejixun.co/article/741312.html