Report-2026-04-06-18-07-08

LaS-comp

Information

  • Title: LaS-Comp: Zero-shot 3D Completion with Latent-Spatial Consistency
  • Organization: National University of Singapore; University of Electronic Science and Technology of China; The Chinese University of Hong Kong; Changhong Intelligent Robot
  • Date: Submitted on 21 Feb 2026 (v1), last revised 18 Mar 2026 (v2)
  • Source: arXiv:2602.18735 [cs.CV], Accepted by CVPR 2026

Links

Comment

这是一篇被 CVPR 2026 接受的 3D 形状补全领域的前沿工作。论文提出了一个零样本、类别无关的 3D 补全框架,能够处理多种部分观测模式(随机裁剪、单视角扫描、语义部件缺失),并支持文本引导补全。该方法的核心创新在于将潜空间(latent)和空间域(spatial)结合,通过显式替换阶段(ERS)保持输入几何的忠实性,同时通过隐式对齐阶段(IAS)确保生成边界的平滑性。论文还提出了 Omni-Comp 基准测试,包含真实世界和合成数据,涵盖 30 个类别、180 个样本,用于全面评估补全方法的泛化能力。

Contribution

主要贡献:

  1. LaS-Comp 框架: 第一个利用潜空间生成式 3D 基础模型实现零样本、类别无关 3D 形状补全的框架。通过显式替换阶段(ERS)和隐式对齐阶段(IAS)的两阶段设计,解决了潜空间编码与空间域几何不一致的核心问题。

  2. 训练自由和模型兼容: 框架完全无需训练,可直接应用于不同的 3D 基础模型(如 TRELLIS、Direct3D-S2)。补全每个形状仅需约 20 秒,比现有零样本方法快 3 倍以上。

  3. Omni-Comp 基准: 提出了一个综合性的 3D 补全基准测试,包含:

    • 10 个真实世界扫描(Redwood)
    • 10 个日常物体(YCB)
    • 10 个合成形状
    • 每种物体三种部分观测模式:单视角扫描、随机裁剪、语义部件缺失
    • 共 180 个部分样本带真实值
  4. SOTA 性能: 在 Redwood、Synthetic、KITTI、ScanNet 和 Omni-Comp 等多个基准上取得最先进的性能,相比 ComPC 方法在 CD 和 EMD 指标上分别提升 27.2% 和 29.0%。

Method

Inputs

  • Partial 3D Shape SpRk×3S_p \in \mathbb{R}^{k \times 3}: 部分观测的 3D 点云
  • Optional Text Prompt: 可选的文本引导用于条件生成
  • 3D Foundation Model: 预训练的潜空间生成式 3D 模型(VAE Encoder E\mathcal{E} + Decoder D\mathcal{D} + Generator G\mathcal{G}

Process

LaS-Comp 采用两阶段设计,在潜空间和空间域之间交替进行补全:

Stage 1: Explicit Replacement Stage (ERS)

在每一步迭代 tt,ERS 将部分输入 SpS_p 的几何信息显式注入到潜空间特征中:

  1. Clean Branch:

    • 使用 Generator G\mathcal{G} 估计噪声自由潜空间特征 x^0t=xttG(xt,t)\hat{x}_{0|t} = x_t - t \cdot \mathcal{G}(x_t, t)
    • 解码得到完整形状预测 S0t=D(x^0t)S_{0|t} = \mathcal{D}(\hat{x}_{0|t})
    • 使用空间掩码 MM 将部分输入 SpS_p 替换到预测中:S0t=SpM+S0t(1M)S'_{0|t} = S_p \odot M + S_{0|t} \odot (1-M)
    • 重新编码得到更新后的潜空间特征 x0t=E(S0t)x^*_{0|t} = \mathcal{E}(S'_{0|t})
  2. Noisy Branch:

    • 估计噪声潜空间特征 x^1t=xt+(1t)G(xt,t)\hat{x}_{1|t} = x_t + (1-t) \cdot \mathcal{G}(x_t, t)
    • 提出 Partial-aware Noise Schedule (PNS):在观察区域(M=1)保持较小噪声,在缺失区域(M=0)使用高斯噪声促进多样性
  3. Flow Interpolation:

    • 融合两个分支结果:xt=(1t)x0t+tx1tx^*_t = (1-t) \cdot x^*_{0|t} + t \cdot x^*_{1|t}

Stage 2: Implicit Alignment Stage (IAS)

为了改善观察区域和合成区域之间的边界一致性:

  1. xtx^*_t 估计噪声自由潜空间特征 x^0t\hat{x}_{0|t}
  2. 解码得到 S0t=D(x^0t)S_{0|t} = \mathcal{D}(\hat{x}_{0|t})
  3. 定义几何对齐损失:Lalign=BCE(S0tM,SpM)\mathcal{L}_{\text{align}} = \text{BCE}(S_{0|t} \odot M, S_p \odot M)
  4. 通过单步梯度优化更新潜空间特征:x0taligned=x^0tηx^0tLalignx^{\text{aligned}}_{0|t} = \hat{x}_{0|t} - \eta \cdot \nabla_{\hat{x}_{0|t}} \mathcal{L}_{\text{align}}
  5. 计算下一迭代的输入:xtdt=x0taligned+(tdt)G(xt,t)x_{t-dt} = x^{\text{aligned}}_{0|t} + (t-dt) \cdot \mathcal{G}(x^*_t, t)

文本引导: 利用基础模型的 Classifier-Free Guidance (CFG) 机制,支持文本条件生成。

Outputs

  • Completed Shape ScRN×3S_c \in \mathbb{R}^{N \times 3}: 补全后的完整 3D 点云
  • 可转换为网格(mesh)进行可视化和下游应用

Reproducibility

Resources

Software:

  • Python 3.8+
  • PyTorch 2.0+
  • CUDA 11.8+
  • 依赖库:见 GitHub 仓库 requirements.txt

Hardware:

  • GPU: NVIDIA RTX 3090 或更高(用于推理)
  • 显存:约 12GB+
  • CPU:多核处理器
  • 内存:32GB+ 推荐

Pre-trained Models:

Workflow

  1. 环境准备

    git clone https://github.com/DavidYan2001/LaS-Comp
    cd LaS-Comp
    pip install -r requirements.txt
    
  2. 下载预训练模型

    • 下载 TRELLIS 或 Direct3D-S2 的预训练权重
    • 按仓库说明配置模型路径
  3. 运行补全

    python demo.py --input partial_pointcloud.ply --output completed.ply
    
  4. 文本引导补全(可选)

    python demo.py --input partial.ply --output completed.ply --prompt "a red chair"
    

Difficulties

主要挑战:

  1. 潜空间-空间域不一致: 论文核心问题。即使完整形状和部分输入在重叠区域几何相同,它们的潜空间编码差异显著(平均余弦相似度仅 0.46)。LaS-Comp 通过 ERS 和 IAS 两阶段设计解决此问题。

  2. 部分观测模式多样性: 现有方法大多针对单视角扫描优化,难以处理随机裁剪、语义部件缺失等模式。Omni-Comp 基准提供了多样化的测试场景。

  3. 计算效率: 相比需要多视角渲染和迭代优化的方法(如 ComPC),LaS-Comp 直接在 3D 潜空间操作,单次推理约 20 秒,速度快 3 倍以上。

如何克服:

  • 使用 ERS 显式注入部分几何信息,确保忠实性
  • 使用 IAS 通过梯度优化隐式对齐边界,确保平滑性
  • 利用 PNS 在观察区域和缺失区域应用不同的噪声调度,平衡忠实性和多样性
  • 兼容不同 3D 基础模型,可根据需求选择

Points-to-3D

Information

  • Title: Points-to-3D: Structure-Aware 3D Generation with Point Cloud Priors
  • Organization: Australian Institute for Machine Learning, University of Adelaide
  • Date: March 2026
  • Source: arXiv:2603.18782 [cs.CV], Accepted by CVPR 2026

Links

Comment

Points-to-3D是一篇被CVPR 2026接收的3D生成领域论文,提出了一种从稀疏点云输入生成高质量3D形状的方法。该方法利用点云先验来实现结构感知的3D生成,解决了从稀疏点云输入生成高质量3D形状的挑战。论文由University of Adelaide的研究团队完成。

Contribution

主要贡献:

  1. 点云先验的利用: 提出利用点云先验进行结构感知的3D生成,能够从稀疏点云输入生成高质量的3D形状。

  2. 结构感知生成: 方法能够理解和保持3D形状的结构信息,生成具有合理几何结构的完整3D模型。

  3. 从稀疏输入生成: 解决了从稀疏点云输入生成高质量3D形状的挑战,这对于实际应用中的3D重建和补全任务具有重要意义。

Method

Inputs

  • Sparse Point Cloud: 稀疏的3D点云输入,包含部分观测的几何信息

Process

论文提出利用点云先验来实现结构感知的3D生成。具体方法细节在论文中有详细描述,包括如何利用点云的结构信息进行生成。

Outputs

  • Complete 3D Shape: 生成的完整3D形状,具有合理的几何结构

Reproducibility

Resources

Software:

  • 具体依赖未在论文中详细说明
  • 需要实现论文中描述的算法

Hardware:

  • GPU推荐用于推理和训练

Pre-trained Models:

  • 论文中可能使用了预训练模型,具体细节需参考论文

Workflow

由于论文没有公开代码仓库,复现需要:

  1. 仔细阅读论文,理解算法细节
  2. 根据论文描述实现核心算法
  3. 准备数据集进行训练和测试

Difficulties

主要挑战:

  1. 代码未开源: 论文没有公开代码仓库,只有项目页面,复现需要自行实现
  2. 算法复杂性: 点云先验的利用和结构感知生成涉及复杂的算法设计
  3. 数据集准备: 需要准备合适的点云数据集进行训练和评估

如何克服:

  • 仔细阅读论文中的方法部分,理解核心算法
  • 参考相关开源项目(如其他点云生成方法)
  • 与作者联系获取更多信息(如果可能)

Unified-Primitive-Proxies

Information

  • Title: Unified Primitive Proxies for Structured Shape Completion
  • Organization: Technical University of Munich (TUM)
  • Date: January 2026
  • Source: arXiv:2601.00759 [cs.CV], Accepted by CVPR 2026

Links

Comment

UniCo (Unified Primitive Proxies for Structured Shape Completion) 是一篇被CVPR 2026接收的3D形状补全论文,提出了使用统一原语代理进行结构化形状补全的方法。该方法通过原语基础的表示来完成3D形状,由TUM的Zhaiyu Chen、Yuqing Wang和Xiao Xiang Zhu完成。

Contribution

主要贡献:

  1. 统一原语代理: 提出统一的原语代理(UniCo)用于结构化形状补全,使用原语基础的表示来建模和完成3D形状。

  2. 结构化形状补全: 方法能够理解和保持3D形状的结构信息,通过原语的组合来完成缺失的部分。

  3. 开源实现: 代码已在GitHub上开源,方便其他研究者复现和使用。

Method

Inputs

  • Partial 3D Shape: 部分观测的3D形状
  • Primitive Representation: 原语基础的表示

Process

论文提出使用统一原语代理进行结构化形状补全。具体方法包括:

  • 将3D形状表示为原语的组合
  • 利用原语代理来补全缺失的部分
  • 保持形状的结构一致性

Outputs

  • Completed 3D Shape: 通过原语组合完成的3D形状

Reproducibility

Resources

Software:

  • Python
  • PyTorch
  • 具体依赖见GitHub仓库

Hardware:

  • GPU推荐

Pre-trained Models:

  • 见GitHub仓库

Workflow

  1. 克隆仓库

    git clone https://github.com/complete3d/unico
    cd unico
    
  2. 安装依赖

    pip install -r requirements.txt
    
  3. 运行补全 根据仓库README说明运行补全任务

Difficulties

主要挑战:

  1. 原语表示学习: 需要学习有效的原语表示来建模复杂的3D形状
  2. 原语组合: 需要合理组合原语来补全缺失部分,同时保持结构一致性
  3. 泛化能力: 需要确保方法能够泛化到不同的形状类别

如何克服:

  • 参考开源代码实现
  • 利用论文中描述的训练策略
  • 在多样化的数据集上进行训练和评估

RnG

Information

  • Title: RnG: A Unified Transformer for Complete 3D Modeling from Partial Observations
  • Organization: NPU CVR Lab
  • Date: March 2026
  • Source: arXiv:2603.01194 [cs.CV], Accepted by CVPR 2026

Links

Comment

RnG是一篇被CVPR 2026接收的3D建模论文,提出了统一的Transformer架构用于从部分观测进行完整的3D建模。该方法能够处理各种不完整的3D输入,并由NPU CVR Lab完成。代码、模型和数据集都已在HuggingFace上开源,具有良好的可复现性。

Contribution

主要贡献:

  1. 统一Transformer架构: 提出统一的Transformer架构,能够从各种部分观测进行完整的3D建模。

  2. 多类型输入处理: 能够处理各种类型的不完整3D输入,具有广泛的适用性。

  3. 开源资源: 不仅代码开源,还提供了HuggingFace上的预训练模型和数据集,方便研究和应用。

Method

Inputs

  • Partial 3D Observations: 各种类型的部分3D观测数据

Process

论文提出使用统一的Transformer架构进行3D建模。具体方法包括:

  • 利用Transformer的自注意力机制处理3D数据
  • 从部分观测学习完整的3D表示
  • 统一的架构适用于多种输入类型

Outputs

  • Complete 3D Model: 生成的完整3D模型

Reproducibility

Resources

Software:

  • Python
  • PyTorch
  • Transformers库
  • 具体依赖见GitHub仓库

Hardware:

  • GPU推荐

Pre-trained Models:

Datasets:

Workflow

  1. 克隆仓库

    git clone https://github.com/XiangMochu/RnG
    cd RnG
    
  2. 安装依赖

    pip install -r requirements.txt
    
  3. 下载预训练模型

    • 从HuggingFace下载预训练模型
  4. 运行推理

    python demo.py --input partial_data --output complete_model
    

Difficulties

主要挑战:

  1. 训练代码整理中: 目前只有推理/演示代码,训练代码正在整理中
  2. 计算资源: Transformer架构需要较大的计算资源
  3. 数据准备: 需要准备大规模3D数据集

如何克服:

  • 使用提供的预训练模型进行推理
  • 关注GitHub仓库更新获取训练代码
  • 利用提供的HuggingFace数据集

PPC-MT

Information

  • Title: PPC-MT: Parallel Point Cloud Completion with Mamba-Transformer Hybrid Architecture
  • Organization: Not specified in the paper
  • Date: March 2026
  • Source: arXiv:2603.00870, Submitted to IEEE TPAMI

Links

Comment

PPC-MT是一篇提交给IEEE TPAMI的论文,提出了Mamba-Transformer混合架构用于并行点云补全。该方法结合了状态空间模型和Transformer的优势,但代码尚未开源。

Contribution

主要贡献:

  1. Mamba-Transformer混合架构: 提出结合Mamba(状态空间模型)和Transformer的混合架构,用于点云补全任务。

  2. 并行处理: 能够并行处理点云数据,提高效率。

  3. 性能提升: 混合架构结合了两者的优势,在点云补全任务上取得良好性能。

Method

Inputs

  • Partial Point Cloud: 部分观测的点云数据

Process

论文提出使用Mamba-Transformer混合架构进行点云补全:

  • 利用Mamba的高效状态空间建模能力
  • 结合Transformer的自注意力机制
  • 并行处理点云数据

Outputs

  • Completed Point Cloud: 补全后的完整点云

Reproducibility

Resources

Software:

  • 代码尚未开源
  • 需要实现Mamba-Transformer混合架构

Hardware:

  • GPU推荐

Pre-trained Models:

  • 未提供

Workflow

由于代码未开源,复现需要:

  1. 仔细阅读论文,理解Mamba-Transformer混合架构的设计
  2. 实现Mamba和Transformer的混合架构
  3. 在点云补全数据集上进行训练和测试

Difficulties

主要挑战:

  1. 代码未开源: 论文刚提交(2026年3月),代码尚未公开
  2. Mamba架构实现: 需要理解和实现Mamba状态空间模型
  3. 混合架构设计: 需要合理设计Mamba和Transformer的结合方式

如何克服:

  • 参考Mamba的开源实现(如Mamba, StripedMamba等)
  • 参考其他点云补全方法的开源实现
  • 关注论文更新获取代码

OSCAR

Information

  • Title: OSCAR: Occupancy-based Shape Completion via Acoustic Neural Implicit Representations
  • Organization: Not specified
  • Date: March 2026
  • Source: arXiv:2603.08279 [cs.CV], Accepted by CVPR 2026

Links

Comment

OSCAR是一篇被CVPR 2026接收的创新性论文,提出了使用声学神经隐式表示进行占用率基础的形状补全。该方法采用了一种新颖的方法论,利用声学信号进行3D形状补全,具有独特的技术路线。

Contribution

主要贡献:

  1. 声学神经隐式表示: 提出使用声学神经隐式表示进行3D形状补全,是一种全新的方法论。

  2. 占用率基础补全: 基于占用率进行形状补全,能够生成高质量的完整形状。

  3. 开源实现: 代码已在GitHub上开源,方便复现。

Method

Inputs

  • Partial Shape: 部分观测的形状
  • Acoustic Signals: 声学信号(该方法的核心创新)

Process

论文提出使用声学神经隐式表示进行形状补全:

  • 利用声学信号获取形状信息
  • 使用神经隐式表示建模3D形状
  • 基于占用率进行形状补全

Outputs

  • Completed Shape: 补全后的完整3D形状

Reproducibility

Resources

Software:

  • Python
  • PyTorch
  • 具体依赖见GitHub仓库

Hardware:

  • GPU推荐

Pre-trained Models:

  • 见GitHub仓库

Workflow

  1. 克隆仓库

    git clone https://github.com/acharaakshit/oscar
    cd oscar
    
  2. 安装依赖

    pip install -r requirements.txt
    
  3. 运行补全 根据仓库README说明运行

Difficulties

主要挑战:

  1. 声学信号处理: 需要理解和处理声学信号,这可能需要信号处理知识
  2. 神经隐式表示: 需要理解和实现神经隐式表示
  3. 新方法验证: 作为一种新方法,可能需要验证其在不同场景下的有效性

如何克服:

  • 参考开源代码实现
  • 学习声学信号处理和神经隐式表示相关知识
  • 在多样化数据集上进行测试

Quartet-of-Diffusions

Information

  • Title: Quartet of Diffusions: Structure-Aware Point Cloud Generation through Part and Symmetry Guidance
  • Organization: IST Austria (ISTA)
  • Date: January 2026
  • Source: arXiv:2601.20425 [cs.CV], Accepted by CVPR 2026

Links

Comment

Quartet of Diffusions是一篇被CVPR 2026接收的扩散模型论文,提出了使用部件和对称性引导进行结构感知点云生成的方法。该方法通过四个扩散模型的协调来生成具有合理部件结构和对称性的3D形状,但目前代码尚未开源。

Contribution

主要贡献:

  1. 四重奏扩散模型: 提出使用四个扩散模型(形状潜在、对称性、部件、装配器)协调生成3D点云。

  2. 结构感知生成: 通过部件和对称性引导,生成具有合理结构和对称性的3D形状。

  3. 部件级操作: 支持部件级别的目标操作,提高了生成的可控性。

Method

Inputs

  • Shape Category: 形状类别(如飞机、汽车、椅子)
  • Random Noise: 随机噪声(用于扩散过程)

Process

论文提出四重奏扩散流程:

  1. 形状潜在扩散: 在SVAE潜在空间上训练扩散模型,学习形状的潜在表示分布
  2. 对称性扩散: 在检测到的对称性上训练扩散模型,学习对称性分布
  3. 部件扩散: 基于Transformer的扩散模型,学习部件生成
  4. 装配器扩散: 训练装配器分布的扩散模型,学习部件装配

生成流程:

  • 从形状潜在分布中采样潜在表示 z
  • 基于z,从对称性分布中采样对称性组 S_j
  • 基于z和 S_j,从部件分布中采样部件 p_j
  • 将部件编码为潜在表示 w_j,然后从装配器分布中采样装配器 T_j
  • 应用装配器重建完整点云:x̃ = ∪_{j=1}^M T_j p_j

Outputs

  • 具有保证对称性的高质量3D点云
  • 结构一致且部件组织良好的形状
  • 支持部件级别的目标操作
  • 在飞机、汽车和椅子三个类别上评估

Reproducibility

Resources

Software:

  • 论文中没有提到公开的代码库,因此目前无法直接复现。需要根据论文描述的方法实现。
  • 需要实现四个扩散模型(形状潜在、对称性、部件、装配器)、SVAE、基于Transformer的扩散模型等

Hardware:

  • 需要GPU进行训练(论文中提到每个类别训练约50小时)

Datasets:

  • ShapeNetPart数据集,需要获取语义部件注释

Workflow

  1. 数据准备: 下载ShapeNetPart数据集,预处理点云(2048个点),归一化部件大小
  2. SVAE训练: 实现并训练稀疏变分自编码器用于点云编码
  3. 形状潜在扩散训练: 在SVAE潜在空间上训练扩散模型
  4. 对称性检测: 实现对称性检测算法(基于均值漂移聚类)
  5. 对称性扩散训练: 在检测到的对称性上训练扩散模型
  6. 部件扩散训练: 实现基于Transformer的扩散模型用于部件生成
  7. 部件VAE训练: 训练部件编码器
  8. 装配器扩散训练: 训练装配器分布的扩散模型
  9. 生成流程: 按照四重奏流程生成点云

Difficulties

主要挑战:

  1. 对称性建模: 需要准确检测和学习对称性分布,包括反射和旋转对称
  2. 部件协调: 确保生成的部件能够正确装配,保持全局结构一致性
  3. 计算复杂度: 四个扩散模型的协调训练需要大量计算资源
  4. 实现复杂性: 需要实现多个复杂的神经网络架构(SVAE、Transformer扩散、U-Net等)

如何克服:

  • 借鉴论文中描述的对称性检测方法(均值漂移聚类)
  • 使用全局形状潜在表示来协调部件生成
  • 利用高效的Transformer架构加速部件生成
  • 参考论文中的架构细节(表4和表5)进行实现

Cross-Paper Analysis

方法论对比

论文 核心方法 技术路线 创新点
LaS-Comp 零样本补全 潜空间-空间域一致性(ERS+IAS) 第一个利用3D基础模型进行零样本补全,训练自由
Points-to-3D 点云先验 结构感知生成 利用点云先验实现高质量3D生成
UniCo 原语代理 统一原语表示 使用原语基础的表示进行结构化补全
RnG Transformer 统一Transformer架构 单一架构处理多种部分观测,开源模型和数据
PPC-MT 混合架构 Mamba+Transformer 结合状态空间模型和Transformer的优势
OSCAR 声学信号 声学神经隐式表示 全新的声学信号方法论
Quartet 扩散模型 四重奏扩散流程 部件+对称性引导的结构感知生成

技术路线对比

1. 基于基础模型的方法

  • LaS-Comp: 利用预训练3D基础模型(TRELLIS、Direct3D-S2),训练自由,零样本推理
  • 优势: 无需训练,泛化能力强,支持文本引导
  • 劣势: 依赖基础模型的质量

2. 基于Transformer的方法

  • RnG: 统一Transformer架构,开源完整生态(代码+模型+数据)
  • PPC-MT: Mamba-Transformer混合,结合两者优势
  • 优势: 强大的序列建模能力,可扩展性好
  • 劣势: 计算资源需求高

3. 基于扩散模型的方法

  • Quartet: 四重奏扩散流程,部件+对称性引导
  • 优势: 生成质量高,支持结构感知
  • 劣势: 训练复杂(四个扩散模型),计算成本高

4. 基于原语的方法

  • UniCo: 统一原语代理
  • 优势: 结构化表示,可解释性强
  • 劣势: 原语设计依赖人工

5. 新颖方法论

  • OSCAR: 声学神经隐式表示
  • 优势: 全新技术路线,可能有独特优势
  • 劣势: 需要声学信号处理知识,验证较少

6. 点云先验方法

  • Points-to-3D: 点云先验利用
  • 优势: 直接利用点云结构信息
  • 劣势: 代码未开源,复现困难

代码开源情况

论文 代码开源 资源链接 可复现性
LaS-Comp GitHub
Points-to-3D 项目页面
UniCo GitHub
RnG GitHub + HuggingFace 非常高
PPC-MT
OSCAR GitHub
Quartet

性能对比

基于论文中的实验结果:

基准测试覆盖

  • LaS-Comp: Redwood, Synthetic, KITTI, ScanNet, Omni-Comp (自提出)
  • 其他论文: 主要在ShapeNet、Redwood等标准基准上测试

关键指标(在Redwood数据集上)

  • LaS-Comp: CD 1.42, EMD 1.84 (SOTA)
  • ComPC (对比方法): CD 1.73, EMD 3.29
  • GenPC (对比方法): CD 1.28, EMD 2.07

推理速度

  • LaS-Comp: ~20秒/形状(比零样本方法快3倍)
  • 其他方法: 需要训练,推理速度各异

应用场景对比

应用场景 推荐方法 原因
快速零样本补全 LaS-Comp 无需训练,速度快,性能好
需要预训练模型 RnG 开源模型和数据,生态完善
结构感知生成 Quartet 部件+对称性引导
研究新方法论 OSCAR 声学信号,创新性强
结构化表示 UniCo 原语代理,可解释性强
高效并行处理 PPC-MT Mamba-Transformer混合

研究趋势总结

2026 CVPR 3D 补全趋势

  1. 零样本/基础模型: LaS-Comp代表了利用预训练3D基础模型进行零样本补全的趋势
  2. 混合架构: PPC-MT的Mamba-Transformer混合代表了结合不同架构优势的趋势
  3. 结构感知: Quartet和Points-to-3D强调结构信息的重要性
  4. 开源生态: RnG提供了完整的开源生态(代码+模型+数据)
  5. 新颖方法论: OSCAR探索了声学信号等新方法
  6. 原语表示: UniCo继续探索原语基础的表示方法

选择建议

  • 研究目的: 选择LaS-Comp(SOTA性能)或OSCAR(新颖方法)
  • 工程应用: 选择RnG(完整开源生态)或LaS-Comp(训练自由)
  • 结构控制: 选择Quartet(部件级控制)或UniCo(原语表示)
  • 效率优先: 选择PPC-MT(并行处理)

输入文件合并信息

  • LaS-comp: .sisyphus/evidence/paper-summarizer-20260406_121007/LaS-comp/report.md
  • Points-to-3D: .sisyphus/evidence/paper-summarizer-20260406_121007/Points-to-3D/report.md
  • Unified-Primitive-Proxies: .sisyphus/evidence/paper-summarizer-20260406_121007/Unified-Primitive-Proxies/report.md
  • RnG: .sisyphus/evidence/paper-summarizer-20260406_121007/RnG/report.md
  • PPC-MT: .sisyphus/evidence/paper-summarizer-20260406_121007/PPC-MT/report.md
  • OSCAR: .sisyphus/evidence/paper-summarizer-20260406_121007/OSCAR/report.md
  • Quartet-of-Diffusions: .sisyphus/evidence/paper-summarizer-20260406_121007/Quartet-of-Diffusions/report.md

输出文件: .sisyphus/evidence/paper-summarizer-20260406_121007/report.md