论文阅读《Parameterized Cost Volume for Stereo Matching》
论文地址:https://openaccess.thecvf.com/content/ICCV2023/papers/Zeng_Parameterized_Cost_Volume_for_Stereo_Matching_ICCV_2023_paper.pdf
源码地址:https://github.com/jiaxiZeng/Parameterized-Cost-Volume-for-Stereo-Matching
概述
?? 现有的立体匹配方法针对大视差场景预测时时间和显存消耗成本大,限制了模型在现实世界的应用。先前的研究工作主要聚焦于使用局部信息的动态代价体进行迭代优化,此类方法虽可以节省内存,但由于缺乏全局视差视野而需要更多的迭代步数才能收敛到目标视差,如图1(a) 所示。为此,文中提出使用高斯分布来编码视差空间。而使用带有固定小方差的单高斯分布对视差空间编码时,每个像素的视差值都服从同一个参数相同的高斯分布,这样的分布对整个视差空间的观察视野有限,不能覆盖整个视差空间,当初始视差与目标视差距离过远时模型难以收敛到目标视差(或需要付出更多的时间成本)。而使用多元高斯分布来表示视差空间可以使得每个像素的视差值都服从一个由多个高斯分布组成的混合分布。这样的分布在视差空间中的视野是全局的,可以均匀地初始化在整个视差范围内。因此,使用多高斯分布可以在迭代开始的阶段迅速收敛。在视差局部调优阶段,多高斯分布的参数会变小,使得模型可以在局部视差空间进行更精细化的匹配。
??为此,文中提出一种参数化的代价体,该代价体使用多元高斯分布编码每个像素的视差空间(参数化为权重、均值、方差),并使用JS散度进行优化。文中提出了一个前馈微分模块来实现该优化过程,该过程包含四个步骤:(1)使用初始的均值与方差采样视差候选值。(2)使用采样的视差候选值计算匹配代价,并基于该代价与多层GRU预测一个优化步长(3)用预测的步长更新三个视差空间的参数,并将更新后的参数作为下个迭代阶段的初始值,同时用均值的加权平均(多元高斯分布的期望)作为当前迭代阶段的视差输出。此外,由于前馈优化在收敛阶段容易发生局部震荡,针对该问题,文中引入基于一个不确定性感知的细化模块来修正最后一次迭代的错误结果。该确定性由权重与方差计算而来,并作为视差结果置信度的度量。该置信度可以指导视差从高可靠性区域扩散传播到低可靠区域。在合成数据集与真实世界数据集上的实验结果表明,该方法可以实现实时推理与SOTA性能。
模型架构
Parameterized Cost Volume
公式化:不妨使用
C
(
x
)
=
c
x
d
C(x)=c_{x}^{d}
C(x)=cxd? 表示代价体,传统的方法是密集地从一个离散的视差分布
{
0
,
1
,
…
,
D
?
1
}
\{0, 1, …, D ? 1\}
{0,1,…,D?1}中枚举所有可能的视差候选
d
d
d,,这样会消耗大量的内存和计算资源。相比之下,动态代价体积的方法只从一个初始化的视差
d
∈
N
d
~
d\in N_{\tilde{d}}
d∈Nd~?中采样视差候选
d
d
d,其中
N
N
N表示邻域的大小,这样可以减少内存和计算的开销,但是需要多次迭代来逼近真实的视差。在本文中,作者使用一个参数化的代价体(多元高斯分布)来编码视差空间:
C
(
x
,
θ
)
=
{
c
x
d
(
θ
)
}
,
d
(
θ
)
~
∑
i
=
1
i
=
M
α
i
N
(
μ
i
,
σ
i
2
)
.
(1)
\begin{aligned} C(x,\theta)& =\{c_{x}^{d(\theta)}\}, \\ d(\theta)& \sim\sum_{i=1}^{i=M}\alpha_i\mathcal{N}(\mu_i,\sigma_i^2). \end{aligned}\tag{1}
C(x,θ)d(θ)?={cxd(θ)?},~i=1∑i=M?αi?N(μi?,σi2?).?(1)
其中,
θ
=
{
α
i
,
μ
i
,
σ
i
}
i
=
1
M
\theta=\{\alpha_i,\mu_i,\sigma_i\}_{i=1}^M
θ={αi?,μi?,σi?}i=1M? 为多元高斯分布的参数,包括权重参数
α
=
{
α
i
}
i
=
1
M
\alpha=\{\alpha_{i}\}_{i=1}^{M}
α={αi?}i=1M?, 均值
μ
=
{
μ
i
}
i
=
1
M
\mu=\{\mu_{i}\}_{i=1}^{M}
μ={μi?}i=1M? 与标准差(文中用标准差来替代方差)
σ
=
{
σ
i
}
i
=
1
M
\sigma=\{\sigma_{i}\}_{i=1}^{M}
σ={σi?}i=1M?。
M
M
M 为高斯分布的数量。
~
\sim
~ 表示从分布中采样,且有
∑
i
=
1
M
α
i
=
1
\sum_{i=1}^{M}\alpha_{i}=1
∑i=1M?αi?=1。通过从多个高斯分布中系数采样可以保持动态代价体的高效性,且通过在整个视差范围中均匀初始化多个高斯分布可以获得一个全局视差视野,有利于模型快速收敛到目标视差。
优化:为了高效地对高斯分布参数进行学习,将真实视差定义为一个目标高斯分布
N
(
μ
g
t
,
σ
g
t
)
\mathcal{N}(\mu_{gt},\sigma_{gt})
N(μgt?,σgt?) 并基于JS散度训练使得多元高斯分布的参数逼近于目标分布,其中
μ
g
t
\mu_{gt}
μgt? 为目标视差值,
σ
g
t
\sigma_{gt}
σgt? 为预定义的参数,模型的优化目标可以表示为:
m
i
n
?
1
2
(
F
(
N
g
t
∣
∣
∑
i
=
1
i
=
M
α
i
N
i
)
+
F
(
∑
i
=
1
i
=
M
α
i
N
i
∣
∣
N
g
t
)
)
,
s
.
t
.
?
∑
i
=
1
i
=
M
α
i
=
1
,
(2)
\begin{gathered}min~\frac12(F(\mathcal{N}_{gt}||\sum_{i=1}^{i=M}\alpha_i\mathcal{N}_i)+F(\sum_{i=1}^{i=M}\alpha_i\mathcal{N}_i||\mathcal{N}_{gt})),\\s.t.~\sum_{i=1}^{i=M}\alpha_i=1,\end{gathered}\tag{2}
min?21?(F(Ngt?∣∣i=1∑i=M?αi?Ni?)+F(i=1∑i=M?αi?Ni?∣∣Ngt?)),s.t.?i=1∑i=M?αi?=1,?(2)
其中
F
(
P
∣
∣
Q
)
=
∑
d
∈
D
P
(
d
)
l
o
g
P
(
d
)
Q
(
d
)
F(P||Q)=\sum_{d\in\mathcal{D}}P(d)log\frac{P(d)}{Q(d)}
F(P∣∣Q)=∑d∈D?P(d)logQ(d)P(d)? 为KL 散度。
N
i
\mathcal{N}_i
Ni? 为
N
(
μ
i
,
σ
i
2
)
\mathcal{N}(\mu_{i},\sigma_{i}^{2})
N(μi?,σi2?) 的缩写,然后将有约束的优化问题写成对应的拉格朗日函数:
L
=
1
2
(
F
(
N
g
t
∣
∣
∑
i
=
1
i
=
M
α
i
N
i
)
+
F
(
∑
i
=
1
i
=
M
α
i
N
i
∣
∣
N
g
t
)
)
+
λ
(
∑
i
=
1
i
=
M
α
i
?
1
)
,
(3)
\begin{aligned}L&=\frac12(F(\mathcal{N}_{gt}||\sum_{i=1}^{i=M}\alpha_i\mathcal{N}_i)+F(\sum_{i=1}^{i=M}\alpha_i\mathcal{N}_i||\mathcal{N}_{gt}))\\&+\lambda(\sum_{i=1}^{i=M}\alpha_i-1),\end{aligned}\tag{3}
L?=21?(F(Ngt?∣∣i=1∑i=M?αi?Ni?)+F(i=1∑i=M?αi?Ni?∣∣Ngt?))+λ(i=1∑i=M?αi??1),?(3)
其中
λ
\lambda
λ 表示拉格朗日乘数。求解这个等式之前,先引入两个必要的公理。
??公理1 给定两个高斯分布
N
p
\mathcal{N}_{p}
Np? 与
N
q
\mathcal{N}_{q}
Nq?, 其KL散度
F
(
N
p
∣
∣
N
q
)
F(\mathcal{N}_p||\mathcal{N}_q)
F(Np?∣∣Nq?)为:
F
(
N
p
∣
∣
N
q
)
=
l
o
g
σ
q
σ
p
+
σ
p
2
+
(
μ
p
?
μ
q
)
2
2
σ
q
2
?
1
2
.
(4)
F(\mathcal{N}_p||\mathcal{N}_q)=log\frac{\sigma_q}{\sigma_p}+\frac{\sigma_p^2+(\mu_p-\mu_q)^2}{2\sigma_q^2}-\frac12.\tag{4}
F(Np?∣∣Nq?)=logσp?σq??+2σq2?σp2?+(μp??μq?)2??21?.(4)
??公理2 给定两个多元高斯分布
∑
i
=
1
i
=
M
α
i
p
N
i
p
,
Q
=
∑
i
=
1
i
=
M
α
i
q
N
i
q
\sum_{i=1}^{i=M}\alpha_{i}^{p}\mathcal{N}_{i}^{p}, \quad Q =\sum_{i=1}^{i=M}\alpha_{i}^{q}\mathcal{N}_{i}^{q}
∑i=1i=M?αip?Nip?,Q=∑i=1i=M?αiq?Niq?,其KL散度的紧凑上界为:
F
(
P
∣
∣
Q
)
≤
∑
i
=
1
i
=
M
F
(
α
i
p
∣
∣
α
i
q
)
+
∑
i
=
1
i
=
M
α
i
p
F
(
N
i
p
∣
∣
N
i
q
)
.
(5)
F(P||Q)\leq\sum_{i=1}^{i=M}F(\alpha_i^p||\alpha_i^q)+\sum_{i=1}^{i=M}\alpha_i^pF(\mathcal{N}_i^p||\mathcal{N}_i^q).\tag{5}
F(P∣∣Q)≤i=1∑i=M?F(αip?∣∣αiq?)+i=1∑i=M?αip?F(Nip?∣∣Niq?).(5)
??基于公理2,可以得到公式3中的上界:
L
≤
1
2
(
∑
i
=
1
i
=
M
F
(
1
M
∣
∣
α
i
)
+
∑
i
=
1
i
=
M
1
M
F
(
N
g
t
∣
∣
N
i
)
+
∑
i
=
1
i
=
M
F
(
α
i
∣
∣
1
M
)
+
∑
i
=
1
i
=
M
α
i
F
(
N
i
∣
∣
N
g
t
)
)
+
λ
(
∑
i
=
1
i
=
M
α
i
?
1
)
,
(6)
\begin{aligned} L\leq \frac12(\sum_{i=1}^{i=M}F(\frac1M||\alpha_i)+\sum_{i=1}^{i=M}\frac1MF(\mathcal{N}_{gt}||\mathcal{N}_i) \\ +\sum_{i=1}^{i=M}F(\alpha_i||\frac{1}{M})+\sum_{i=1}^{i=M}\alpha_iF(\mathcal{N}_i||\mathcal{N}_{gt})) \\ +\lambda(\sum_{i=1}^{\boldsymbol{i}=M}\alpha_i-1), \end{aligned}\tag{6}
L≤21?(i=1∑i=M?F(M1?∣∣αi?)+i=1∑i=M?M1?F(Ngt?∣∣Ni?)+i=1∑i=M?F(αi?∣∣M1?)+i=1∑i=M?αi?F(Ni?∣∣Ngt?))+λ(i=1∑i=M?αi??1),?(6)
根据公式4,优化
L
L
L的上界时候,参数
α
i
,
μ
i
,
σ
i
\alpha_i,\mu_i,\sigma_i
αi?,μi?,σi?的梯度可以表示为:
?
σ
i
=
1
2
(
σ
i
2
?
σ
g
t
2
?
Δ
2
M
σ
i
3
?
α
i
σ
i
+
α
i
σ
i
σ
g
t
2
)
,
?
μ
i
=
?
Δ
2
(
1
M
σ
i
2
+
α
i
σ
g
t
2
)
,
?
α
i
=
β
i
+
λ
,
β
i
=
1
2
(
?
1
M
α
i
+
l
o
g
σ
g
t
M
α
i
σ
i
+
σ
i
2
+
Δ
2
2
σ
g
t
2
+
1
2
)
,
λ
=
?
1
M
∑
i
=
1
i
=
M
β
i
,
Δ
=
μ
g
t
?
μ
i
.
(7)
\begin{aligned} \partial\sigma_{i}& =\frac12(\frac{\sigma_i^2-\sigma_{gt}^2-\Delta^2}{M\sigma_i^3}-\frac{\alpha_i}{\sigma_i}+\frac{\alpha_i\sigma_i}{\sigma_{gt}^2}), \\ \partial\mu_{i}& =-\frac\Delta2(\frac1{M\sigma_i^2}+\frac{\alpha_i}{\sigma_{gt}^2}), \\ \partial\alpha_{i}& =\beta_i+\lambda, \\ \beta_{i}& =\frac12(-\frac1{M\alpha_i}+log\frac{\sigma_{gt}M\alpha_i}{\sigma_i}+\frac{\sigma_i^2+\Delta^2}{2\sigma_{gt}^2}+\frac12), \\ \lambda& =-\frac1M\sum_{i=1}^{i=M}\beta_i, \\ \Delta & =\mu_{gt}-\mu_i. \end{aligned}\tag{7}
?σi??μi??αi?βi?λΔ?=21?(Mσi3?σi2??σgt2??Δ2??σi?αi??+σgt2?αi?σi??),=?2Δ?(Mσi2?1?+σgt2?αi??),=βi?+λ,=21?(?Mαi?1?+logσi?σgt?Mαi??+2σgt2?σi2?+Δ2?+21?),=?M1?i=1∑i=M?βi?,=μgt??μi?.?(7)
因为在推理过程中目标视差
μ
g
t
\mu_{gt}
μgt? 未知,为此使用类似RAFT的神经网络的方式来不断预测视差参差值,从而逼近目标视差值,因此在
t
t
t阶段的参数可以表示为:
σ
i
t
+
1
=
σ
i
t
?
?
σ
i
t
,
μ
i
t
+
1
=
μ
i
t
?
?
μ
i
t
,
α
i
t
+
1
=
α
i
t
?
?
α
i
t
.
(8)
\begin{aligned}\sigma_i^{t+1}&=\sigma_i^t-\partial\sigma_i^t,\\\mu_i^{t+1}&=\mu_i^t-\partial\mu_i^t,\\\alpha_i^{t+1}&=\alpha_i^t-\partial\alpha_i^t.\end{aligned}\tag{8}
σit+1?μit+1?αit+1??=σit???σit?,=μit???μit?,=αit???αit?.?(8)
??基于动态代价体积的方法在每次迭代时,预测一个步长,用来调整上一次迭代的视差结果,使其更接近真实的视差。这些方法相当于用一个固定方差的单高斯分布来近似视差空间,其中方差的值由真实视差的方差决定。由于单高斯分布的视角有限,这些方法难以在大视差范围内捕捉到全局的信息,因此需要多次迭代才能收敛到真实视差。相比之下,文中所提出的方法用多个高斯分布来表示视差空间,每个高斯分布都有自己的权重,均值和方差,这些参数可以在优化过程中动态更新。这样做的好处是,多高斯分布可以在初始时提供一个全局的视角,覆盖整个视差空间,然后在迭代过程中逐渐收敛到真实视差,实现从粗到细的匹配。此外,多高斯分布之间还可以进行信息交互,加速优化过程,提高收敛速度和准确度。
Feed-forward Differential Module
??如图3所示,该模块首先从当前的多高斯分布中采样视差候选值。然后,根据这些视差候选值计算匹配代价,并利用多层GRU 来预测优化步骤。最后,优化步骤用于计算参数的梯度并更新参数。
Multiple Gaussian Sampling:文中选择从当前的多高斯分布中采样视差候选值,每个高斯分布独立采样。具体来说,对于第
i
i
i个高斯分布,候选值在
[
μ
i
?
3
σ
i
,
μ
i
+
3
σ
i
]
[μ_i ? 3σ_i , μ_i + 3σ_i ]
[μi??3σi?,μi?+3σi?]的范围内均匀采样。
Optimization Step Prediction:根据视差候选值通过相关性来计算匹配代价。首先,不同高斯分布的代价被几个权值共享的2D卷积层独立编码。编码后的代价以及均值
μ
μ
μ与方差
σ
σ
σ和权重
α
α
α,被拼接作为输入送入多层GRUs,通过一个双层卷积来预测优化步骤
?
?
?。
Parameters Update: 使用梯度下降算法来更新多元高斯分布的参数。由于公式7中的梯度数值不稳定,在更新前对梯度进行裁剪。然后用裁剪后的梯度来更新参数,如公式8所示。为了限制更新后的
α
α
α在0和1之间,对
α
α
α进行裁剪和归一化,如下所示:
α
^
i
t
+
1
=
min
?
(
max
?
(
α
i
t
+
1
,
0
)
,
1
)
∑
i
min
?
(
max
?
(
α
i
t
+
1
,
0
)
,
1
)
.
(9)
\hat{\alpha}_i^{t+1}=\frac{\min(\max(\alpha_i^{t+1},0),1)}{\sum_i\min(\max(\alpha_i^{t+1},0),1)}.\tag{9}
α^it+1?=∑i?min(max(αit+1?,0),1)min(max(αit+1?,0),1)?.(9)
??更新后的参数用于下一轮的迭代,根据多元高斯分布的期望来预测视差值:
μ
ˉ
t
+
1
=
∑
i
=
1
M
α
^
i
t
+
1
μ
i
t
+
1
.
(10)
\bar{\mu}^{t+1}=\sum_{i=1}^M\hat{\alpha}_i^{t+1}\mu_i^{t+1}.\tag{10}
μˉ?t+1=i=1∑M?α^it+1?μit+1?.(10)
Uncertainty-aware Refinement Module
??为了避免在收敛阶段优化过程中的局部震荡问题,文中引入一个不确定感知精细化模块用于提高视差细节区域的结果。首先将权重
α
α
α,方差
σ
σ
σ和均值
μ
μ
μ输入一系列卷积层,后接一个sigmoid函数,来估计一个不确定性图
U
U
U。然后将不确定性图和视差图以及左图特征拼接起来,通过卷积层来预测一个残差图
R
R
R,其中每一层除了最后一层都使用了leaky-relu函数。最后用不确定性图
U
U
U来指导残差图
R
R
R和视差图
μ
ˉ
\bar{μ}
μˉ的融合,如下所示:
μ
^
=
μ
ˉ
+
R
?
U
.
(11)
\hat{\mu}=\bar{\mu}+R\cdot U.\tag{11}
μ^?=μˉ?+R?U.(11)
损失函数
?? 为了让预测的高斯分布能逼近目标视差分布,使用
L
1
L1
L1损失在每个阶段约束生成的分布的均值:
L
m
t
=
∑
i
=
1
M
∥
μ
i
t
?
μ
g
t
∥
1
,
(12)
\mathcal{L}_m^t=\sum_{i=1}^M\|\mu_i^t-\mu_{gt}\|_1,\tag{12}
Lmt?=i=1∑M?∥μit??μgt?∥1?,(12)
??使用
L
1
L1
L1 损失约束最后阶段的视差输出与标签视差:
L
d
t
=
∥
μ
ˉ
t
?
μ
g
t
∥
1
.
(13)
\mathcal{L}_d^t=\|\bar{\mu}^t-\mu_{gt}\|_1.\tag{13}
Ldt?=∥μˉ?t?μgt?∥1?.(13)
??同样使用
L
1
L1
L1 损失约束精细化后的视差图:
L
r
=
∥
μ
^
?
μ
g
t
∥
1
.
(14)
\mathcal{L}_r=\|\hat{\mu}-\mu_{gt}\|_1.\tag{14}
Lr?=∥μ^??μgt?∥1?.(14)
&esmp;?总的损失函数为:
L
=
∑
t
=
1
T
γ
t
(
L
m
t
+
L
d
t
)
+
λ
L
r
,
(15)
\mathcal{L}=\sum_{t=1}^T\gamma^t(\mathcal{L}_m^t+\mathcal{L}_d^t)+\lambda\mathcal{L}_r,\tag{15}
L=t=1∑T?γt(Lmt?+Ldt?)+λLr?,(15)
实验结果
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!