This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
mm2two views0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
mm1two views0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
0.00
1
NLCSMtwo views0.13
11
0.11
12
0.07
4
0.10
22
0.07
11
0.12
43
0.07
33
0.17
56
0.17
62
0.09
8
0.27
101
0.13
15
0.27
140
0.07
29
0.13
3
0.15
3
0.13
3
0.11
3
0.13
3
0.09
3
0.12
3
0.14
13
0.07
19
0.09
28
0.13
4
0.15
15
0.18
10
0.11
3
derftwo views0.10
3
0.07
3
0.09
22
0.09
18
0.06
6
0.05
3
0.05
8
0.09
3
0.09
12
0.08
5
0.14
39
0.12
9
0.07
9
0.03
3
0.15
4
0.17
7
0.13
3
0.11
3
0.15
6
0.11
6
0.15
12
0.09
3
0.07
19
0.07
7
0.13
4
0.13
7
0.17
6
0.12
8
MM-Stereo_test3two views0.13
11
0.13
21
0.08
7
0.10
22
0.07
11
0.07
8
0.05
8
0.19
60
0.14
46
0.15
44
0.06
6
0.13
15
0.06
3
0.07
29
0.15
4
0.15
3
0.23
43
0.15
13
0.21
36
0.12
14
0.18
24
0.18
35
0.08
26
0.08
13
0.15
10
0.11
3
0.28
53
0.15
23
AIO-test2two views0.11
4
0.07
3
0.07
4
0.06
3
0.05
4
0.07
8
0.04
3
0.13
27
0.12
37
0.11
18
0.14
39
0.16
24
0.07
9
0.06
18
0.15
4
0.17
7
0.15
6
0.13
10
0.16
9
0.11
6
0.17
19
0.13
11
0.06
6
0.08
13
0.11
3
0.14
10
0.10
3
0.11
3
over-9two views0.13
11
0.11
12
0.08
7
0.14
52
0.07
11
0.11
32
0.06
21
0.11
7
0.11
24
0.10
11
0.09
14
0.24
56
0.07
9
0.06
18
0.16
7
0.19
21
0.15
6
0.15
13
0.16
9
0.11
6
0.14
5
0.15
16
0.06
6
0.08
13
0.19
33
0.19
37
0.23
24
0.20
50
quiztmtwo views0.11
4
0.12
18
0.10
30
0.07
7
0.06
6
0.06
4
0.05
8
0.11
7
0.11
24
0.07
3
0.09
14
0.13
15
0.07
9
0.05
8
0.16
7
0.16
5
0.14
5
0.11
3
0.14
5
0.10
5
0.21
35
0.09
3
0.07
19
0.07
7
0.13
4
0.14
10
0.27
46
0.12
8
LACA2two views0.12
8
0.12
18
0.08
7
0.10
22
0.08
23
0.12
43
0.07
33
0.09
3
0.09
12
0.14
35
0.05
5
0.27
65
0.08
21
0.05
8
0.16
7
0.18
15
0.15
6
0.16
22
0.18
16
0.11
6
0.13
4
0.16
23
0.06
6
0.06
3
0.16
14
0.15
15
0.17
6
0.13
15
WQFJX1two views0.14
21
0.15
36
0.08
7
0.10
22
0.08
23
0.09
17
0.05
8
0.16
49
0.19
74
0.10
11
0.28
105
0.12
9
0.30
164
0.08
43
0.16
7
0.17
7
0.16
12
0.12
7
0.15
6
0.12
14
0.14
5
0.17
28
0.11
67
0.09
28
0.17
22
0.16
18
0.22
19
0.12
8
MLG-Stereo_test1two views0.12
8
0.08
5
0.07
4
0.07
7
0.07
11
0.07
8
0.06
21
0.11
7
0.09
12
0.16
53
0.09
14
0.17
31
0.06
3
0.05
8
0.16
7
0.18
15
0.22
37
0.19
38
0.22
41
0.12
14
0.23
41
0.11
6
0.06
6
0.06
3
0.15
10
0.12
4
0.21
15
0.14
19
Pointernettwo views0.11
4
0.09
6
0.06
3
0.07
7
0.06
6
0.09
17
0.08
49
0.13
27
0.06
4
0.11
18
0.09
14
0.10
4
0.07
9
0.06
18
0.16
7
0.16
5
0.19
23
0.11
3
0.18
16
0.09
3
0.17
19
0.11
6
0.08
26
0.07
7
0.14
7
0.12
4
0.24
34
0.12
8
over v1two views0.14
21
0.11
12
0.09
22
0.15
59
0.08
23
0.11
32
0.07
33
0.12
20
0.10
19
0.11
18
0.10
22
0.28
67
0.08
21
0.06
18
0.17
13
0.20
23
0.17
17
0.16
22
0.16
9
0.12
14
0.15
12
0.15
16
0.06
6
0.09
28
0.19
33
0.21
50
0.23
24
0.18
41
over-8two views0.13
11
0.11
12
0.09
22
0.13
44
0.07
11
0.11
32
0.06
21
0.11
7
0.11
24
0.10
11
0.09
14
0.21
49
0.08
21
0.05
8
0.17
13
0.19
21
0.16
12
0.15
13
0.16
9
0.11
6
0.14
5
0.15
16
0.06
6
0.08
13
0.20
44
0.19
37
0.22
19
0.20
50
qqaitwo views0.11
4
0.09
6
0.10
30
0.08
12
0.07
11
0.06
4
0.06
21
0.09
3
0.09
12
0.09
8
0.16
50
0.12
9
0.07
9
0.04
4
0.17
13
0.18
15
0.15
6
0.12
7
0.17
13
0.12
14
0.16
14
0.10
5
0.08
26
0.07
7
0.14
7
0.14
10
0.17
6
0.13
15
WQFJXtwo views0.15
26
0.13
21
0.09
22
0.11
29
0.09
31
0.13
52
0.09
64
0.13
27
0.15
54
0.11
18
0.33
129
0.11
6
0.36
221
0.06
18
0.17
13
0.17
7
0.15
6
0.14
12
0.18
16
0.13
26
0.14
5
0.15
16
0.10
54
0.11
50
0.18
27
0.19
37
0.21
15
0.16
30
NLMM1two views0.17
49
0.14
31
0.09
22
0.08
12
0.09
31
0.10
26
0.07
33
0.15
39
0.20
81
0.12
29
0.34
133
0.21
49
0.51
268
0.07
29
0.17
13
0.18
15
0.16
12
0.15
13
0.22
41
0.14
33
0.14
5
0.19
42
0.10
54
0.11
50
0.19
33
0.18
30
0.24
34
0.13
15
NLSM1two views0.17
49
0.13
21
0.10
30
0.11
29
0.11
50
0.14
57
0.08
49
0.20
63
0.19
74
0.11
18
0.38
151
0.18
38
0.42
241
0.09
52
0.17
13
0.21
28
0.16
12
0.15
13
0.20
32
0.13
26
0.16
14
0.22
65
0.10
54
0.11
50
0.18
27
0.19
37
0.27
46
0.14
19
BridgeDepthpermissivetwo views0.13
11
0.13
21
0.09
22
0.11
29
0.08
23
0.11
32
0.06
21
0.11
7
0.10
19
0.11
18
0.06
6
0.31
73
0.07
9
0.06
18
0.17
13
0.17
7
0.15
6
0.15
13
0.17
13
0.11
6
0.16
14
0.17
28
0.05
3
0.08
13
0.18
27
0.17
29
0.22
19
0.15
23
Tongfan Guan, Jiaxin Guo, Chen Wang, Yun-Hui Liu: BridgeDepth: Bridging Monocular and Stereo Reasoning with Latent Alignment. ICCV 2025 Highlight
MLG-Stereotwo views0.12
8
0.10
10
0.08
7
0.06
3
0.08
23
0.06
4
0.04
3
0.11
7
0.09
12
0.15
44
0.07
9
0.16
24
0.06
3
0.05
8
0.17
13
0.18
15
0.22
37
0.19
38
0.19
22
0.12
14
0.21
35
0.12
10
0.06
6
0.06
3
0.15
10
0.12
4
0.20
13
0.14
19
MM-Stereo_test1two views0.13
11
0.13
21
0.08
7
0.11
29
0.06
6
0.08
13
0.05
8
0.15
39
0.11
24
0.16
53
0.07
9
0.15
22
0.06
3
0.07
29
0.17
13
0.18
15
0.23
43
0.17
27
0.22
41
0.14
33
0.20
32
0.14
13
0.08
26
0.08
13
0.16
14
0.13
7
0.25
38
0.15
23
CoSvtwo views0.13
11
0.17
53
0.08
7
0.08
12
0.07
11
0.17
73
0.07
33
0.15
39
0.10
19
0.13
33
0.06
6
0.10
4
0.07
9
0.04
4
0.17
13
0.20
23
0.21
31
0.12
7
0.22
41
0.12
14
0.20
32
0.11
6
0.06
6
0.07
7
0.22
57
0.15
15
0.19
11
0.11
3
MoCha-V2two views0.14
21
0.15
36
0.11
40
0.12
39
0.09
31
0.11
32
0.09
64
0.13
27
0.08
9
0.13
33
0.18
60
0.17
31
0.07
9
0.07
29
0.17
13
0.23
37
0.20
27
0.20
42
0.25
55
0.14
33
0.29
65
0.17
28
0.08
26
0.08
13
0.17
22
0.16
18
0.15
5
0.11
3
over-6two views0.16
40
0.15
36
0.10
30
0.17
75
0.08
23
0.10
26
0.07
33
0.13
27
0.20
81
0.11
18
0.15
43
0.41
107
0.09
32
0.07
29
0.18
24
0.21
28
0.17
17
0.17
27
0.19
22
0.12
14
0.16
14
0.18
35
0.08
26
0.09
28
0.20
44
0.20
42
0.25
38
0.22
59
PointNettwo views0.15
26
0.13
21
0.11
40
0.10
22
0.07
11
0.13
52
0.07
33
0.23
67
0.14
46
0.17
60
0.15
43
0.14
20
0.13
61
0.06
18
0.18
24
0.17
7
0.16
12
0.13
10
0.13
3
0.12
14
0.23
41
0.16
23
0.08
26
0.09
28
0.21
54
0.19
37
0.36
78
0.18
41
WQFJA1two views0.15
26
0.14
31
0.08
7
0.11
29
0.09
31
0.12
43
0.08
49
0.15
39
0.16
57
0.10
11
0.36
140
0.11
6
0.28
147
0.07
29
0.18
24
0.17
7
0.17
17
0.15
13
0.19
22
0.12
14
0.14
5
0.15
16
0.11
67
0.11
50
0.16
14
0.16
18
0.23
24
0.16
30
NLMMtwo views0.15
26
0.14
31
0.08
7
0.11
29
0.09
31
0.12
43
0.08
49
0.15
39
0.16
57
0.10
11
0.36
140
0.11
6
0.28
147
0.07
29
0.18
24
0.17
7
0.17
17
0.15
13
0.19
22
0.12
14
0.14
5
0.15
16
0.11
67
0.11
50
0.16
14
0.16
18
0.23
24
0.16
30
AIO-test1two views0.13
11
0.09
6
0.08
7
0.06
3
0.07
11
0.11
32
0.04
3
0.17
56
0.13
41
0.15
44
0.16
50
0.19
43
0.08
21
0.09
52
0.18
24
0.22
34
0.19
23
0.16
22
0.15
6
0.14
33
0.17
19
0.14
13
0.08
26
0.07
7
0.14
7
0.14
10
0.13
4
0.12
8
LACA1two views0.15
26
0.16
42
0.12
48
0.11
29
0.10
42
0.12
43
0.06
21
0.13
27
0.14
46
0.14
35
0.10
22
0.19
43
0.13
61
0.10
61
0.19
29
0.21
28
0.19
23
0.23
58
0.19
22
0.13
26
0.17
19
0.19
42
0.07
19
0.09
28
0.20
44
0.20
42
0.24
34
0.21
54
111111two views0.13
11
0.16
42
0.08
7
0.12
39
0.10
42
0.07
8
0.06
21
0.12
20
0.12
37
0.07
3
0.10
22
0.15
22
0.09
32
0.05
8
0.19
29
0.21
28
0.22
37
0.18
33
0.19
22
0.13
26
0.23
41
0.18
35
0.10
54
0.08
13
0.16
14
0.14
10
0.19
11
0.11
3
MLG-Stereo_test2two views0.16
40
0.12
18
0.10
30
0.10
22
0.08
23
0.09
17
0.05
8
0.18
59
0.11
24
0.20
68
0.07
9
0.23
53
0.08
21
0.08
43
0.19
29
0.23
37
0.30
67
0.25
68
0.31
69
0.18
57
0.28
61
0.17
28
0.09
45
0.08
13
0.20
44
0.16
18
0.29
56
0.21
54
LG-Stereotwo views0.15
26
0.11
12
0.08
7
0.09
18
0.11
50
0.11
32
0.05
8
0.15
39
0.11
24
0.19
66
0.12
30
0.26
60
0.09
32
0.06
18
0.19
29
0.20
23
0.23
43
0.16
22
0.18
16
0.14
33
0.23
41
0.20
49
0.05
3
0.08
13
0.17
22
0.18
30
0.24
34
0.15
23
SCION-MonSter(vits)binarytwo views0.18
56
0.34
103
0.19
85
0.30
147
0.27
149
0.27
129
0.16
124
0.11
7
0.11
24
0.14
35
0.13
35
0.17
31
0.11
45
0.07
29
0.20
33
0.23
37
0.23
43
0.17
27
0.21
36
0.15
39
0.19
27
0.18
35
0.08
26
0.08
13
0.22
57
0.18
30
0.23
24
0.24
63
LACA_dictwo views0.16
40
0.16
42
0.12
48
0.15
59
0.09
31
0.09
17
0.08
49
0.11
7
0.16
57
0.15
44
0.10
22
0.18
38
0.12
55
0.09
52
0.20
33
0.24
44
0.21
31
0.23
58
0.19
22
0.15
39
0.19
27
0.21
54
0.06
6
0.09
28
0.20
44
0.22
56
0.27
46
0.24
63
TS12two views0.16
40
0.16
42
0.12
48
0.15
59
0.09
31
0.09
17
0.08
49
0.11
7
0.16
57
0.15
44
0.10
22
0.18
38
0.12
55
0.09
52
0.20
33
0.24
44
0.21
31
0.23
58
0.19
22
0.15
39
0.19
27
0.21
54
0.06
6
0.09
28
0.20
44
0.22
56
0.27
46
0.24
63
MonStereotwo views0.15
26
0.14
31
0.13
55
0.12
39
0.12
56
0.10
26
0.08
49
0.11
7
0.11
24
0.14
35
0.13
35
0.17
31
0.11
45
0.07
29
0.20
33
0.23
37
0.23
43
0.17
27
0.21
36
0.15
39
0.19
27
0.18
35
0.08
26
0.08
13
0.22
57
0.18
30
0.23
24
0.24
63
MM-Stereo_test2two views0.15
26
0.19
58
0.11
40
0.16
68
0.11
50
0.08
13
0.05
8
0.14
35
0.11
24
0.20
68
0.08
13
0.12
9
0.08
21
0.09
52
0.20
33
0.22
34
0.25
53
0.20
42
0.20
32
0.18
57
0.25
53
0.21
54
0.10
54
0.10
38
0.16
14
0.16
18
0.21
15
0.16
30
AIO-Stereopermissivetwo views0.15
26
0.17
53
0.12
48
0.17
75
0.10
42
0.12
43
0.06
21
0.11
7
0.08
9
0.10
11
0.14
39
0.12
9
0.09
32
0.08
43
0.20
33
0.21
28
0.20
27
0.20
42
0.21
36
0.17
52
0.23
41
0.20
49
0.07
19
0.11
50
0.17
22
0.16
18
0.23
24
0.12
8
CroCo-Stereo Lap2two views0.14
21
0.10
10
0.08
7
0.08
12
0.08
23
0.08
13
0.05
8
0.12
20
0.06
4
0.22
74
0.07
9
0.16
24
0.07
9
0.04
4
0.20
33
0.26
58
0.22
37
0.19
38
0.26
60
0.11
6
0.28
61
0.16
23
0.06
6
0.08
13
0.22
57
0.23
69
0.20
13
0.16
30
MatchStereocopylefttwo views0.16
40
0.14
31
0.11
40
0.07
7
0.12
56
0.07
8
0.06
21
0.16
49
0.18
68
0.08
5
0.12
30
0.13
15
0.13
61
0.11
66
0.21
40
0.25
49
0.17
17
0.20
42
0.18
16
0.19
65
0.21
35
0.26
76
0.08
26
0.12
62
0.21
54
0.23
69
0.22
19
0.19
47
Tingman Yan, Tao Liu, Xilian Yang, Qunfei Zhao, Zeyang Xia: MatchAttention: Matching the Relative Positions for High-Resolution Cross-View Matching. Arxiv, 2025
NLSM3two views0.15
26
0.13
21
0.10
30
0.11
29
0.10
42
0.10
26
0.08
49
0.15
39
0.17
62
0.11
18
0.17
56
0.12
9
0.13
61
0.11
66
0.21
40
0.20
23
0.20
27
0.17
27
0.17
13
0.12
14
0.16
14
0.16
23
0.08
26
0.11
50
0.18
27
0.23
69
0.27
46
0.18
41
IGEV-Stereo++two views0.16
40
0.24
74
0.09
22
0.13
44
0.13
58
0.10
26
0.05
8
0.15
39
0.13
41
0.12
29
0.16
50
0.16
24
0.11
45
0.07
29
0.21
40
0.22
34
0.22
37
0.18
33
0.21
36
0.16
47
0.22
39
0.27
81
0.09
45
0.08
13
0.17
22
0.18
30
0.25
38
0.18
41
RAFTtwo views0.17
49
0.13
21
0.10
30
0.16
68
0.07
11
0.21
90
0.05
8
0.25
69
0.12
37
0.14
35
0.15
43
0.16
24
0.10
40
0.05
8
0.21
40
0.20
23
0.23
43
0.15
13
0.28
64
0.13
26
0.21
35
0.17
28
0.07
19
0.10
38
0.26
66
0.24
75
0.33
67
0.23
60
GSStereotwo views0.16
40
0.18
56
0.13
55
0.13
44
0.13
58
0.12
43
0.09
64
0.12
20
0.10
19
0.16
53
0.11
27
0.22
52
0.08
21
0.05
8
0.22
44
0.25
49
0.28
63
0.20
42
0.25
55
0.16
47
0.32
67
0.19
42
0.08
26
0.10
38
0.18
27
0.16
18
0.25
38
0.16
30
GREAT-IGEVpermissivetwo views0.15
26
0.15
36
0.11
40
0.08
12
0.06
6
0.08
13
0.05
8
0.16
49
0.10
19
0.12
29
0.13
35
0.25
59
0.09
32
0.08
43
0.22
44
0.25
49
0.24
52
0.16
22
0.23
47
0.13
26
0.18
24
0.16
23
0.09
45
0.10
38
0.15
10
0.16
18
0.31
64
0.13
15
Jiahao LI, Xinhong Chen, Zhengmin JIANG, Qian Zhou, Yung-Hui Li, Jianping Wang: Global Regulation and Excitation via Attention Tuning for Stereo Matching. ICCV2025
Utwo views0.15
26
0.11
12
0.08
7
0.06
3
0.05
4
0.09
17
0.04
3
0.16
49
0.06
4
0.15
44
0.04
4
0.17
31
0.07
9
0.05
8
0.22
44
0.28
65
0.26
57
0.23
58
0.27
62
0.17
52
0.28
61
0.19
42
0.06
6
0.08
13
0.26
66
0.23
69
0.23
24
0.20
50
RSMtwo views0.15
26
0.16
42
0.12
48
0.14
52
0.09
31
0.14
57
0.06
21
0.10
6
0.08
9
0.09
8
0.15
43
0.14
20
0.10
40
0.07
29
0.22
44
0.25
49
0.21
31
0.20
42
0.18
16
0.17
52
0.25
53
0.18
35
0.08
26
0.10
38
0.16
14
0.16
18
0.27
46
0.15
23
ProNettwo views0.14
21
0.13
21
0.14
62
0.11
29
0.07
11
0.14
57
0.12
89
0.13
27
0.06
4
0.08
5
0.24
88
0.09
3
0.06
3
0.07
29
0.22
44
0.21
28
0.22
37
0.18
33
0.19
22
0.14
33
0.20
32
0.11
6
0.12
76
0.11
50
0.16
14
0.13
7
0.17
6
0.12
8
testmc14two views0.15
26
0.15
36
0.11
40
0.13
44
0.09
31
0.11
32
0.05
8
0.14
35
0.11
24
0.11
18
0.12
30
0.27
65
0.07
9
0.05
8
0.23
49
0.24
44
0.21
31
0.18
33
0.19
22
0.18
57
0.17
19
0.13
11
0.11
67
0.10
38
0.19
33
0.23
69
0.22
19
0.17
37
LACA3two views0.18
56
0.16
42
0.13
55
0.13
44
0.11
50
0.14
57
0.09
64
0.14
35
0.14
46
0.16
53
0.12
30
0.30
72
0.11
45
0.13
76
0.23
49
0.24
44
0.19
23
0.23
58
0.22
41
0.15
39
0.23
41
0.25
72
0.08
26
0.10
38
0.23
63
0.22
56
0.29
56
0.26
72
DispViT+two views0.18
56
0.16
42
0.12
48
0.18
82
0.13
58
0.13
52
0.09
64
0.15
39
0.20
81
0.18
64
0.19
65
0.19
43
0.12
55
0.09
52
0.24
51
0.25
49
0.17
17
0.24
66
0.25
55
0.19
65
0.19
27
0.21
54
0.10
54
0.20
100
0.19
33
0.33
110
0.23
24
0.28
76
GASTEREOtwo views0.16
40
0.16
42
0.10
30
0.14
52
0.10
42
0.11
32
0.07
33
0.12
20
0.15
54
0.14
35
0.09
14
0.18
38
0.11
45
0.06
18
0.24
51
0.24
44
0.23
43
0.20
42
0.23
47
0.16
47
0.23
41
0.23
69
0.11
67
0.10
38
0.19
33
0.22
56
0.28
53
0.14
19
CroCo-Stereocopylefttwo views0.13
11
0.09
6
0.08
7
0.07
7
0.04
3
0.06
4
0.04
3
0.14
35
0.05
3
0.10
11
0.03
3
0.13
15
0.06
3
0.04
4
0.24
51
0.26
58
0.20
27
0.18
33
0.20
32
0.11
6
0.24
50
0.15
16
0.05
3
0.06
3
0.22
57
0.20
42
0.23
24
0.15
23
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
TDLMtwo views0.24
70
0.29
86
0.22
119
0.22
99
0.27
149
0.23
111
0.18
134
0.26
71
0.19
74
0.18
64
0.38
151
0.29
69
0.21
104
0.15
87
0.24
51
0.28
65
0.32
69
0.28
78
0.25
55
0.21
78
0.28
61
0.19
42
0.16
100
0.21
104
0.24
64
0.20
42
0.28
53
0.25
69
GREATEN-IGEV_RVCpermissivetwo views0.17
49
0.16
42
0.11
40
0.09
18
0.10
42
0.11
32
0.07
33
0.19
60
0.16
57
0.14
35
0.16
50
0.26
60
0.09
32
0.08
43
0.25
55
0.23
37
0.23
43
0.19
38
0.26
60
0.13
26
0.22
39
0.19
42
0.09
45
0.09
28
0.20
44
0.22
56
0.35
74
0.21
54
GEAStereotwo views0.18
56
0.22
67
0.15
65
0.19
85
0.14
67
0.14
57
0.09
64
0.16
49
0.13
41
0.15
44
0.11
27
0.23
53
0.08
21
0.09
52
0.25
55
0.25
49
0.27
58
0.21
51
0.23
47
0.17
52
0.34
74
0.22
65
0.10
54
0.12
62
0.19
33
0.21
50
0.30
61
0.19
47
gasm-ftwo views0.18
56
0.22
67
0.15
65
0.19
85
0.14
67
0.14
57
0.09
64
0.16
49
0.13
41
0.15
44
0.11
27
0.23
53
0.08
21
0.09
52
0.25
55
0.25
49
0.27
58
0.21
51
0.23
47
0.17
52
0.34
74
0.22
65
0.10
54
0.12
62
0.19
33
0.21
50
0.30
61
0.19
47
MSCFtwo views0.16
40
0.15
36
0.09
22
0.14
52
0.09
31
0.11
32
0.07
33
0.11
7
0.15
54
0.14
35
0.09
14
0.17
31
0.11
45
0.06
18
0.25
55
0.23
37
0.23
43
0.20
42
0.23
47
0.15
39
0.24
50
0.21
54
0.11
67
0.10
38
0.19
33
0.22
56
0.27
46
0.15
23
AIO_testtwo views0.27
82
0.39
135
0.19
85
0.29
139
0.19
93
0.18
78
0.14
108
0.42
97
0.23
100
0.33
87
0.19
65
0.37
93
0.18
86
0.18
102
0.25
55
0.29
71
0.34
76
0.24
66
0.39
82
0.21
78
0.49
137
0.46
154
0.13
84
0.15
73
0.30
86
0.28
85
0.41
90
0.21
54
RAStereotwo views0.19
64
0.16
42
0.10
30
0.08
12
0.07
11
0.09
17
0.06
21
0.21
64
0.09
12
0.45
110
0.09
14
0.26
60
0.08
21
0.07
29
0.25
55
0.26
58
0.28
63
0.25
68
0.33
73
0.15
39
0.35
78
0.18
35
0.08
26
0.10
38
0.28
77
0.23
69
0.25
38
0.24
63
RSM++two views0.17
49
0.18
56
0.13
55
0.17
75
0.10
42
0.14
57
0.07
33
0.13
27
0.13
41
0.12
29
0.14
39
0.17
31
0.11
45
0.08
43
0.25
55
0.27
64
0.25
53
0.21
51
0.23
47
0.18
57
0.26
55
0.21
54
0.08
26
0.10
38
0.20
44
0.18
30
0.29
56
0.18
41
StereoVisiontwo views0.18
56
0.13
21
0.11
40
0.09
18
0.14
67
0.16
68
0.08
49
0.17
56
0.17
62
0.15
44
0.15
43
0.16
24
0.10
40
0.06
18
0.25
55
0.26
58
0.27
58
0.22
55
0.22
41
0.16
47
0.23
41
0.17
28
0.06
6
0.13
66
0.28
77
0.29
88
0.38
82
0.28
76
AEACVtwo views0.19
64
0.31
95
0.14
62
0.17
75
0.13
58
0.12
43
0.07
33
0.15
39
0.07
8
0.16
53
0.15
43
0.18
38
0.11
45
0.11
66
0.25
55
0.25
49
0.32
69
0.23
58
0.35
78
0.18
57
0.27
57
0.22
65
0.11
67
0.11
50
0.20
44
0.22
56
0.25
38
0.18
41
BridgeDepth_RVCpermissivetwo views0.21
66
0.21
64
0.15
65
0.15
59
0.14
67
0.17
73
0.09
64
0.26
71
0.23
100
0.17
60
0.17
56
0.24
56
0.14
66
0.13
76
0.26
64
0.29
71
0.21
31
0.23
58
0.27
62
0.20
74
0.23
41
0.25
72
0.10
54
0.12
62
0.26
66
0.30
91
0.29
56
0.36
99
Tongfan Guan, Jiaxin Guo, Chen Wang, Yun-Hui Liu: BridgeDepth: Bridging Monocular and Stereo Reasoning with Latent Alignment. ICCV 2025 Highlight
AdaDepthtwo views0.18
56
0.19
58
0.10
30
0.12
39
0.14
67
0.12
43
0.09
64
0.16
49
0.14
46
0.14
35
0.17
56
0.19
43
0.10
40
0.08
43
0.26
64
0.29
71
0.28
63
0.23
58
0.25
55
0.16
47
0.24
50
0.20
49
0.09
45
0.11
50
0.19
33
0.20
42
0.32
65
0.25
69
IGEV-Stereo+two views0.27
82
0.25
77
0.14
62
0.22
99
0.14
67
0.13
52
0.07
33
0.36
84
0.20
81
0.55
175
0.23
83
0.38
95
0.14
66
0.16
95
0.26
64
0.35
90
0.40
98
0.35
118
0.48
106
0.24
93
0.44
106
0.51
179
0.12
76
0.13
66
0.28
77
0.20
42
0.34
71
0.23
60
VIP-Stereotwo views0.22
68
0.20
62
0.19
85
0.14
52
0.11
50
0.13
52
0.06
21
0.29
76
0.19
74
0.19
66
0.28
105
0.28
67
0.11
45
0.12
72
0.27
67
0.28
65
0.37
86
0.26
72
0.33
73
0.21
78
0.34
74
0.21
54
0.11
67
0.15
73
0.24
64
0.22
56
0.25
38
0.30
81
AIO_rvctwo views0.25
72
0.34
103
0.16
71
0.19
85
0.15
76
0.18
78
0.11
82
0.39
89
0.22
94
0.30
83
0.16
50
0.32
75
0.12
55
0.18
102
0.27
67
0.26
58
0.33
72
0.22
55
0.38
81
0.20
74
0.42
97
0.44
144
0.13
84
0.14
69
0.28
77
0.22
56
0.33
67
0.21
54
GIP-stereotwo views0.17
49
0.21
64
0.13
55
0.15
59
0.09
31
0.09
17
0.07
33
0.12
20
0.09
12
0.16
53
0.13
35
0.16
24
0.08
21
0.15
87
0.27
67
0.25
49
0.25
53
0.21
51
0.24
53
0.19
65
0.27
57
0.20
49
0.07
19
0.11
50
0.20
44
0.22
56
0.35
74
0.17
37
DEFOM-Stereotwo views0.21
66
0.19
58
0.12
48
0.18
82
0.13
58
0.20
88
0.08
49
0.19
60
0.14
46
0.16
53
0.23
83
0.21
49
0.10
40
0.12
72
0.27
67
0.29
71
0.34
76
0.28
78
0.32
70
0.22
83
0.32
67
0.21
54
0.12
76
0.11
50
0.26
66
0.22
56
0.47
105
0.29
79
AFF-stereotwo views0.30
95
0.34
103
0.26
136
0.18
82
0.17
84
0.33
157
0.11
82
0.50
119
0.23
100
0.46
114
0.28
105
0.40
100
0.16
77
0.12
72
0.27
67
0.35
90
0.37
86
0.25
68
0.57
147
0.23
88
0.38
84
0.25
72
0.17
116
0.17
84
0.37
122
0.37
128
0.48
108
0.32
87
MCSU-Stereotwo views0.17
49
0.16
42
0.13
55
0.11
29
0.11
50
0.09
17
0.09
64
0.11
7
0.21
88
0.11
18
0.12
30
0.39
98
0.09
32
0.08
43
0.28
72
0.23
37
0.27
58
0.17
27
0.20
32
0.15
39
0.18
24
0.17
28
0.09
45
0.09
28
0.22
57
0.21
50
0.35
74
0.24
63
TStwo views0.26
76
0.27
81
0.19
85
0.16
68
0.16
81
0.22
97
0.11
82
0.41
92
0.19
74
0.17
60
0.30
116
0.35
81
0.16
77
0.15
87
0.28
72
0.30
78
0.28
63
0.27
74
0.39
82
0.21
78
0.33
71
0.30
89
0.13
84
0.17
84
0.34
108
0.28
85
0.41
90
0.42
119
Occ-Gtwo views0.18
56
0.26
79
0.15
65
0.17
75
0.14
67
0.15
65
0.07
33
0.12
20
0.11
24
0.11
18
0.22
80
0.20
48
0.09
32
0.10
61
0.28
72
0.28
65
0.25
53
0.22
55
0.29
67
0.19
65
0.26
55
0.19
42
0.10
54
0.15
73
0.19
33
0.18
30
0.29
56
0.17
37
MLG-Stereo_test3two views0.23
69
0.17
53
0.13
55
0.14
52
0.17
84
0.16
68
0.09
64
0.21
64
0.12
37
0.21
71
0.18
60
0.35
81
0.11
45
0.15
87
0.29
75
0.26
58
0.33
72
0.28
78
0.63
164
0.18
57
0.40
88
0.41
124
0.11
67
0.15
73
0.21
54
0.21
50
0.33
67
0.27
74
IGEV-BASED-STEREO-two views0.30
95
0.24
74
0.17
76
0.23
111
0.19
93
0.18
78
0.08
49
0.49
117
0.25
119
0.54
168
0.21
76
0.32
75
0.17
81
0.17
99
0.29
75
0.39
108
0.45
110
0.36
122
0.50
110
0.26
107
0.56
183
0.49
167
0.13
84
0.13
66
0.31
96
0.26
81
0.45
100
0.30
81
anonymousdsptwo views0.25
72
0.23
72
0.19
85
0.16
68
0.14
67
0.18
78
0.10
78
0.37
87
0.19
74
0.32
86
0.22
80
0.32
75
0.12
55
0.14
83
0.29
75
0.32
86
0.32
69
0.28
78
0.39
82
0.22
83
0.46
118
0.31
91
0.12
76
0.15
73
0.26
66
0.20
42
0.52
124
0.20
50
RAFT_CTSACEtwo views0.30
95
0.37
120
0.15
65
0.15
59
0.15
76
0.25
121
0.18
134
0.53
131
0.20
81
0.55
175
0.18
60
0.44
119
0.29
153
0.16
95
0.29
75
0.30
78
0.37
86
0.27
74
0.37
80
0.18
57
0.38
84
0.45
149
0.10
54
0.17
84
0.30
86
0.31
96
0.60
153
0.26
72
iRaftStereo_RVCtwo views0.26
76
0.27
81
0.16
71
0.13
44
0.14
67
0.18
78
0.09
64
0.44
102
0.14
46
0.36
89
0.36
140
0.32
75
0.16
77
0.13
76
0.29
75
0.29
71
0.38
90
0.28
78
0.34
77
0.22
83
0.41
91
0.38
111
0.12
76
0.17
84
0.27
72
0.29
88
0.42
94
0.27
74
CVANet_RVCtwo views0.31
101
0.40
143
0.30
149
0.40
196
0.29
162
0.37
176
0.23
178
0.41
92
0.23
100
0.31
84
0.49
183
0.37
93
0.26
131
0.19
109
0.29
75
0.33
89
0.34
76
0.32
96
0.32
70
0.25
100
0.34
74
0.25
72
0.18
127
0.25
152
0.30
86
0.25
79
0.34
71
0.30
81
LG-Stereo_L2two views0.26
76
0.31
95
0.17
76
0.13
44
0.13
58
0.14
57
0.07
33
0.42
97
0.20
81
0.48
124
0.22
80
0.40
100
0.14
66
0.17
99
0.30
81
0.37
101
0.39
95
0.28
78
0.40
85
0.19
65
0.45
110
0.35
100
0.09
45
0.14
69
0.30
86
0.22
56
0.33
67
0.33
91
LG-Stereo_L1two views0.27
82
0.30
93
0.17
76
0.13
44
0.13
58
0.15
65
0.08
49
0.42
97
0.21
88
0.49
134
0.20
72
0.39
98
0.15
73
0.15
87
0.30
81
0.38
104
0.39
95
0.29
86
0.40
85
0.18
57
0.47
125
0.35
100
0.08
26
0.14
69
0.30
86
0.21
50
0.37
81
0.36
99
LGtest1two views0.26
76
0.19
58
0.20
96
0.16
68
0.18
90
0.16
68
0.09
64
0.28
73
0.17
62
0.22
74
0.27
101
0.29
69
0.13
61
0.14
83
0.30
81
0.31
83
0.38
90
0.33
104
0.49
108
0.25
100
0.41
91
0.41
124
0.13
84
0.16
82
0.30
86
0.24
75
0.39
84
0.31
84
HUFtwo views0.29
91
0.34
103
0.20
96
0.22
99
0.21
104
0.19
83
0.11
82
0.51
123
0.22
94
0.42
99
0.18
60
0.35
81
0.22
110
0.19
109
0.30
81
0.32
86
0.38
90
0.26
72
0.52
118
0.25
100
0.52
160
0.43
138
0.16
100
0.18
88
0.30
86
0.22
56
0.38
82
0.29
79
GREATEN-IGEV-FM_RVCpermissivetwo views0.26
76
0.22
67
0.17
76
0.20
93
0.17
84
0.15
65
0.12
89
0.31
80
0.21
88
0.39
95
0.24
88
0.36
90
0.21
104
0.13
76
0.31
85
0.29
71
0.35
80
0.25
68
0.45
99
0.19
65
0.35
78
0.26
76
0.13
84
0.14
69
0.27
72
0.31
96
0.46
102
0.32
87
LG-G_1two views0.25
72
0.22
67
0.19
85
0.23
111
0.22
108
0.22
97
0.12
89
0.28
73
0.11
24
0.21
71
0.20
72
0.35
81
0.14
66
0.18
102
0.31
85
0.30
78
0.35
80
0.32
96
0.51
113
0.24
93
0.39
86
0.26
76
0.10
54
0.15
73
0.27
72
0.24
75
0.36
78
0.34
93
LG-Gtwo views0.25
72
0.22
67
0.19
85
0.23
111
0.22
108
0.22
97
0.12
89
0.28
73
0.11
24
0.21
71
0.20
72
0.35
81
0.14
66
0.18
102
0.31
85
0.30
78
0.35
80
0.32
96
0.51
113
0.24
93
0.39
86
0.26
76
0.10
54
0.15
73
0.27
72
0.24
75
0.36
78
0.34
93
GANettwo views0.32
103
0.29
86
0.27
138
0.34
166
0.33
184
0.38
181
0.29
208
0.44
102
0.24
113
0.35
88
0.30
116
0.46
125
0.22
110
0.21
127
0.31
85
0.32
86
0.40
98
0.43
166
0.33
73
0.22
83
0.33
71
0.29
86
0.22
181
0.24
140
0.31
96
0.27
82
0.42
94
0.34
93
delettwo views0.24
70
0.25
77
0.22
119
0.24
115
0.20
100
0.28
137
0.16
124
0.21
64
0.18
68
0.23
76
0.26
98
0.26
60
0.15
73
0.25
186
0.32
89
0.28
65
0.31
68
0.27
74
0.24
53
0.24
93
0.31
66
0.20
49
0.16
100
0.19
91
0.28
77
0.25
79
0.32
65
0.31
84
MaDis-Stereotwo views0.26
76
0.20
62
0.16
71
0.10
22
0.10
42
0.10
26
0.08
49
0.24
68
0.14
46
0.36
89
0.16
50
0.36
90
0.12
55
0.08
43
0.33
90
0.35
90
0.39
95
0.35
118
0.53
126
0.20
74
0.40
88
0.26
76
0.13
84
0.15
73
0.39
130
0.39
136
0.40
89
0.49
137
RAFT+CT+SAtwo views0.32
103
0.46
184
0.20
96
0.26
126
0.18
90
0.22
97
0.15
115
0.58
157
0.23
100
0.52
152
0.17
56
0.46
125
0.33
193
0.12
72
0.33
90
0.43
129
0.36
83
0.30
90
0.45
99
0.23
88
0.45
110
0.49
167
0.09
45
0.22
117
0.32
101
0.31
96
0.53
128
0.35
96
test_4two views0.34
112
0.33
100
0.27
138
0.21
96
0.18
90
0.16
68
0.11
82
0.59
164
0.26
130
0.58
201
0.25
95
0.50
143
0.20
96
0.19
109
0.33
90
0.40
112
0.45
110
0.34
108
0.41
88
0.29
119
0.45
110
0.41
124
0.16
100
0.24
140
0.38
127
0.40
140
0.59
152
0.42
119
RAFT-Stereo + iAFFtwo views0.35
115
0.41
147
0.32
158
0.24
115
0.19
93
0.28
137
0.13
95
0.58
157
0.24
113
0.46
114
0.35
139
0.49
136
0.19
92
0.15
87
0.34
93
0.35
90
0.41
102
0.28
78
0.65
169
0.28
114
0.44
106
0.33
94
0.19
137
0.22
117
0.51
175
0.37
128
0.58
145
0.44
126
DepthFocustwo views0.33
109
0.35
114
0.19
85
0.19
85
0.17
84
0.22
97
0.11
82
0.49
117
0.23
100
0.45
110
0.24
88
0.43
115
0.17
81
0.22
136
0.35
94
0.45
146
0.48
132
0.34
108
0.53
126
0.32
136
0.47
125
0.34
97
0.19
137
0.19
91
0.34
108
0.31
96
0.49
111
0.57
168
MIM_Stereotwo views0.32
103
0.40
143
0.25
132
0.28
134
0.20
100
0.27
129
0.14
108
0.45
108
0.18
68
0.48
124
0.25
95
0.42
110
0.18
86
0.16
95
0.36
95
0.42
120
0.44
106
0.36
122
0.47
103
0.28
114
0.47
125
0.36
104
0.12
76
0.23
129
0.29
85
0.27
82
0.47
105
0.33
91
EGLCR-Stereotwo views0.47
167
0.49
209
0.41
216
0.29
139
0.30
171
0.44
208
0.14
108
0.57
153
0.26
130
0.57
189
0.27
101
0.58
174
0.23
116
0.21
127
0.36
95
0.47
167
0.53
165
0.45
181
0.75
197
0.32
136
0.69
231
0.93
273
0.19
137
0.24
140
0.48
157
0.49
176
1.30
314
0.70
219
AASNettwo views0.28
87
0.34
103
0.22
119
0.25
122
0.26
138
0.34
164
0.25
187
0.32
81
0.17
62
0.29
81
0.36
140
0.26
60
0.18
86
0.24
168
0.36
95
0.31
83
0.34
76
0.32
96
0.32
70
0.28
114
0.35
78
0.28
85
0.17
116
0.22
117
0.30
86
0.28
85
0.35
74
0.25
69
depth_test_26two views0.42
138
0.52
241
0.30
149
0.19
85
0.20
100
0.22
97
0.13
95
0.68
230
0.25
119
0.73
295
0.24
88
1.00
267
0.20
96
0.23
150
0.38
98
0.53
206
0.67
267
0.40
144
0.68
177
0.31
128
0.69
231
0.44
144
0.20
154
0.19
91
0.39
130
0.41
142
0.60
153
0.47
131
S2M2_XLtwo views0.33
109
0.30
93
0.30
149
0.17
75
0.19
93
0.23
111
0.21
156
0.53
131
0.26
130
0.47
117
0.25
95
0.48
132
0.18
86
0.22
136
0.38
98
0.36
96
0.54
168
0.29
86
0.41
88
0.28
114
0.50
141
0.31
91
0.21
167
0.21
104
0.34
108
0.32
105
0.45
100
0.51
148
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
YMNettwo views0.30
95
0.31
95
0.23
124
0.27
131
0.23
115
0.26
124
0.25
187
0.36
84
0.37
225
0.25
78
0.19
65
0.40
100
0.27
140
0.29
222
0.38
98
0.47
167
0.37
86
0.28
78
0.43
94
0.19
65
0.35
78
0.33
94
0.16
100
0.19
91
0.36
120
0.29
88
0.39
84
0.35
96
HCRNettwo views0.32
103
0.38
129
0.20
96
0.39
188
0.17
84
0.29
140
0.18
134
0.40
90
0.18
68
0.80
314
0.40
161
0.49
136
0.18
86
0.22
136
0.38
98
0.30
78
0.38
90
0.29
86
0.40
85
0.19
65
0.33
71
0.23
69
0.19
137
0.16
82
0.26
66
0.31
96
0.51
113
0.31
84
MIF-Stereo (partial)two views0.30
95
0.44
165
0.18
83
0.16
68
0.16
81
0.21
90
0.11
82
0.37
87
0.22
94
0.37
92
0.24
88
0.32
75
0.17
81
0.13
76
0.39
102
0.45
146
0.46
115
0.38
131
0.42
92
0.25
100
0.43
99
0.35
100
0.18
127
0.21
104
0.35
119
0.32
105
0.50
112
0.44
126
MMNettwo views0.29
91
0.29
86
0.22
119
0.26
126
0.26
138
0.26
124
0.18
134
0.33
82
0.23
100
0.24
77
0.28
105
0.35
81
0.15
73
0.32
241
0.39
102
0.31
83
0.36
83
0.34
108
0.41
88
0.27
111
0.32
67
0.21
54
0.17
116
0.23
129
0.32
101
0.30
91
0.46
102
0.32
87
UniTT-Stereotwo views0.28
87
0.27
81
0.15
65
0.15
59
0.13
58
0.17
73
0.09
64
0.35
83
0.19
74
0.49
134
0.21
76
0.41
107
0.18
86
0.14
83
0.40
104
0.39
108
0.42
104
0.34
108
0.56
142
0.25
100
0.43
99
0.24
71
0.13
84
0.19
91
0.31
96
0.41
142
0.30
61
0.37
101
anonymousdsp2two views0.38
123
0.46
184
0.30
149
0.25
122
0.23
115
0.32
150
0.18
134
0.58
157
0.23
100
0.47
117
0.38
151
0.48
132
0.23
116
0.18
102
0.40
104
0.39
108
0.44
106
0.33
104
0.88
213
0.31
128
0.48
133
0.52
185
0.17
116
0.23
129
0.41
137
0.33
110
0.61
157
0.42
119
GMOStereotwo views0.42
138
0.39
135
0.21
108
0.30
147
0.26
138
0.29
140
0.19
145
0.67
223
0.30
162
0.66
261
0.32
122
0.54
156
0.33
193
0.20
120
0.40
104
0.46
156
0.50
141
0.44
171
0.68
177
0.34
146
0.51
148
0.66
222
0.16
100
0.22
117
0.58
203
0.45
156
0.82
224
0.41
114
error versiontwo views0.42
138
0.39
135
0.21
108
0.30
147
0.26
138
0.29
140
0.19
145
0.67
223
0.30
162
0.66
261
0.32
122
0.54
156
0.33
193
0.20
120
0.40
104
0.46
156
0.50
141
0.44
171
0.68
177
0.34
146
0.51
148
0.66
222
0.16
100
0.22
117
0.58
203
0.45
156
0.82
224
0.41
114
test-vtwo views0.42
138
0.39
135
0.21
108
0.30
147
0.26
138
0.29
140
0.19
145
0.67
223
0.30
162
0.66
261
0.32
122
0.54
156
0.33
193
0.20
120
0.40
104
0.46
156
0.50
141
0.44
171
0.68
177
0.34
146
0.51
148
0.66
222
0.16
100
0.22
117
0.58
203
0.45
156
0.82
224
0.41
114
test-2two views0.42
138
0.39
135
0.21
108
0.30
147
0.26
138
0.29
140
0.19
145
0.67
223
0.30
162
0.66
261
0.32
122
0.54
156
0.33
193
0.20
120
0.40
104
0.46
156
0.50
141
0.44
171
0.68
177
0.34
146
0.51
148
0.66
222
0.16
100
0.22
117
0.58
203
0.45
156
0.82
224
0.41
114
DF_testtwo views0.32
103
0.32
99
0.36
180
0.12
39
0.19
93
0.19
83
0.08
49
0.50
119
0.21
88
0.52
152
0.18
60
0.54
156
0.19
92
0.21
127
0.41
110
0.42
120
0.47
125
0.31
94
0.44
95
0.31
128
0.45
110
0.40
120
0.18
127
0.23
129
0.33
105
0.35
116
0.44
98
0.39
106
LGCATtwo views0.35
115
0.38
129
0.21
108
0.20
93
0.21
104
0.24
117
0.16
124
0.50
119
0.26
130
0.47
117
0.28
105
0.47
128
0.21
104
0.23
150
0.41
110
0.42
120
0.55
179
0.30
90
0.44
95
0.32
136
0.52
160
0.37
109
0.26
216
0.25
152
0.37
122
0.40
140
0.43
97
0.47
131
Reg-Stereo(zero)two views0.78
266
0.47
191
0.56
270
0.39
188
0.28
155
0.41
194
0.35
225
0.75
273
0.36
214
0.62
230
6.09
376
0.78
236
0.32
187
0.27
209
0.41
110
0.63
245
0.58
203
0.45
181
1.51
259
0.42
208
0.65
217
0.62
211
0.21
167
0.32
198
0.55
193
0.78
245
1.26
310
1.09
272
FLISNettwo views0.78
266
0.47
191
0.56
270
0.39
188
0.28
155
0.41
194
0.35
225
0.75
273
0.36
214
0.62
230
6.09
376
0.78
236
0.32
187
0.27
209
0.41
110
0.63
245
0.58
203
0.45
181
1.51
259
0.42
208
0.65
217
0.62
211
0.21
167
0.32
198
0.55
193
0.78
245
1.26
310
1.09
272
plaintwo views0.31
101
0.43
159
0.20
96
0.20
93
0.16
81
0.20
88
0.10
78
0.41
92
0.18
68
0.48
124
0.19
65
0.34
80
0.17
81
0.10
61
0.41
110
0.44
135
0.45
110
0.40
144
0.55
136
0.24
93
0.41
91
0.34
97
0.14
94
0.21
104
0.32
101
0.33
110
0.39
84
0.48
135
LL-Strereo2two views0.34
112
0.29
86
0.21
108
0.24
115
0.19
93
0.17
73
0.13
95
0.63
200
0.26
130
0.58
201
0.23
83
0.44
119
0.22
110
0.14
83
0.41
110
0.41
116
0.47
125
0.35
118
0.73
190
0.31
128
0.47
125
0.36
104
0.21
167
0.20
100
0.32
101
0.34
115
0.51
113
0.35
96
DMCAtwo views0.32
103
0.31
95
0.30
149
0.24
115
0.25
128
0.27
129
0.22
164
0.36
84
0.33
197
0.31
84
0.40
161
0.40
100
0.23
116
0.25
186
0.41
110
0.37
101
0.40
98
0.39
133
0.36
79
0.28
114
0.41
91
0.27
81
0.25
206
0.25
152
0.31
96
0.35
116
0.39
84
0.37
101
RASNettwo views0.42
138
0.45
173
0.43
224
0.33
164
0.33
184
0.37
176
0.27
196
0.58
157
0.34
204
0.47
117
0.43
166
0.49
136
0.33
193
0.25
186
0.41
110
0.41
116
0.48
132
0.39
133
0.47
103
0.30
123
0.49
137
0.40
120
0.19
137
0.44
264
0.40
135
0.46
164
0.75
204
0.63
194
DFGA-Nettwo views0.28
87
0.37
120
0.16
71
0.26
126
0.15
76
0.22
97
0.15
115
0.40
90
0.21
88
0.41
97
0.24
88
0.31
73
0.17
81
0.13
76
0.42
118
0.39
108
0.38
90
0.30
90
0.42
92
0.21
78
0.36
83
0.29
86
0.13
84
0.21
104
0.31
96
0.27
82
0.51
113
0.28
76
raft+_RVCtwo views0.35
115
0.34
103
0.26
136
0.25
122
0.23
115
0.25
121
0.18
134
0.54
137
0.26
130
0.52
152
0.43
166
0.46
125
0.23
116
0.18
102
0.42
118
0.38
104
0.43
105
0.34
108
0.61
162
0.26
107
0.43
99
0.38
111
0.13
84
0.20
100
0.39
130
0.39
136
0.58
145
0.42
119
CCAANettwo views0.30
95
0.29
86
0.33
161
0.24
115
0.24
123
0.25
121
0.22
164
0.30
79
0.29
151
0.25
78
0.29
110
0.52
153
0.29
153
0.19
109
0.42
118
0.36
96
0.36
83
0.30
90
0.28
64
0.23
88
0.40
88
0.27
81
0.20
154
0.19
91
0.33
105
0.31
96
0.41
90
0.43
124
WQFJA1++two views13.32
387
0.37
120
0.25
132
123.26
404
0.29
162
112.03
404
109.42
404
0.56
150
0.25
119
0.65
249
0.49
183
1.70
314
1.51
326
0.23
150
0.43
121
0.60
237
0.53
165
0.41
151
1.83
279
0.31
128
0.53
169
0.51
179
0.22
181
0.20
100
0.52
180
0.76
238
0.88
244
0.91
252
test_5two views0.29
91
0.39
135
0.16
71
0.22
99
0.15
76
0.21
90
0.13
95
0.54
137
0.20
81
0.38
94
0.19
65
0.44
119
0.34
206
0.10
61
0.43
121
0.38
104
0.33
72
0.32
96
0.33
73
0.20
74
0.32
67
0.35
100
0.09
45
0.21
104
0.28
77
0.30
91
0.51
113
0.32
87
small-0shottwo views0.35
115
0.29
86
0.17
76
0.15
59
0.21
104
0.19
83
0.12
89
0.53
131
0.23
100
0.48
124
0.24
88
0.54
156
0.26
131
0.27
209
0.44
123
0.60
237
0.44
106
0.45
181
0.46
101
0.24
93
0.47
125
0.69
234
0.16
100
0.19
91
0.42
138
0.37
128
0.39
84
0.55
164
castereo++two views0.44
155
0.35
114
0.33
161
0.43
211
0.23
115
0.21
90
0.17
132
0.59
164
0.30
162
0.63
236
0.37
148
0.73
221
0.22
110
0.22
136
0.44
123
0.53
206
0.58
203
0.41
151
0.66
171
0.34
146
0.81
253
0.69
234
0.20
154
0.28
170
0.48
157
0.56
200
0.76
207
0.48
135
GMStereopermissivetwo views0.41
133
0.48
205
0.25
132
0.32
157
0.32
180
0.37
176
0.28
201
0.59
164
0.30
162
0.45
110
0.36
140
0.61
186
0.31
178
0.24
168
0.45
125
0.41
116
0.54
168
0.35
118
0.73
190
0.39
191
0.51
148
0.33
94
0.23
192
0.28
170
0.48
157
0.36
120
0.68
181
0.41
114
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
AANet_RVCtwo views0.28
87
0.27
81
0.23
124
0.19
85
0.28
155
0.16
68
0.16
124
0.29
76
0.30
162
0.20
68
0.27
101
0.24
56
0.21
104
0.19
109
0.45
125
0.36
96
0.33
72
0.34
108
0.29
67
0.29
119
0.27
57
0.27
81
0.22
181
0.21
104
0.34
108
0.33
110
0.42
94
0.52
150
LG-Stereo_Zeroshottwo views0.66
230
0.37
120
0.23
124
0.51
238
0.74
310
0.89
306
0.49
254
0.62
185
0.26
130
1.60
373
0.31
120
2.57
325
0.26
131
0.22
136
0.46
127
0.48
176
0.58
203
0.45
181
0.93
218
0.37
170
0.63
209
0.71
239
0.19
137
0.23
129
0.58
203
0.49
176
0.89
246
1.91
317
test_for_modeltwo views0.76
258
0.45
173
0.20
96
0.22
99
0.25
128
0.22
97
0.13
95
0.62
185
0.25
119
0.57
189
0.29
110
0.75
225
0.20
96
0.19
109
0.47
128
0.51
194
10.38
384
0.39
133
0.59
152
0.34
146
0.93
271
0.50
173
0.17
116
0.21
104
0.34
108
0.36
120
0.51
113
0.49
137
GCAPDPT-zeroshot4090two views0.76
258
0.45
173
0.20
96
0.22
99
0.25
128
0.22
97
0.13
95
0.62
185
0.25
119
0.57
189
0.29
110
0.75
225
0.20
96
0.19
109
0.47
128
0.51
194
10.38
384
0.39
133
0.59
152
0.34
146
0.93
271
0.50
173
0.17
116
0.21
104
0.34
108
0.36
120
0.51
113
0.49
137
testlalalatwo views0.76
258
0.45
173
0.20
96
0.22
99
0.25
128
0.22
97
0.13
95
0.62
185
0.25
119
0.57
189
0.29
110
0.75
225
0.20
96
0.19
109
0.47
128
0.51
194
10.38
384
0.39
133
0.59
152
0.34
146
0.93
271
0.50
173
0.17
116
0.21
104
0.34
108
0.36
120
0.51
113
0.49
137
GCAPDPT-zeroshottwo views0.76
258
0.45
173
0.20
96
0.22
99
0.25
128
0.22
97
0.13
95
0.62
185
0.25
119
0.57
189
0.29
110
0.75
225
0.20
96
0.19
109
0.47
128
0.51
194
10.38
384
0.39
133
0.59
152
0.34
146
0.93
271
0.50
173
0.17
116
0.21
104
0.34
108
0.36
120
0.51
113
0.49
137
GCAP-Stereotwo views0.76
258
0.45
173
0.20
96
0.22
99
0.25
128
0.22
97
0.13
95
0.62
185
0.25
119
0.57
189
0.29
110
0.75
225
0.20
96
0.19
109
0.47
128
0.51
194
10.38
384
0.39
133
0.59
152
0.34
146
0.93
271
0.50
173
0.17
116
0.21
104
0.34
108
0.36
120
0.51
113
0.49
137
TestStereotwo views0.45
160
0.51
229
0.38
200
0.42
206
0.30
171
0.44
208
0.26
191
0.71
250
0.28
144
0.76
304
0.32
122
0.64
197
0.32
187
0.24
168
0.47
128
0.35
90
0.54
168
0.33
104
0.78
202
0.38
175
0.63
209
0.42
131
0.24
201
0.30
184
0.53
184
0.43
146
0.75
204
0.55
164
DEFOM-Stereo_RVCtwo views0.33
109
0.36
118
0.20
96
0.23
111
0.20
100
0.17
73
0.10
78
0.48
115
0.23
100
0.55
175
0.32
122
0.40
100
0.19
92
0.15
87
0.48
134
0.36
96
0.47
125
0.33
104
0.51
113
0.27
111
0.50
141
0.42
131
0.16
100
0.18
88
0.30
86
0.31
96
0.48
108
0.53
154
4D-IteraStereotwo views0.40
129
0.28
85
0.33
161
0.35
176
0.24
123
0.24
117
0.15
115
0.63
200
0.28
144
0.61
220
0.39
158
0.51
148
0.22
110
0.22
136
0.48
134
0.43
129
0.49
136
0.43
166
0.66
171
0.34
146
0.63
209
0.70
237
0.14
94
0.22
117
0.39
130
0.47
166
0.63
163
0.39
106
CREStereo++_RVCtwo views0.43
152
0.42
154
0.39
202
0.30
147
0.33
184
0.27
129
0.19
145
0.57
153
0.31
182
0.58
201
0.36
140
0.58
174
0.56
277
0.23
150
0.48
134
0.50
187
0.61
235
0.34
108
0.52
118
0.30
123
0.56
183
0.42
131
0.16
100
0.29
176
0.49
166
0.44
150
0.79
217
0.69
212
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
anonymoustwo views0.37
120
0.29
86
0.19
85
0.17
75
0.24
123
0.21
90
0.14
108
0.51
123
0.22
94
0.51
143
0.19
65
0.55
164
0.25
126
0.23
150
0.49
137
0.58
230
0.47
125
0.46
194
0.56
142
0.31
128
0.51
148
0.70
237
0.18
127
0.24
140
0.45
147
0.31
96
0.55
132
0.50
145
GLC_STEREOtwo views0.47
167
0.51
229
0.40
207
0.38
185
0.37
211
0.37
176
0.28
201
0.64
208
0.29
151
0.62
230
0.53
206
0.55
164
0.28
147
0.30
227
0.49
137
0.48
176
0.66
261
0.41
151
0.65
169
0.41
200
0.70
236
0.60
204
0.23
192
0.30
184
0.47
154
0.36
120
0.84
233
0.53
154
HGLStereotwo views0.43
152
0.43
159
0.37
191
0.34
166
0.37
211
0.39
186
0.23
178
0.48
115
0.31
182
0.47
117
0.72
269
0.42
110
0.29
153
0.32
241
0.51
139
0.49
183
0.55
179
0.50
227
0.55
136
0.39
191
0.51
148
0.43
138
0.22
181
0.33
213
0.51
175
0.51
185
0.57
137
0.45
128
HITNettwo views0.38
123
0.37
120
0.28
140
0.34
166
0.29
162
0.26
124
0.19
145
0.58
157
0.32
191
0.57
189
0.45
172
0.55
164
0.30
164
0.22
136
0.51
139
0.35
90
0.44
106
0.39
133
0.41
88
0.29
119
0.41
91
0.38
111
0.20
154
0.25
152
0.39
130
0.37
128
0.70
191
0.52
150
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
WAFT-Stereo (ZS)two views0.35
115
0.21
64
0.21
108
0.14
52
0.22
108
0.23
111
0.10
78
0.51
123
0.31
182
0.51
143
0.33
129
0.49
136
0.35
214
0.36
254
0.52
141
0.43
129
0.40
98
0.29
86
0.44
95
0.26
107
0.52
160
0.46
154
0.25
206
0.28
170
0.48
157
0.36
120
0.41
90
0.43
124
castereotwo views0.47
167
0.36
118
0.35
171
0.34
166
0.26
138
0.26
124
0.17
132
0.56
150
0.29
151
0.60
215
0.45
172
0.68
205
0.22
110
0.20
120
0.52
141
0.58
230
0.61
235
0.39
133
0.92
217
0.36
164
0.96
280
0.76
251
0.19
137
0.24
140
0.54
188
0.64
211
0.57
137
0.58
173
CAStwo views0.38
123
0.45
173
0.25
132
0.29
139
0.29
162
0.23
111
0.13
95
0.41
92
0.27
137
0.41
97
0.54
212
0.35
81
0.35
214
0.21
127
0.52
141
0.38
104
0.50
141
0.34
108
0.52
118
0.26
107
0.43
99
0.41
124
0.19
137
0.23
129
0.51
175
0.52
187
0.62
160
0.77
233
UNettwo views0.44
155
0.42
154
0.40
207
0.37
182
0.36
202
0.41
194
0.28
201
0.57
153
0.35
210
0.50
137
0.49
183
0.47
128
0.34
206
0.37
259
0.53
144
0.43
129
0.54
168
0.46
194
0.56
142
0.39
191
0.47
125
0.44
144
0.27
223
0.34
217
0.44
143
0.48
171
0.58
145
0.57
168
gcap_with_dpttwo views0.60
222
0.57
265
0.35
171
0.89
301
0.38
219
0.47
221
0.22
164
0.71
250
0.33
197
0.69
281
0.49
183
1.11
285
0.45
252
0.29
222
0.54
145
0.69
265
0.61
235
0.54
255
1.17
238
0.41
200
0.86
263
0.79
259
0.24
201
0.34
217
0.62
223
0.50
181
0.91
250
1.03
266
GCAP-BATtwo views0.60
222
0.57
265
0.35
171
0.89
301
0.38
219
0.47
221
0.22
164
0.71
250
0.33
197
0.69
281
0.49
183
1.11
285
0.45
252
0.29
222
0.54
145
0.69
265
0.61
235
0.54
255
1.17
238
0.41
200
0.86
263
0.79
259
0.24
201
0.34
217
0.62
223
0.50
181
0.91
250
1.03
266
DDF-Stereotwo views2.07
333
0.43
159
0.28
140
10.45
383
0.48
254
14.62
391
0.70
301
0.72
260
0.29
151
0.66
261
0.48
178
17.48
387
0.59
285
0.26
198
0.55
147
0.56
224
0.60
227
0.45
181
1.27
247
0.38
175
0.83
256
0.77
254
0.25
206
0.24
140
0.45
147
0.45
156
0.91
250
0.67
205
AE-Stereotwo views0.54
193
0.48
205
0.44
233
0.50
232
0.35
197
0.36
173
0.28
201
0.55
144
0.29
151
0.64
243
0.31
120
0.89
255
0.31
178
0.24
168
0.55
147
0.65
258
0.68
270
0.52
245
0.87
212
0.53
242
0.72
239
0.81
262
0.21
167
0.47
275
0.79
276
0.69
217
0.94
259
0.62
189
CASnettwo views0.40
129
0.52
241
0.23
124
0.27
131
0.27
149
0.30
146
0.14
108
0.62
185
0.29
151
0.61
220
0.44
169
0.64
197
0.28
147
0.23
150
0.55
147
0.36
96
0.45
110
0.31
94
0.73
190
0.27
111
0.63
209
0.39
117
0.21
167
0.24
140
0.42
138
0.32
105
0.61
157
0.56
166
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
trnettwo views0.44
155
0.51
229
0.40
207
0.34
166
0.26
138
0.27
129
0.14
108
0.62
185
0.30
162
0.60
215
0.36
140
0.73
221
0.33
193
0.24
168
0.56
150
0.57
225
0.58
203
0.34
108
0.52
118
0.31
128
0.57
193
0.42
131
0.17
116
0.30
184
0.54
188
0.48
171
0.65
171
0.69
212
AnonymousMtwo views0.79
268
0.34
103
0.20
96
0.24
115
0.22
108
0.21
90
0.15
115
0.58
157
0.21
88
0.57
189
0.39
158
0.45
123
0.15
73
0.19
109
0.56
150
0.54
216
0.54
168
0.40
144
0.53
126
0.30
123
0.65
217
0.54
191
0.20
154
0.22
117
0.30
86
0.39
136
1.31
315
11.04
381
CFNettwo views0.45
160
0.44
165
0.33
161
0.48
227
0.40
229
0.39
186
0.30
215
0.53
131
0.32
191
0.48
124
0.50
192
0.68
205
0.40
237
0.30
227
0.56
150
0.37
101
0.48
132
0.43
166
0.52
118
0.33
140
0.46
118
0.30
89
0.23
192
0.31
193
0.61
217
0.52
187
0.69
185
0.71
221
Any-RAFTtwo views0.69
240
0.47
191
0.85
313
0.53
246
0.40
229
0.38
181
0.27
196
0.64
208
0.32
191
0.57
189
0.76
277
0.86
253
0.24
124
0.22
136
0.57
153
0.76
282
0.60
227
0.45
181
2.19
293
0.45
217
1.20
303
0.71
239
0.22
181
0.31
193
0.99
312
1.24
320
0.73
199
1.65
308
rafts_anoytwo views0.41
133
0.51
229
0.35
171
0.29
139
0.30
171
0.33
157
0.22
164
0.59
164
0.25
119
0.51
143
0.50
192
0.48
132
0.23
116
0.17
99
0.57
153
0.46
156
0.51
152
0.50
227
0.58
151
0.34
146
0.50
141
0.43
138
0.19
137
0.28
170
0.50
170
0.47
166
0.52
124
0.53
154
RALCasStereoNettwo views0.42
138
0.50
224
0.35
171
0.35
176
0.30
171
0.31
147
0.24
181
0.60
170
0.25
119
0.56
184
0.49
183
0.58
174
0.26
131
0.18
102
0.57
153
0.46
156
0.54
168
0.49
218
0.51
113
0.34
146
0.51
148
0.41
124
0.21
167
0.31
193
0.53
184
0.49
176
0.48
108
0.58
173
RALAANettwo views0.41
133
0.41
147
0.37
191
0.28
134
0.28
155
0.33
157
0.24
181
0.54
137
0.27
137
0.48
124
0.48
178
0.43
115
0.25
126
0.20
120
0.57
153
0.41
116
0.49
136
0.50
227
0.71
186
0.40
196
0.52
160
0.46
154
0.21
167
0.29
176
0.46
152
0.45
156
0.70
191
0.47
131
coex_refinementtwo views0.45
160
0.43
159
0.33
161
0.35
176
0.35
197
0.44
208
0.22
164
0.55
144
0.50
267
0.50
137
0.60
225
0.54
156
0.27
140
0.28
214
0.58
157
0.45
146
0.50
141
0.44
171
0.54
133
0.33
140
0.45
110
0.39
117
0.28
228
0.31
193
0.52
180
0.53
190
0.67
179
0.78
236
Former-RAFT_DAM_RVCtwo views0.41
133
0.33
100
0.29
145
0.29
139
0.24
123
0.26
124
0.16
124
0.55
144
0.40
236
0.55
175
0.49
183
0.49
136
0.27
140
0.23
150
0.58
157
0.45
146
0.51
152
0.40
144
0.50
110
0.36
164
0.46
118
0.50
173
0.16
100
0.23
129
0.49
166
0.75
235
0.44
98
0.56
166
LoStwo views0.55
195
0.44
165
0.29
145
0.36
181
0.37
211
0.40
192
0.20
155
1.37
344
0.31
182
0.86
326
0.78
280
0.68
205
0.37
227
0.24
168
0.58
157
0.72
274
0.59
218
0.40
144
0.75
197
0.35
162
1.03
288
0.65
219
0.21
167
0.24
140
0.79
276
0.64
211
0.64
167
0.68
210
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
ADLNettwo views0.46
165
0.53
248
0.37
191
0.41
201
0.41
235
0.44
208
0.40
239
0.54
137
0.35
210
0.45
110
0.53
206
0.76
232
0.36
221
0.62
321
0.58
157
0.42
120
0.49
136
0.42
160
0.50
110
0.37
170
0.43
99
0.44
144
0.34
256
0.25
152
0.47
154
0.55
196
0.57
137
0.45
128
zero-FEtwo views9.08
383
0.42
154
0.28
140
61.19
402
0.56
272
106.36
403
1.24
334
0.72
260
0.30
162
0.66
261
0.56
215
61.54
401
0.66
292
0.25
186
0.59
161
0.53
206
0.60
227
0.47
202
2.54
307
0.38
175
1.35
313
0.96
275
0.25
206
0.24
140
0.45
147
0.44
150
0.91
250
0.66
201
S2M2_Ltwo views0.40
129
0.42
154
0.41
216
0.24
115
0.27
149
0.35
170
0.22
164
0.51
123
0.24
113
0.61
220
0.23
83
0.43
115
0.21
104
0.31
234
0.59
161
0.49
183
0.55
179
0.36
122
0.53
126
0.34
146
0.55
178
0.38
111
0.28
228
0.27
163
0.42
138
0.43
146
0.63
163
0.66
201
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
anonymitytwo views3.27
356
0.41
147
1.09
336
0.58
256
0.41
235
0.47
221
0.30
215
0.79
287
0.33
197
0.61
220
69.49
402
0.85
249
0.30
164
0.24
168
0.59
161
1.02
325
0.60
227
0.43
166
1.35
252
0.60
275
0.73
242
1.82
332
0.24
201
0.29
176
1.00
315
1.24
320
1.08
283
1.47
297
raft_robusttwo views0.49
174
0.44
165
0.24
130
0.38
185
0.29
162
0.32
150
0.21
156
0.73
264
0.35
210
0.69
281
0.34
133
0.57
169
0.31
178
0.24
168
0.59
161
0.53
206
0.54
168
0.46
194
0.98
225
0.37
170
0.69
231
0.94
274
0.20
154
0.28
170
0.55
193
0.69
217
0.69
185
0.60
182
CREStereotwo views0.44
155
0.51
229
0.40
207
0.34
166
0.26
138
0.28
137
0.15
115
0.61
178
0.30
162
0.58
201
0.36
140
0.72
218
0.33
193
0.24
168
0.59
161
0.59
235
0.59
218
0.34
108
0.52
118
0.31
128
0.59
202
0.42
131
0.18
127
0.30
184
0.54
188
0.48
171
0.64
167
0.69
212
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
PS-NSSStwo views0.60
222
0.81
311
0.44
233
0.89
301
0.54
268
0.71
287
0.63
286
0.64
208
0.38
230
0.64
243
0.41
163
1.52
307
0.47
259
0.41
267
0.59
161
0.42
120
0.52
156
0.45
181
0.94
221
0.42
208
0.44
106
0.29
86
0.36
261
0.34
217
0.63
231
0.69
217
0.70
191
0.80
237
DFtwo views0.73
247
0.48
205
0.50
253
0.43
211
0.25
128
0.54
247
0.22
164
0.71
250
0.30
162
0.60
215
0.49
183
1.11
285
0.24
124
0.21
127
0.60
167
0.78
287
0.57
196
0.50
227
5.31
339
0.49
233
0.83
256
0.76
251
0.23
192
0.27
163
0.62
223
0.68
216
1.14
291
0.96
256
DNtwo views3.88
361
0.39
135
0.36
180
0.58
256
0.32
180
51.06
401
0.32
217
0.64
208
0.32
191
0.50
137
0.56
215
38.15
394
0.23
116
0.26
198
0.60
167
0.71
272
0.57
196
0.46
194
1.59
267
0.40
196
0.69
231
0.66
222
0.32
251
0.32
198
1.15
330
1.04
301
0.86
240
1.56
301
LoS_RVCtwo views0.42
138
0.45
173
0.43
224
0.19
85
0.25
128
0.24
117
0.16
124
0.44
102
0.28
144
0.51
143
0.48
178
0.42
110
0.31
178
0.22
136
0.60
167
0.45
146
0.46
115
0.41
151
0.71
186
0.30
123
0.67
224
0.51
179
0.19
137
0.32
198
0.61
217
0.44
150
0.58
145
0.61
184
tt_lltwo views0.42
138
0.45
173
0.43
224
0.19
85
0.25
128
0.24
117
0.16
124
0.44
102
0.28
144
0.51
143
0.48
178
0.42
110
0.31
178
0.22
136
0.60
167
0.45
146
0.46
115
0.41
151
0.71
186
0.30
123
0.67
224
0.51
179
0.19
137
0.32
198
0.61
217
0.44
150
0.58
145
0.61
184
test-3two views0.55
195
0.37
120
0.37
191
0.34
166
0.33
184
0.33
157
0.22
164
0.65
216
0.27
137
0.61
220
0.34
133
0.90
256
0.31
178
0.21
127
0.60
167
0.44
135
0.55
179
0.42
160
2.59
312
0.38
175
0.56
183
1.37
306
0.16
100
0.29
176
0.48
157
0.38
133
0.69
185
0.54
161
test_3two views0.56
204
0.38
129
0.36
180
0.34
166
0.33
184
0.33
157
0.21
156
0.68
230
0.29
151
0.65
249
0.33
129
0.92
258
0.35
214
0.21
127
0.60
167
0.44
135
0.56
187
0.45
181
2.68
314
0.39
191
0.55
178
1.35
304
0.15
96
0.32
198
0.51
175
0.47
166
0.67
179
0.50
145
DLCB_ROBtwo views0.53
188
0.50
224
0.48
247
0.41
201
0.45
244
0.43
203
0.39
237
0.55
144
0.45
255
0.57
189
0.61
234
0.70
213
0.52
270
0.41
267
0.60
167
0.47
167
0.57
196
0.48
208
0.52
118
0.43
212
0.55
178
0.47
160
0.38
268
0.42
255
0.96
307
0.79
251
0.70
191
0.62
189
G2L-Stereotwo views0.42
138
0.39
135
0.28
140
0.35
176
0.40
229
0.34
164
0.22
164
0.54
137
0.34
204
0.52
152
0.61
234
0.50
143
0.38
230
0.26
198
0.61
174
0.44
135
0.50
141
0.40
144
0.46
101
0.33
140
0.43
99
0.39
117
0.28
228
0.27
163
0.49
166
0.54
193
0.69
185
0.49
137
test_1two views0.55
195
0.37
120
0.37
191
0.34
166
0.33
184
0.33
157
0.22
164
0.66
220
0.27
137
0.62
230
0.34
133
0.90
256
0.31
178
0.21
127
0.61
174
0.44
135
0.55
179
0.42
160
2.58
311
0.38
175
0.56
183
1.38
308
0.16
100
0.29
176
0.48
157
0.38
133
0.69
185
0.54
161
UPFNettwo views0.38
123
0.34
103
0.34
169
0.32
157
0.33
184
0.39
186
0.29
208
0.47
113
0.33
197
0.43
101
0.41
163
0.40
100
0.30
164
0.34
246
0.61
174
0.40
112
0.46
115
0.41
151
0.52
118
0.35
162
0.35
78
0.34
97
0.25
206
0.27
163
0.38
127
0.35
116
0.55
132
0.37
101
DSFCAtwo views0.45
160
0.50
224
0.40
207
0.40
196
0.37
211
0.44
208
0.34
223
0.46
111
0.39
233
0.40
96
0.57
218
0.49
136
0.29
153
0.24
168
0.61
174
0.44
135
0.49
136
0.49
218
0.64
165
0.39
191
0.50
141
0.51
179
0.33
254
0.35
225
0.49
166
0.50
181
0.57
137
0.58
173
DISCOtwo views0.45
160
0.44
165
0.29
145
0.40
196
0.38
219
0.49
227
0.43
244
0.45
108
0.43
254
0.50
137
0.57
218
0.40
100
0.29
153
0.30
227
0.61
174
0.43
129
0.55
179
0.46
194
0.69
183
0.41
200
0.48
133
0.43
138
0.26
216
0.32
198
0.47
154
0.50
181
0.62
160
0.50
145
FSDtwo views0.53
248
0.53
261
0.53
246
0.53
264
0.52
239
0.53
260
0.75
273
0.40
236
0.80
314
0.59
221
0.55
308
0.62
179
0.64
251
0.66
171
0.55
253
0.52
286
0.68
242
0.62
207
0.69
185
0.70
219
MSKI-zero shottwo views0.84
272
0.49
209
0.43
224
0.41
201
0.35
197
0.46
220
0.32
217
0.76
277
0.30
162
0.65
249
0.92
298
0.83
246
0.32
187
0.22
136
0.62
179
1.08
331
0.64
253
0.47
202
3.14
326
0.61
284
2.23
338
1.58
321
0.20
154
0.38
242
0.96
307
1.47
338
1.24
308
1.60
304
CEStwo views0.46
165
0.35
114
0.30
149
0.27
131
0.27
149
0.29
140
0.12
89
1.05
327
0.27
137
0.54
168
0.66
251
0.53
154
0.25
126
0.23
150
0.62
179
0.65
258
0.58
203
0.37
127
0.54
133
0.34
146
0.84
260
0.53
188
0.23
192
0.23
129
0.56
197
0.44
150
0.57
137
0.69
212
s12784htwo views0.62
225
0.68
293
0.47
244
0.65
275
0.44
243
0.34
164
0.24
181
0.61
178
0.31
182
0.60
215
0.44
169
0.81
240
0.55
275
0.25
186
0.62
179
0.50
187
0.62
243
0.38
131
0.74
196
0.36
164
1.26
307
0.47
160
0.18
127
0.30
184
0.70
246
0.74
231
1.39
323
2.07
319
IERtwo views0.41
133
0.37
120
0.31
155
0.30
147
0.28
155
0.35
170
0.24
181
0.47
113
0.28
144
0.44
108
0.59
221
0.77
235
0.29
153
0.35
252
0.63
183
0.42
120
0.47
125
0.42
160
0.44
95
0.34
146
0.42
97
0.36
104
0.28
228
0.26
159
0.40
135
0.47
166
0.52
124
0.52
150
SAtwo views0.42
138
0.47
191
0.21
108
0.25
122
0.23
115
0.31
147
0.13
95
0.64
208
0.32
191
0.61
220
0.26
98
0.54
156
0.21
104
0.16
95
0.63
183
0.47
167
0.52
156
0.41
151
0.60
158
0.29
119
0.46
118
0.61
209
0.15
96
0.27
163
0.45
147
0.58
201
0.96
264
0.47
131
raftrobusttwo views0.43
152
0.33
100
0.36
180
0.28
134
0.28
155
0.27
129
0.18
134
0.64
208
0.25
119
0.63
236
0.53
206
0.51
148
0.25
126
0.22
136
0.63
183
0.48
176
0.51
152
0.41
151
0.96
224
0.38
175
0.53
169
0.46
154
0.20
154
0.24
140
0.57
198
0.54
193
0.54
129
0.52
150
psm_uptwo views0.56
204
0.51
229
0.53
261
0.56
253
0.45
244
0.58
258
0.35
225
0.71
250
0.66
294
0.55
175
0.53
206
0.59
179
0.50
264
0.40
264
0.63
183
0.50
187
0.59
218
0.49
218
0.84
210
0.46
223
0.51
148
0.45
149
0.31
246
0.51
284
0.70
246
0.78
245
0.80
218
0.67
205
PDISCO_ROBtwo views0.48
171
0.40
143
0.39
202
0.38
185
0.34
193
0.39
186
0.28
201
0.50
119
0.35
210
0.37
92
0.52
202
0.49
136
0.35
214
0.31
234
0.63
183
0.58
230
0.54
168
0.68
306
0.59
152
0.44
215
0.62
206
0.67
228
0.24
201
0.34
217
0.54
188
0.53
190
0.85
235
0.58
173
DN-CSS_ROBtwo views0.52
185
0.43
159
0.46
239
0.41
201
0.40
229
0.34
164
0.22
164
0.69
238
0.34
204
0.59
208
0.79
281
0.66
201
0.47
259
0.24
168
0.63
183
0.40
112
0.58
203
0.43
166
1.74
274
0.38
175
0.63
209
0.38
111
0.31
246
0.47
275
0.53
184
0.43
146
0.66
178
0.54
161
PMTNettwo views0.48
171
0.48
205
0.43
224
0.31
155
0.30
171
0.27
129
0.22
164
0.54
137
0.29
151
0.57
189
0.39
158
0.59
179
0.23
116
0.23
150
0.64
189
0.59
235
0.57
196
0.37
127
1.17
238
0.33
140
0.67
224
0.40
120
0.20
154
0.21
104
0.79
276
0.59
202
0.65
171
0.92
254
AF-Nettwo views0.53
188
0.49
209
0.44
233
0.50
232
0.53
264
0.61
265
0.54
264
0.61
178
0.55
279
0.43
101
0.66
251
0.85
249
0.42
241
0.40
264
0.64
189
0.46
156
0.46
115
0.44
171
0.60
158
0.40
196
0.45
110
0.45
149
0.41
275
0.39
244
0.50
170
0.55
196
0.81
221
0.69
212
Nwc_Nettwo views0.53
188
0.49
209
0.44
233
0.50
232
0.53
264
0.61
265
0.54
264
0.61
178
0.55
279
0.43
101
0.66
251
0.85
249
0.42
241
0.40
264
0.64
189
0.46
156
0.46
115
0.44
171
0.60
158
0.40
196
0.45
110
0.45
149
0.41
275
0.39
244
0.50
170
0.55
196
0.81
221
0.69
212
DMCA-RVCcopylefttwo views0.44
155
0.37
120
0.35
171
0.33
164
0.37
211
0.32
150
0.41
241
0.46
111
0.52
271
0.43
101
0.48
178
0.68
205
0.33
193
0.29
222
0.65
192
0.46
156
0.47
125
0.44
171
0.49
108
0.38
175
0.49
137
0.48
166
0.29
235
0.32
198
0.38
127
0.37
128
0.57
137
0.62
189
IGEV-FEtwo views0.94
284
0.47
191
1.24
344
1.15
321
0.46
247
0.60
261
0.65
293
0.81
294
0.36
214
0.67
270
1.75
341
0.94
259
0.30
164
0.26
198
0.66
193
1.14
338
0.60
227
0.48
208
2.55
308
0.63
292
2.19
336
2.33
341
0.21
167
0.37
239
1.00
315
1.03
299
1.17
298
1.48
299
IGEV_Zeroshot_testtwo views0.95
286
0.47
191
1.24
344
1.15
321
0.46
247
0.60
261
0.65
293
0.81
294
0.36
214
0.66
261
1.86
345
0.94
259
0.30
164
0.26
198
0.66
193
1.14
338
0.60
227
0.48
208
2.56
309
0.63
292
2.23
338
2.36
342
0.21
167
0.37
239
1.00
315
1.03
299
1.17
298
1.48
299
HHtwo views0.84
272
0.34
103
0.99
324
0.42
206
0.36
202
0.51
236
0.42
242
0.69
238
0.34
204
0.65
249
0.38
151
1.03
273
0.26
131
0.28
214
0.66
193
1.37
357
0.61
235
0.53
249
2.39
302
0.60
275
3.55
365
1.64
323
0.25
206
0.33
213
0.83
286
1.05
302
1.09
285
1.12
279
HanStereotwo views0.84
272
0.34
103
0.99
324
0.42
206
0.36
202
0.51
236
0.42
242
0.69
238
0.34
204
0.65
249
0.38
151
1.03
273
0.26
131
0.28
214
0.66
193
1.37
357
0.61
235
0.53
249
2.39
302
0.60
275
3.55
365
1.64
323
0.25
206
0.33
213
0.83
286
1.05
302
1.09
285
1.12
279
UDGNettwo views0.67
234
0.66
288
0.42
219
1.35
332
1.02
329
1.21
327
0.91
317
0.60
170
0.41
243
0.52
152
0.60
225
0.56
167
0.23
116
1.19
351
0.66
193
0.45
146
0.56
187
0.51
236
0.73
190
0.53
242
0.64
216
0.67
228
0.79
329
0.29
176
0.72
252
0.55
196
0.63
163
0.66
201
FINETtwo views0.40
129
0.38
129
0.39
202
0.43
211
0.30
171
0.34
164
0.35
225
0.44
102
0.36
214
0.47
117
0.32
122
0.47
128
0.30
164
0.28
214
0.66
193
0.50
187
0.48
132
0.36
122
0.60
158
0.33
140
0.46
118
0.37
109
0.30
239
0.30
184
0.43
141
0.35
116
0.56
135
0.42
119
ICVPtwo views0.58
212
0.49
209
0.67
296
0.50
232
0.48
254
0.52
239
0.36
229
0.60
170
0.45
255
0.61
220
0.58
220
0.61
186
0.56
277
0.30
227
0.67
199
0.64
251
0.58
203
0.51
236
0.72
189
0.51
238
0.58
198
0.74
247
0.59
317
0.47
275
0.60
215
0.75
235
0.74
201
0.72
223
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
ARAFTtwo views0.34
112
0.38
129
0.23
124
0.26
126
0.21
104
0.27
129
0.14
108
0.44
102
0.24
113
0.50
137
0.30
116
0.41
107
0.16
77
0.15
87
0.67
199
0.42
120
0.50
141
0.47
202
0.51
113
0.23
88
0.53
169
0.32
93
0.16
100
0.19
91
0.43
141
0.30
91
0.52
124
0.37
101
iResNetv2_ROBtwo views0.52
185
0.45
173
0.32
158
0.48
227
0.39
224
0.48
225
0.28
201
0.64
208
0.34
204
0.52
152
0.66
251
0.70
213
0.55
275
0.28
214
0.67
199
0.47
167
0.50
141
0.46
194
1.12
235
0.45
217
0.57
193
0.47
160
0.29
235
0.40
248
0.55
193
0.51
185
0.81
221
0.58
173
RPtwo views0.58
212
0.57
265
0.72
301
0.62
268
0.56
272
0.57
255
0.64
288
0.63
200
0.61
287
0.42
99
0.81
286
0.78
236
0.53
272
0.43
280
0.68
202
0.48
176
0.53
165
0.44
171
0.64
165
0.45
217
0.51
148
0.54
191
0.37
266
0.44
264
0.62
223
0.59
202
0.83
231
0.77
233
CC-Net-ROBtwo views0.96
290
1.18
341
0.70
299
1.56
339
1.06
331
1.63
342
1.20
333
0.79
287
0.61
287
0.81
317
0.56
215
3.07
336
0.57
281
0.85
341
0.68
202
0.44
135
0.71
284
0.63
288
1.40
254
0.57
263
0.58
198
0.43
138
1.91
359
0.46
272
0.83
286
0.83
258
0.77
210
1.20
287
AACVNettwo views0.55
195
0.47
191
0.40
207
0.58
256
0.61
281
0.53
243
0.37
231
0.61
178
0.40
236
0.59
208
0.64
243
0.58
174
0.33
193
0.36
254
0.69
204
0.54
216
0.58
203
0.54
255
0.69
183
0.52
241
0.54
173
0.52
185
0.36
261
0.44
264
0.59
210
0.69
217
0.82
224
0.83
241
LMCR-Stereopermissivemany views0.50
176
0.46
184
0.33
161
0.32
157
0.33
184
0.42
200
0.24
181
0.57
153
0.37
225
0.55
175
0.46
176
0.65
200
0.40
237
0.26
198
0.69
204
0.49
183
0.62
243
0.49
218
1.11
234
0.57
263
0.66
220
0.64
217
0.25
206
0.32
198
0.48
157
0.49
176
0.63
163
0.65
199
R-Stereo Traintwo views0.66
230
0.55
252
0.43
224
0.48
227
0.36
202
0.50
233
0.18
134
0.62
185
0.31
182
0.68
273
0.62
239
0.72
218
0.34
206
0.25
186
0.69
204
0.89
299
0.66
261
0.51
236
2.12
291
0.46
223
0.94
276
1.49
316
0.22
181
0.36
232
0.71
249
0.96
281
0.77
210
1.10
276
RAFT-Stereopermissivetwo views0.66
230
0.55
252
0.43
224
0.48
227
0.36
202
0.50
233
0.18
134
0.62
185
0.31
182
0.68
273
0.62
239
0.72
218
0.34
206
0.25
186
0.69
204
0.89
299
0.66
261
0.51
236
2.12
291
0.46
223
0.94
276
1.49
316
0.22
181
0.36
232
0.71
249
0.96
281
0.77
210
1.10
276
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
CFNet_RVCtwo views0.51
181
0.51
229
0.47
244
0.50
232
0.48
254
0.48
225
0.32
217
0.53
131
0.37
225
0.51
143
0.65
248
0.57
169
0.34
206
0.30
227
0.69
204
0.44
135
0.52
156
0.47
202
0.57
147
0.42
208
0.56
183
0.49
167
0.27
223
0.35
225
0.65
237
0.74
231
0.80
218
0.75
230
TRStereotwo views0.75
254
0.83
316
1.19
339
0.56
253
0.34
193
1.42
336
0.48
251
0.68
230
0.28
144
0.65
249
0.46
176
1.10
283
0.27
140
0.22
136
0.70
209
0.85
296
0.57
196
0.48
208
1.85
283
0.50
235
0.73
242
0.87
268
0.18
127
0.27
163
0.78
273
1.22
319
1.78
345
1.09
272
XX-Stereotwo views9.49
384
0.38
129
0.36
180
0.63
270
0.28
155
0.54
247
0.28
201
0.69
238
0.28
144
0.69
281
6.24
380
1.00
267
0.29
153
0.23
150
0.70
209
1.08
331
0.60
227
0.52
245
1.58
265
0.53
242
0.76
246
0.65
219
0.18
127
0.26
159
233.61
405
0.88
265
1.01
277
1.90
316
UCFNet_RVCtwo views0.56
204
0.78
305
0.45
237
0.59
260
0.55
271
0.52
239
0.39
237
0.58
157
0.40
236
0.59
208
0.60
225
0.82
242
0.45
252
0.32
241
0.70
209
0.42
120
0.50
141
0.50
227
0.67
175
0.45
217
0.56
183
0.47
160
0.38
268
0.41
252
0.77
271
0.71
222
0.65
171
0.86
245
HSMtwo views0.54
193
0.49
209
0.47
244
0.48
227
0.47
251
0.41
194
0.37
231
0.71
250
0.37
225
0.61
220
0.65
248
0.59
179
0.48
262
0.31
234
0.70
209
0.48
176
0.64
253
0.47
202
0.75
197
0.48
232
0.63
209
0.49
167
0.26
216
0.42
255
0.62
223
0.72
226
0.87
243
0.67
205
SGD-Stereotwo views0.29
91
0.24
74
0.17
76
0.16
68
0.15
76
0.22
97
0.08
49
0.29
76
0.22
94
0.29
81
0.15
43
0.45
123
0.20
96
0.10
61
0.71
213
0.45
146
0.46
115
0.27
74
0.47
103
0.22
83
0.41
91
0.36
104
0.19
137
0.19
91
0.28
77
0.32
105
0.46
102
0.40
112
RAFT-Testtwo views0.72
246
0.50
224
0.46
239
0.52
241
0.34
193
0.41
194
0.29
208
0.73
264
0.30
162
0.62
230
0.72
269
0.68
205
0.31
178
0.22
136
0.71
213
1.03
326
0.62
243
0.50
227
2.89
320
0.66
297
1.72
325
1.14
292
0.23
192
0.29
176
0.80
280
0.96
281
0.95
261
0.91
252
SACVNettwo views0.62
225
0.53
248
0.51
258
0.55
252
0.57
275
0.52
239
0.60
277
0.69
238
0.56
281
0.67
270
0.54
212
0.59
179
0.37
227
0.41
267
0.71
213
0.60
237
0.64
253
0.57
271
0.95
222
0.64
294
0.67
224
0.78
257
0.36
261
0.47
275
0.75
264
0.77
243
0.84
233
0.84
242
HSM-Net_RVCpermissivetwo views0.75
254
0.53
248
0.60
280
0.77
292
0.62
287
0.61
265
0.37
231
0.76
277
0.49
266
0.74
297
1.71
340
1.32
298
0.80
300
0.36
254
0.72
216
0.55
218
0.64
253
0.53
249
0.78
202
0.53
242
0.67
224
0.89
271
0.43
279
0.64
306
0.94
303
1.09
306
1.07
282
1.04
269
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
ManiGeoRcopylefttwo views0.50
176
0.51
229
0.36
180
0.44
218
0.32
180
0.38
181
0.21
156
0.69
238
0.47
263
0.53
164
0.60
225
0.60
183
0.28
147
0.23
150
0.73
217
0.47
167
0.54
168
0.49
218
1.29
248
0.38
175
0.54
173
0.56
197
0.28
228
0.34
217
0.50
170
0.73
229
0.54
129
0.57
168
HLf10two views0.50
176
0.51
229
0.36
180
0.44
218
0.32
180
0.38
181
0.21
156
0.69
238
0.47
263
0.53
164
0.60
225
0.60
183
0.28
147
0.23
150
0.73
217
0.47
167
0.54
168
0.49
218
1.29
248
0.38
175
0.54
173
0.56
197
0.28
228
0.34
217
0.50
170
0.73
229
0.54
129
0.57
168
APVNettwo views0.56
204
0.47
191
0.38
200
0.46
223
0.50
259
0.57
255
0.53
260
0.60
170
0.42
250
0.46
114
0.65
248
0.50
143
0.30
164
0.36
254
0.74
219
0.71
272
0.71
284
0.64
292
0.95
222
0.53
242
0.57
193
0.77
254
0.34
256
0.46
272
0.59
210
0.46
164
0.82
224
0.58
173
sCroCo_RVCtwo views0.58
212
0.42
154
0.29
145
0.28
134
0.29
162
0.39
186
0.22
164
0.60
170
0.41
243
0.53
164
0.43
166
0.48
132
0.50
264
0.24
168
0.75
220
0.99
321
0.75
290
0.63
288
1.02
227
0.56
258
1.10
298
1.36
305
0.28
228
0.39
244
0.63
231
0.63
208
0.93
257
0.64
197
cross-rafttwo views0.73
247
0.56
259
0.46
239
0.43
211
0.33
184
0.40
192
0.27
196
0.73
264
0.33
197
0.65
249
0.60
225
0.74
224
0.30
164
0.23
150
0.76
221
0.96
312
0.63
249
0.48
208
2.91
321
0.59
270
1.81
331
1.31
303
0.22
181
0.32
198
0.82
284
0.94
276
0.93
257
1.01
264
HLF11two views0.49
174
0.47
191
0.35
171
0.39
188
0.29
162
0.36
173
0.19
145
0.86
304
0.36
214
0.49
134
0.51
198
0.51
148
0.25
126
0.24
168
0.77
222
0.47
167
0.55
179
0.48
208
1.64
271
0.37
170
0.43
99
0.49
167
0.30
239
0.30
184
0.51
175
0.59
202
0.51
113
0.61
184
TestStereo_HLe17two views0.55
195
0.56
259
0.36
180
0.52
241
0.37
211
0.43
203
0.26
191
0.83
298
0.46
259
0.58
201
0.59
221
0.69
211
0.34
206
0.23
150
0.77
222
0.52
202
0.57
196
0.50
227
1.21
245
0.49
233
0.57
193
0.73
245
0.27
223
0.49
282
0.62
223
0.78
245
0.65
171
0.59
181
gcap-zeroshottwo views1.75
325
0.44
165
0.89
317
0.59
260
0.36
202
0.55
250
0.29
208
0.74
269
0.29
151
0.74
297
0.76
277
1.18
292
0.33
193
0.24
168
0.78
224
0.97
314
0.61
235
0.53
249
29.80
386
0.80
315
1.04
290
1.45
312
0.23
192
0.34
217
0.75
264
0.99
289
0.96
264
0.75
230
SQANettwo views1.90
329
2.70
360
1.03
329
3.09
356
2.17
355
3.29
354
2.70
354
0.95
313
0.65
292
1.00
339
0.71
264
2.69
330
1.10
312
2.30
360
0.78
224
0.55
218
1.02
325
0.72
313
9.92
365
0.68
303
2.11
335
1.25
299
3.28
364
0.58
297
0.98
309
1.31
329
1.33
317
2.34
327
MSMDNettwo views0.73
247
0.52
241
0.48
247
0.35
176
0.34
193
0.45
213
0.33
221
0.69
238
0.30
162
0.63
236
0.60
225
0.71
215
0.35
214
0.23
150
0.78
224
1.05
328
0.63
249
0.50
227
2.88
319
0.81
319
1.59
320
1.80
331
0.23
192
0.29
176
0.74
259
0.89
267
0.85
235
0.76
232
NLCA_NET_v2_RVCtwo views0.51
181
0.52
241
0.48
247
0.43
211
0.57
275
0.42
200
0.62
285
0.56
150
0.62
289
0.52
152
0.51
198
0.67
203
0.34
206
0.58
318
0.78
224
0.42
120
0.47
125
0.42
160
0.57
147
0.38
175
0.46
118
0.42
131
0.30
239
0.32
198
0.48
157
0.76
238
0.62
160
0.64
197
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
test-1two views0.84
272
0.34
103
0.50
253
0.37
182
0.40
229
0.60
261
0.37
231
0.73
264
0.38
230
0.68
273
0.71
264
1.08
280
0.40
237
0.25
186
0.79
228
0.91
303
0.63
249
0.58
276
2.22
295
0.58
266
1.17
302
3.78
361
0.22
181
0.36
232
0.81
281
1.15
313
1.10
288
1.59
303
XPNet_ROBtwo views0.74
253
0.77
303
0.57
272
0.54
249
0.61
281
0.63
271
0.61
282
0.53
131
0.65
292
0.58
201
0.81
286
2.35
323
0.46
257
0.43
280
0.79
228
0.63
245
0.85
305
0.57
271
0.83
207
0.55
253
0.72
239
1.09
286
0.45
281
0.49
282
0.63
231
0.74
231
1.39
323
0.86
245
TestStereo1two views0.38
123
0.49
209
0.19
85
0.22
99
0.23
115
0.23
111
0.15
115
0.55
144
0.30
162
0.52
152
0.21
76
0.35
81
0.39
233
0.11
66
0.80
230
0.50
187
0.46
115
0.32
96
0.53
126
0.25
100
0.52
160
0.67
228
0.15
96
0.22
117
0.37
122
0.42
144
0.60
153
0.39
106
SA-5Ktwo views0.38
123
0.49
209
0.19
85
0.22
99
0.23
115
0.23
111
0.15
115
0.55
144
0.30
162
0.52
152
0.21
76
0.35
81
0.39
233
0.11
66
0.80
230
0.50
187
0.46
115
0.32
96
0.53
126
0.25
100
0.52
160
0.67
228
0.15
96
0.22
117
0.37
122
0.42
144
0.60
153
0.39
106
RYNettwo views0.27
82
0.23
72
0.18
83
0.15
59
0.17
84
0.19
83
0.13
95
0.25
69
0.31
182
0.17
60
0.20
72
0.19
43
0.14
66
0.13
76
0.80
230
0.28
65
0.27
58
0.41
151
0.28
64
0.19
65
0.27
57
0.21
54
0.29
235
0.18
88
0.27
72
0.76
238
0.34
71
0.23
60
iRaft-Stereo_20wtwo views1.06
297
0.49
209
1.34
352
1.18
324
0.46
247
0.78
298
0.46
248
0.76
277
0.37
225
0.74
297
6.16
379
0.84
248
0.29
153
0.26
198
0.81
233
0.97
314
0.59
218
0.44
171
1.72
273
0.61
284
1.04
290
1.56
320
0.21
167
0.25
152
0.92
299
1.31
329
1.45
331
2.71
337
GwcNet-ADLtwo views0.97
292
0.83
316
0.81
309
0.91
306
0.68
295
0.70
284
0.53
260
0.77
282
0.50
267
0.72
292
5.46
372
1.20
293
0.65
291
0.46
287
0.81
233
0.95
309
0.72
286
0.56
265
1.26
246
0.71
308
0.67
224
0.78
257
0.59
317
0.56
293
0.79
276
0.98
287
0.85
235
1.75
312
iResNet_ROBtwo views0.50
176
0.49
209
0.42
219
0.42
206
0.30
171
0.42
200
0.32
217
0.60
170
0.33
197
0.52
152
0.59
221
0.47
128
0.56
277
0.25
186
0.81
233
0.46
156
0.57
196
0.49
218
1.19
241
0.36
164
0.48
133
0.36
104
0.25
206
0.37
239
0.57
198
0.54
193
0.75
204
0.61
184
GGDAcopylefttwo views0.56
204
0.55
252
0.46
239
0.41
201
0.36
202
0.45
213
0.26
191
0.62
185
0.40
236
0.59
208
0.74
275
0.69
211
0.36
221
0.28
214
0.82
236
0.52
202
0.59
218
0.51
236
1.43
255
0.43
212
0.51
148
0.53
188
0.26
216
0.39
244
0.59
210
0.77
243
0.76
207
0.72
223
NCC-stereotwo views0.67
234
0.63
281
0.59
275
0.64
272
0.65
289
0.63
271
0.69
299
0.67
223
0.74
301
0.43
101
0.81
286
0.82
242
0.70
294
0.47
288
0.82
236
0.53
206
0.58
203
0.64
292
0.80
204
0.54
248
0.56
183
0.60
204
0.53
306
0.45
269
0.75
264
0.96
281
0.92
255
0.98
260
Abc-Nettwo views0.67
234
0.63
281
0.59
275
0.64
272
0.65
289
0.63
271
0.69
299
0.67
223
0.74
301
0.43
101
0.81
286
0.82
242
0.70
294
0.47
288
0.82
236
0.53
206
0.58
203
0.64
292
0.80
204
0.54
248
0.56
183
0.60
204
0.53
306
0.45
269
0.75
264
0.96
281
0.92
255
0.98
260
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
TestStereo_HL2two views0.55
195
0.57
265
0.45
237
0.43
211
0.35
197
0.43
203
0.26
191
0.60
170
0.40
236
0.58
201
0.76
277
0.71
215
0.35
214
0.27
209
0.83
239
0.53
206
0.59
218
0.51
236
1.53
262
0.43
212
0.50
141
0.55
195
0.27
223
0.36
232
0.57
198
0.71
222
0.74
201
0.69
212
DCVSM-stereotwo views1.13
301
0.66
288
0.79
307
0.89
301
0.65
289
1.15
323
0.73
302
0.95
313
0.82
310
1.04
341
4.18
363
3.75
347
1.45
324
0.49
291
0.83
239
0.86
297
0.69
276
0.60
284
2.08
290
0.87
324
1.06
294
0.77
254
0.84
334
0.72
315
0.74
259
0.89
267
0.98
270
1.09
272
CASStwo views0.79
268
0.55
252
0.53
261
0.65
275
0.54
268
0.59
259
0.53
260
0.78
286
0.52
271
0.71
289
0.75
276
0.67
203
0.47
259
0.28
214
0.83
239
0.67
261
0.98
323
0.56
265
1.60
268
0.58
266
2.74
346
1.44
310
0.38
268
0.35
225
0.84
290
0.81
254
0.90
248
1.02
265
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
BEATNet_4xtwo views0.53
188
0.40
143
0.34
169
0.39
188
0.36
202
0.32
150
0.27
196
0.64
208
0.41
243
0.66
261
0.45
172
0.62
194
0.39
233
0.24
168
0.83
239
0.63
245
0.58
203
0.58
276
0.57
147
0.36
164
0.90
269
1.52
319
0.25
206
0.36
232
0.46
152
0.44
150
0.77
210
0.60
182
stereogantwo views0.67
234
0.67
291
0.62
283
0.68
281
0.73
306
0.75
294
0.64
288
0.70
246
0.57
282
0.51
143
0.64
243
1.08
280
0.62
286
0.44
283
0.83
239
0.55
218
0.56
187
0.51
236
0.91
216
0.59
270
0.59
202
0.69
234
0.47
284
0.46
272
0.59
210
0.67
215
1.16
296
0.87
248
ddtwo views0.50
176
0.51
229
0.28
140
0.91
306
0.31
179
0.65
275
0.29
208
0.59
164
0.23
100
0.54
168
0.30
116
0.75
225
0.27
140
0.26
198
0.84
244
0.46
156
0.70
278
0.39
133
1.05
228
0.38
175
0.48
133
0.43
138
0.23
192
0.30
184
0.53
184
0.39
136
0.74
201
0.58
173
TANstereotwo views0.55
195
0.41
147
0.35
171
0.40
196
0.39
224
0.45
213
0.21
156
0.52
127
0.30
162
0.54
168
0.37
148
0.38
95
0.38
230
0.41
267
0.84
244
0.73
278
0.66
261
0.78
327
1.10
232
0.89
325
0.62
206
0.54
191
0.93
340
0.32
198
0.34
108
0.45
156
0.99
271
0.53
154
XX-TBDtwo views0.55
195
0.41
147
0.35
171
0.40
196
0.39
224
0.45
213
0.21
156
0.52
127
0.30
162
0.54
168
0.37
148
0.38
95
0.38
230
0.41
267
0.84
244
0.73
278
0.66
261
0.78
327
1.10
232
0.89
325
0.62
206
0.54
191
0.93
340
0.32
198
0.34
108
0.45
156
0.99
271
0.53
154
NaN_ROBtwo views0.73
247
0.59
270
0.61
282
0.64
272
0.78
314
0.53
243
0.48
251
0.87
305
0.63
290
0.73
295
0.61
234
1.96
318
0.62
286
0.45
285
0.84
244
0.55
218
0.56
187
0.54
255
0.73
190
0.55
253
0.52
160
0.51
179
0.38
268
0.64
306
0.83
286
1.11
309
0.94
259
1.64
307
TESTrafttwo views0.37
120
0.46
184
0.21
108
0.21
96
0.23
115
0.21
90
0.16
124
0.54
137
0.31
182
0.51
143
0.23
83
0.36
90
0.36
221
0.11
66
0.85
248
0.48
176
0.45
110
0.32
96
0.48
106
0.24
93
0.46
118
0.65
219
0.12
76
0.23
129
0.37
122
0.43
146
0.57
137
0.39
106
GANetREF_RVCpermissivetwo views0.77
265
0.74
302
0.68
298
0.76
291
0.65
289
0.69
283
0.60
277
0.99
320
0.73
298
0.93
331
0.52
202
1.33
299
0.72
296
0.44
283
0.85
248
0.57
225
0.67
267
0.63
288
1.13
236
0.61
284
0.77
247
0.63
213
0.59
317
0.71
312
0.89
295
0.90
269
1.15
292
0.99
262
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
AIO-Stereo-zeroshotpermissivetwo views1.21
304
0.49
209
1.28
349
0.75
288
0.41
235
1.04
316
0.67
296
0.77
282
0.52
271
0.78
310
5.67
375
1.03
273
0.35
214
0.26
198
0.86
250
1.39
361
0.68
270
0.70
310
2.61
313
0.64
294
2.89
350
2.21
338
0.19
137
0.43
258
1.03
321
1.15
313
1.35
319
2.41
331
EKT-Stereotwo views0.75
254
0.64
284
0.54
265
0.59
260
0.47
251
0.60
261
0.73
302
0.71
250
0.29
151
0.63
236
0.66
251
0.73
221
0.30
164
0.26
198
0.86
250
1.22
349
0.68
270
0.76
323
1.46
257
0.60
275
1.75
328
1.74
329
0.21
167
0.32
198
0.93
300
0.81
254
1.06
281
0.72
223
sAnonymous2two views0.58
212
0.41
147
0.31
155
0.29
139
0.29
162
0.45
213
0.29
208
0.71
250
0.41
243
0.48
124
0.53
206
0.51
148
0.43
246
0.23
150
0.86
250
0.84
294
0.70
278
0.67
300
1.34
250
0.60
275
0.83
256
0.98
277
0.30
239
0.35
225
0.62
223
0.72
226
0.72
196
0.73
227
CroCo_RVCtwo views0.58
212
0.41
147
0.31
155
0.29
139
0.29
162
0.45
213
0.29
208
0.71
250
0.41
243
0.48
124
0.53
206
0.51
148
0.43
246
0.23
150
0.86
250
0.84
294
0.70
278
0.67
300
1.34
250
0.60
275
0.83
256
0.98
277
0.30
239
0.35
225
0.62
223
0.72
226
0.72
196
0.73
227
RAFT + AFFtwo views0.27
82
0.26
79
0.17
76
0.21
96
0.13
58
0.19
83
0.13
95
0.41
92
0.18
68
0.44
108
0.19
65
0.42
110
0.14
66
0.09
52
0.86
250
0.29
71
0.41
102
0.20
42
0.55
136
0.23
88
0.47
125
0.21
54
0.12
76
0.15
73
0.28
77
0.20
42
0.21
15
0.17
37
SGM-Foresttwo views0.73
247
0.71
297
0.40
207
1.13
319
0.64
288
0.74
293
0.45
246
0.68
230
0.39
233
0.61
220
0.44
169
1.16
290
1.06
308
0.49
291
0.86
250
0.61
242
0.55
179
0.46
194
0.68
177
0.44
215
0.61
204
0.49
167
0.45
281
0.44
264
0.90
296
0.86
260
1.95
349
1.47
297
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
IPLGR_Ctwo views0.42
138
0.47
191
0.23
124
0.31
155
0.22
108
0.32
150
0.18
134
0.63
200
0.23
100
0.55
175
0.50
192
0.61
186
0.31
178
0.41
267
0.87
256
0.45
146
0.52
156
0.37
127
0.55
136
0.38
175
0.56
183
0.46
154
0.19
137
0.24
140
0.44
143
0.33
110
0.58
145
0.40
112
STTStereotwo views0.53
188
0.56
259
0.54
265
0.44
218
0.52
263
0.43
203
0.59
273
0.52
127
0.46
259
0.47
117
0.55
214
0.71
215
0.42
241
0.56
310
0.87
256
0.44
135
0.49
136
0.51
236
0.54
133
0.37
170
0.51
148
0.40
120
0.32
251
0.35
225
0.52
180
0.66
214
0.68
181
0.99
262
HLf8two views0.56
204
0.51
229
0.36
180
0.47
225
0.36
202
0.38
181
0.24
181
0.89
309
0.39
233
0.53
164
0.69
262
0.63
196
0.33
193
0.24
168
0.88
258
0.51
194
0.58
203
0.49
218
1.83
279
0.45
217
0.54
173
0.61
209
0.29
235
0.40
248
0.54
188
0.78
245
0.68
181
0.62
189
FC-DCNNcopylefttwo views0.88
278
0.96
328
1.23
343
1.36
334
0.93
322
1.26
331
0.82
308
0.91
311
0.78
304
0.87
327
0.63
242
1.08
280
0.42
241
0.56
310
0.88
258
0.69
265
0.81
301
0.68
306
0.81
206
0.59
270
0.78
248
0.59
200
0.50
295
0.77
324
1.11
326
0.99
289
1.21
303
1.57
302
PSMNet-ADLtwo views0.96
290
0.62
280
0.66
293
0.67
278
0.70
303
0.66
278
0.58
272
0.74
269
0.60
286
0.85
325
5.03
369
0.95
263
1.26
319
0.45
285
0.89
260
1.03
326
0.68
270
0.54
255
2.03
289
0.68
303
0.84
260
0.79
259
0.54
310
0.47
275
0.73
257
0.95
278
1.32
316
0.63
194
SGM-ForestMtwo views2.61
341
4.20
382
0.93
319
2.78
351
1.37
346
3.57
360
2.93
357
2.59
375
1.51
349
0.70
286
1.32
324
7.25
368
5.36
361
0.47
288
0.89
260
0.53
206
0.79
297
0.54
255
7.58
354
0.60
275
0.82
254
0.47
160
0.51
303
0.80
327
4.97
380
3.66
379
7.05
388
6.30
370
TestStereo-Hlcopylefttwo views0.66
230
0.55
252
0.55
268
0.39
188
0.38
219
0.49
227
0.33
221
0.70
246
0.50
267
0.64
243
0.87
293
0.78
236
0.39
233
0.25
186
0.90
262
0.75
280
0.62
243
0.56
265
1.93
285
0.51
238
0.67
224
1.38
308
0.26
216
0.45
269
0.59
210
0.76
238
0.89
246
0.88
250
CFNet_pseudotwo views0.51
181
0.44
165
0.43
224
0.54
249
0.43
241
0.53
243
0.34
223
0.62
185
0.36
214
0.61
220
0.64
243
0.57
169
0.52
270
0.35
252
0.90
262
0.50
187
0.50
141
0.47
202
0.67
175
0.36
164
0.47
125
0.42
131
0.26
216
0.33
213
0.57
198
0.60
206
0.68
181
0.73
227
FC-DCNN v2copylefttwo views0.94
284
0.98
331
1.28
349
1.47
338
0.95
324
1.33
333
0.82
308
1.05
327
0.80
306
0.87
327
0.66
251
1.11
285
0.67
293
0.56
310
0.91
264
0.69
265
0.81
301
0.68
306
0.83
207
0.59
270
0.78
248
0.59
200
0.50
295
0.78
326
1.25
338
1.09
306
1.35
319
1.89
314
ACREtwo views0.42
138
0.47
191
0.22
119
0.32
157
0.22
108
0.33
157
0.18
134
0.63
200
0.23
100
0.55
175
0.50
192
0.61
186
0.30
164
0.41
267
0.91
264
0.45
146
0.52
156
0.36
122
0.55
136
0.38
175
0.57
193
0.44
144
0.19
137
0.23
129
0.44
143
0.32
105
0.58
145
0.39
106
FADNet-RVCtwo views0.58
212
0.50
224
0.37
191
0.51
238
0.42
238
0.39
186
0.56
268
0.68
230
0.36
214
0.64
243
0.50
192
1.13
289
0.45
252
0.34
246
0.91
264
0.53
206
0.54
168
0.45
181
1.20
243
0.51
238
0.54
173
0.52
185
0.33
254
0.51
284
0.57
198
0.75
235
0.64
167
0.81
239
MLCVtwo views0.70
243
0.49
209
0.53
261
0.73
287
0.50
259
0.65
275
0.43
244
0.81
294
0.41
243
0.71
289
0.88
294
1.01
271
0.81
301
0.28
214
0.92
267
0.43
129
0.65
258
0.52
245
2.47
306
0.45
217
0.55
178
0.72
243
0.39
272
0.54
290
0.69
243
0.80
252
0.83
231
0.72
223
SGM_RVCbinarytwo views2.81
348
1.46
348
0.85
313
1.76
343
1.28
341
1.68
344
1.19
332
1.56
352
1.14
333
0.82
320
1.70
339
7.09
367
2.67
349
0.42
277
0.92
267
0.57
225
0.75
290
0.57
271
11.20
370
0.66
297
0.94
276
0.46
154
0.51
303
0.84
330
1.97
360
1.64
347
5.04
384
26.13
392
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
CIPLGtwo views0.42
138
0.47
191
0.24
130
0.32
157
0.22
108
0.32
150
0.19
145
0.63
200
0.24
113
0.55
175
0.50
192
0.60
183
0.30
164
0.41
267
0.93
269
0.44
135
0.52
156
0.37
127
0.56
142
0.38
175
0.56
183
0.45
149
0.19
137
0.24
140
0.44
143
0.31
96
0.57
137
0.38
105
RGCtwo views0.76
258
0.72
298
0.99
324
0.70
282
0.71
304
0.76
297
0.57
271
0.74
269
0.74
301
0.56
184
0.96
302
0.83
246
0.85
303
0.56
310
0.93
269
0.60
237
0.62
243
0.56
265
0.93
218
0.61
284
0.66
220
0.71
239
0.51
303
0.56
293
0.81
281
1.01
294
0.99
271
1.19
286
PA-Nettwo views0.64
228
0.67
291
0.66
293
0.50
232
0.66
294
0.50
233
0.64
288
0.65
216
0.73
298
0.54
168
0.52
202
0.58
174
0.58
283
0.59
320
0.93
269
0.57
225
0.46
115
0.54
255
0.61
162
0.54
248
0.49
137
0.66
222
0.36
261
0.52
286
0.64
234
1.24
320
0.64
167
1.32
292
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NCCL2two views0.69
240
0.73
301
0.66
293
0.57
255
0.56
272
0.51
236
0.45
246
0.70
246
0.57
282
0.68
273
0.71
264
0.66
201
0.48
262
0.39
261
0.93
269
0.72
274
0.65
258
0.57
271
0.76
200
0.57
263
0.74
244
0.88
269
0.49
291
0.60
300
0.98
309
0.95
278
0.85
235
1.16
283
Sa-1000two views0.48
171
0.47
191
0.21
108
0.26
126
0.26
138
0.31
147
0.15
115
0.65
216
0.36
214
0.63
236
0.33
129
0.50
143
0.26
131
0.30
227
0.94
273
0.49
183
0.59
218
0.45
181
0.90
215
0.32
136
0.52
160
0.75
248
0.17
116
0.27
163
0.72
252
0.53
190
1.00
276
0.49
137
DDUNettwo views1.38
311
2.18
353
0.79
307
2.67
349
2.43
360
2.57
349
2.52
351
0.80
289
0.84
311
0.63
236
0.94
299
1.57
310
0.45
252
2.65
365
0.94
273
0.78
287
1.99
357
0.75
320
2.31
297
0.91
327
1.16
301
0.97
276
2.71
363
0.56
293
0.72
252
0.71
222
0.97
267
0.85
243
TestStereo_HL3two views0.95
286
0.72
298
0.43
224
0.52
241
0.37
211
0.70
284
0.50
255
0.77
282
0.46
259
0.65
249
1.31
322
2.45
324
0.74
297
0.26
198
0.95
275
1.18
344
1.44
344
0.48
208
1.76
275
0.46
223
1.07
296
4.07
363
0.30
239
0.36
232
0.60
215
0.94
276
1.15
292
0.86
245
otakutwo views2.33
338
3.05
370
1.19
339
3.36
363
2.37
358
3.56
359
3.08
359
1.05
327
0.98
327
1.13
344
0.80
285
2.88
332
1.62
330
2.59
361
0.95
275
0.64
251
1.23
336
0.75
320
13.16
373
1.09
340
2.47
341
2.63
345
4.75
374
0.75
320
1.13
328
1.38
335
1.69
341
2.52
334
DAStwo views0.95
286
0.61
277
0.48
247
0.78
294
0.61
281
0.68
281
0.59
273
0.84
301
0.93
321
0.65
249
1.58
334
1.66
312
1.06
308
0.34
246
0.95
275
0.92
304
0.92
317
0.73
316
1.77
276
1.03
336
1.73
326
1.11
287
0.47
284
0.92
334
0.93
300
1.00
291
1.39
323
0.96
256
SepStereotwo views0.95
286
0.61
277
0.48
247
0.78
294
0.61
281
0.68
281
0.59
273
0.84
301
0.93
321
0.65
249
1.58
334
1.66
312
1.06
308
0.34
246
0.95
275
0.92
304
0.92
317
0.73
316
1.77
276
1.03
336
1.73
326
1.11
287
0.47
284
0.92
334
0.93
300
1.00
291
1.39
323
0.96
256
GEStereo_RVCtwo views0.71
245
0.59
270
0.40
207
0.54
249
0.50
259
0.61
265
0.51
257
0.71
250
0.41
243
0.59
208
0.51
198
0.76
232
0.46
257
0.39
261
0.96
279
0.92
304
0.78
293
0.75
320
1.94
286
0.62
288
0.80
251
1.37
306
0.31
246
0.52
286
0.61
217
0.63
208
0.86
240
1.12
279
FADNet-RVC-Resampletwo views0.57
210
0.52
241
0.42
219
0.46
223
0.39
224
0.41
194
0.40
239
0.72
260
0.42
250
0.68
273
0.51
198
1.04
277
0.43
246
0.43
280
0.96
279
0.48
176
0.56
187
0.61
286
0.85
211
0.55
253
0.52
160
0.63
213
0.34
256
0.60
300
0.58
203
0.71
222
0.55
132
0.77
233
dadtwo views0.89
279
0.57
265
0.37
191
1.42
335
0.65
289
0.75
294
2.23
350
1.43
346
0.36
214
0.93
331
0.38
151
0.85
249
0.76
299
0.32
241
0.97
281
0.52
202
0.78
293
0.45
181
1.87
284
0.41
200
0.74
244
0.41
124
0.30
239
0.47
275
1.15
330
0.47
166
2.64
367
1.96
318
ACVNet-4btwo views2.35
339
2.75
363
1.60
358
3.13
357
2.29
357
3.52
358
3.67
367
1.35
342
1.35
342
1.27
355
0.72
269
3.26
340
2.62
348
3.04
371
0.98
282
0.78
287
2.13
360
1.02
346
9.04
362
1.23
350
2.74
346
3.39
358
4.08
367
0.92
334
1.24
336
1.29
327
1.46
332
2.48
333
GEStwo views0.59
219
0.52
241
0.37
191
0.39
188
0.40
229
0.53
243
0.37
231
0.59
164
0.40
236
0.56
184
0.60
225
0.50
143
0.30
164
0.41
267
0.98
282
0.63
245
0.67
267
0.55
263
2.28
296
0.56
258
0.70
236
0.56
197
0.31
246
0.42
255
0.48
157
0.48
171
0.65
171
0.68
210
CSANtwo views0.93
283
0.83
316
0.75
304
0.86
298
0.82
315
0.73
289
0.61
282
0.97
319
0.94
324
0.94
335
0.73
274
1.96
318
1.56
328
0.49
291
0.98
282
0.63
245
0.74
288
0.66
298
1.09
230
0.71
308
0.78
248
0.63
213
0.53
306
0.76
321
0.98
309
1.49
342
1.21
303
1.63
306
AMNettwo views1.02
295
0.98
331
0.95
320
0.98
312
1.01
326
1.03
314
0.96
323
0.87
305
0.93
321
0.97
337
1.02
307
1.10
283
0.74
297
1.06
349
0.99
285
1.09
333
1.17
332
1.04
348
1.08
229
1.05
338
1.13
300
1.04
283
0.82
333
0.98
340
1.01
318
1.07
304
1.20
302
1.27
291
MyStereo04two views0.68
239
0.52
241
0.57
272
0.44
218
0.37
211
0.35
170
0.26
191
0.68
230
0.45
255
0.62
230
0.45
172
0.68
205
0.34
206
0.25
186
1.00
286
0.68
264
0.56
187
0.53
249
3.39
328
0.56
258
0.92
270
0.64
217
0.27
223
0.41
252
0.77
271
0.92
272
0.96
264
0.66
201
Ntrotwo views2.32
335
3.40
378
1.53
356
3.55
364
2.52
363
3.71
365
3.36
361
1.11
333
1.05
329
1.16
348
0.90
296
2.93
334
1.24
318
2.72
367
1.00
286
0.64
251
1.40
341
0.82
332
10.96
368
1.14
344
2.72
345
3.19
354
4.26
370
0.73
316
1.24
336
1.59
346
1.56
336
2.31
326
ETE_ROBtwo views0.87
277
0.90
323
0.58
274
0.67
278
0.69
297
0.85
301
0.60
277
0.66
220
0.89
317
0.64
243
1.09
311
2.63
328
0.54
273
0.54
305
1.00
286
0.72
274
0.91
315
0.63
288
0.99
226
0.66
297
0.88
265
1.08
285
0.50
295
0.59
298
0.78
273
0.92
272
1.48
333
1.17
284
MIPNettwo views0.51
181
0.51
229
0.33
161
0.32
157
0.30
171
0.37
176
0.25
187
0.62
185
0.24
113
0.50
137
0.52
202
0.61
186
0.41
240
0.30
227
1.01
289
0.51
194
0.59
218
0.50
227
0.76
200
0.47
229
0.44
106
0.85
265
0.20
154
0.26
159
0.66
238
0.98
287
0.71
195
0.61
184
ADCP+two views0.92
280
0.59
270
0.62
283
0.44
218
0.45
244
0.55
250
0.85
311
0.65
216
1.81
355
0.48
124
1.10
313
1.62
311
0.33
193
0.42
277
1.03
290
0.52
202
0.52
156
0.48
208
1.19
241
0.38
175
0.58
198
0.60
204
0.32
251
0.30
184
0.66
238
3.45
378
0.77
210
4.14
358
model_zeroshottwo views0.80
271
0.46
184
0.42
219
0.42
206
0.39
224
0.43
203
0.27
196
0.72
260
0.36
214
0.64
243
0.66
251
0.97
265
0.29
153
0.24
168
1.05
291
0.92
304
0.69
276
0.54
255
3.03
323
0.73
310
1.21
304
1.20
297
0.22
181
0.38
242
0.84
290
1.14
312
1.08
283
2.21
325
EAI-Stereotwo views0.75
254
0.49
209
0.50
253
0.51
238
0.46
247
0.56
254
0.60
277
0.73
264
0.32
191
0.63
236
0.72
269
0.82
242
0.26
131
0.24
168
1.05
291
0.96
312
0.60
227
0.49
218
3.00
322
0.62
288
0.82
254
1.13
290
0.19
137
0.31
193
0.78
273
0.70
221
1.55
335
1.17
284
iinet-ftwo views0.52
185
0.43
159
0.36
180
0.34
166
0.25
128
0.47
221
0.25
187
0.43
100
0.27
137
0.52
152
0.94
299
0.61
186
0.44
251
0.25
186
1.06
293
0.57
225
0.52
156
0.39
133
1.51
259
0.50
235
0.58
198
0.75
248
0.26
216
0.25
152
0.52
180
0.38
133
0.76
207
0.53
154
UDGtwo views1.35
310
2.24
355
0.81
309
2.58
346
2.45
361
2.48
348
2.57
352
0.76
277
0.86
312
0.77
306
1.08
310
1.51
305
0.56
277
2.59
361
1.06
293
0.69
265
1.89
355
0.80
331
2.31
297
0.97
331
1.24
306
0.98
277
1.43
355
0.62
303
0.74
259
0.81
254
0.95
261
0.81
239
DeepPruner_ROBtwo views0.59
219
0.44
165
0.54
265
0.52
241
0.54
268
0.49
227
0.37
231
0.61
178
0.46
259
0.60
215
0.70
263
0.61
186
0.51
268
0.32
241
1.06
293
0.58
230
0.62
243
0.59
281
0.66
171
0.47
229
0.97
283
0.72
243
0.36
261
0.44
264
0.61
217
1.00
291
0.72
196
0.58
173
GANet-ADLtwo views0.70
243
0.59
270
0.52
259
0.60
263
0.57
275
0.61
265
0.46
248
0.68
230
0.52
271
0.65
249
0.67
258
0.76
232
0.43
246
0.39
261
1.08
296
0.79
291
0.68
270
0.52
245
1.84
282
0.64
294
0.66
220
0.86
267
0.42
278
0.43
258
0.70
246
0.87
263
0.97
267
0.89
251
ccs_robtwo views1.25
306
0.79
307
0.64
289
0.86
298
0.60
280
0.89
306
0.83
310
0.99
320
0.51
270
0.77
306
6.27
381
5.90
360
1.10
312
0.51
297
1.08
296
1.10
334
0.68
270
0.66
298
1.15
237
0.70
307
1.56
318
1.66
325
0.50
295
0.54
290
0.69
243
0.78
245
0.86
240
1.20
287
DDVStwo views2.32
335
0.70
295
0.82
311
0.70
282
0.74
310
0.73
289
0.59
273
1.09
332
0.88
314
0.80
314
34.26
398
3.93
349
1.16
315
0.52
301
1.09
298
1.35
354
0.73
287
0.65
296
1.95
287
0.95
328
1.67
324
2.27
340
0.48
289
0.56
293
0.69
243
0.84
259
1.21
303
1.35
293
LALA_ROBtwo views0.86
276
0.97
330
0.67
296
0.63
270
0.69
297
0.83
300
0.67
296
0.70
246
0.80
306
0.68
273
1.10
313
2.61
327
0.58
283
0.51
297
1.11
299
0.67
261
0.86
306
0.72
313
0.89
214
0.67
301
0.80
251
1.00
280
0.49
291
0.59
298
0.73
257
0.92
272
1.16
296
1.10
276
PWCDC_ROBbinarytwo views0.67
234
0.35
114
0.39
202
0.29
139
0.43
241
0.34
164
0.36
229
0.43
100
1.25
337
0.27
80
0.72
269
0.44
119
2.38
343
0.57
315
1.11
299
0.76
282
0.56
187
0.56
265
0.64
165
0.55
253
0.63
209
2.08
336
0.46
283
0.40
248
0.36
120
0.63
208
0.51
113
0.67
205
AIO-Stereo-zeroshot1permissivetwo views5.67
370
0.56
259
1.25
346
0.75
288
0.69
297
1.17
324
0.81
307
0.82
297
0.80
306
0.81
317
4.78
366
1.00
267
0.37
227
0.27
209
1.13
301
1.54
366
0.70
278
0.60
284
124.50
401
0.54
248
1.43
315
2.64
346
0.22
181
0.36
232
0.91
297
1.13
311
1.13
290
2.18
323
NOSS_ROBtwo views0.76
258
0.84
320
0.50
253
0.72
285
0.61
281
0.75
294
0.52
259
0.80
289
0.54
275
0.70
286
0.62
239
0.62
194
0.86
304
0.62
321
1.14
302
1.10
334
0.78
293
0.69
309
0.73
190
0.60
275
0.88
265
0.67
228
0.50
295
0.71
312
0.86
293
0.95
278
1.38
322
0.85
243
pcwnet_v2two views0.62
225
0.46
184
0.50
253
0.62
268
0.49
258
0.61
265
0.46
248
0.66
220
0.45
255
0.65
249
0.79
281
0.64
197
0.86
304
0.53
304
1.15
303
0.55
218
0.59
218
0.51
236
0.83
207
0.41
200
0.55
178
0.47
160
0.34
256
0.43
258
0.75
264
0.76
238
0.85
235
0.95
255
SFCPSMtwo views3.03
352
0.82
314
0.63
287
0.77
292
0.69
297
0.72
288
0.63
286
0.83
298
0.98
327
0.71
289
2.00
347
2.57
325
3.49
351
0.56
310
1.16
304
0.93
308
0.74
288
0.64
292
54.48
398
1.19
348
0.88
265
0.91
272
0.55
312
0.55
292
0.94
303
0.93
275
1.11
289
1.39
294
FADNettwo views0.65
229
0.55
252
0.41
216
0.53
246
0.42
238
0.49
227
0.65
293
0.74
269
0.42
250
0.66
261
0.64
243
0.81
240
0.50
264
0.36
254
1.17
305
0.51
194
0.51
152
0.53
249
1.61
269
0.53
242
0.69
231
0.59
200
0.35
260
0.41
252
0.72
252
0.88
265
0.78
216
1.06
270
ITSA-stereotwo views1.12
300
0.72
298
0.59
275
1.20
326
0.84
317
0.64
274
0.64
288
0.95
313
0.78
304
0.84
323
2.54
352
1.39
301
1.23
317
0.81
338
1.20
306
1.01
323
0.83
303
0.67
300
1.56
264
0.62
288
1.08
297
1.46
313
0.56
314
0.71
312
0.95
305
1.27
325
0.99
271
4.08
357
MaskLacGwcNet_RVCtwo views8.29
379
0.65
285
1.07
334
0.94
311
0.83
316
0.81
299
1.27
335
0.85
303
0.73
298
0.93
331
6.13
378
180.62
403
2.17
337
1.33
355
1.22
307
1.01
323
0.93
319
1.06
350
6.32
351
0.79
314
3.32
363
3.77
360
0.55
312
0.76
321
0.95
305
1.34
334
1.19
301
2.42
332
FBW_ROBtwo views1.34
309
1.42
347
1.08
335
2.01
345
1.42
347
1.37
335
1.63
341
0.99
320
0.70
296
0.72
292
1.02
307
2.05
321
0.91
306
1.47
356
1.24
308
0.60
237
0.88
311
0.65
296
6.08
348
0.59
270
1.06
294
0.81
262
1.48
356
1.12
351
0.99
312
1.20
316
0.99
271
1.66
309
ADCLtwo views1.27
307
0.82
314
0.64
289
0.60
263
0.53
264
0.73
289
0.91
317
0.75
273
2.78
374
0.68
273
1.01
306
0.86
253
0.50
264
0.50
295
1.27
309
0.64
251
0.66
261
0.57
271
1.20
243
0.60
275
0.98
284
0.88
269
0.50
295
0.47
275
1.60
352
1.50
343
0.88
244
11.30
382
ACVNet_2two views3.17
353
2.98
367
2.25
368
4.72
372
2.88
371
3.50
356
3.48
363
1.58
354
1.33
340
1.29
357
1.10
313
3.22
339
2.45
344
2.67
366
1.29
310
0.86
297
7.26
380
1.02
346
22.14
381
1.37
356
3.22
359
1.25
299
4.24
368
1.37
360
1.93
357
1.92
352
1.83
346
2.36
328
RainbowNettwo views2.32
335
2.93
366
1.87
363
3.34
362
2.57
364
3.50
356
3.49
364
1.29
338
0.92
319
1.53
370
0.89
295
3.18
338
2.31
342
2.94
368
1.30
311
0.90
301
1.61
349
1.00
344
5.61
343
1.51
358
2.82
349
4.18
365
4.25
369
0.97
338
1.32
341
1.58
345
1.71
343
3.00
343
ACVNet_1two views2.47
340
3.23
373
2.35
369
4.40
371
2.93
374
3.77
367
3.96
370
1.34
341
1.18
335
1.21
351
1.02
307
3.31
342
2.07
336
3.09
373
1.31
312
0.70
271
2.26
364
1.10
354
9.52
363
1.14
344
3.45
364
1.18
296
4.50
373
1.07
346
1.39
345
1.75
350
1.36
321
2.10
320
CBMVpermissivetwo views1.15
302
0.84
320
0.60
280
0.85
297
0.76
313
0.73
289
0.48
251
0.87
305
0.80
306
0.81
317
0.61
234
2.86
331
0.81
301
0.52
301
1.31
312
1.17
343
0.91
315
0.74
318
2.40
304
0.66
297
1.57
319
0.76
251
0.48
289
1.06
345
0.99
312
1.09
306
2.25
353
4.25
359
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
MonStereo1two views2.61
341
2.91
365
1.70
359
3.94
368
3.77
381
3.57
360
3.72
369
1.55
351
1.64
352
1.43
363
1.63
337
4.85
357
5.63
362
2.99
370
1.35
314
0.90
301
1.99
357
1.31
365
5.93
344
1.75
370
2.96
352
1.93
333
4.83
377
0.93
337
1.31
340
1.08
305
2.49
363
2.38
329
MGS-Stereotwo views0.37
120
0.46
184
0.21
108
0.22
99
0.19
93
0.22
97
0.15
115
0.45
108
0.17
62
0.36
89
0.26
98
0.29
69
0.19
92
0.23
150
1.37
315
0.40
112
0.52
156
0.45
181
0.55
136
0.33
140
0.50
141
0.41
124
0.21
167
0.22
117
0.33
105
0.30
91
0.47
105
0.45
128
edge stereotwo views1.82
326
1.16
340
2.22
367
1.46
337
1.28
341
1.58
340
1.38
338
1.67
359
1.30
339
1.20
350
3.42
360
4.33
354
2.26
341
0.80
337
1.41
316
1.46
364
1.05
328
0.83
335
5.42
342
0.97
331
1.34
312
3.76
359
0.95
342
0.88
332
1.26
339
1.20
316
1.70
342
2.91
340
CBMV_ROBtwo views1.71
324
0.79
307
0.65
292
1.35
332
1.07
332
1.01
312
0.74
304
1.01
324
0.54
275
0.72
292
0.81
286
9.80
379
5.90
364
0.57
315
1.42
317
0.69
265
0.80
298
0.58
276
5.38
341
1.22
349
0.95
279
0.55
195
0.53
306
0.62
303
1.22
332
1.45
337
2.72
369
2.94
341
LVEtwo views4.33
365
3.03
368
2.00
365
27.23
393
3.06
375
3.83
368
12.07
391
1.53
350
1.64
352
1.85
379
1.48
331
3.30
341
3.91
353
3.06
372
1.45
318
1.05
328
1.95
356
1.38
371
15.68
378
1.62
365
3.25
361
5.86
375
4.42
372
1.76
377
2.87
369
2.06
359
2.34
356
3.25
347
Deantwo views2.84
349
3.23
373
1.81
361
6.04
375
3.38
380
3.63
362
3.67
367
1.88
364
1.97
359
1.47
364
1.30
321
3.69
346
4.10
354
2.97
369
1.45
318
0.97
314
2.41
365
1.29
363
5.94
345
1.74
369
3.20
358
4.23
366
4.79
376
1.55
368
2.65
364
2.27
362
2.56
364
2.64
336
G-Nettwo views1.86
327
1.00
333
1.28
349
0.89
301
0.93
322
1.10
320
0.77
305
1.63
355
2.07
361
0.99
338
2.89
355
7.30
370
1.67
332
0.55
308
1.45
318
1.75
371
1.04
326
0.93
341
2.87
318
2.72
382
1.89
332
1.47
314
0.80
331
1.02
344
1.06
322
1.71
349
2.82
370
5.60
366
STTRV1_RVCtwo views0.81
311
0.64
289
1.04
315
0.73
306
1.03
314
0.85
311
0.91
311
0.92
319
0.93
331
0.95
301
1.72
316
2.23
338
0.86
342
1.46
321
0.78
287
1.37
339
0.72
313
1.97
372
1.59
320
1.23
298
0.97
338
1.07
323
1.11
309
1.75
344
3.40
350
MFN_U_SF_DS_RVCtwo views1.33
308
0.90
323
0.63
287
1.27
329
0.90
320
1.21
327
2.21
348
1.27
335
1.18
335
1.00
339
0.91
297
1.80
317
1.16
315
1.07
350
1.48
322
0.77
284
0.70
278
0.58
276
2.75
317
0.67
301
1.39
314
2.93
350
0.85
336
0.73
316
1.47
347
1.68
348
1.33
317
2.96
342
iResNettwo views0.92
280
0.56
259
0.62
283
0.72
285
0.68
295
0.96
309
0.55
266
0.95
313
0.57
282
0.67
270
0.82
291
1.41
302
1.51
326
0.31
234
1.49
323
0.66
260
0.75
290
0.67
300
4.08
334
0.68
303
0.72
239
0.63
213
0.41
275
0.83
328
0.72
252
0.91
271
1.02
278
0.87
248
Anonymous3two views0.79
268
0.59
270
0.42
219
0.37
182
0.42
238
0.57
255
0.50
255
0.80
289
0.64
291
0.68
273
0.49
183
1.48
303
0.54
273
0.31
234
1.53
324
1.42
363
0.88
311
0.82
332
1.45
256
0.69
306
1.31
310
1.30
302
0.40
273
0.40
248
0.74
259
0.86
260
1.03
280
0.71
221
NVstereo2Dtwo views0.55
195
0.47
191
0.40
207
0.52
241
0.48
254
0.66
278
0.64
288
0.60
170
0.38
230
0.48
124
0.61
234
0.53
154
0.30
164
0.63
323
1.53
324
0.61
242
0.58
203
0.55
263
0.53
126
0.41
200
0.50
141
0.38
111
0.54
310
0.43
258
0.64
234
0.48
171
0.56
135
0.53
154
ADCReftwo views1.01
294
0.65
285
0.48
247
0.39
188
0.47
251
0.65
275
0.68
298
0.61
178
1.08
330
0.52
152
0.64
243
0.75
225
0.43
246
0.38
260
1.56
326
0.72
274
0.61
235
0.59
281
1.53
262
0.58
266
0.66
220
0.71
239
0.50
295
0.43
258
0.75
264
1.25
323
0.82
224
8.96
379
SANettwo views1.61
319
0.91
326
1.10
337
1.04
315
1.05
330
1.25
330
0.77
305
1.76
362
1.81
355
0.77
306
1.24
317
6.63
364
5.08
358
0.83
339
1.56
326
0.77
284
1.24
337
0.90
336
1.58
265
0.82
320
1.05
292
1.00
280
0.90
337
1.27
358
1.32
341
1.93
353
1.88
347
3.10
346
IMHtwo views3.24
355
2.76
364
2.37
372
3.26
360
2.74
368
3.73
366
4.10
373
1.72
361
2.58
369
1.17
349
1.24
317
3.92
348
10.58
373
6.80
389
1.57
328
1.11
336
2.25
363
1.30
364
6.28
350
1.56
363
2.97
353
4.14
364
4.90
380
1.45
367
3.01
371
2.36
363
2.47
362
5.19
365
PSMNet_ROBtwo views2.71
345
3.39
377
1.92
364
2.87
353
2.04
353
4.01
370
3.50
365
1.46
347
1.41
345
1.59
372
3.34
357
3.52
343
4.97
356
4.50
380
1.61
329
0.95
309
1.87
354
1.06
350
8.62
358
1.63
366
2.32
340
1.51
318
5.43
384
1.37
360
1.98
361
1.94
354
1.91
348
2.39
330
IPLGtwo views0.47
167
0.45
173
0.32
158
0.28
134
0.27
149
0.32
150
0.21
156
0.63
200
0.22
94
0.51
143
0.38
151
0.56
167
0.29
153
0.31
234
1.64
330
0.44
135
0.56
187
0.48
208
0.56
142
0.41
200
0.45
110
0.75
248
0.18
127
0.28
170
0.45
147
0.59
202
0.65
171
0.51
148
DeepPrunerFtwo views1.22
305
0.49
209
0.39
202
0.58
256
2.86
370
0.49
227
0.55
266
0.52
127
0.58
285
0.43
101
0.67
258
0.43
115
0.32
187
0.42
277
1.64
330
0.75
280
0.58
203
0.46
194
0.93
218
0.46
223
0.61
204
0.53
188
0.40
273
0.35
225
15.32
393
0.82
257
0.65
171
0.62
189
pmcnntwo views1.66
321
0.80
310
0.52
259
1.19
325
1.01
326
1.21
327
0.93
319
0.96
318
0.54
275
0.74
297
2.66
354
3.98
351
5.06
357
0.31
234
1.65
332
1.40
362
1.20
335
0.91
339
3.99
332
0.95
328
4.45
375
1.02
282
0.90
337
0.90
333
1.07
323
1.01
294
2.43
360
3.03
344
DNSMtwo views0.59
219
0.63
281
0.36
180
0.32
157
0.26
138
0.55
250
0.19
145
0.63
200
0.30
162
0.57
189
0.34
133
1.04
277
0.26
131
0.21
127
1.71
333
0.61
242
0.64
253
0.42
160
1.47
258
0.47
229
0.99
285
0.73
245
0.20
154
0.26
159
0.64
234
0.52
187
0.90
248
0.65
199
WAO-8two views4.25
363
3.34
375
2.80
375
10.32
381
2.92
372
4.17
371
5.89
376
2.66
379
4.45
381
1.69
375
3.41
358
5.94
361
11.31
375
5.29
384
1.71
333
1.34
351
2.69
369
1.51
373
10.78
366
2.48
379
2.63
343
4.50
367
3.44
365
1.58
369
5.12
381
3.31
376
3.60
376
5.76
367
Venustwo views4.25
363
3.34
375
2.80
375
10.32
381
2.92
372
4.17
371
5.89
376
2.66
379
4.45
381
1.69
375
3.41
358
5.94
361
11.31
375
5.29
384
1.71
333
1.34
351
2.69
369
1.51
373
10.78
366
2.48
379
2.63
343
4.50
367
3.44
365
1.58
369
5.12
381
3.31
376
3.60
376
5.76
367
MSC_U_SF_DS_RVCtwo views1.67
322
1.25
344
1.05
330
1.56
339
1.08
333
1.20
326
3.18
360
1.50
349
2.10
362
1.30
358
0.98
304
1.50
304
1.04
307
1.66
357
1.71
333
1.18
344
0.84
304
1.01
345
6.24
349
1.15
347
1.43
315
3.23
355
1.19
346
1.14
352
1.52
350
1.29
327
1.09
285
2.78
339
IPLGRtwo views0.57
210
0.55
252
0.37
191
0.43
211
0.38
219
0.36
173
0.23
178
0.62
185
0.30
162
0.56
184
0.68
261
0.61
186
0.32
187
0.29
222
1.73
337
0.47
167
0.56
187
0.56
265
1.09
230
0.54
248
0.53
169
0.81
262
0.20
154
0.32
198
0.71
249
0.97
286
0.73
199
0.57
168
FAT-Stereotwo views1.57
317
0.78
305
1.44
354
1.10
317
1.32
344
1.05
317
0.87
314
1.28
337
0.86
312
1.21
351
5.46
372
3.07
336
1.28
320
0.66
326
1.73
337
1.34
351
0.89
313
0.94
342
1.83
279
1.08
339
2.02
333
3.90
362
0.71
323
0.98
340
0.86
293
1.21
318
1.42
329
3.03
344
SGM+DAISYtwo views3.81
360
1.38
346
1.26
347
1.80
344
1.47
349
1.93
346
1.71
342
1.47
348
1.33
340
1.34
360
6.67
384
9.59
378
12.99
378
1.20
352
1.73
337
1.47
365
1.42
342
1.24
360
11.11
369
1.37
356
3.07
356
2.13
337
1.27
351
1.42
366
1.69
353
1.26
324
2.90
371
26.50
393
LE_ROBtwo views17.44
388
1.82
350
6.12
391
9.40
378
53.85
404
8.01
388
46.26
399
11.27
395
28.12
396
1.80
378
7.03
385
38.62
395
49.53
397
0.34
246
1.76
340
0.55
218
0.78
293
0.59
281
36.68
391
6.72
389
2.92
351
0.85
265
29.06
399
12.10
397
26.35
394
25.49
397
27.84
398
37.03
399
TorneroNettwo views8.11
377
4.28
383
2.58
374
27.50
394
3.31
379
5.00
377
6.00
378
2.62
377
10.13
389
1.49
366
2.57
353
11.07
384
68.61
401
4.25
378
1.77
341
1.18
344
5.78
377
1.62
376
23.67
382
2.83
383
4.30
372
5.47
371
5.37
383
1.65
373
3.72
376
3.14
373
2.59
365
6.36
371
DNStwo views0.58
212
0.66
288
0.33
161
0.30
147
0.24
123
0.49
227
0.19
145
0.62
185
0.29
151
0.56
184
0.34
133
0.96
264
0.27
140
0.20
120
1.78
342
0.58
230
0.63
249
0.40
144
1.63
270
0.46
223
1.03
288
0.68
233
0.20
154
0.23
129
0.61
217
0.49
176
0.77
210
0.63
194
AnyNet_C32two views1.64
320
0.65
285
0.74
303
0.67
278
0.73
306
0.86
304
1.14
328
0.95
313
3.12
377
0.75
301
1.53
333
0.94
259
0.64
290
0.67
328
1.83
343
1.11
336
1.06
330
0.95
343
1.78
278
0.76
311
1.76
329
1.71
327
0.66
322
0.85
331
1.13
328
2.68
367
1.17
298
13.55
384
FADNet_RVCtwo views0.92
280
0.69
294
0.55
268
0.88
300
0.75
312
0.54
247
0.51
257
0.77
282
0.54
275
0.70
286
0.96
302
1.36
300
1.06
308
0.54
305
1.85
344
0.64
251
0.80
298
0.90
336
3.34
327
0.76
311
1.00
286
1.13
290
0.37
266
0.60
300
0.66
238
0.87
263
0.97
267
1.14
282
SPS-STEREOcopylefttwo views1.93
330
1.27
345
1.21
341
1.60
341
1.34
345
1.44
337
1.17
331
1.66
356
1.36
344
1.38
361
3.67
361
3.02
335
1.29
321
1.05
348
1.85
344
1.83
373
1.58
346
1.37
370
8.86
361
1.34
354
3.07
356
1.47
314
1.27
351
1.37
360
1.42
346
1.28
326
2.02
352
1.89
314
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
RTSCtwo views0.73
247
0.49
209
0.46
239
0.47
225
0.51
262
0.55
250
0.56
268
0.67
223
0.68
295
0.54
168
0.79
281
0.57
169
0.57
281
0.41
267
1.92
346
0.77
284
0.96
322
0.58
276
1.36
253
0.56
258
0.85
262
1.11
287
0.31
246
0.53
289
0.58
203
0.65
213
0.95
261
1.26
290
PWCKtwo views5.04
366
3.03
368
2.21
366
3.61
365
2.60
365
4.41
374
5.09
374
2.45
374
2.76
373
3.31
388
4.34
365
10.15
382
5.13
360
1.74
358
1.99
347
1.38
359
2.41
365
1.45
372
51.59
397
2.35
377
3.70
369
2.69
347
2.65
361
1.78
379
2.97
370
3.21
374
2.43
360
4.77
360
DispFullNettwo views4.17
362
3.20
372
4.34
386
2.72
350
2.46
362
2.92
351
2.70
354
2.79
381
1.90
358
4.51
392
6.62
383
8.91
375
4.83
355
2.59
361
2.00
348
8.18
389
3.24
372
1.98
378
24.96
383
2.93
384
3.99
370
3.36
357
1.71
357
1.15
353
1.36
344
1.32
331
2.36
359
3.65
353
notakertwo views5.52
368
5.55
388
3.76
384
13.97
387
5.34
386
5.44
382
7.16
379
2.36
371
2.68
372
2.06
381
1.80
343
12.90
386
23.86
385
3.98
377
2.04
349
1.73
370
3.45
374
2.12
381
17.08
379
2.15
374
6.10
383
5.87
376
6.15
388
2.12
383
1.79
354
2.08
360
2.31
355
3.29
349
XQCtwo views1.03
296
0.90
323
0.71
300
0.91
306
0.92
321
0.92
308
0.86
313
1.06
330
0.90
318
0.84
323
1.11
316
1.03
273
1.30
323
0.71
332
2.04
349
0.95
309
0.87
307
0.67
300
1.64
271
0.78
313
1.00
286
1.67
326
0.62
320
0.73
316
1.09
325
1.47
338
1.26
310
0.97
259
RTStwo views1.09
298
0.59
270
0.59
275
0.60
263
0.58
278
0.96
309
0.90
315
0.80
289
0.88
314
0.59
208
0.71
264
1.28
296
0.62
286
0.51
297
2.04
349
0.98
317
1.19
333
0.77
325
2.33
299
0.85
322
0.96
280
1.16
293
0.49
291
0.65
308
1.23
333
4.43
381
1.15
292
1.45
295
RTSAtwo views1.09
298
0.59
270
0.59
275
0.60
263
0.58
278
0.96
309
0.90
315
0.80
289
0.88
314
0.59
208
0.71
264
1.28
296
0.62
286
0.51
297
2.04
349
0.98
317
1.19
333
0.77
325
2.33
299
0.85
322
0.96
280
1.16
293
0.49
291
0.65
308
1.23
333
4.43
381
1.15
292
1.45
295
WAO-7two views2.72
347
1.83
351
2.89
378
7.39
377
1.73
352
1.76
345
1.82
343
2.07
367
2.65
370
2.21
383
5.39
371
4.58
356
5.72
363
1.23
353
2.07
353
1.27
350
1.69
350
1.22
359
7.70
355
1.51
358
1.64
323
3.07
352
0.84
334
1.65
373
1.83
356
2.48
365
1.97
350
3.27
348
TorneroNet-64two views6.02
371
4.60
384
2.53
373
15.58
388
3.29
378
4.87
376
7.75
380
2.23
369
10.02
387
1.42
362
1.31
322
7.26
369
29.23
391
4.36
379
2.09
354
1.21
348
8.22
381
1.70
377
17.35
380
2.62
381
4.31
373
5.68
374
5.20
382
1.76
377
3.58
375
3.76
380
2.29
354
8.34
377
MDST_ROBtwo views3.33
357
2.32
357
0.75
304
3.90
367
1.47
349
2.61
350
1.00
325
1.12
334
0.72
297
0.78
310
0.67
258
1.54
308
25.37
386
0.34
246
2.11
355
0.53
206
0.65
258
0.48
208
3.69
329
0.58
266
0.88
265
0.59
200
0.58
316
0.68
310
7.85
388
3.03
372
17.15
393
8.63
378
S-Stereotwo views1.54
315
0.81
311
0.83
312
1.15
321
1.16
337
1.29
332
1.56
339
1.02
325
1.09
331
1.25
354
4.20
364
4.10
352
1.10
312
0.66
326
2.16
356
1.63
368
0.90
314
1.05
349
2.20
294
1.10
341
1.26
307
3.12
353
1.31
354
1.17
355
0.84
290
1.18
315
1.21
303
2.18
323
PWC_ROBbinarytwo views1.18
303
0.70
295
1.06
332
0.60
263
0.71
304
0.70
284
0.98
324
0.83
298
1.55
350
0.76
304
1.40
329
1.00
267
2.46
345
0.57
315
2.17
357
0.99
321
1.15
331
0.90
336
2.37
301
0.95
328
1.63
322
2.05
335
0.44
280
0.98
340
0.81
281
0.80
252
1.24
308
2.15
322
ADCMidtwo views1.56
316
0.92
327
0.99
324
0.70
282
0.86
318
1.05
317
1.37
337
1.29
338
1.77
354
0.75
301
1.75
341
1.27
294
1.48
325
0.69
330
2.18
358
1.07
330
0.98
323
0.79
329
2.74
316
0.80
315
1.31
310
1.74
329
1.06
344
0.70
311
1.01
318
1.53
344
1.02
278
10.33
380
SHDtwo views0.97
292
0.56
259
0.73
302
0.75
288
0.69
297
0.66
278
0.61
282
0.99
320
0.94
324
0.77
306
1.00
305
0.94
259
1.29
321
0.54
305
2.21
359
0.98
317
0.95
320
0.70
310
2.01
288
0.80
315
1.12
299
1.71
327
0.47
284
0.77
324
0.91
297
1.01
294
0.91
250
1.22
289
WAO-6two views2.71
345
2.26
356
1.57
357
3.00
355
2.25
356
3.01
352
3.02
358
1.77
363
2.35
363
1.52
369
1.62
336
3.94
350
5.12
359
2.64
364
2.22
360
1.38
359
2.65
368
1.36
369
4.86
337
1.54
362
2.76
348
4.79
369
2.70
362
1.73
375
2.71
365
2.59
366
2.68
368
5.02
363
KSHMRtwo views8.16
378
4.16
381
2.96
379
25.39
392
3.92
382
5.08
378
5.53
375
2.62
377
2.40
365
2.23
384
2.26
349
4.37
355
77.17
402
5.23
383
2.24
361
1.71
369
2.79
371
1.98
378
31.04
387
2.02
373
4.59
377
5.35
370
7.54
391
1.89
381
3.30
372
2.91
370
3.01
372
6.51
372
UNDER WATERtwo views7.55
375
4.74
385
3.06
380
10.46
384
5.92
388
6.35
385
8.05
382
4.32
383
3.69
380
1.97
380
2.14
348
10.53
383
62.60
400
4.83
381
2.25
362
1.59
367
12.22
390
2.08
380
9.67
364
3.97
385
5.27
381
6.65
379
8.86
394
2.65
388
3.82
377
5.62
385
3.62
378
7.03
374
PVDtwo views1.47
312
1.04
335
1.44
354
1.10
317
1.09
335
1.19
325
1.07
327
1.91
366
2.05
360
0.79
313
1.49
332
1.54
308
1.91
335
0.89
344
2.26
363
1.35
354
1.39
340
1.09
353
2.41
305
1.14
344
1.51
317
1.98
334
0.79
329
1.08
348
1.49
349
1.82
351
1.67
340
2.10
320
MFMNet_retwo views1.51
314
1.18
341
1.12
338
1.29
330
1.16
337
1.63
342
1.32
336
1.30
340
1.63
351
1.14
347
1.38
328
2.64
329
1.63
331
0.90
345
2.27
364
1.35
354
1.58
346
1.32
368
3.69
329
1.24
351
2.10
334
1.26
301
1.16
345
1.24
357
1.11
326
1.02
298
1.59
337
1.60
304
IMH-64-1two views2.92
350
2.70
360
2.36
370
3.23
358
2.71
366
3.70
363
4.05
371
1.66
356
2.48
366
1.13
344
1.26
319
3.60
344
6.29
366
3.59
374
2.28
365
1.15
340
2.20
361
1.31
365
6.02
346
1.52
360
3.03
354
5.48
372
4.83
377
1.40
363
2.83
367
2.02
357
2.34
356
3.64
351
IMH-64two views2.92
350
2.70
360
2.36
370
3.23
358
2.71
366
3.70
363
4.05
371
1.66
356
2.48
366
1.13
344
1.26
319
3.60
344
6.29
366
3.59
374
2.28
365
1.15
340
2.20
361
1.31
365
6.02
346
1.52
360
3.03
354
5.48
372
4.83
377
1.40
363
2.83
367
2.02
357
2.34
356
3.64
351
ktntwo views8.45
382
3.18
371
2.84
377
6.37
376
3.26
377
4.31
373
10.28
389
2.15
368
10.13
389
2.27
385
1.83
344
42.17
397
55.84
398
3.93
376
2.34
367
2.09
376
9.85
383
2.17
382
33.98
388
2.24
376
3.24
360
3.03
351
4.78
375
2.25
385
2.59
362
2.81
368
3.18
373
5.04
364
ADCPNettwo views2.08
334
0.77
303
0.87
315
0.83
296
1.21
339
0.85
301
1.59
340
1.02
325
1.35
342
0.83
322
1.97
346
1.01
271
7.76
370
0.75
335
2.35
368
1.16
342
0.95
320
0.71
312
4.05
333
0.97
331
1.30
309
1.61
322
0.72
324
0.76
321
1.52
350
1.96
356
1.21
303
16.04
387
MFN_U_SF_RVCtwo views1.68
323
1.06
336
0.88
316
1.25
328
1.01
326
1.53
339
2.07
346
1.38
345
1.17
334
1.51
367
2.95
356
2.00
320
1.57
329
2.05
359
2.38
369
0.98
317
0.87
307
0.82
332
6.78
352
1.11
343
2.21
337
2.38
343
0.65
321
1.11
350
1.23
333
1.33
332
1.28
313
1.69
311
ELAS_RVCcopylefttwo views3.22
354
2.01
352
1.85
362
2.66
348
2.07
354
5.08
378
2.06
345
2.41
373
1.89
357
1.74
377
4.78
366
8.00
371
8.02
371
0.74
334
2.38
369
0.81
292
1.75
352
1.14
358
3.97
331
1.27
352
4.64
378
7.61
382
1.26
347
1.74
376
6.58
385
3.21
374
3.39
374
3.80
354
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
FCDSN-DCtwo views0.69
240
0.61
277
0.62
283
0.66
277
0.61
281
0.59
259
0.60
277
0.68
230
0.42
250
0.75
301
0.42
165
0.57
169
0.36
221
0.50
295
2.43
371
0.67
261
0.80
298
0.76
323
0.64
165
0.56
258
0.70
236
0.60
204
0.47
284
0.83
328
0.66
238
0.74
231
0.61
157
0.67
205
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
DGSMNettwo views2.66
344
0.96
328
1.36
353
1.03
314
0.99
325
1.12
322
1.05
326
1.36
343
0.94
324
2.15
382
13.54
393
1.71
315
1.85
333
0.93
346
2.50
372
3.85
383
5.34
376
1.61
375
5.07
338
1.68
368
7.04
384
8.02
385
0.96
343
1.19
356
1.01
318
1.33
332
1.40
327
1.88
313
SAMSARAtwo views1.50
313
0.79
307
1.00
328
0.93
309
0.88
319
0.86
304
0.93
319
1.57
353
1.25
337
0.96
336
1.09
311
1.27
294
2.59
346
0.83
339
2.58
373
1.19
347
1.04
326
0.91
339
2.56
309
0.99
334
1.77
330
2.23
339
0.56
314
0.98
340
2.63
363
2.81
368
2.62
366
2.56
335
ELAScopylefttwo views3.38
358
2.19
354
1.79
360
2.99
354
2.37
358
3.32
355
2.09
347
2.60
376
2.85
375
1.28
356
4.85
368
8.61
373
8.02
371
0.76
336
2.90
374
0.81
292
1.80
353
1.10
354
4.19
335
1.10
341
4.53
376
7.86
383
1.26
347
1.63
371
7.08
386
4.79
384
3.66
379
4.87
361
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
UNDER WATER-64two views6.11
373
5.20
386
3.13
381
12.20
385
5.77
387
6.55
386
8.53
385
4.74
388
3.45
379
2.30
386
2.36
350
12.04
385
12.47
377
5.08
382
3.02
375
1.81
372
12.11
389
2.17
382
8.81
360
4.17
387
5.75
382
7.27
381
8.74
393
2.61
387
3.86
378
8.63
387
4.32
382
7.86
376
ADCStwo views1.88
328
1.06
336
0.98
323
0.93
309
1.10
336
1.09
319
1.14
328
1.27
335
2.49
368
0.89
329
1.36
327
1.51
305
2.92
350
0.86
342
3.30
376
2.26
377
1.46
345
1.26
362
3.10
325
1.29
353
2.48
342
2.88
348
0.80
331
1.10
349
1.33
343
4.48
383
1.41
328
6.08
369
AnyNet_C01two views2.06
332
1.08
338
1.06
332
1.14
320
1.08
333
1.01
312
2.69
353
1.69
360
2.66
371
1.21
351
1.67
338
2.90
333
2.60
347
0.95
347
3.65
377
4.02
384
2.09
359
2.21
384
3.08
324
1.56
363
3.30
362
2.89
349
1.26
347
1.15
353
1.80
355
1.43
336
1.51
334
3.90
355
MANEtwo views7.31
374
2.64
359
4.48
387
3.30
361
3.10
376
3.94
369
2.83
356
5.37
389
6.88
385
1.11
343
5.64
374
8.81
374
11.02
374
0.67
328
3.83
378
3.83
382
1.32
338
18.03
394
8.61
357
0.84
321
4.22
371
1.16
293
0.74
327
1.79
380
13.65
392
18.61
393
22.89
395
38.18
400
ACV-stereotwo views8.39
381
1.01
334
0.97
322
1.29
330
0.73
306
1.48
338
0.95
322
0.88
308
1.10
332
1.07
342
1.33
326
1.06
279
23.12
384
0.52
301
4.00
379
3.78
381
1.05
328
0.79
329
168.94
402
1.91
371
3.64
367
1.44
310
0.72
324
0.74
319
0.74
259
0.90
269
1.43
330
1.03
266
STStereotwo views5.29
367
2.47
358
5.20
388
5.20
373
2.80
369
4.72
375
3.42
362
6.23
390
6.52
384
1.51
367
7.61
386
9.53
376
14.86
381
0.63
323
4.09
380
0.64
251
0.87
307
0.62
287
36.67
390
1.02
335
1.23
305
1.05
284
0.78
328
1.63
371
3.46
374
2.43
364
3.53
375
14.15
385
MADNet+two views1.96
331
1.18
341
1.26
347
1.45
336
1.28
341
1.10
320
2.21
348
1.88
364
1.41
345
1.33
359
1.32
324
2.29
322
2.23
338
1.25
354
4.58
381
1.87
374
2.55
367
1.13
357
2.73
315
1.63
366
3.69
368
3.33
356
1.26
347
2.09
382
1.93
357
1.47
338
1.59
337
2.77
338
DPSNettwo views2.61
341
0.83
316
0.77
306
1.21
327
1.24
340
1.34
334
0.93
319
1.08
331
1.49
348
0.78
310
0.86
292
6.91
366
3.85
352
0.58
318
4.58
381
2.54
378
1.43
343
1.24
360
14.95
377
1.34
354
4.83
379
8.01
384
1.75
358
1.40
363
1.47
347
1.95
355
1.60
339
1.66
309
HanzoNettwo views19.12
393
15.23
391
6.99
392
35.06
397
14.35
395
40.77
397
42.46
398
17.81
397
22.51
395
3.55
389
8.29
387
41.30
396
56.30
399
43.04
402
5.72
383
4.37
385
37.83
400
3.30
386
49.59
396
8.93
392
10.30
391
6.85
380
14.15
398
3.46
390
5.94
384
5.80
386
5.29
386
7.13
375
MADNet++two views5.64
369
3.51
379
3.77
385
2.84
352
4.62
384
3.02
353
3.65
366
4.36
384
5.03
383
4.18
391
5.07
370
6.45
363
5.92
365
6.18
388
7.04
384
6.82
387
4.71
375
4.00
388
8.03
356
5.83
388
9.92
389
16.38
393
2.32
360
4.34
391
3.95
379
11.38
390
4.93
383
4.01
356
PMLtwo views30.82
396
20.91
394
7.15
393
29.65
395
20.81
399
29.11
395
10.50
390
10.87
392
88.32
404
20.03
400
154.19
404
98.60
402
119.55
403
10.53
392
9.19
385
8.69
390
16.72
392
7.27
390
34.57
389
7.35
391
12.77
393
10.86
392
5.72
387
6.17
392
33.11
401
12.83
391
34.30
399
12.33
383
JetRedtwo views7.85
376
5.29
387
6.07
390
3.75
366
5.00
385
6.95
387
10.20
388
4.64
387
3.42
378
2.92
387
2.39
351
6.71
365
2.25
340
7.15
390
10.26
386
7.34
388
8.59
382
7.11
389
4.82
336
4.08
386
10.76
392
9.27
387
7.85
392
3.34
389
10.96
389
24.25
396
11.90
390
24.57
391
LRCNet_RVCtwo views21.34
394
28.92
395
11.37
394
31.78
396
29.09
400
34.25
396
27.43
395
21.71
400
10.07
388
29.63
401
30.60
397
32.06
392
25.81
387
33.87
400
11.15
387
2.97
379
25.27
396
21.35
397
44.05
394
20.83
397
14.27
394
5.87
376
36.69
400
27.43
400
2.76
366
1.47
338
8.68
389
6.79
373
MeshStereopermissivetwo views3.62
359
1.54
349
1.05
330
2.64
347
1.72
351
2.05
347
1.15
330
2.40
372
1.41
345
0.90
330
6.48
382
9.56
377
7.42
369
0.49
291
11.75
388
1.94
375
0.87
307
0.74
318
8.79
359
0.80
315
8.36
385
8.07
386
0.73
326
1.07
346
3.39
373
2.15
361
5.22
385
4.99
362
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
JetBluetwo views6.09
372
3.85
380
3.31
383
5.99
374
4.13
383
6.22
384
7.94
381
3.42
382
2.89
376
1.47
364
1.46
330
8.10
372
1.90
334
5.39
386
11.86
389
3.22
380
3.30
373
2.99
385
5.32
340
2.40
378
9.74
388
10.03
391
4.93
381
2.18
384
7.39
387
17.16
392
3.72
381
24.15
390
HBP-ISPtwo views1.60
318
0.86
322
0.90
318
0.98
312
0.69
297
0.85
301
0.56
268
0.89
309
0.48
265
0.82
320
0.79
281
0.97
265
0.36
221
0.69
330
11.97
390
5.83
386
0.70
278
0.67
300
0.70
185
0.62
288
1.05
292
5.90
378
0.50
295
0.62
303
0.82
284
1.01
294
2.01
351
1.06
270
DPSimNet_ROBtwo views18.93
392
32.01
396
5.97
389
12.40
386
11.35
394
6.13
383
28.07
396
15.03
396
35.64
400
3.96
390
78.33
403
18.15
388
35.00
392
5.44
387
12.19
391
10.36
391
13.57
391
3.64
387
87.52
400
6.87
390
14.36
395
9.97
389
4.40
371
7.14
393
5.17
383
9.85
388
5.93
387
32.56
395
DGTPSM_ROBtwo views12.12
385
5.96
389
17.45
395
4.20
369
7.86
389
5.15
380
8.18
383
4.56
385
11.64
391
4.52
393
8.72
388
5.01
358
17.08
382
12.98
393
14.91
392
14.58
393
6.85
378
15.76
392
12.78
372
12.05
393
9.07
386
21.74
394
5.67
385
11.54
395
11.84
390
31.02
399
12.98
391
33.06
396
DPSMNet_ROBtwo views12.40
386
5.97
390
17.46
396
4.21
370
7.87
390
5.15
380
8.18
383
4.56
385
11.65
392
4.54
394
8.87
389
5.17
359
22.69
383
13.00
394
14.98
393
14.62
394
6.90
379
15.82
393
14.07
376
12.05
393
9.09
387
21.75
395
5.68
386
11.54
395
11.87
391
31.03
400
12.99
392
33.06
396
BEATNet-Init1two views22.01
395
36.32
400
3.23
382
54.74
401
11.23
393
52.95
402
28.72
397
9.47
391
8.51
386
1.57
371
10.45
392
33.05
393
48.98
396
0.71
332
16.97
394
11.50
392
1.60
348
1.11
356
77.80
399
35.27
401
9.94
390
9.98
390
1.27
351
2.30
386
27.41
395
11.09
389
52.85
402
35.36
398
DPSM_ROBtwo views18.32
390
16.26
392
21.94
397
9.42
379
8.75
391
13.61
389
9.11
386
10.90
393
15.09
393
8.45
395
8.95
390
10.12
380
13.19
379
16.42
395
19.79
395
19.11
395
18.35
393
20.45
395
13.82
374
14.88
395
26.56
396
27.45
396
6.49
389
14.39
398
31.57
399
38.83
401
36.85
400
43.86
401
DPSMtwo views18.32
390
16.26
392
21.94
397
9.42
379
8.75
391
13.61
389
9.11
386
10.90
393
15.09
393
8.45
395
8.95
390
10.12
380
13.19
379
16.42
395
19.79
395
19.11
395
18.35
393
20.45
395
13.82
374
14.88
395
26.56
396
27.45
396
6.49
389
14.39
398
31.57
399
38.83
401
36.85
400
43.86
401
fast-regtwo views43.29
401
32.71
398
44.22
403
18.25
389
17.13
396
27.54
394
18.28
393
21.56
398
30.10
397
17.75
399
25.35
396
20.57
391
27.48
390
32.87
397
35.47
397
36.04
397
36.53
397
40.33
398
202.92
403
29.77
398
52.97
401
55.53
401
13.28
397
29.25
402
63.58
404
78.09
404
73.47
403
87.68
403
FlowAnythingtwo views36.80
398
32.68
397
44.29
404
18.93
391
17.69
398
27.11
392
18.38
394
21.83
401
30.48
399
17.53
398
18.21
395
20.29
390
26.54
389
33.31
399
37.97
398
37.86
399
36.82
398
40.93
399
27.35
384
30.03
400
53.34
402
55.72
403
12.99
396
29.50
403
63.36
402
78.25
405
73.99
405
88.17
405
CasAABBNettwo views36.73
397
32.73
399
44.18
402
18.81
390
17.45
397
27.29
393
18.12
392
21.69
399
30.40
398
17.52
397
18.08
394
20.27
389
26.53
388
32.96
398
38.28
399
37.42
398
36.82
398
41.12
400
27.47
385
29.86
399
53.56
403
55.70
402
12.93
395
28.91
401
63.44
403
78.07
403
73.93
404
88.05
404
AVERAGE_ROBtwo views41.98
400
44.82
402
42.27
400
45.98
399
46.88
401
45.60
399
46.56
401
47.04
403
43.89
401
49.19
403
49.91
400
47.25
399
43.00
393
49.19
403
40.14
400
38.38
400
49.01
402
51.31
402
43.98
393
42.43
403
43.31
399
38.64
399
49.42
401
42.83
404
28.65
397
20.44
395
23.41
396
19.88
388
HaxPigtwo views41.43
399
43.85
401
40.81
399
44.90
398
47.49
402
44.66
398
46.30
400
46.31
402
45.63
402
49.00
402
49.30
399
47.24
398
43.73
394
42.64
401
40.44
401
39.13
401
48.37
401
51.07
401
43.33
392
42.25
402
42.88
398
36.52
398
50.75
402
43.02
405
27.54
396
19.97
394
20.68
394
20.75
389
MEDIAN_ROBtwo views44.95
402
47.36
403
44.12
401
48.52
400
49.78
403
48.21
400
49.25
402
49.72
404
46.35
403
52.53
404
53.59
401
50.59
400
45.49
395
49.36
404
43.27
402
41.36
402
51.85
403
54.40
403
47.03
395
45.93
404
45.78
400
40.06
400
52.67
403
45.67
406
31.00
398
26.54
398
25.33
397
27.95
394
LSM0two views8.30
380
1.08
338
0.95
320
1.66
342
1.42
347
1.59
341
1.96
344
2.27
370
2.36
364
1.66
374
3.94
362
4.10
352
6.30
368
0.63
323
62.38
403
74.74
403
1.69
350
1.06
350
12.18
371
2.23
375
4.96
380
9.29
388
0.92
339
1.29
359
1.95
359
2.97
371
3.66
379
14.83
386
DLNR_Zeroshot_testpermissivetwo views17.86
389
67.45
404
1.21
341
81.91
403
0.35
197
0.45
213
74.74
403
0.76
277
0.27
137
0.69
281
0.60
225
1.16
290
0.29
153
8.20
391
84.48
404
102.07
404
23.88
395
15.14
391
7.31
353
0.50
235
4.38
374
2.51
344
0.18
127
0.43
258
0.76
270
0.86
260
0.80
218
0.80
237
GS-Stereotwo views0.08
26
0.10
38
0.18
27
0.16
18
0.25
38
0.16
30
ASD4two views8.34
394