This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
AIO-test2two views0.11
1
0.07
1
0.07
2
0.06
1
0.05
2
0.07
2
0.04
1
0.13
13
0.12
21
0.11
8
0.15
25
0.16
18
0.07
6
0.06
10
0.17
3
0.20
9
0.15
2
0.14
5
0.16
4
0.12
3
0.17
8
0.20
14
0.06
2
0.08
5
0.11
1
0.15
9
0.10
1
0.11
1
Pointernettwo views0.12
2
0.09
3
0.06
1
0.07
4
0.06
3
0.09
12
0.08
33
0.13
13
0.06
1
0.12
17
0.09
10
0.10
1
0.07
6
0.06
10
0.21
10
0.18
3
0.19
11
0.12
2
0.18
7
0.09
1
0.17
8
0.16
4
0.08
13
0.07
3
0.16
4
0.12
1
0.25
24
0.12
6
NLCSMtwo views0.13
3
0.11
8
0.07
2
0.10
16
0.07
7
0.12
28
0.07
23
0.17
38
0.17
44
0.09
4
0.30
78
0.13
9
0.28
108
0.07
17
0.15
1
0.16
1
0.13
1
0.11
1
0.14
1
0.09
1
0.12
1
0.15
2
0.07
10
0.09
16
0.13
2
0.22
40
0.18
5
0.11
1
BridgeDepthpermissivetwo views0.13
3
0.13
12
0.10
20
0.11
21
0.08
14
0.11
20
0.06
16
0.11
2
0.10
14
0.11
8
0.06
3
0.31
54
0.08
13
0.06
10
0.21
10
0.18
3
0.15
2
0.15
7
0.17
5
0.12
3
0.16
7
0.19
10
0.05
1
0.08
5
0.19
22
0.18
21
0.22
13
0.14
13
Tongfan Guan, Jiaxin Guo, Chen Wang, Yun-Hui Liu: BridgeDepth: Bridging Monocular and Stereo Reasoning with Latent Alignment. ICCV 2025 Highlight
MLG-Stereo_test1two views0.13
3
0.08
2
0.07
2
0.07
4
0.07
7
0.07
2
0.06
16
0.11
2
0.09
10
0.16
36
0.10
15
0.17
24
0.06
1
0.05
3
0.18
4
0.20
9
0.22
18
0.19
21
0.22
22
0.13
10
0.23
23
0.16
4
0.07
10
0.06
1
0.17
9
0.12
1
0.21
9
0.14
13
MLG-Stereotwo views0.13
3
0.10
6
0.08
5
0.06
1
0.08
14
0.06
1
0.04
1
0.11
2
0.09
10
0.15
28
0.08
8
0.16
18
0.06
1
0.05
3
0.18
4
0.20
9
0.22
18
0.19
21
0.19
10
0.12
3
0.21
17
0.16
4
0.06
2
0.06
1
0.17
9
0.12
1
0.21
9
0.14
13
CoSvtwo views0.13
3
0.17
33
0.08
5
0.08
9
0.07
7
0.17
51
0.07
23
0.15
22
0.10
14
0.13
22
0.06
3
0.11
3
0.07
6
0.04
1
0.18
4
0.22
15
0.21
14
0.13
4
0.22
22
0.12
3
0.21
17
0.13
1
0.06
2
0.08
5
0.23
40
0.15
9
0.19
6
0.11
1
CroCo-Stereocopylefttwo views0.13
3
0.09
3
0.08
5
0.07
4
0.04
1
0.07
2
0.04
1
0.14
20
0.06
1
0.11
8
0.03
1
0.13
9
0.06
1
0.04
1
0.25
23
0.29
32
0.21
14
0.19
21
0.20
17
0.12
3
0.26
33
0.21
16
0.06
2
0.07
3
0.22
34
0.19
24
0.23
16
0.15
19
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
111111two views0.14
9
0.16
30
0.08
5
0.12
28
0.10
28
0.07
2
0.06
16
0.12
8
0.12
21
0.07
1
0.11
16
0.15
16
0.09
21
0.05
3
0.26
27
0.25
19
0.22
18
0.18
17
0.19
10
0.14
15
0.24
26
0.27
30
0.11
43
0.08
5
0.16
4
0.14
6
0.19
6
0.11
1
MM-Stereo_test3two views0.14
9
0.13
12
0.09
13
0.10
16
0.07
7
0.07
2
0.05
6
0.19
42
0.14
34
0.15
28
0.07
5
0.13
9
0.06
1
0.07
17
0.16
2
0.17
2
0.24
29
0.16
9
0.21
20
0.13
10
0.19
13
0.22
18
0.08
13
0.08
5
0.16
4
0.13
4
0.29
38
0.15
19
MM-Stereo_test1two views0.14
9
0.14
20
0.09
13
0.11
21
0.06
3
0.08
8
0.05
6
0.15
22
0.11
16
0.16
36
0.08
8
0.15
16
0.07
6
0.07
17
0.19
7
0.21
12
0.23
26
0.18
17
0.22
22
0.16
23
0.20
14
0.18
7
0.09
23
0.09
16
0.18
16
0.14
6
0.25
24
0.15
19
AIO-test1two views0.14
9
0.09
3
0.08
5
0.07
4
0.07
7
0.11
20
0.04
1
0.17
38
0.14
34
0.15
28
0.17
32
0.19
34
0.08
13
0.09
35
0.22
13
0.26
22
0.20
12
0.16
9
0.15
2
0.16
23
0.18
12
0.21
16
0.08
13
0.08
5
0.14
3
0.14
6
0.13
2
0.12
6
WQFJX1two views0.15
13
0.15
25
0.08
5
0.10
16
0.08
14
0.09
12
0.05
6
0.16
30
0.19
53
0.10
5
0.31
81
0.12
7
0.31
130
0.08
26
0.20
9
0.19
5
0.16
5
0.12
2
0.15
2
0.12
3
0.15
5
0.22
18
0.11
43
0.10
20
0.17
9
0.22
40
0.23
16
0.12
6
NLSM3two views0.15
13
0.13
12
0.10
20
0.11
21
0.10
28
0.11
20
0.08
33
0.16
30
0.17
44
0.11
8
0.19
39
0.12
7
0.14
44
0.11
47
0.24
21
0.21
12
0.20
12
0.18
17
0.17
5
0.13
10
0.17
8
0.18
7
0.09
23
0.11
25
0.18
16
0.23
49
0.27
33
0.18
36
LG-Stereotwo views0.15
13
0.11
8
0.08
5
0.09
14
0.11
34
0.12
28
0.05
6
0.15
22
0.11
16
0.19
45
0.13
20
0.26
47
0.09
21
0.06
10
0.27
30
0.23
17
0.23
26
0.17
16
0.19
10
0.15
19
0.24
26
0.23
21
0.06
2
0.08
5
0.18
16
0.17
15
0.24
19
0.15
19
AIO-Stereopermissivetwo views0.15
13
0.17
33
0.12
34
0.17
54
0.10
28
0.12
28
0.06
16
0.11
2
0.08
7
0.10
5
0.15
25
0.13
9
0.09
21
0.08
26
0.24
21
0.25
19
0.21
14
0.21
32
0.21
20
0.19
35
0.23
23
0.28
35
0.08
13
0.12
38
0.17
9
0.15
9
0.24
19
0.12
6
ProNettwo views0.15
13
0.13
12
0.15
43
0.12
28
0.07
7
0.15
43
0.13
67
0.13
13
0.06
1
0.08
2
0.26
67
0.10
1
0.06
1
0.08
26
0.28
35
0.25
19
0.22
18
0.19
21
0.19
10
0.15
19
0.21
17
0.15
2
0.13
60
0.12
38
0.17
9
0.13
4
0.17
4
0.12
6
CroCo-Stereo Lap2two views0.15
13
0.10
6
0.08
5
0.08
9
0.08
14
0.08
8
0.05
6
0.12
8
0.06
1
0.22
53
0.07
5
0.16
18
0.07
6
0.05
3
0.22
13
0.29
32
0.22
18
0.20
26
0.26
38
0.12
3
0.29
42
0.22
18
0.06
2
0.09
16
0.24
42
0.23
49
0.20
8
0.16
24
MatchStereotwo views0.16
19
0.14
20
0.12
34
0.07
4
0.12
38
0.07
2
0.07
23
0.16
30
0.17
44
0.08
2
0.13
20
0.14
14
0.13
41
0.12
51
0.26
27
0.27
25
0.18
8
0.21
32
0.19
10
0.20
43
0.21
17
0.29
36
0.08
13
0.12
38
0.22
34
0.22
40
0.22
13
0.19
40
WQFJA1two views0.16
19
0.14
20
0.09
13
0.11
21
0.09
20
0.13
33
0.08
33
0.15
22
0.17
44
0.11
8
0.38
108
0.11
3
0.29
114
0.08
26
0.23
17
0.19
5
0.18
8
0.16
9
0.19
10
0.13
10
0.14
2
0.19
10
0.12
51
0.11
25
0.16
4
0.19
24
0.24
19
0.16
24
WQFJXtwo views0.16
19
0.13
12
0.09
13
0.11
21
0.09
20
0.13
33
0.09
46
0.13
13
0.16
42
0.11
8
0.35
99
0.11
3
0.37
182
0.06
10
0.19
7
0.19
5
0.15
2
0.14
5
0.18
7
0.14
15
0.14
2
0.18
7
0.10
32
0.11
25
0.18
16
0.21
31
0.22
13
0.16
24
NLMMtwo views0.16
19
0.14
20
0.09
13
0.11
21
0.09
20
0.13
33
0.08
33
0.15
22
0.17
44
0.11
8
0.38
108
0.11
3
0.29
114
0.08
26
0.23
17
0.19
5
0.18
8
0.16
9
0.19
10
0.13
10
0.14
2
0.19
10
0.12
51
0.11
25
0.16
4
0.19
24
0.24
19
0.16
24
MonStereotwo views0.16
19
0.14
20
0.13
38
0.13
32
0.12
38
0.10
18
0.08
33
0.11
2
0.12
21
0.14
24
0.13
20
0.17
24
0.11
32
0.07
17
0.25
23
0.27
25
0.23
26
0.18
17
0.22
22
0.16
23
0.20
14
0.26
25
0.08
13
0.08
5
0.23
40
0.18
21
0.24
19
0.24
49
MM-Stereo_test2two views0.16
19
0.20
42
0.11
29
0.15
44
0.11
34
0.08
8
0.05
6
0.14
20
0.11
16
0.20
46
0.09
10
0.13
9
0.09
21
0.09
35
0.23
17
0.27
25
0.25
33
0.20
26
0.20
17
0.20
43
0.26
33
0.29
36
0.11
43
0.10
20
0.17
9
0.15
9
0.21
9
0.16
24
GREAT-IGEVtwo views0.16
19
0.15
25
0.11
29
0.08
9
0.06
3
0.08
8
0.05
6
0.16
30
0.12
21
0.12
17
0.13
20
0.25
45
0.09
21
0.09
35
0.29
36
0.30
36
0.25
33
0.16
9
0.23
29
0.15
19
0.20
14
0.29
36
0.09
23
0.11
25
0.17
9
0.17
15
0.32
47
0.12
6
Utwo views0.16
19
0.12
10
0.09
13
0.06
1
0.06
3
0.09
12
0.04
1
0.16
30
0.06
1
0.15
28
0.04
2
0.18
30
0.07
6
0.05
3
0.25
23
0.31
41
0.26
37
0.24
44
0.27
42
0.18
31
0.29
42
0.26
25
0.06
2
0.08
5
0.29
49
0.23
49
0.23
16
0.20
41
RSMtwo views0.16
19
0.16
30
0.12
34
0.14
37
0.09
20
0.15
43
0.06
16
0.10
1
0.08
7
0.10
5
0.17
32
0.14
14
0.10
26
0.07
17
0.25
23
0.26
22
0.22
18
0.20
26
0.18
7
0.19
35
0.25
30
0.31
46
0.09
23
0.11
25
0.18
16
0.16
13
0.28
35
0.15
19
MoCha-V2two views0.16
19
0.15
25
0.11
29
0.12
28
0.09
20
0.11
20
0.09
46
0.13
13
0.08
7
0.13
22
0.19
39
0.17
24
0.07
6
0.07
17
0.22
13
0.28
29
0.21
14
0.20
26
0.25
36
0.17
29
0.30
45
0.27
30
0.08
13
0.09
16
0.20
28
0.17
15
0.15
3
0.11
1
GSStereotwo views0.17
29
0.18
37
0.13
38
0.13
32
0.13
40
0.12
28
0.09
46
0.12
8
0.11
16
0.16
36
0.11
16
0.22
38
0.08
13
0.05
3
0.27
30
0.30
36
0.29
44
0.21
32
0.26
38
0.18
31
0.32
46
0.29
36
0.08
13
0.10
20
0.19
22
0.17
15
0.25
24
0.16
24
GASTEREOtwo views0.17
29
0.16
30
0.10
20
0.14
37
0.10
28
0.11
20
0.07
23
0.12
8
0.15
39
0.14
24
0.09
10
0.18
30
0.11
32
0.06
10
0.35
45
0.30
36
0.24
29
0.20
26
0.23
29
0.17
29
0.24
26
0.31
46
0.12
51
0.11
25
0.20
28
0.21
31
0.29
38
0.14
13
MSCFtwo views0.17
29
0.15
25
0.10
20
0.14
37
0.09
20
0.11
20
0.07
23
0.11
2
0.15
39
0.15
28
0.09
10
0.17
24
0.11
32
0.07
17
0.34
42
0.30
36
0.24
29
0.20
26
0.23
29
0.16
23
0.25
30
0.30
44
0.11
43
0.11
25
0.19
22
0.21
31
0.28
35
0.14
13
MLG-Stereo_test2two views0.17
29
0.12
10
0.10
20
0.10
16
0.08
14
0.09
12
0.05
6
0.18
40
0.12
21
0.20
46
0.07
5
0.23
41
0.08
13
0.08
26
0.23
17
0.27
25
0.31
46
0.26
48
0.32
48
0.19
35
0.28
39
0.27
30
0.09
23
0.08
5
0.22
34
0.16
13
0.28
35
0.21
43
IGEV-Stereo++two views0.17
29
0.24
53
0.10
20
0.13
32
0.13
40
0.10
18
0.05
6
0.15
22
0.13
30
0.12
17
0.18
36
0.16
18
0.12
38
0.07
17
0.27
30
0.26
22
0.22
18
0.19
21
0.22
22
0.18
31
0.22
22
0.34
50
0.10
32
0.08
5
0.18
16
0.17
15
0.25
24
0.17
31
RAFTtwo views0.17
29
0.13
12
0.10
20
0.16
49
0.07
7
0.21
66
0.05
6
0.25
49
0.12
21
0.14
24
0.15
25
0.16
18
0.10
26
0.05
3
0.26
27
0.22
15
0.24
29
0.16
9
0.28
44
0.14
15
0.21
17
0.19
10
0.07
10
0.11
25
0.29
49
0.24
53
0.33
49
0.24
49
NLMM1two views0.18
35
0.15
25
0.09
13
0.08
9
0.09
20
0.11
20
0.07
23
0.15
22
0.21
65
0.12
17
0.37
104
0.22
38
0.54
225
0.08
26
0.21
10
0.21
12
0.17
7
0.16
9
0.22
22
0.15
19
0.15
5
0.23
21
0.11
43
0.11
25
0.19
22
0.21
31
0.25
24
0.13
12
NLSM1two views0.18
35
0.13
12
0.10
20
0.11
21
0.11
34
0.15
43
0.08
33
0.20
44
0.20
61
0.11
8
0.40
114
0.18
30
0.44
201
0.09
35
0.22
13
0.24
18
0.16
5
0.15
7
0.20
17
0.14
15
0.17
8
0.26
25
0.10
32
0.11
25
0.19
22
0.25
58
0.27
33
0.14
13
RSM++two views0.18
35
0.19
38
0.13
38
0.17
54
0.10
28
0.14
38
0.07
23
0.13
13
0.13
30
0.12
17
0.17
32
0.17
24
0.12
38
0.08
26
0.34
42
0.29
32
0.26
37
0.21
32
0.23
29
0.19
35
0.27
35
0.32
48
0.09
23
0.10
20
0.22
34
0.19
24
0.29
38
0.18
36
StereoVisiontwo views0.18
35
0.13
12
0.11
29
0.09
14
0.13
40
0.16
48
0.08
33
0.18
40
0.17
44
0.15
28
0.15
25
0.16
18
0.10
26
0.06
10
0.27
30
0.28
29
0.28
40
0.23
40
0.22
22
0.16
23
0.24
26
0.20
14
0.06
2
0.14
48
0.29
49
0.29
67
0.38
61
0.29
57
AdaDepthtwo views0.19
39
0.19
38
0.11
29
0.12
28
0.14
49
0.13
33
0.09
46
0.16
30
0.15
39
0.14
24
0.18
36
0.19
34
0.10
26
0.08
26
0.31
38
0.33
51
0.28
40
0.24
44
0.26
38
0.18
31
0.25
30
0.29
36
0.09
23
0.12
38
0.20
28
0.20
29
0.32
47
0.24
49
GIP-stereotwo views0.19
39
0.22
46
0.13
38
0.15
44
0.09
20
0.09
12
0.07
23
0.12
8
0.09
10
0.16
36
0.13
20
0.17
24
0.08
13
0.15
63
0.45
68
0.31
41
0.25
33
0.21
32
0.25
36
0.20
43
0.27
35
0.32
48
0.08
13
0.13
46
0.22
34
0.22
40
0.35
54
0.17
31
GEAStereotwo views0.20
41
0.22
46
0.16
47
0.19
61
0.14
49
0.14
38
0.09
46
0.16
30
0.13
30
0.15
28
0.11
16
0.23
41
0.08
13
0.10
41
0.36
49
0.31
41
0.28
40
0.21
32
0.24
33
0.19
35
0.35
53
0.35
53
0.10
32
0.12
38
0.21
32
0.21
31
0.30
42
0.18
36
gasm-ftwo views0.20
41
0.22
46
0.16
47
0.19
61
0.14
49
0.14
38
0.09
46
0.16
30
0.13
30
0.15
28
0.11
16
0.23
41
0.08
13
0.10
41
0.36
49
0.31
41
0.28
40
0.21
32
0.24
33
0.19
35
0.35
53
0.35
53
0.10
32
0.12
38
0.21
32
0.21
31
0.30
42
0.18
36
RAStereotwo views0.20
41
0.17
33
0.10
20
0.08
9
0.08
14
0.09
12
0.06
16
0.21
45
0.09
10
0.45
87
0.09
10
0.26
47
0.08
13
0.07
17
0.30
37
0.28
29
0.29
44
0.26
48
0.34
53
0.16
23
0.37
60
0.27
30
0.09
23
0.11
25
0.30
59
0.23
49
0.25
24
0.23
46
Occ-Gtwo views0.20
41
0.26
58
0.16
47
0.17
54
0.14
49
0.15
43
0.07
23
0.13
13
0.11
16
0.11
8
0.25
63
0.20
37
0.10
26
0.10
41
0.44
66
0.33
51
0.25
33
0.23
40
0.30
46
0.21
50
0.27
35
0.37
58
0.11
43
0.15
50
0.20
28
0.18
21
0.30
42
0.17
31
BridgeDepth_RVCpermissivetwo views0.21
45
0.21
44
0.15
43
0.14
37
0.14
49
0.17
51
0.09
46
0.26
50
0.23
75
0.17
42
0.17
32
0.24
44
0.15
50
0.14
59
0.31
38
0.31
41
0.22
18
0.23
40
0.27
42
0.21
50
0.23
23
0.27
30
0.10
32
0.12
38
0.27
45
0.30
69
0.30
42
0.36
77
Tongfan Guan, Jiaxin Guo, Chen Wang, Yun-Hui Liu: BridgeDepth: Bridging Monocular and Stereo Reasoning with Latent Alignment. ICCV 2025 Highlight
AEACVtwo views0.21
45
0.31
69
0.15
43
0.17
54
0.13
40
0.12
28
0.07
23
0.15
22
0.07
6
0.16
36
0.16
31
0.18
30
0.11
32
0.12
51
0.35
45
0.34
55
0.33
48
0.24
44
0.38
58
0.21
50
0.28
39
0.41
65
0.12
51
0.11
25
0.22
34
0.22
40
0.26
32
0.17
31
VIP-Stereotwo views0.23
47
0.20
42
0.21
72
0.14
37
0.11
34
0.14
38
0.06
16
0.29
56
0.19
53
0.20
46
0.28
73
0.28
51
0.11
32
0.12
51
0.38
57
0.31
41
0.38
63
0.27
51
0.33
49
0.22
56
0.35
53
0.29
36
0.12
51
0.17
60
0.27
45
0.21
31
0.25
24
0.29
57
DEFOM-Stereotwo views0.23
47
0.19
38
0.12
34
0.18
59
0.13
40
0.21
66
0.08
33
0.19
42
0.14
34
0.16
36
0.24
59
0.22
38
0.10
26
0.12
51
0.36
49
0.35
59
0.35
55
0.29
57
0.33
49
0.24
62
0.33
48
0.29
36
0.13
60
0.12
38
0.29
49
0.22
40
0.49
81
0.29
57
MLG-Stereo_test3two views0.25
49
0.17
33
0.14
42
0.14
37
0.17
64
0.17
51
0.09
46
0.21
45
0.12
21
0.21
50
0.20
47
0.35
62
0.11
32
0.15
63
0.33
41
0.31
41
0.33
48
0.28
54
0.64
135
0.20
43
0.43
69
0.69
125
0.11
43
0.16
55
0.24
42
0.21
31
0.34
52
0.26
53
delettwo views0.25
49
0.25
56
0.23
87
0.25
93
0.20
76
0.29
108
0.16
93
0.22
47
0.18
51
0.23
55
0.26
67
0.27
50
0.16
54
0.26
155
0.35
45
0.31
41
0.32
47
0.27
51
0.24
33
0.24
62
0.32
46
0.25
24
0.17
85
0.21
74
0.30
59
0.26
59
0.33
49
0.31
64
AIO_rvctwo views0.26
51
0.34
75
0.16
47
0.19
61
0.15
57
0.19
60
0.11
60
0.39
67
0.22
70
0.30
60
0.15
25
0.32
57
0.13
41
0.19
85
0.37
54
0.34
55
0.34
53
0.23
40
0.40
60
0.22
56
0.44
73
0.61
112
0.14
66
0.15
50
0.30
59
0.22
40
0.33
49
0.21
43
TDLMtwo views0.26
51
0.31
69
0.23
87
0.23
82
0.28
121
0.24
88
0.20
123
0.26
50
0.22
70
0.18
44
0.55
174
0.31
54
0.23
86
0.17
76
0.27
30
0.32
50
0.33
48
0.29
57
0.26
38
0.23
59
0.29
42
0.26
25
0.16
78
0.22
78
0.25
44
0.22
40
0.29
38
0.30
61
LG-G_1two views0.27
53
0.22
46
0.19
63
0.23
82
0.23
85
0.23
76
0.13
67
0.28
54
0.12
21
0.21
50
0.21
50
0.35
62
0.15
50
0.18
79
0.39
59
0.35
59
0.36
58
0.32
70
0.52
86
0.27
78
0.40
63
0.52
84
0.10
32
0.15
50
0.29
49
0.24
53
0.37
59
0.34
71
LG-Gtwo views0.27
53
0.22
46
0.19
63
0.23
82
0.23
85
0.23
76
0.13
67
0.28
54
0.12
21
0.21
50
0.21
50
0.35
62
0.15
50
0.18
79
0.39
59
0.35
59
0.36
58
0.32
70
0.52
86
0.27
78
0.40
63
0.52
84
0.10
32
0.15
50
0.29
49
0.24
53
0.37
59
0.34
71
MaDis-Stereotwo views0.27
53
0.21
44
0.16
47
0.10
16
0.10
28
0.11
20
0.08
33
0.24
48
0.14
34
0.36
66
0.19
39
0.36
67
0.13
41
0.09
35
0.39
59
0.38
66
0.39
68
0.35
85
0.56
106
0.21
50
0.41
65
0.36
57
0.13
60
0.16
55
0.41
102
0.39
105
0.40
64
0.49
110
anonymousdsptwo views0.27
53
0.23
51
0.20
66
0.16
49
0.14
49
0.18
56
0.10
57
0.37
64
0.19
53
0.32
64
0.27
71
0.33
60
0.12
38
0.15
63
0.46
70
0.36
63
0.33
48
0.29
57
0.40
60
0.25
69
0.47
90
0.52
84
0.13
60
0.16
55
0.29
49
0.19
24
0.54
96
0.20
41
iRaftStereo_RVCtwo views0.27
53
0.27
60
0.17
54
0.14
37
0.14
49
0.19
60
0.10
57
0.44
78
0.14
34
0.36
66
0.36
100
0.32
57
0.16
54
0.13
55
0.32
40
0.30
36
0.38
63
0.29
57
0.35
55
0.23
59
0.42
66
0.52
84
0.12
51
0.19
66
0.29
49
0.28
65
0.42
68
0.27
55
LG-Stereo_L2two views0.28
58
0.31
69
0.18
57
0.13
32
0.13
40
0.14
38
0.08
33
0.42
74
0.21
65
0.48
100
0.23
57
0.40
78
0.14
44
0.17
76
0.46
70
0.42
79
0.40
73
0.29
57
0.41
63
0.21
50
0.46
81
0.44
72
0.10
32
0.15
50
0.31
63
0.22
40
0.34
52
0.33
69
LG-Stereo_L1two views0.28
58
0.30
65
0.18
57
0.13
32
0.13
40
0.15
43
0.08
33
0.41
69
0.21
65
0.49
108
0.21
50
0.40
78
0.15
50
0.16
68
0.44
66
0.44
86
0.39
68
0.29
57
0.40
60
0.20
43
0.47
90
0.42
67
0.09
23
0.16
55
0.33
73
0.21
31
0.38
61
0.35
74
LGtest1two views0.28
58
0.19
38
0.21
72
0.16
49
0.18
68
0.16
48
0.09
46
0.27
53
0.16
42
0.22
53
0.28
73
0.29
52
0.14
44
0.14
59
0.37
54
0.37
65
0.39
68
0.34
79
0.49
79
0.27
78
0.43
69
0.72
132
0.14
66
0.17
60
0.33
73
0.26
59
0.40
64
0.31
64
RAFT + AFFtwo views0.28
58
0.26
58
0.19
63
0.22
70
0.13
40
0.20
64
0.13
67
0.41
69
0.19
53
0.44
85
0.19
39
0.42
87
0.14
44
0.09
35
0.71
121
0.31
41
0.42
77
0.21
32
0.55
100
0.24
62
0.48
93
0.35
53
0.13
60
0.17
60
0.29
49
0.24
53
0.21
9
0.17
31
RYNettwo views0.28
58
0.23
51
0.18
57
0.15
44
0.17
64
0.19
60
0.13
67
0.26
50
0.32
151
0.17
42
0.20
47
0.19
34
0.14
44
0.14
59
0.66
111
0.29
32
0.27
39
0.42
125
0.29
45
0.19
35
0.28
39
0.23
21
0.29
192
0.19
66
0.28
47
1.19
254
0.35
54
0.23
46
AIO_testtwo views0.29
63
0.40
107
0.21
72
0.29
109
0.19
69
0.19
60
0.14
80
0.42
74
0.23
75
0.33
65
0.20
47
0.37
73
0.18
64
0.19
85
0.36
49
0.38
66
0.35
55
0.24
44
0.41
63
0.23
59
0.51
109
0.57
99
0.14
66
0.16
55
0.31
63
0.27
61
0.42
68
0.21
43
IGEV-Stereo+two views0.29
63
0.25
56
0.15
43
0.22
70
0.14
49
0.13
33
0.08
33
0.35
61
0.20
61
0.55
140
0.25
63
0.38
74
0.14
44
0.16
68
0.36
49
0.39
73
0.40
73
0.36
94
0.50
80
0.26
72
0.45
77
0.65
119
0.12
51
0.13
46
0.30
59
0.20
29
0.35
54
0.23
46
AASNettwo views0.29
63
0.34
75
0.23
87
0.25
93
0.26
108
0.34
128
0.26
149
0.33
59
0.17
44
0.29
59
0.39
112
0.26
47
0.18
64
0.25
142
0.40
62
0.34
55
0.35
55
0.32
70
0.33
49
0.28
81
0.36
57
0.34
50
0.17
85
0.24
91
0.31
63
0.29
67
0.36
58
0.25
52
AANet_RVCtwo views0.29
63
0.27
60
0.24
97
0.19
61
0.28
121
0.16
48
0.17
102
0.29
56
0.29
123
0.20
46
0.26
67
0.25
45
0.22
81
0.19
85
0.66
111
0.38
66
0.33
48
0.35
85
0.30
46
0.30
94
0.27
35
0.29
36
0.22
141
0.22
78
0.35
83
0.33
82
0.42
68
0.51
120
DFGA-Nettwo views0.30
67
0.37
91
0.17
54
0.26
98
0.15
57
0.23
76
0.16
93
0.40
68
0.21
65
0.41
74
0.25
63
0.31
54
0.17
58
0.13
55
0.49
74
0.42
79
0.40
73
0.30
66
0.43
70
0.21
50
0.38
61
0.39
61
0.14
66
0.23
83
0.33
73
0.28
65
0.52
85
0.29
57
UniTT-Stereotwo views0.30
67
0.27
60
0.16
47
0.15
44
0.13
40
0.18
56
0.09
46
0.35
61
0.19
53
0.49
108
0.24
59
0.41
81
0.18
64
0.15
63
0.51
78
0.42
79
0.43
79
0.35
85
0.58
114
0.26
72
0.46
81
0.37
58
0.14
66
0.20
70
0.34
80
0.41
108
0.31
46
0.37
79
MMNettwo views0.30
67
0.29
64
0.23
87
0.27
102
0.26
108
0.26
95
0.19
109
0.34
60
0.24
81
0.25
56
0.30
78
0.35
62
0.16
54
0.32
194
0.41
64
0.34
55
0.37
61
0.35
85
0.41
63
0.28
81
0.33
48
0.26
25
0.18
96
0.25
108
0.33
73
0.31
76
0.47
77
0.32
67
test_5two views0.31
70
0.39
102
0.17
54
0.23
82
0.15
57
0.21
66
0.14
80
0.54
108
0.20
61
0.39
72
0.41
116
0.44
94
0.35
167
0.10
41
0.53
81
0.39
73
0.34
53
0.32
70
0.34
53
0.22
56
0.33
48
0.47
76
0.10
32
0.23
83
0.29
49
0.30
69
0.52
85
0.31
64
YMNettwo views0.32
71
0.31
69
0.24
97
0.27
102
0.23
85
0.26
95
0.26
149
0.36
63
0.37
178
0.25
56
0.19
39
0.41
81
0.28
108
0.29
177
0.47
72
0.48
106
0.38
63
0.29
57
0.43
70
0.20
43
0.35
53
0.39
61
0.17
85
0.20
70
0.40
98
0.30
69
0.42
68
0.35
74
HUFtwo views0.32
71
0.34
75
0.22
75
0.22
70
0.21
80
0.20
64
0.11
60
0.51
96
0.22
70
0.42
76
0.19
39
0.35
62
0.23
86
0.19
85
0.50
75
0.50
116
0.39
68
0.27
51
0.58
114
0.29
88
0.54
128
0.63
115
0.17
85
0.19
66
0.32
67
0.24
53
0.40
64
0.28
56
MIF-Stereo (partial)two views0.32
71
0.44
131
0.18
57
0.16
49
0.16
62
0.21
66
0.12
64
0.37
64
0.23
75
0.37
70
0.24
59
0.33
60
0.17
58
0.14
59
0.50
75
0.48
106
0.47
93
0.38
103
0.43
70
0.26
72
0.46
81
0.47
76
0.18
96
0.22
78
0.40
98
0.32
78
0.51
84
0.43
99
RAFT_CTSACEtwo views0.32
71
0.38
95
0.16
47
0.15
44
0.15
57
0.25
93
0.18
105
0.53
103
0.20
61
0.55
140
0.19
39
0.44
94
0.28
108
0.16
68
0.37
54
0.33
51
0.38
63
0.28
54
0.38
58
0.19
35
0.39
62
0.85
158
0.11
43
0.18
63
0.32
67
0.30
69
0.62
123
0.26
53
IGEV-BASED-STEREO-two views0.33
75
0.24
53
0.18
57
0.23
82
0.19
69
0.18
56
0.09
46
0.49
94
0.25
86
0.54
134
0.21
50
0.32
57
0.17
58
0.17
76
0.35
45
0.43
84
0.45
83
0.36
94
0.51
82
0.29
88
0.57
137
0.95
172
0.13
60
0.14
48
0.33
73
0.27
61
0.46
74
0.30
61
plaintwo views0.33
75
0.44
131
0.20
66
0.20
67
0.16
62
0.21
66
0.11
60
0.41
69
0.19
53
0.48
100
0.19
39
0.36
67
0.17
58
0.10
41
0.54
82
0.48
106
0.46
87
0.40
109
0.55
100
0.25
69
0.45
77
0.52
84
0.14
66
0.22
78
0.36
85
0.33
82
0.39
63
0.47
104
HCRNettwo views0.33
75
0.39
102
0.20
66
0.39
155
0.17
64
0.29
108
0.19
109
0.41
69
0.19
53
0.80
269
0.41
116
0.49
110
0.18
64
0.22
108
0.42
65
0.33
51
0.38
63
0.30
66
0.41
63
0.20
43
0.34
51
0.30
44
0.19
106
0.18
63
0.28
47
0.36
97
0.53
94
0.30
61
AFF-stereotwo views0.33
75
0.35
84
0.28
110
0.18
59
0.17
64
0.34
128
0.12
64
0.50
95
0.24
81
0.46
90
0.29
75
0.42
87
0.17
58
0.13
55
0.61
103
0.38
66
0.39
68
0.26
48
0.59
119
0.24
62
0.44
73
0.43
69
0.17
85
0.18
63
0.41
102
0.37
98
0.50
82
0.32
67
SGD-Stereotwo views0.34
79
0.24
53
0.18
57
0.16
49
0.15
57
0.22
73
0.08
33
0.29
56
0.22
70
0.30
60
0.15
25
0.45
99
0.21
80
0.10
41
1.53
242
0.50
116
0.47
93
0.28
54
0.48
76
0.24
62
0.42
66
0.56
96
0.19
106
0.19
66
0.31
63
0.34
86
0.46
74
0.39
87
MIM_Stereotwo views0.34
79
0.41
115
0.27
109
0.28
104
0.20
76
0.28
103
0.15
87
0.45
83
0.18
51
0.48
100
0.29
75
0.42
87
0.19
69
0.16
68
0.50
75
0.54
146
0.45
83
0.37
97
0.48
76
0.31
97
0.48
93
0.57
99
0.12
51
0.24
91
0.32
67
0.27
61
0.48
78
0.33
69
DMCAtwo views0.34
79
0.31
69
0.31
122
0.24
88
0.25
97
0.28
103
0.22
127
0.37
64
0.33
159
0.31
62
0.41
116
0.41
81
0.24
91
0.25
142
0.51
78
0.41
77
0.41
76
0.39
105
0.37
57
0.29
88
0.42
66
0.37
58
0.27
180
0.27
124
0.32
67
0.35
89
0.41
67
0.38
81
CVANet_RVCtwo views0.34
79
0.41
115
0.32
124
0.41
167
0.31
141
0.38
147
0.25
144
0.44
78
0.27
105
0.31
62
0.71
220
0.38
74
0.30
120
0.21
103
0.34
42
0.38
66
0.36
58
0.33
75
0.33
49
0.28
81
0.36
57
0.34
50
0.19
106
0.26
112
0.33
73
0.27
61
0.35
54
0.37
79
S2M2_XLtwo views0.35
83
0.30
65
0.32
124
0.17
54
0.19
69
0.23
76
0.21
124
0.53
103
0.26
98
0.47
93
0.26
67
0.48
103
0.18
64
0.23
117
0.60
101
0.40
76
0.54
138
0.29
57
0.42
67
0.28
81
0.50
104
0.45
74
0.21
133
0.21
74
0.36
85
0.32
78
0.46
74
0.51
120
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
RAFT+CT+SAtwo views0.35
83
0.47
158
0.20
66
0.26
98
0.19
69
0.22
73
0.15
87
0.58
130
0.23
75
0.52
122
0.18
36
0.48
103
0.34
157
0.13
55
0.40
62
0.46
96
0.37
61
0.31
68
0.46
74
0.24
62
0.47
90
0.79
139
0.10
32
0.23
83
0.33
73
0.32
78
0.54
96
0.35
74
GANettwo views0.35
83
0.30
65
0.28
110
0.35
142
0.35
155
0.40
152
0.31
173
0.46
85
0.25
86
0.36
66
0.51
161
0.48
103
0.25
98
0.23
117
0.38
57
0.35
59
0.42
77
0.45
148
0.35
55
0.24
62
0.34
51
0.39
61
0.24
163
0.26
112
0.34
80
0.30
69
0.43
72
0.36
77
DEFOM-Stereo_RVCtwo views0.36
86
0.36
89
0.22
75
0.23
82
0.20
76
0.17
51
0.10
57
0.48
91
0.23
75
0.55
140
0.32
82
0.40
78
0.19
69
0.16
68
0.59
97
0.45
89
0.48
100
0.33
75
0.51
82
0.29
88
0.51
109
0.85
158
0.17
85
0.20
70
0.32
67
0.31
76
0.48
78
0.52
123
test_4two views0.36
86
0.34
75
0.29
113
0.21
68
0.19
69
0.17
51
0.11
60
0.59
134
0.26
98
0.58
166
0.30
78
0.51
118
0.20
72
0.19
85
0.45
68
0.58
158
0.46
87
0.34
79
0.42
67
0.30
94
0.46
81
0.58
102
0.17
85
0.26
112
0.41
102
0.40
107
0.60
115
0.42
97
ARAFTtwo views0.36
86
0.38
95
0.24
97
0.26
98
0.21
80
0.28
103
0.14
80
0.44
78
0.24
81
0.50
110
0.29
75
0.41
81
0.17
58
0.16
68
0.60
101
0.45
89
0.51
113
0.47
165
0.53
88
0.25
69
0.55
129
0.59
106
0.16
78
0.20
70
0.47
115
0.30
69
0.54
96
0.38
81
MGS-Stereotwo views0.37
89
0.46
145
0.22
75
0.22
70
0.19
69
0.23
76
0.16
93
0.45
83
0.19
53
0.36
66
0.27
71
0.30
53
0.20
72
0.23
117
1.20
206
0.45
89
0.53
128
0.45
148
0.56
106
0.34
104
0.51
109
0.54
93
0.22
141
0.24
91
0.35
83
0.30
69
0.48
78
0.44
101
LL-Strereo2two views0.38
90
0.30
65
0.23
87
0.24
88
0.20
76
0.18
56
0.13
67
0.63
170
0.27
105
0.58
166
0.23
57
0.44
94
0.22
81
0.15
63
0.47
72
0.51
124
0.48
100
0.35
85
0.73
155
0.32
98
0.49
100
1.24
190
0.22
141
0.21
74
0.34
80
0.35
89
0.53
94
0.34
71
TESTrafttwo views0.38
90
0.46
145
0.22
75
0.21
68
0.23
85
0.22
73
0.17
102
0.54
108
0.31
143
0.51
115
0.22
56
0.36
67
0.37
182
0.11
47
0.94
166
0.51
124
0.45
83
0.32
70
0.48
76
0.26
72
0.46
81
0.90
164
0.12
51
0.24
91
0.38
95
0.42
110
0.58
104
0.38
81
raft+_RVCtwo views0.38
90
0.35
84
0.28
110
0.25
93
0.23
85
0.26
95
0.18
105
0.54
108
0.27
105
0.52
122
0.43
126
0.47
102
0.23
86
0.18
79
0.59
97
0.53
138
0.44
81
0.35
85
0.63
132
0.28
81
0.44
73
0.53
91
0.14
66
0.22
78
0.43
108
0.38
100
0.59
106
0.42
97
RAFT-Stereo + iAFFtwo views0.39
93
0.41
115
0.36
138
0.24
88
0.19
69
0.30
115
0.14
80
0.58
130
0.25
86
0.46
90
0.36
100
0.50
115
0.19
69
0.16
68
0.93
160
0.38
66
0.43
79
0.29
57
0.66
138
0.30
94
0.50
104
0.59
106
0.20
116
0.23
83
0.54
140
0.37
98
0.60
115
0.43
99
CAStwo views0.40
94
0.45
139
0.26
106
0.29
109
0.29
128
0.23
76
0.14
80
0.41
69
0.27
105
0.41
74
0.57
178
0.36
67
0.36
173
0.21
103
0.59
97
0.42
79
0.50
107
0.34
79
0.54
93
0.28
81
0.46
81
0.58
102
0.19
106
0.23
83
0.55
145
0.51
139
0.63
127
0.76
195
TestStereo1two views0.40
94
0.51
191
0.20
66
0.22
70
0.23
85
0.24
88
0.16
93
0.55
115
0.30
130
0.52
122
0.21
50
0.36
67
0.41
193
0.11
47
0.98
177
0.52
130
0.46
87
0.33
75
0.54
93
0.26
72
0.53
124
0.82
146
0.15
73
0.23
83
0.38
95
0.43
112
0.61
120
0.39
87
SA-5Ktwo views0.40
94
0.51
191
0.20
66
0.22
70
0.23
85
0.24
88
0.16
93
0.55
115
0.30
130
0.52
122
0.21
50
0.36
67
0.41
193
0.11
47
0.98
177
0.52
130
0.46
87
0.33
75
0.54
93
0.26
72
0.53
124
0.82
146
0.15
73
0.23
83
0.38
95
0.43
112
0.61
120
0.39
87
UPFNettwo views0.40
94
0.34
75
0.36
138
0.33
130
0.33
148
0.40
152
0.30
166
0.48
91
0.34
165
0.43
78
0.42
122
0.41
81
0.31
130
0.34
202
0.66
111
0.42
79
0.47
93
0.41
121
0.53
88
0.37
132
0.36
57
0.39
61
0.26
173
0.29
132
0.41
102
0.41
108
0.56
102
0.38
81
HITNettwo views0.40
94
0.37
91
0.29
113
0.34
134
0.28
121
0.27
100
0.19
109
0.57
125
0.32
151
0.57
153
0.44
132
0.55
134
0.32
140
0.22
108
0.61
103
0.36
63
0.44
81
0.39
105
0.42
67
0.29
88
0.43
69
0.52
84
0.20
116
0.27
124
0.41
102
0.39
105
0.72
159
0.55
132
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
IERtwo views0.42
99
0.38
95
0.32
124
0.30
117
0.28
121
0.36
140
0.25
144
0.47
89
0.28
112
0.44
85
0.60
188
0.79
194
0.30
120
0.35
205
0.65
109
0.46
96
0.48
100
0.42
125
0.45
73
0.36
117
0.43
69
0.46
75
0.28
187
0.28
129
0.41
102
0.56
154
0.55
100
0.51
120
S2M2_Ltwo views0.43
100
0.42
118
0.47
186
0.24
88
0.27
117
0.35
137
0.22
127
0.51
96
0.25
86
0.61
181
0.24
59
0.43
90
0.22
81
0.32
194
0.84
147
0.50
116
0.56
149
0.36
94
0.54
93
0.34
104
0.57
137
0.48
78
0.28
187
0.27
124
0.46
113
0.70
177
0.63
127
0.65
161
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
anonymousdsp2two views0.43
100
0.47
158
0.33
130
0.25
93
0.24
93
0.33
121
0.19
109
0.57
125
0.23
75
0.47
93
0.48
141
0.48
103
0.24
91
0.18
79
0.58
86
0.46
96
0.45
83
0.34
79
0.89
181
0.34
104
0.50
104
1.27
192
0.17
85
0.25
108
0.44
110
0.33
82
0.62
123
0.44
101
SAtwo views0.43
100
0.48
170
0.22
75
0.25
93
0.24
93
0.31
118
0.13
67
0.64
177
0.33
159
0.62
189
0.25
63
0.54
128
0.22
81
0.16
68
0.78
133
0.50
116
0.53
128
0.41
121
0.63
132
0.29
88
0.48
93
0.80
141
0.15
73
0.29
132
0.46
113
0.56
154
0.96
218
0.47
104
GMStereopermissivetwo views0.43
100
0.48
170
0.26
106
0.32
127
0.32
146
0.38
147
0.30
166
0.59
134
0.31
143
0.45
87
0.37
104
0.62
155
0.33
148
0.24
132
0.54
82
0.45
89
0.55
141
0.35
85
0.75
159
0.39
143
0.55
129
0.43
69
0.23
153
0.29
132
0.51
127
0.47
128
0.71
154
0.41
92
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
G2L-Stereotwo views0.44
104
0.40
107
0.29
113
0.35
142
0.40
181
0.34
128
0.23
133
0.53
103
0.34
165
0.52
122
0.62
192
0.51
118
0.38
186
0.26
155
0.73
126
0.48
106
0.51
113
0.40
109
0.47
75
0.34
104
0.46
81
0.44
72
0.29
192
0.29
132
0.52
132
0.67
171
0.70
148
0.49
110
Former-RAFT_DAM_RVCtwo views0.44
104
0.33
74
0.31
122
0.29
109
0.25
97
0.26
95
0.16
93
0.55
115
0.40
193
0.55
140
0.50
154
0.49
110
0.27
105
0.23
117
0.80
136
0.47
101
0.52
124
0.41
121
0.54
93
0.38
136
0.48
93
0.85
158
0.17
85
0.24
91
0.52
132
0.85
210
0.44
73
0.56
134
CASnettwo views0.44
104
0.53
207
0.25
102
0.28
104
0.28
121
0.30
115
0.14
80
0.62
165
0.30
130
0.61
181
0.43
126
0.64
163
0.29
114
0.24
132
0.91
157
0.39
73
0.47
93
0.31
68
0.76
163
0.28
81
0.68
173
0.74
135
0.21
133
0.26
112
0.44
110
0.34
86
0.62
123
0.56
134
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
4D-IteraStereotwo views0.45
107
0.28
63
0.36
138
0.34
134
0.24
93
0.25
93
0.15
87
0.63
170
0.28
112
0.61
181
0.38
108
0.52
122
0.23
86
0.23
117
0.66
111
0.62
173
0.50
107
0.43
133
0.66
138
0.35
113
0.71
180
1.31
194
0.15
73
0.24
91
0.44
110
0.49
134
0.65
134
0.38
81
CIPLGtwo views0.45
107
0.47
158
0.25
102
0.32
127
0.22
82
0.33
121
0.19
109
0.63
170
0.26
98
0.55
140
0.50
154
0.61
152
0.32
140
0.42
225
0.94
166
0.50
116
0.53
128
0.37
97
0.58
114
0.40
151
0.58
143
0.91
165
0.20
116
0.26
112
0.49
119
0.32
78
0.59
106
0.38
81
IPLGR_Ctwo views0.45
107
0.47
158
0.24
97
0.31
124
0.22
82
0.33
121
0.19
109
0.63
170
0.25
86
0.55
140
0.50
154
0.62
155
0.33
148
0.42
225
0.85
149
0.51
124
0.53
128
0.37
97
0.57
111
0.40
151
0.58
143
0.89
162
0.20
116
0.26
112
0.48
116
0.34
86
0.60
115
0.39
87
ACREtwo views0.45
107
0.47
158
0.24
97
0.33
130
0.22
82
0.34
128
0.19
109
0.63
170
0.25
86
0.55
140
0.50
154
0.61
152
0.32
140
0.42
225
0.94
166
0.51
124
0.53
128
0.37
97
0.57
111
0.41
159
0.59
148
0.91
165
0.20
116
0.26
112
0.48
116
0.33
82
0.59
106
0.39
87
rafts_anoytwo views0.45
107
0.52
199
0.39
148
0.29
109
0.30
134
0.34
128
0.23
133
0.59
134
0.28
112
0.51
115
0.54
169
0.49
110
0.24
91
0.18
79
0.78
133
0.60
166
0.52
124
0.50
188
0.61
129
0.36
117
0.52
114
0.71
129
0.20
116
0.30
138
0.56
150
0.46
126
0.54
96
0.52
123
UNettwo views0.45
107
0.43
127
0.41
166
0.38
152
0.37
165
0.41
159
0.29
162
0.58
130
0.36
174
0.50
110
0.49
147
0.48
103
0.34
157
0.38
215
0.56
84
0.49
112
0.54
138
0.46
157
0.58
114
0.41
159
0.49
100
0.50
80
0.28
187
0.36
181
0.48
116
0.49
134
0.59
106
0.56
134
HGLStereotwo views0.45
107
0.43
127
0.39
148
0.35
142
0.37
165
0.40
152
0.24
141
0.48
91
0.32
151
0.47
93
0.74
229
0.43
90
0.30
120
0.32
194
0.56
84
0.53
138
0.57
154
0.51
195
0.56
106
0.40
151
0.52
114
0.60
109
0.23
153
0.35
175
0.53
136
0.54
146
0.60
115
0.45
103
RASNettwo views0.45
107
0.45
139
0.45
179
0.33
130
0.34
151
0.38
147
0.28
155
0.58
130
0.38
185
0.47
93
0.43
126
0.49
110
0.35
167
0.26
155
0.52
80
0.45
89
0.49
105
0.40
109
0.50
80
0.32
98
0.51
109
0.68
124
0.20
116
0.47
219
0.43
108
0.55
152
0.77
169
0.70
177
LoS_RVCtwo views0.46
115
0.46
145
0.47
186
0.19
61
0.25
97
0.24
88
0.16
93
0.44
78
0.28
112
0.51
115
0.49
147
0.43
90
0.33
148
0.22
108
0.71
121
0.52
130
0.46
87
0.42
125
0.75
159
0.33
101
0.99
222
0.97
174
0.20
116
0.33
159
0.63
178
0.45
118
0.59
106
0.61
150
tt_lltwo views0.46
115
0.46
145
0.47
186
0.19
61
0.25
97
0.24
88
0.16
93
0.44
78
0.28
112
0.51
115
0.49
147
0.43
90
0.33
148
0.22
108
0.71
121
0.52
130
0.46
87
0.42
125
0.75
159
0.33
101
0.99
222
0.97
174
0.20
116
0.33
159
0.63
178
0.45
118
0.59
106
0.61
150
RALCasStereoNettwo views0.46
115
0.51
191
0.39
148
0.36
149
0.30
134
0.32
119
0.25
144
0.60
140
0.26
98
0.56
151
0.48
141
0.59
144
0.26
100
0.18
79
0.73
126
0.63
179
0.55
141
0.49
179
0.53
88
0.37
132
0.52
114
0.78
138
0.22
141
0.34
165
0.55
145
0.48
131
0.50
82
0.58
143
DMCA-RVCcopylefttwo views0.46
115
0.37
91
0.36
138
0.34
134
0.38
172
0.33
121
0.45
200
0.47
89
0.55
230
0.43
78
0.48
141
0.69
173
0.34
157
0.29
177
0.84
147
0.49
112
0.48
100
0.45
148
0.51
82
0.40
151
0.51
109
0.56
96
0.30
196
0.33
159
0.40
98
0.42
110
0.59
106
0.61
150
trnettwo views0.47
119
0.52
199
0.43
174
0.35
142
0.26
108
0.28
103
0.15
87
0.61
146
0.31
143
0.60
174
0.43
126
0.74
185
0.36
173
0.25
142
0.71
121
0.63
179
0.59
169
0.35
85
0.53
88
0.34
104
0.60
151
0.60
109
0.18
96
0.31
143
0.57
156
0.62
159
0.66
137
0.70
177
CEStwo views0.47
119
0.35
84
0.32
124
0.28
104
0.27
117
0.30
115
0.12
64
1.04
282
0.28
112
0.54
134
0.69
217
0.53
127
0.25
98
0.23
117
0.80
136
0.67
194
0.59
169
0.38
103
0.57
111
0.36
117
0.85
210
0.63
115
0.23
153
0.25
108
0.59
160
0.43
112
0.60
115
0.67
166
CREStereo++_RVCtwo views0.47
119
0.43
127
0.47
186
0.31
124
0.34
151
0.27
100
0.19
109
0.56
119
0.32
151
0.58
166
0.40
114
0.58
140
0.58
233
0.23
117
0.81
140
0.53
138
0.62
196
0.34
79
0.55
100
0.32
98
0.58
143
0.56
96
0.16
78
0.29
132
0.53
136
0.64
164
0.85
192
0.68
170
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
TestStereotwo views0.47
119
0.52
199
0.41
166
0.43
173
0.31
141
0.45
172
0.26
149
0.70
210
0.28
112
0.76
261
0.34
96
0.65
165
0.32
140
0.24
132
0.59
97
0.38
66
0.55
141
0.34
79
0.81
172
0.38
136
0.64
165
0.50
80
0.25
171
0.32
149
0.54
140
0.45
118
0.76
168
0.55
132
RALAANettwo views0.47
119
0.42
118
0.40
155
0.29
109
0.29
128
0.34
128
0.25
144
0.54
108
0.28
112
0.48
100
0.49
147
0.44
94
0.26
100
0.20
97
0.77
132
0.48
106
0.50
107
0.50
188
0.77
166
0.46
175
0.61
156
1.20
184
0.22
141
0.33
159
0.50
122
0.44
116
0.71
154
0.47
104
CREStereotwo views0.47
119
0.52
199
0.44
177
0.35
142
0.26
108
0.29
108
0.15
87
0.61
146
0.31
143
0.58
166
0.43
126
0.72
179
0.36
173
0.25
142
0.74
130
0.65
190
0.60
177
0.35
85
0.53
88
0.34
104
0.61
156
0.60
109
0.19
106
0.31
143
0.57
156
0.62
159
0.65
134
0.70
177
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
DSFCAtwo views0.47
119
0.50
183
0.40
155
0.40
161
0.37
165
0.45
172
0.34
178
0.46
85
0.40
193
0.40
73
0.58
182
0.50
115
0.30
120
0.25
142
0.66
111
0.50
116
0.50
107
0.49
179
0.65
136
0.40
151
0.52
114
0.65
119
0.33
208
0.39
195
0.51
127
0.51
139
0.63
127
0.58
143
CFNettwo views0.47
119
0.45
139
0.35
134
0.49
189
0.40
181
0.40
152
0.33
175
0.53
103
0.33
159
0.48
100
0.49
147
0.69
173
0.43
199
0.31
187
0.68
117
0.41
77
0.49
105
0.43
133
0.54
93
0.35
113
0.49
100
0.41
65
0.24
163
0.32
149
0.64
183
0.64
164
0.73
163
0.70
177
DISCOtwo views0.47
119
0.44
131
0.30
118
0.40
161
0.38
172
0.50
189
0.45
200
0.46
85
0.43
209
0.50
110
0.59
185
0.41
81
0.30
120
0.30
183
0.70
120
0.45
89
0.55
141
0.47
165
0.71
153
0.42
167
0.50
104
0.58
102
0.27
180
0.34
165
0.49
119
0.49
134
0.63
127
0.53
126
coex_refinementtwo views0.48
128
0.43
127
0.34
132
0.35
142
0.35
155
0.45
172
0.24
141
0.56
119
0.50
223
0.50
110
0.63
194
0.55
134
0.29
114
0.29
177
0.89
155
0.49
112
0.51
113
0.44
140
0.56
106
0.34
104
0.48
93
0.43
69
0.29
192
0.33
159
0.53
136
0.59
156
0.70
148
0.78
197
GMOStereotwo views0.48
128
0.40
107
0.23
87
0.30
117
0.26
108
0.29
108
0.19
109
0.67
189
0.30
130
0.66
220
0.33
91
0.54
128
0.34
157
0.20
97
0.58
86
0.69
211
0.51
113
0.44
140
0.69
144
0.36
117
0.52
114
1.87
218
0.16
78
0.24
91
0.62
172
0.45
118
0.83
184
0.41
92
error versiontwo views0.48
128
0.40
107
0.23
87
0.30
117
0.26
108
0.29
108
0.19
109
0.67
189
0.30
130
0.66
220
0.33
91
0.54
128
0.34
157
0.20
97
0.58
86
0.69
211
0.51
113
0.44
140
0.69
144
0.36
117
0.52
114
1.87
218
0.16
78
0.24
91
0.62
172
0.45
118
0.83
184
0.41
92
test-vtwo views0.48
128
0.40
107
0.23
87
0.30
117
0.26
108
0.29
108
0.19
109
0.67
189
0.30
130
0.66
220
0.33
91
0.54
128
0.34
157
0.20
97
0.58
86
0.69
211
0.51
113
0.44
140
0.69
144
0.36
117
0.52
114
1.87
218
0.16
78
0.24
91
0.62
172
0.45
118
0.83
184
0.41
92
test-2two views0.48
128
0.40
107
0.23
87
0.30
117
0.26
108
0.29
108
0.19
109
0.67
189
0.30
130
0.66
220
0.33
91
0.54
128
0.34
157
0.20
97
0.58
86
0.69
211
0.51
113
0.44
140
0.69
144
0.36
117
0.52
114
1.87
218
0.16
78
0.24
91
0.62
172
0.45
118
0.83
184
0.41
92
raftrobusttwo views0.48
128
0.34
75
0.40
155
0.28
104
0.28
121
0.28
103
0.18
105
0.63
170
0.26
98
0.63
197
0.53
167
0.52
122
0.27
105
0.22
108
0.93
160
0.70
216
0.51
113
0.42
125
1.06
198
0.39
143
0.55
129
0.86
161
0.21
133
0.26
112
0.61
170
0.53
145
0.56
102
0.52
123
ADLNettwo views0.48
128
0.53
207
0.38
144
0.41
167
0.41
187
0.45
172
0.40
192
0.54
108
0.36
174
0.45
87
0.54
169
0.77
191
0.37
182
0.62
276
0.73
126
0.44
86
0.50
107
0.43
133
0.51
82
0.38
136
0.44
73
0.59
106
0.35
212
0.28
129
0.51
127
0.59
156
0.58
104
0.48
107
GLC_STEREOtwo views0.49
135
0.52
199
0.43
174
0.39
155
0.38
172
0.37
143
0.29
162
0.64
177
0.29
123
0.62
189
0.54
169
0.56
136
0.29
114
0.30
183
0.63
106
0.51
124
0.67
217
0.42
125
0.69
144
0.42
167
0.72
183
0.72
132
0.23
153
0.32
149
0.49
119
0.38
100
0.84
188
0.53
126
ddtwo views0.51
136
0.51
191
0.29
113
0.91
260
0.32
146
0.66
232
0.30
166
0.60
140
0.24
81
0.54
134
0.32
82
0.77
191
0.28
108
0.27
166
0.88
152
0.50
116
0.75
241
0.40
109
1.07
199
0.38
136
0.50
104
0.49
79
0.24
163
0.32
149
0.56
150
0.43
112
0.75
166
0.57
140
IPLGtwo views0.51
136
0.46
145
0.33
130
0.28
104
0.27
117
0.33
121
0.22
127
0.62
165
0.22
70
0.51
115
0.41
116
0.57
137
0.31
130
0.32
194
1.55
244
0.48
106
0.57
154
0.49
179
0.56
106
0.41
159
0.45
77
1.52
207
0.19
106
0.31
143
0.50
122
0.83
204
0.66
137
0.50
119
PDISCO_ROBtwo views0.51
136
0.40
107
0.40
155
0.39
155
0.35
155
0.40
152
0.30
166
0.51
96
0.35
168
0.37
70
0.51
161
0.51
118
0.35
167
0.31
187
0.82
145
0.60
166
0.56
149
0.69
260
0.60
121
0.48
186
0.69
175
0.98
176
0.26
173
0.37
185
0.59
160
0.55
152
0.86
196
0.61
150
castereo++two views0.52
139
0.36
89
0.37
142
0.43
173
0.24
93
0.21
66
0.17
102
0.59
134
0.30
130
0.63
197
0.38
108
0.74
185
0.23
86
0.22
108
0.78
133
0.68
204
0.58
159
0.42
125
0.67
142
0.36
117
0.84
208
1.89
224
0.21
133
0.31
143
0.55
145
0.70
177
0.77
169
0.48
107
LMCR-Stereopermissivemany views0.52
139
0.46
145
0.35
134
0.32
127
0.33
148
0.44
170
0.24
141
0.57
125
0.38
185
0.55
140
0.47
139
0.66
167
0.40
189
0.27
166
0.85
149
0.53
138
0.63
204
0.49
179
1.13
203
0.57
209
0.71
180
0.75
136
0.26
173
0.35
175
0.51
127
0.52
141
0.64
132
0.68
170
iResNet_ROBtwo views0.52
139
0.49
175
0.44
177
0.42
172
0.31
141
0.43
168
0.35
180
0.60
140
0.34
165
0.52
122
0.60
188
0.48
103
0.58
233
0.25
142
0.87
151
0.53
138
0.58
159
0.50
188
1.23
210
0.39
143
0.52
114
0.42
67
0.26
173
0.44
210
0.59
160
0.54
146
0.80
177
0.64
159
raft_robusttwo views0.53
142
0.44
131
0.25
102
0.38
152
0.30
134
0.33
121
0.22
127
0.73
226
0.36
174
0.69
239
0.34
96
0.57
137
0.31
130
0.24
132
0.69
118
0.58
158
0.55
141
0.47
165
1.05
197
0.39
143
0.77
199
1.44
201
0.24
163
0.30
138
0.59
160
0.71
181
0.70
148
0.59
146
CFNet_pseudotwo views0.54
143
0.44
131
0.46
184
0.54
208
0.43
191
0.54
201
0.35
180
0.62
165
0.36
174
0.61
181
0.64
201
0.58
140
0.55
230
0.36
208
1.26
219
0.56
153
0.51
113
0.47
165
0.69
144
0.37
132
0.49
100
0.54
93
0.27
180
0.35
175
0.58
158
0.60
158
0.69
147
0.75
192
PMTNettwo views0.54
143
0.49
175
0.48
191
0.31
124
0.30
134
0.27
100
0.23
133
0.54
108
0.30
130
0.57
153
0.42
122
0.60
148
0.24
91
0.23
117
1.51
240
0.62
173
0.58
159
0.37
97
1.17
207
0.34
104
0.76
196
0.62
113
0.20
116
0.23
83
0.81
229
0.70
177
0.67
141
0.92
212
NLCA_NET_v2_RVCtwo views0.54
143
0.53
207
0.50
199
0.44
177
0.58
231
0.42
163
0.65
237
0.56
119
0.62
244
0.52
122
0.51
161
0.67
168
0.38
186
0.58
272
1.16
201
0.44
86
0.48
100
0.43
133
0.58
114
0.40
151
0.46
81
0.51
82
0.31
201
0.34
165
0.50
122
0.77
195
0.63
127
0.64
159
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
iResNetv2_ROBtwo views0.54
143
0.46
145
0.34
132
0.48
187
0.39
178
0.50
189
0.30
166
0.65
182
0.35
168
0.52
122
0.66
209
0.72
179
0.56
232
0.28
172
0.73
126
0.52
130
0.51
113
0.47
165
1.17
207
0.48
186
0.69
175
0.54
93
0.30
196
0.45
213
0.58
158
0.54
146
0.81
179
0.57
140
Sa-1000two views0.55
147
0.48
170
0.23
87
0.26
98
0.27
117
0.32
119
0.16
93
0.65
182
0.37
178
0.63
197
0.33
91
0.51
118
0.28
108
0.30
183
1.16
201
0.53
138
0.60
177
0.45
148
0.92
185
0.33
101
0.56
135
2.21
234
0.18
96
0.30
138
0.74
205
0.52
141
1.00
226
0.48
107
CFNet_RVCtwo views0.55
147
0.52
199
0.49
192
0.50
193
0.49
209
0.49
186
0.33
175
0.52
99
0.38
185
0.51
115
0.68
214
0.58
140
0.35
167
0.31
187
1.18
205
0.49
112
0.52
124
0.48
172
0.60
121
0.44
171
0.60
151
0.62
113
0.28
187
0.39
195
0.68
194
0.74
187
0.84
188
0.74
188
castereotwo views0.56
149
0.37
91
0.40
155
0.34
134
0.26
108
0.26
95
0.18
105
0.56
119
0.29
123
0.60
174
0.46
138
0.69
173
0.22
81
0.20
97
0.95
170
0.71
220
0.61
187
0.39
105
0.94
188
0.37
132
1.06
227
2.50
242
0.20
116
0.27
124
0.63
178
0.62
159
0.59
106
0.57
140
AF-Nettwo views0.56
149
0.50
183
0.45
179
0.50
193
0.54
222
0.62
223
0.60
224
0.61
146
0.56
232
0.43
78
0.65
203
0.87
214
0.42
196
0.41
220
0.81
140
0.47
101
0.47
93
0.44
140
0.61
129
0.41
159
0.48
93
0.70
127
0.42
231
0.41
200
0.56
150
0.64
164
0.85
192
0.72
184
Nwc_Nettwo views0.56
149
0.50
183
0.45
179
0.50
193
0.54
222
0.62
223
0.60
224
0.61
146
0.56
232
0.43
78
0.65
203
0.87
214
0.42
196
0.41
220
0.81
140
0.47
101
0.47
93
0.44
140
0.61
129
0.41
159
0.48
93
0.70
127
0.42
231
0.41
200
0.56
150
0.64
164
0.85
192
0.72
184
NVstereo2Dtwo views0.56
149
0.48
170
0.43
174
0.52
201
0.49
209
0.66
232
0.65
237
0.61
146
0.40
193
0.48
100
0.59
185
0.54
128
0.31
130
0.64
278
1.34
224
0.63
179
0.59
169
0.56
220
0.55
100
0.42
167
0.53
124
0.52
84
0.55
265
0.47
219
0.65
187
0.52
141
0.59
106
0.53
126
DLCB_ROBtwo views0.56
149
0.51
191
0.49
192
0.41
167
0.46
200
0.45
172
0.43
198
0.56
119
0.46
216
0.57
153
0.62
192
0.71
178
0.54
225
0.41
220
0.80
136
0.53
138
0.58
159
0.49
179
0.54
93
0.45
174
0.59
148
0.71
129
0.39
225
0.44
210
0.99
262
0.79
199
0.72
159
0.62
155
DN-CSS_ROBtwo views0.56
149
0.44
131
0.49
192
0.41
167
0.40
181
0.35
137
0.22
127
0.69
203
0.35
168
0.59
171
0.77
232
0.67
168
0.49
216
0.24
132
0.90
156
0.43
84
0.60
177
0.43
133
1.77
232
0.40
151
0.85
210
0.58
102
0.32
203
0.51
232
0.55
145
0.46
126
0.67
141
0.54
131
LoStwo views0.57
155
0.45
139
0.30
118
0.37
150
0.37
165
0.41
159
0.22
127
1.37
299
0.32
151
0.86
282
0.79
235
0.68
170
0.40
189
0.24
132
0.66
111
0.75
232
0.60
177
0.41
121
0.79
170
0.38
136
1.05
226
0.83
156
0.22
141
0.26
112
0.82
234
0.64
164
0.66
137
0.68
170
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
MIPNettwo views0.57
155
0.51
191
0.35
134
0.33
130
0.30
134
0.38
147
0.26
149
0.62
165
0.24
81
0.50
110
0.50
154
0.62
155
0.44
201
0.31
187
1.22
212
0.56
153
0.60
177
0.50
188
0.79
170
0.47
179
0.45
77
1.65
211
0.20
116
0.30
138
0.73
204
1.29
266
0.71
154
0.60
148
AACVNettwo views0.57
155
0.48
170
0.41
166
0.59
217
0.62
237
0.54
201
0.38
188
0.61
146
0.41
198
0.59
171
0.63
194
0.59
144
0.34
157
0.36
208
0.97
172
0.56
153
0.59
169
0.54
209
0.72
154
0.53
194
0.57
137
0.65
119
0.38
220
0.46
214
0.60
167
0.69
174
0.84
188
0.82
203
STTStereotwo views0.57
155
0.56
218
0.54
213
0.45
183
0.52
218
0.44
170
0.62
229
0.52
99
0.47
220
0.47
93
0.55
174
0.73
182
0.46
208
0.57
265
1.46
236
0.46
96
0.50
107
0.52
199
0.55
100
0.39
143
0.53
124
0.51
82
0.33
208
0.36
181
0.55
145
0.66
170
0.71
154
0.98
215
HSMtwo views0.57
155
0.50
183
0.51
204
0.49
189
0.48
203
0.42
163
0.38
188
0.71
212
0.37
178
0.61
181
0.65
203
0.60
148
0.48
212
0.31
187
1.03
185
0.52
130
0.65
211
0.48
172
0.78
167
0.49
190
0.69
175
0.64
118
0.27
180
0.47
219
0.64
183
0.72
182
0.88
200
0.68
170
iinet-ftwo views0.58
160
0.44
131
0.37
142
0.34
134
0.25
97
0.49
186
0.27
154
0.43
76
0.28
112
0.52
122
0.92
247
0.61
152
0.45
206
0.26
155
1.34
224
0.61
170
0.53
128
0.40
109
1.60
227
0.52
193
0.62
160
1.51
205
0.27
180
0.27
124
0.56
150
0.38
100
0.79
172
0.56
134
TANstereotwo views0.58
160
0.42
118
0.38
144
0.40
161
0.40
181
0.46
182
0.21
124
0.52
99
0.31
143
0.54
134
0.41
116
0.38
74
0.40
189
0.43
229
0.81
140
0.74
227
0.67
217
0.78
278
1.11
201
0.91
280
0.65
167
0.80
141
0.94
296
0.34
165
0.36
85
0.54
146
1.09
238
0.56
134
XX-TBDtwo views0.58
160
0.42
118
0.38
144
0.40
161
0.40
181
0.46
182
0.21
124
0.52
99
0.31
143
0.54
134
0.41
116
0.38
74
0.40
189
0.43
229
0.81
140
0.74
227
0.67
217
0.78
278
1.11
201
0.91
280
0.65
167
0.80
141
0.94
296
0.34
165
0.36
85
0.54
146
1.09
238
0.56
134
psm_uptwo views0.59
163
0.51
191
0.55
217
0.56
211
0.46
200
0.59
215
0.36
182
0.72
219
0.66
249
0.55
140
0.53
167
0.62
155
0.53
223
0.40
218
0.93
160
0.55
149
0.60
177
0.49
179
0.89
181
0.48
186
0.55
129
0.57
99
0.32
203
0.55
243
0.71
198
0.80
200
0.81
179
0.67
166
BEATNet_4xtwo views0.59
163
0.40
107
0.35
134
0.40
161
0.36
160
0.33
121
0.28
155
0.64
177
0.41
198
0.66
220
0.45
136
0.63
161
0.42
196
0.25
142
1.20
206
0.64
185
0.60
177
0.58
228
0.59
119
0.38
136
1.07
228
2.22
235
0.26
173
0.40
197
0.50
122
0.52
141
0.82
182
0.67
166
EGLCR-Stereotwo views0.60
165
0.49
175
0.47
186
0.30
117
0.31
141
0.45
172
0.14
80
0.57
125
0.27
105
0.57
153
0.37
104
0.59
144
0.24
91
0.22
108
0.62
105
0.59
162
0.53
128
0.45
148
0.86
176
0.34
104
0.74
187
3.50
263
0.20
116
0.26
112
0.56
150
0.49
134
1.34
266
0.69
174
sAnonymous2two views0.60
165
0.42
118
0.32
124
0.29
109
0.30
134
0.45
172
0.29
162
0.71
212
0.41
198
0.47
93
0.54
169
0.52
122
0.44
201
0.23
117
0.97
172
0.85
246
0.70
231
0.68
256
1.36
216
0.61
225
0.86
212
1.20
184
0.30
196
0.37
185
0.65
187
0.72
182
0.72
159
0.72
184
CroCo_RVCtwo views0.60
165
0.42
118
0.32
124
0.29
109
0.30
134
0.45
172
0.29
162
0.71
212
0.41
198
0.47
93
0.54
169
0.52
122
0.44
201
0.23
117
0.97
172
0.85
246
0.70
231
0.68
256
1.36
216
0.61
225
0.86
212
1.20
184
0.30
196
0.37
185
0.65
187
0.72
182
0.72
159
0.72
184
APVNettwo views0.60
165
0.47
158
0.39
148
0.46
185
0.50
212
0.59
215
0.56
217
0.61
146
0.42
206
0.46
90
0.65
203
0.52
122
0.31
130
0.36
208
0.97
172
0.76
235
0.73
238
0.64
245
0.97
192
0.55
200
0.62
160
1.21
188
0.35
212
0.50
231
0.60
167
0.48
131
0.87
198
0.60
148
UCFNet_RVCtwo views0.60
165
0.79
261
0.46
184
0.60
220
0.56
225
0.53
198
0.40
192
0.59
134
0.40
193
0.59
171
0.61
190
0.83
206
0.47
210
0.33
201
1.17
204
0.47
101
0.51
113
0.50
188
0.70
151
0.47
179
0.61
156
0.63
115
0.39
225
0.44
210
0.81
229
0.75
189
0.67
141
0.85
206
IPLGRtwo views0.62
170
0.56
218
0.41
166
0.44
177
0.38
172
0.36
140
0.23
133
0.61
146
0.30
130
0.55
140
0.67
213
0.64
163
0.33
148
0.29
177
1.69
249
0.52
130
0.58
159
0.56
220
1.14
204
0.55
200
0.58
143
1.55
209
0.21
133
0.37
185
0.78
219
1.24
261
0.75
166
0.58
143
ICVPtwo views0.62
170
0.49
175
0.68
248
0.51
198
0.50
212
0.54
201
0.37
185
0.60
140
0.46
216
0.61
181
0.58
182
0.62
155
0.60
238
0.32
194
0.92
158
0.66
192
0.59
169
0.52
199
0.74
156
0.53
194
0.61
156
1.31
194
0.60
273
0.52
237
0.63
178
0.75
189
0.78
171
0.74
188
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
GEStwo views0.63
172
0.53
207
0.40
155
0.40
161
0.41
187
0.54
201
0.39
191
0.59
134
0.41
198
0.56
151
0.63
194
0.50
115
0.31
130
0.43
229
1.52
241
0.69
211
0.67
217
0.56
220
2.30
252
0.59
216
0.75
192
0.80
141
0.32
203
0.46
214
0.53
136
0.48
131
0.65
134
0.70
177
FADNet-RVC-Resampletwo views0.63
172
0.52
199
0.42
171
0.46
185
0.40
181
0.41
159
0.44
199
0.73
226
0.42
206
0.68
234
0.50
154
1.09
239
0.45
206
0.43
229
1.67
248
0.52
130
0.59
169
0.61
241
0.87
178
0.57
209
0.56
135
0.91
165
0.35
212
0.61
252
0.59
160
0.77
195
0.55
100
0.79
198
RPtwo views0.63
172
0.58
226
0.74
257
0.62
226
0.57
227
0.58
214
0.67
246
0.63
170
0.60
240
0.42
76
0.79
235
0.79
194
0.53
223
0.44
236
1.02
182
0.51
124
0.55
141
0.45
148
0.66
138
0.47
179
0.55
129
0.96
173
0.38
220
0.47
219
0.64
183
0.69
174
0.92
209
0.77
196
PS-NSSStwo views0.63
172
0.82
266
0.45
179
0.90
258
0.56
225
0.73
244
0.66
244
0.64
177
0.39
190
0.64
204
0.43
126
1.56
263
0.51
218
0.44
236
1.01
180
0.45
89
0.53
128
0.45
148
0.95
190
0.44
171
0.46
81
0.35
53
0.38
220
0.36
181
0.68
194
0.68
173
0.71
154
0.80
199
FADNet-RVCtwo views0.64
176
0.50
183
0.39
148
0.51
198
0.43
191
0.40
152
0.64
234
0.69
203
0.38
185
0.64
204
0.51
161
1.15
246
0.46
208
0.34
202
2.01
267
0.56
153
0.55
141
0.45
148
1.26
212
0.53
194
0.59
148
0.66
123
0.33
208
0.52
237
0.60
167
0.75
189
0.67
141
0.80
199
DeepPruner_ROBtwo views0.64
176
0.45
139
0.56
219
0.52
201
0.54
222
0.50
189
0.42
195
0.62
165
0.47
220
0.60
174
0.68
214
0.62
155
0.51
218
0.32
194
1.40
234
0.62
173
0.63
204
0.59
234
0.70
151
0.49
190
1.24
239
0.83
156
0.36
217
0.46
214
0.62
172
1.07
242
0.73
163
0.62
155
sCroCo_RVCtwo views0.65
178
0.42
118
0.29
113
0.29
109
0.29
128
0.40
152
0.23
133
0.60
140
0.41
198
0.53
133
0.44
132
0.48
103
0.51
218
0.24
132
0.92
158
1.03
265
0.75
241
0.63
243
1.04
196
0.59
216
1.12
231
2.73
248
0.29
192
0.40
197
0.64
183
0.62
159
0.93
213
0.63
158
s12784htwo views0.66
179
0.69
250
0.55
217
0.65
231
0.47
202
0.35
137
0.25
144
0.61
146
0.32
151
0.60
174
0.48
141
0.81
198
0.60
238
0.26
155
0.69
118
0.55
149
0.62
196
0.39
105
0.78
167
0.36
117
1.30
253
0.73
134
0.19
106
0.31
143
0.77
215
1.05
240
1.56
288
2.02
272
pcwnet_v2two views0.66
179
0.47
158
0.53
211
0.62
226
0.50
212
0.63
226
0.46
203
0.66
186
0.46
216
0.65
210
0.78
233
0.65
165
0.89
259
0.56
264
1.39
232
0.64
185
0.60
177
0.51
195
0.88
180
0.44
171
0.58
143
0.77
137
0.35
212
0.46
214
0.76
211
0.76
193
0.88
200
1.02
220
AE-Stereotwo views0.67
181
0.49
175
0.50
199
0.50
193
0.36
160
0.37
143
0.28
155
0.55
115
0.29
123
0.64
204
0.32
82
0.90
219
0.31
130
0.24
132
0.93
160
0.73
225
0.69
224
0.53
205
0.91
184
0.55
200
0.75
192
3.32
259
0.23
153
0.52
237
0.83
237
0.67
171
0.96
218
0.62
155
SACVNettwo views0.67
181
0.54
216
0.52
208
0.56
211
0.57
227
0.54
201
0.63
232
0.69
203
0.57
235
0.67
229
0.57
178
0.60
148
0.38
186
0.41
220
1.15
199
0.63
179
0.66
213
0.58
228
0.98
193
0.65
240
0.75
192
1.46
202
0.37
218
0.51
232
0.77
215
0.76
193
0.87
198
0.83
204
FADNettwo views0.69
183
0.55
217
0.42
171
0.53
204
0.44
195
0.49
186
0.70
253
0.76
235
0.43
209
0.66
220
0.63
194
0.82
205
0.51
218
0.37
213
1.80
255
0.53
138
0.53
128
0.54
209
1.67
230
0.54
197
0.74
187
0.81
145
0.35
212
0.42
206
0.76
211
0.86
211
0.80
177
1.04
223
PA-Nettwo views0.69
183
0.68
248
0.66
244
0.50
193
0.68
250
0.51
193
0.65
237
0.66
186
0.73
253
0.54
134
0.55
174
0.58
140
0.59
237
0.59
275
1.36
227
0.59
162
0.47
93
0.55
213
0.63
132
0.55
200
0.52
114
0.99
177
0.37
218
0.54
242
0.66
191
1.45
275
0.67
141
1.32
248
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NCC-stereotwo views0.71
185
0.64
240
0.61
226
0.65
231
0.67
247
0.64
229
0.74
256
0.67
189
0.75
256
0.43
78
0.79
235
0.83
206
0.72
249
0.48
244
1.02
182
0.55
149
0.59
169
0.65
249
0.82
174
0.57
209
0.62
160
0.92
168
0.55
265
0.48
226
0.80
225
0.95
226
0.94
214
0.99
217
Abc-Nettwo views0.71
185
0.64
240
0.61
226
0.65
231
0.67
247
0.64
229
0.74
256
0.67
189
0.75
256
0.43
78
0.79
235
0.83
206
0.72
249
0.48
244
1.02
182
0.55
149
0.59
169
0.65
249
0.82
174
0.57
209
0.62
160
0.92
168
0.55
265
0.48
226
0.80
225
0.95
226
0.94
214
0.99
217
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
test-3two views0.72
187
0.38
95
0.40
155
0.34
134
0.34
151
0.34
128
0.23
133
0.65
182
0.27
105
0.61
181
0.36
100
0.91
220
0.32
140
0.21
103
1.24
214
0.61
170
0.56
149
0.43
133
2.65
266
0.39
143
0.60
151
5.03
290
0.17
85
0.32
149
0.52
132
0.38
100
0.70
148
0.53
126
test_1two views0.72
187
0.38
95
0.40
155
0.34
134
0.34
151
0.34
128
0.23
133
0.65
182
0.27
105
0.62
189
0.36
100
0.91
220
0.32
140
0.21
103
1.24
214
0.61
170
0.55
141
0.43
133
2.65
266
0.39
143
0.60
151
5.03
290
0.17
85
0.32
149
0.52
132
0.38
100
0.70
148
0.53
126
R-Stereo Traintwo views0.72
187
0.56
218
0.50
199
0.49
189
0.37
165
0.51
193
0.19
109
0.61
146
0.33
159
0.67
229
0.66
209
0.73
182
0.36
173
0.25
142
1.13
193
0.95
252
0.66
213
0.52
199
2.17
248
0.46
175
1.03
224
2.24
236
0.22
141
0.38
191
0.75
207
0.94
224
0.79
172
1.08
230
RAFT-Stereopermissivetwo views0.72
187
0.56
218
0.50
199
0.49
189
0.37
165
0.51
193
0.19
109
0.61
146
0.33
159
0.67
229
0.66
209
0.73
182
0.36
173
0.25
142
1.13
193
0.95
252
0.66
213
0.52
199
2.17
248
0.46
175
1.03
224
2.24
236
0.22
141
0.38
191
0.75
207
0.94
224
0.79
172
1.08
230
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
PWCDC_ROBbinarytwo views0.72
187
0.35
84
0.39
148
0.30
117
0.45
197
0.37
143
0.38
188
0.43
76
1.24
293
0.27
58
0.71
220
0.45
99
2.48
294
0.57
265
1.31
222
0.78
238
0.58
159
0.56
220
0.66
138
0.56
205
0.73
184
2.56
245
0.46
238
0.42
206
0.40
98
0.63
163
0.52
85
0.74
188
MyStereo04two views0.73
192
0.53
207
0.61
226
0.44
177
0.38
172
0.37
143
0.26
149
0.68
198
0.45
214
0.63
197
0.44
132
0.69
173
0.35
167
0.26
155
1.05
188
0.73
225
0.57
154
0.55
213
3.42
285
0.65
240
1.20
236
1.04
178
0.28
187
0.43
209
0.81
229
1.31
269
0.98
224
0.65
161
NCCL2two views0.73
192
0.74
257
0.68
248
0.58
215
0.58
231
0.52
196
0.49
206
0.70
210
0.58
238
0.68
234
0.68
214
0.68
170
0.48
212
0.41
220
1.22
212
0.75
232
0.67
217
0.58
228
0.78
167
0.59
216
0.80
201
1.30
193
0.51
255
0.64
256
0.98
260
0.96
228
0.88
200
1.20
243
LG-Stereo_Zeroshottwo views0.74
194
0.38
95
0.25
102
0.51
198
0.74
261
0.89
262
0.49
206
0.61
146
0.26
98
1.56
326
0.37
104
2.62
283
0.27
105
0.22
108
0.65
109
0.54
146
0.58
159
0.46
157
1.00
194
0.39
143
0.66
170
2.13
233
0.20
116
0.25
108
0.61
170
0.50
138
0.90
205
2.02
272
UDGNettwo views0.74
194
0.67
245
0.49
192
1.35
288
1.04
283
1.22
283
0.92
271
0.60
140
0.45
214
0.52
122
0.64
201
0.57
137
0.24
91
1.17
306
0.80
136
0.47
101
0.58
159
0.53
205
0.76
163
0.54
197
0.69
175
1.99
229
0.84
288
0.31
143
0.72
202
0.70
177
0.64
132
0.66
164
test_3two views0.74
194
0.39
102
0.39
148
0.34
134
0.33
148
0.34
128
0.23
133
0.67
189
0.29
123
0.64
204
0.34
96
0.93
222
0.36
173
0.21
103
1.39
232
0.58
158
0.57
154
0.46
157
2.73
271
0.40
151
0.57
137
5.06
292
0.15
73
0.35
175
0.54
140
0.47
128
0.68
146
0.49
110
stereogantwo views0.75
197
0.68
248
0.66
244
0.69
239
0.74
261
0.75
247
0.65
237
0.71
212
0.61
243
0.51
115
0.63
194
1.09
239
0.64
243
0.45
239
1.13
193
0.60
166
0.57
154
0.51
195
0.92
185
0.61
225
0.63
164
2.04
230
0.47
240
0.49
229
0.62
172
0.69
174
1.20
254
0.87
207
MLCVtwo views0.75
197
0.49
175
0.54
213
0.74
243
0.51
217
0.66
232
0.45
200
0.82
256
0.43
209
0.70
243
0.88
243
1.05
234
0.85
257
0.29
177
1.11
191
0.50
116
0.67
217
0.53
205
2.58
264
0.47
179
0.67
172
1.04
178
0.40
227
0.61
252
0.75
207
0.80
200
0.84
188
0.74
188
NaN_ROBtwo views0.77
199
0.59
228
0.61
226
0.64
229
0.79
268
0.55
207
0.51
211
0.88
263
0.64
246
0.73
251
0.59
185
1.98
276
0.65
244
0.46
242
1.01
180
0.58
158
0.58
159
0.55
213
0.74
156
0.56
205
0.57
137
0.79
139
0.40
227
0.66
259
0.92
250
1.30
268
0.97
223
1.66
262
Any-RAFTtwo views0.78
200
0.49
175
0.88
266
0.53
204
0.43
191
0.39
151
0.28
155
0.64
177
0.32
151
0.57
153
0.76
231
0.88
217
0.24
91
0.23
117
1.38
231
0.79
239
0.60
177
0.46
157
2.52
261
0.47
179
1.19
235
1.79
214
0.24
163
0.34
165
1.01
267
1.36
272
0.74
165
1.59
259
HSM-Net_RVCpermissivetwo views0.79
201
0.53
207
0.63
236
0.79
251
0.64
243
0.63
226
0.40
192
0.76
235
0.49
222
0.73
251
1.54
284
1.35
256
0.84
256
0.37
213
1.15
199
0.62
173
0.66
213
0.53
205
0.81
172
0.55
200
0.81
203
1.08
181
0.44
235
0.71
264
0.97
256
1.10
244
1.11
244
1.09
232
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
GANetREF_RVCpermissivetwo views0.80
202
0.75
258
0.69
253
0.76
246
0.66
245
0.70
241
0.60
224
0.99
274
0.74
255
0.94
289
0.52
165
1.36
257
0.72
249
0.45
239
0.95
170
0.59
162
0.69
224
0.63
243
1.16
206
0.63
232
0.84
208
0.71
129
0.60
273
0.73
265
0.95
252
0.90
219
1.21
256
1.05
224
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
RGCtwo views0.81
203
0.73
255
1.00
277
0.71
241
0.74
261
0.77
251
0.58
220
0.74
230
0.76
258
0.57
153
0.98
252
0.85
211
0.86
258
0.57
265
1.09
190
0.64
185
0.64
208
0.56
220
0.94
188
0.64
238
0.73
184
1.62
210
0.53
260
0.59
247
0.84
239
1.01
234
1.03
229
1.19
240
XPNet_ROBtwo views0.81
203
0.77
259
0.59
224
0.54
208
0.62
237
0.64
229
0.64
234
0.54
108
0.67
250
0.58
166
0.78
233
2.38
279
0.48
212
0.44
236
1.16
201
0.71
220
0.87
258
0.57
227
0.86
176
0.58
214
0.80
201
1.79
214
0.46
238
0.52
237
0.66
191
0.74
187
1.47
282
0.97
214
GCAP-BATtwo views0.82
205
0.46
145
0.22
75
0.22
70
0.25
97
0.23
76
0.13
67
0.61
146
0.25
86
0.57
153
0.32
82
0.81
198
0.20
72
0.19
85
0.58
86
0.67
194
10.84
337
0.40
109
0.60
121
0.36
117
1.27
244
0.82
146
0.18
96
0.24
91
0.37
89
0.35
89
0.52
85
0.49
110
test_for_modeltwo views0.82
205
0.46
145
0.22
75
0.22
70
0.25
97
0.23
76
0.13
67
0.61
146
0.25
86
0.57
153
0.32
82
0.81
198
0.20
72
0.19
85
0.58
86
0.67
194
10.84
337
0.40
109
0.60
121
0.36
117
1.27
244
0.82
146
0.18
96
0.24
91
0.37
89
0.35
89
0.52
85
0.49
110
testlalala2two views0.82
205
0.46
145
0.22
75
0.22
70
0.25
97
0.23
76
0.13
67
0.61
146
0.25
86
0.57
153
0.32
82
0.81
198
0.20
72
0.19
85
0.58
86
0.67
194
10.84
337
0.40
109
0.60
121
0.36
117
1.27
244
0.82
146
0.18
96
0.24
91
0.37
89
0.35
89
0.52
85
0.49
110
testlalalatwo views0.82
205
0.46
145
0.22
75
0.22
70
0.25
97
0.23
76
0.13
67
0.61
146
0.25
86
0.57
153
0.32
82
0.81
198
0.20
72
0.19
85
0.58
86
0.67
194
10.84
337
0.40
109
0.60
121
0.36
117
1.27
244
0.82
146
0.18
96
0.24
91
0.37
89
0.35
89
0.52
85
0.49
110
testlalala_basetwo views0.82
205
0.46
145
0.22
75
0.22
70
0.25
97
0.23
76
0.13
67
0.61
146
0.25
86
0.57
153
0.32
82
0.81
198
0.20
72
0.19
85
0.58
86
0.67
194
10.84
337
0.40
109
0.60
121
0.36
117
1.27
244
0.82
146
0.18
96
0.24
91
0.37
89
0.35
89
0.52
85
0.49
110
GCAP-Stereotwo views0.82
205
0.46
145
0.22
75
0.22
70
0.25
97
0.23
76
0.13
67
0.61
146
0.25
86
0.57
153
0.32
82
0.81
198
0.20
72
0.19
85
0.58
86
0.67
194
10.84
337
0.40
109
0.60
121
0.36
117
1.27
244
0.82
146
0.18
96
0.24
91
0.37
89
0.35
89
0.52
85
0.49
110
GEStereo_RVCtwo views0.83
211
0.59
228
0.42
171
0.54
208
0.50
212
0.61
219
0.51
211
0.71
212
0.43
209
0.60
174
0.52
165
0.78
193
0.49
216
0.40
218
0.99
179
0.96
254
0.79
248
0.75
275
1.96
241
0.65
240
0.82
206
4.23
274
0.32
203
0.56
244
0.65
187
0.64
164
0.85
192
1.13
236
FCDSN-DCtwo views0.83
211
0.62
238
0.63
236
0.67
235
0.63
240
0.60
217
0.61
228
0.68
198
0.42
206
0.75
256
0.42
122
0.60
148
0.36
173
0.50
248
1.90
259
0.70
216
0.81
252
0.78
278
0.65
136
0.57
209
0.73
184
4.71
284
0.48
243
0.89
283
0.70
196
0.78
197
0.62
123
0.69
174
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
CASStwo views0.84
213
0.56
218
0.58
222
0.66
234
0.57
227
0.60
217
0.59
222
0.78
243
0.53
226
0.71
246
0.75
230
0.69
173
0.48
212
0.29
177
0.93
160
0.70
216
1.12
285
0.55
213
1.66
229
0.59
216
2.89
296
1.98
228
0.38
220
0.38
191
0.91
248
0.80
200
0.91
207
1.01
219
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
Anonymous3two views0.85
214
0.60
231
0.45
179
0.38
152
0.44
195
0.57
211
0.50
209
0.79
247
0.64
246
0.68
234
0.48
141
1.49
261
0.54
225
0.31
187
1.53
242
1.39
302
0.90
261
0.82
287
1.53
222
0.70
257
1.35
257
2.55
244
0.41
229
0.42
206
0.78
219
0.88
214
1.03
229
0.70
177
GANet-ADLtwo views0.87
215
0.60
231
0.57
221
0.61
222
0.59
233
0.63
226
0.48
205
0.67
189
0.53
226
0.65
210
0.65
203
0.76
189
0.47
210
0.39
216
1.27
220
0.82
244
0.69
224
0.52
199
1.94
239
0.66
245
0.71
180
4.56
282
0.43
234
0.49
229
0.71
198
1.19
254
1.05
234
0.88
209
RTSCtwo views0.89
216
0.49
175
0.49
192
0.48
187
0.53
219
0.57
211
0.66
244
0.68
198
0.71
251
0.55
140
0.79
235
0.59
144
0.60
238
0.43
229
4.83
319
0.96
254
0.99
277
0.60
238
1.40
219
0.60
222
0.97
220
1.51
205
0.32
203
0.57
246
0.63
178
0.73
186
0.96
218
1.39
251
MSMDNettwo views0.92
217
0.53
207
0.54
213
0.35
142
0.36
160
0.45
172
0.34
178
0.69
203
0.30
130
0.63
197
0.72
224
0.72
179
0.36
173
0.23
117
1.05
188
1.51
315
0.64
208
0.51
195
2.89
275
0.82
270
1.60
262
5.72
304
0.24
163
0.32
149
0.76
211
0.84
206
0.86
196
0.75
192
LALA_ROBtwo views0.92
217
0.98
285
0.69
253
0.64
229
0.71
252
0.84
257
0.69
250
0.71
212
0.82
264
0.68
234
1.06
255
2.63
284
0.58
233
0.51
251
1.59
246
0.70
216
0.87
258
0.73
269
0.93
187
0.69
256
0.91
216
1.74
213
0.50
247
0.64
256
0.78
219
0.92
222
1.19
253
1.25
244
model_zeroshottwo views0.93
219
0.47
158
0.49
192
0.44
177
0.41
187
0.43
168
0.28
155
0.72
219
0.37
178
0.63
197
1.22
268
0.98
226
0.30
120
0.25
142
2.00
266
1.37
299
0.69
224
0.55
213
3.10
279
0.75
266
1.25
241
2.31
239
0.23
153
0.41
200
1.11
279
1.11
245
1.07
237
2.16
278
dadtwo views0.93
219
0.58
226
0.38
144
1.42
291
0.64
243
0.78
252
2.27
299
1.43
302
0.38
185
0.93
288
0.39
112
0.85
211
0.79
253
0.34
202
1.20
206
0.57
157
0.79
248
0.46
157
1.86
236
0.41
159
0.79
200
0.69
125
0.30
196
0.51
232
1.17
283
0.47
128
2.78
323
1.90
270
cross-rafttwo views0.93
219
0.57
224
0.52
208
0.44
177
0.35
155
0.42
163
0.28
155
0.73
226
0.33
159
0.65
210
0.72
224
0.74
185
0.30
120
0.23
117
1.13
193
1.20
286
0.63
204
0.48
172
2.91
276
0.61
225
1.80
272
5.83
309
0.23
153
0.34
165
0.84
239
0.89
217
0.94
214
0.98
215
SGM-Foresttwo views0.93
219
0.71
253
0.40
155
1.13
275
0.66
245
0.75
247
0.46
203
0.68
198
0.39
190
0.61
181
0.45
136
1.17
247
1.11
264
0.49
246
1.46
236
0.64
185
0.56
149
0.47
165
0.75
159
0.46
175
0.64
165
4.86
285
0.45
236
0.47
219
0.92
250
0.89
217
2.04
307
1.59
259
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
AnonymousMtwo views0.94
223
0.35
84
0.22
75
0.24
88
0.23
85
0.21
66
0.15
87
0.57
125
0.21
65
0.57
153
0.44
132
0.46
101
0.16
54
0.19
85
0.64
107
0.60
166
0.56
149
0.40
109
0.55
100
0.35
113
0.68
173
1.23
189
0.21
133
0.24
91
0.32
67
0.54
146
1.89
300
13.18
339
EAI-Stereotwo views0.94
223
0.52
199
0.62
232
0.52
201
0.50
212
0.57
211
0.64
234
0.72
219
0.37
178
0.62
189
2.08
298
0.84
209
0.26
100
0.26
155
1.99
265
1.49
312
0.61
187
0.50
188
3.11
280
0.65
240
0.88
215
2.39
241
0.20
116
0.36
181
0.81
229
1.09
243
1.59
290
1.15
238
FC-DCNNcopylefttwo views0.95
225
0.97
284
1.28
302
1.39
290
0.98
279
1.34
288
0.91
269
0.94
267
0.80
261
0.87
283
0.66
209
1.14
245
0.54
225
0.57
265
0.93
160
0.74
227
0.82
253
0.69
260
0.87
178
0.60
222
0.81
203
0.93
170
0.50
247
0.88
281
1.28
288
1.14
247
1.29
264
1.92
271
ETE_ROBtwo views0.95
225
0.91
279
0.60
225
0.68
236
0.71
252
0.85
258
0.65
237
0.67
189
0.90
272
0.64
204
1.06
255
2.65
285
0.55
230
0.55
260
1.45
235
0.75
232
0.94
269
0.64
245
1.02
195
0.70
257
0.98
221
2.12
232
0.51
255
0.61
252
0.81
229
0.92
222
1.53
286
1.25
244
RAFT-Testtwo views0.97
227
0.51
191
0.52
208
0.53
204
0.35
155
0.41
159
0.30
166
0.72
219
0.31
143
0.62
189
3.46
314
0.68
170
0.32
140
0.23
117
1.20
206
1.42
306
0.63
204
0.50
188
3.05
278
0.68
252
1.73
268
2.86
252
0.24
163
0.32
149
0.82
234
1.87
294
0.95
217
0.89
210
GwcNet-ADLtwo views0.97
227
0.85
274
0.82
264
0.91
260
0.72
256
0.71
242
0.55
215
0.78
243
0.51
224
0.72
248
4.46
319
1.21
249
0.67
248
0.47
243
0.97
172
0.97
259
0.75
241
0.56
220
1.30
214
0.74
265
0.70
179
1.12
183
0.59
272
0.60
248
0.82
234
1.02
235
0.91
207
1.71
265
iResNettwo views0.97
227
0.57
224
0.64
241
0.75
245
0.71
252
1.00
268
0.58
220
1.00
276
0.58
238
0.66
220
0.82
241
1.42
260
1.53
280
0.31
187
1.82
256
0.71
220
0.76
246
0.68
256
4.15
287
0.72
262
0.91
216
0.82
146
0.42
231
0.96
287
0.75
207
0.90
219
1.03
229
0.87
207
ADCP+two views0.98
230
0.59
228
0.63
236
0.44
177
0.45
197
0.56
208
0.91
269
0.66
186
1.76
309
0.48
100
1.07
258
1.65
269
0.34
157
0.43
229
1.95
263
0.54
146
0.54
138
0.48
172
1.25
211
0.41
159
0.65
167
1.35
197
0.33
208
0.32
149
0.67
193
3.29
319
0.79
172
3.83
309
EKT-Stereotwo views1.00
231
0.65
242
0.61
226
0.59
217
0.49
209
0.62
223
0.74
256
0.71
212
0.32
151
0.64
204
1.67
292
0.74
185
0.32
140
0.27
166
1.35
226
1.29
293
0.70
231
0.78
278
1.50
221
0.61
225
1.73
268
6.50
318
0.22
141
0.34
165
0.96
253
1.00
231
1.06
236
0.71
183
CC-Net-ROBtwo views1.00
231
1.19
298
0.70
255
1.57
295
1.10
285
1.68
300
1.26
285
0.79
247
0.60
240
0.81
272
0.58
182
3.27
295
0.58
233
0.88
296
1.04
187
0.46
96
0.75
241
0.66
251
1.43
220
0.59
216
0.60
151
0.53
91
1.88
315
0.47
219
0.88
245
0.82
203
0.79
172
1.19
240
CSANtwo views1.00
231
0.84
272
0.75
258
0.87
256
0.87
272
0.75
247
0.67
246
1.00
276
0.99
284
0.94
289
0.72
224
2.06
278
1.74
285
0.51
251
1.50
239
0.65
190
0.78
247
0.68
256
1.15
205
0.72
262
0.86
212
0.89
162
0.54
262
0.79
276
1.09
277
1.65
288
1.28
263
1.63
261
Reg-Stereo(zero)two views1.01
234
0.47
158
0.62
232
0.39
155
0.29
128
0.42
163
0.36
182
0.75
231
0.37
178
0.62
189
6.07
330
0.80
196
0.33
148
0.28
172
0.88
152
0.68
204
0.62
196
0.46
157
1.53
222
0.47
179
0.74
187
5.82
307
0.21
133
0.34
165
0.59
160
0.84
206
1.42
272
1.03
221
HItwo views1.01
234
0.47
158
0.62
232
0.39
155
0.29
128
0.42
163
0.36
182
0.75
231
0.37
178
0.62
189
6.07
330
0.80
196
0.33
148
0.28
172
0.88
152
0.68
204
0.62
196
0.46
157
1.53
222
0.47
179
0.74
187
5.82
307
0.21
133
0.34
165
0.59
160
0.84
206
1.42
272
1.03
221
FC-DCNN v2copylefttwo views1.02
236
0.99
287
1.34
307
1.51
294
1.00
280
1.44
293
0.89
265
1.09
286
0.86
266
0.87
283
0.70
218
1.18
248
0.89
259
0.57
265
0.94
166
0.74
227
0.82
253
0.69
260
0.90
183
0.60
222
0.81
203
0.94
171
0.50
247
0.88
281
1.39
293
1.22
257
1.45
276
2.29
281
FADNet_RVCtwo views1.02
236
0.69
250
0.58
222
0.90
258
0.80
269
0.56
208
0.56
217
0.78
243
0.56
232
0.70
243
0.92
247
1.40
258
1.11
264
0.55
260
2.54
283
0.68
204
0.85
256
0.90
293
3.38
284
0.82
270
1.24
239
2.31
239
0.38
220
0.64
256
0.71
198
0.90
219
1.03
229
1.14
237
ADCReftwo views1.02
236
0.65
242
0.50
199
0.39
155
0.48
203
0.67
236
0.71
255
0.61
146
1.07
286
0.52
122
0.63
194
0.76
189
0.43
199
0.39
216
2.08
272
0.74
227
0.62
196
0.59
234
1.57
225
0.61
225
0.74
187
1.42
199
0.50
247
0.47
219
0.80
225
1.24
261
0.82
182
7.57
331
PSMNet-ADLtwo views1.03
239
0.63
239
0.68
248
0.68
236
0.73
258
0.68
237
0.59
222
0.76
235
0.60
240
0.84
279
4.85
323
0.96
223
1.50
279
0.45
239
1.70
252
1.06
271
0.70
231
0.55
213
2.03
244
0.71
260
0.92
218
1.40
198
0.54
262
0.51
232
0.77
215
0.97
230
1.42
272
0.67
166
AMNettwo views1.03
239
0.98
285
0.95
271
0.98
268
1.01
281
1.04
269
0.96
274
0.86
262
0.93
275
0.97
292
1.01
254
1.12
242
0.82
254
1.05
304
1.03
185
1.10
275
1.17
287
1.05
300
1.08
200
1.05
292
1.14
232
1.06
180
0.84
288
0.99
293
1.02
268
1.06
241
1.20
254
1.30
247
test-1two views1.04
241
0.34
75
0.56
219
0.37
150
0.41
187
0.61
219
0.37
185
0.72
219
0.39
190
0.69
239
0.70
218
1.12
242
0.44
201
0.25
142
1.56
245
1.36
297
0.64
208
0.60
238
2.29
251
0.59
216
1.20
236
7.59
325
0.23
153
0.37
185
0.83
237
1.13
246
1.12
245
1.55
257
HHtwo views1.05
242
0.34
75
1.01
279
0.43
173
0.39
178
0.53
198
0.42
195
0.69
203
0.35
168
0.65
210
0.49
147
1.07
236
0.26
100
0.28
172
1.24
214
2.30
332
0.62
196
0.54
209
2.45
258
0.67
248
3.56
309
5.13
293
0.26
173
0.35
175
0.87
243
1.27
264
1.09
238
1.11
234
HanStereotwo views1.05
242
0.34
75
1.01
279
0.43
173
0.39
178
0.53
198
0.42
195
0.69
203
0.35
168
0.65
210
0.49
147
1.07
236
0.26
100
0.28
172
1.24
214
2.30
332
0.62
196
0.54
209
2.45
258
0.67
248
3.56
309
5.13
293
0.26
173
0.35
175
0.87
243
1.27
264
1.09
238
1.11
234
DAStwo views1.08
244
0.61
235
0.51
204
0.79
251
0.63
240
0.69
239
0.62
229
0.84
257
0.93
275
0.65
210
1.46
282
1.69
270
1.27
270
0.35
205
1.69
249
0.97
259
0.95
270
0.73
269
1.91
237
1.03
290
2.01
277
2.78
249
0.47
240
0.98
290
0.97
256
1.17
249
1.45
276
1.06
226
SepStereotwo views1.08
244
0.61
235
0.51
204
0.79
251
0.63
240
0.69
239
0.62
229
0.84
257
0.93
275
0.65
210
1.46
282
1.69
270
1.27
270
0.35
205
1.69
249
0.97
259
0.95
270
0.73
269
1.91
237
1.03
290
2.01
277
2.78
249
0.47
240
0.98
290
0.97
256
1.17
249
1.45
276
1.06
226
NOSS_ROBtwo views1.12
246
0.85
274
0.51
204
0.74
243
0.62
237
0.78
252
0.53
213
0.80
249
0.54
228
0.70
243
0.61
190
0.63
161
0.93
261
0.63
277
2.30
277
1.12
276
0.80
250
0.70
264
0.76
163
0.61
225
1.17
234
7.46
323
0.51
255
0.80
277
0.91
248
1.78
293
1.49
284
0.93
213
MSKI-zero shottwo views1.13
247
0.50
183
0.49
192
0.41
167
0.37
165
0.47
184
0.33
175
0.76
235
0.31
143
0.65
210
1.67
292
0.84
209
0.33
148
0.22
108
1.36
227
1.50
314
0.65
211
0.48
172
3.12
281
0.63
232
2.22
282
7.37
322
0.20
116
0.41
200
0.98
260
1.45
275
1.24
259
1.57
258
ITSA-stereotwo views1.17
248
0.73
255
0.62
232
1.22
281
0.86
271
0.66
232
0.70
253
0.95
269
0.78
259
0.84
279
2.26
300
1.41
259
1.24
269
0.82
291
1.61
247
1.03
265
0.88
260
0.67
255
1.59
226
0.63
232
1.32
254
2.11
231
0.56
268
0.77
271
0.99
262
1.26
263
1.02
227
3.94
310
DCVSM-stereotwo views1.22
249
0.67
245
0.81
263
0.91
260
0.67
247
1.16
280
0.74
256
0.95
269
0.81
262
1.04
297
3.89
316
3.69
302
1.60
282
0.50
248
2.30
277
0.88
249
0.71
235
0.59
234
2.11
246
0.89
277
1.16
233
1.24
190
0.84
288
0.77
271
0.80
225
1.18
252
1.09
238
1.07
228
SHDtwo views1.22
249
0.56
218
0.77
260
0.76
246
0.73
258
0.68
237
0.67
246
1.01
279
0.98
283
0.77
263
1.06
255
1.01
228
1.32
274
0.57
265
6.75
325
1.21
288
0.97
274
0.72
266
2.06
245
0.85
273
1.52
261
2.27
238
0.48
243
0.86
279
1.00
265
1.16
248
0.92
209
1.29
246
XQCtwo views1.22
249
0.91
279
0.73
256
0.92
263
0.94
276
0.94
265
0.89
265
1.10
287
0.91
273
0.85
281
1.10
262
1.07
236
1.40
277
0.73
285
4.40
312
1.15
279
0.91
265
0.69
260
1.69
231
0.89
277
1.26
242
2.63
246
0.63
276
0.77
271
1.21
285
1.88
295
1.27
262
1.10
233
DeepPrunerFtwo views1.23
252
0.50
183
0.40
155
0.57
214
2.81
324
0.50
189
0.67
246
0.53
103
0.57
235
0.43
78
0.65
203
0.44
94
0.33
148
0.42
225
1.72
253
0.77
236
0.60
177
0.47
165
0.95
190
0.48
186
0.66
170
0.82
146
0.41
229
0.38
191
14.97
346
0.87
213
0.66
137
0.61
150
ADCLtwo views1.30
253
0.83
271
0.67
246
0.60
220
0.53
219
0.74
245
0.95
272
0.77
241
2.74
329
0.68
234
0.99
253
0.89
218
0.52
222
0.52
254
1.90
259
0.67
194
0.69
224
0.58
228
1.26
212
0.67
248
1.22
238
1.42
199
0.51
255
0.51
232
1.51
304
1.42
274
0.89
204
10.57
335
ccs_robtwo views1.30
253
0.79
261
0.68
248
0.86
255
0.61
236
0.90
264
0.84
263
0.99
274
0.52
225
0.75
256
6.22
332
5.88
317
1.15
267
0.51
251
1.29
221
1.13
278
0.69
224
0.66
251
1.17
207
0.73
264
1.60
262
2.54
243
0.50
247
0.56
244
0.71
198
0.78
197
0.90
205
1.19
240
PWC_ROBbinarytwo views1.31
255
0.71
253
1.05
284
0.61
222
0.72
256
0.72
243
1.06
277
0.85
260
1.54
304
0.76
261
1.39
278
1.03
232
2.52
296
0.58
272
2.91
287
1.03
265
1.16
286
0.90
293
2.44
257
0.98
284
1.99
276
3.73
267
0.45
236
1.00
294
0.85
241
0.88
214
1.26
261
2.28
280
IGEV-FEtwo views1.32
256
0.47
158
1.27
299
1.16
276
0.48
203
0.61
219
0.65
237
0.80
249
0.41
198
0.67
229
4.97
325
0.97
224
0.31
130
0.26
155
1.20
206
1.48
310
0.61
187
0.49
179
2.55
262
0.66
245
2.22
282
8.15
331
0.22
141
0.41
200
1.05
271
1.03
238
1.16
250
1.43
252
IGEV_Zeroshot_testtwo views1.32
256
0.47
158
1.27
299
1.16
276
0.48
203
0.61
219
0.65
237
0.80
249
0.41
198
0.67
229
4.86
324
0.97
224
0.31
130
0.26
155
1.20
206
1.48
310
0.61
187
0.49
179
2.56
263
0.66
245
2.26
284
8.15
331
0.22
141
0.41
200
1.05
271
1.03
238
1.16
250
1.43
252
RTStwo views1.35
258
0.60
231
0.63
236
0.61
222
0.59
233
0.96
266
1.15
281
0.81
253
0.87
268
0.60
174
0.71
220
1.31
253
0.62
241
0.54
258
7.39
329
1.17
283
1.20
288
0.78
278
2.36
255
0.88
274
1.29
250
1.87
218
0.50
247
0.69
262
1.39
293
4.38
328
1.15
248
1.45
255
RTSAtwo views1.35
258
0.60
231
0.63
236
0.61
222
0.59
233
0.96
266
1.15
281
0.81
253
0.87
268
0.60
174
0.71
220
1.31
253
0.62
241
0.54
258
7.39
329
1.17
283
1.20
288
0.78
278
2.36
255
0.88
274
1.29
250
1.87
218
0.50
247
0.69
262
1.39
293
4.38
328
1.15
248
1.45
255
UDGtwo views1.44
260
2.27
311
1.02
282
2.58
302
2.46
316
2.49
305
2.57
305
0.76
235
0.86
266
0.77
263
1.07
258
1.54
262
0.66
247
2.59
317
1.37
229
0.72
223
2.12
309
0.82
287
2.32
253
1.00
287
1.33
256
1.93
225
1.63
312
0.67
260
0.76
211
0.83
204
0.96
218
0.80
199
DDUNettwo views1.45
261
2.20
309
0.95
271
2.67
304
2.44
315
2.57
306
2.52
303
0.80
249
0.84
265
0.63
197
0.95
250
1.61
268
0.54
225
2.64
320
1.14
197
0.79
239
2.07
307
0.79
284
2.32
253
0.94
282
1.26
242
1.85
216
2.70
318
0.61
252
0.74
205
0.75
189
0.99
225
0.84
205
FBW_ROBtwo views1.50
262
1.46
303
1.13
293
2.05
301
1.56
303
1.42
291
2.03
298
1.00
276
0.71
251
0.73
251
1.21
267
2.38
279
0.93
261
1.53
312
2.03
268
0.63
179
0.90
261
0.66
251
6.51
306
0.63
232
1.69
265
1.54
208
1.47
311
1.14
304
1.05
271
1.23
258
1.02
227
1.77
266
MFN_U_SF_DS_RVCtwo views1.53
263
0.91
279
0.64
241
1.28
285
0.94
276
1.25
286
2.61
308
1.29
291
1.18
290
0.99
294
0.89
245
1.87
275
1.18
268
1.17
306
4.72
317
0.81
242
0.74
239
0.58
228
2.74
272
0.71
260
2.13
280
3.81
269
0.85
291
0.76
269
1.45
300
1.65
288
1.36
269
2.88
296
AIO-Stereo-zeroshotpermissivetwo views1.54
264
0.50
183
1.32
304
0.77
248
0.45
197
1.06
271
0.69
250
0.77
241
0.62
244
0.79
267
6.69
338
1.04
233
0.35
167
0.26
155
1.31
222
1.71
320
0.69
224
0.72
266
2.66
269
0.67
248
2.89
296
7.46
323
0.20
116
0.48
226
1.02
268
2.82
314
1.34
266
2.33
284
HBP-ISPtwo views1.57
265
0.87
277
0.96
274
0.99
269
0.71
252
0.88
260
0.56
217
0.89
265
0.54
228
0.82
274
0.88
243
1.01
228
0.36
173
0.70
283
7.21
327
5.74
341
0.71
235
0.70
264
0.74
156
0.64
238
1.32
254
8.85
333
0.50
247
0.67
260
0.85
241
1.00
231
2.10
308
1.16
239
CBMVpermissivetwo views1.58
266
0.86
276
0.61
226
0.89
257
0.84
270
0.78
252
0.55
215
0.90
266
0.81
262
0.82
274
0.63
194
3.20
293
0.83
255
0.52
254
2.06
271
1.17
283
0.96
273
0.74
274
2.62
265
0.68
252
2.85
294
7.74
327
0.49
245
1.14
304
1.10
278
1.23
258
2.42
315
5.18
320
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
MFMNet_retwo views1.60
267
1.18
297
1.12
292
1.28
285
1.17
292
1.64
298
1.39
291
1.30
293
1.62
305
1.14
302
1.36
277
2.69
286
1.82
286
0.90
298
2.94
289
1.37
299
1.57
298
1.32
319
3.84
286
1.26
306
2.71
292
1.71
212
1.17
301
1.29
313
1.13
280
1.02
235
1.59
290
1.69
264
FAT-Stereotwo views1.62
268
0.79
261
1.44
310
1.12
274
1.36
299
1.06
271
0.89
265
1.30
293
0.87
268
1.21
308
5.38
328
3.07
292
1.32
274
0.66
279
2.20
275
1.36
297
0.91
265
0.94
298
1.85
235
1.09
294
2.32
285
4.27
276
0.71
279
1.03
298
0.90
246
1.18
252
1.54
287
2.97
298
ADCMidtwo views1.65
269
0.92
282
1.01
279
0.71
241
0.87
272
1.07
273
1.52
294
1.33
295
1.73
308
0.75
256
1.66
289
1.30
252
1.53
280
0.73
285
2.87
286
1.09
273
1.00
279
0.79
284
2.81
273
0.90
279
1.70
266
2.92
253
1.08
300
0.76
269
1.05
271
1.59
287
1.05
234
9.78
334
S-Stereotwo views1.70
270
0.82
266
0.95
271
1.19
279
1.22
293
1.32
287
1.59
295
1.03
280
1.08
287
1.24
310
4.20
317
4.08
308
1.12
266
0.67
281
3.06
292
1.65
319
0.91
265
1.05
300
2.24
250
1.12
296
1.50
260
5.83
309
1.32
310
1.21
310
0.90
246
1.17
249
1.25
260
2.15
277
AnyNet_C32two views1.81
271
0.66
244
0.75
258
0.68
236
0.75
265
0.89
262
1.33
289
0.97
272
3.04
333
0.75
256
1.43
281
0.98
226
0.65
244
0.71
284
4.23
310
1.15
279
1.11
284
0.95
299
1.83
233
0.79
267
2.38
289
3.19
257
0.67
278
0.92
284
1.14
281
2.45
309
1.17
252
13.30
340
PVDtwo views1.82
272
1.04
291
1.50
311
1.10
273
1.14
289
1.21
282
1.17
283
1.91
321
2.04
316
0.81
272
1.42
280
1.57
265
1.93
289
0.91
299
8.84
333
1.56
316
1.42
293
1.10
307
2.49
260
1.20
301
1.98
275
3.12
256
0.79
284
1.13
303
1.65
307
2.06
302
1.72
295
2.19
279
SANettwo views1.82
272
0.95
283
1.10
290
1.07
272
1.10
285
1.35
289
0.84
263
1.76
318
1.79
310
0.77
263
1.22
268
6.64
321
7.62
324
0.84
292
2.04
269
0.81
242
1.29
290
0.90
293
1.61
228
0.88
274
1.38
258
1.86
217
0.89
292
1.33
315
1.39
293
2.61
312
2.03
305
3.05
300
MSC_U_SF_DS_RVCtwo views1.83
274
1.25
300
1.05
284
1.57
295
1.11
287
1.22
283
3.48
315
1.50
303
2.11
317
1.30
312
0.96
251
1.56
263
1.05
263
1.92
314
4.01
304
1.25
291
0.90
261
1.05
300
6.24
303
1.22
304
1.75
270
3.71
266
1.18
302
1.17
307
1.51
304
1.50
281
1.12
245
2.71
293
MFN_U_SF_RVCtwo views1.86
275
1.06
292
0.88
266
1.27
284
1.03
282
1.56
296
2.57
305
1.40
300
1.19
292
1.50
323
2.86
308
2.04
277
1.60
282
2.16
315
4.89
320
1.02
264
0.93
268
0.83
290
6.71
307
1.21
303
3.28
302
2.85
251
0.65
277
1.16
306
1.25
286
1.33
270
1.29
264
1.66
262
G-Nettwo views1.89
276
0.99
287
1.27
299
0.92
263
0.97
278
1.11
276
0.80
260
1.62
310
2.02
315
1.00
295
2.80
307
7.25
325
1.67
284
0.55
260
1.85
258
1.77
323
1.07
280
0.92
296
3.00
277
2.69
336
1.95
274
1.95
226
0.80
285
1.04
299
1.06
276
1.69
291
2.80
325
5.50
322
SAMSARAtwo views1.90
277
0.80
264
1.02
282
0.94
265
0.93
275
0.88
260
1.07
278
1.60
309
1.28
294
0.97
292
1.07
258
1.33
255
2.67
301
0.88
296
8.67
332
1.44
309
1.09
283
0.93
297
2.65
266
1.06
293
2.36
287
3.27
258
0.58
271
1.04
299
2.85
323
4.21
327
2.73
322
2.88
296
edge stereotwo views1.94
278
1.17
296
2.17
322
1.48
292
1.31
297
1.61
297
1.43
293
1.68
313
1.28
294
1.19
306
3.32
313
4.32
311
2.92
304
0.81
290
2.94
289
1.49
312
1.08
282
0.82
287
5.33
296
0.98
284
1.70
266
4.30
278
0.95
298
0.94
285
1.34
290
1.21
256
1.72
295
2.87
295
pmcnntwo views1.94
278
0.81
265
0.54
213
1.21
280
1.23
294
1.23
285
0.99
276
0.97
272
0.55
230
0.75
256
2.87
309
4.26
310
5.53
314
0.32
194
2.16
273
1.42
306
1.30
291
0.89
292
4.30
290
1.01
288
4.96
328
5.40
299
0.92
294
1.01
296
1.14
281
1.02
235
2.43
316
3.12
301
gcap-zeroshottwo views1.97
280
0.45
139
0.90
269
0.59
217
0.38
172
0.56
208
0.30
166
0.73
226
0.29
123
0.74
255
2.87
309
1.22
251
0.34
157
0.25
142
1.47
238
1.39
302
0.62
196
0.55
213
29.53
342
0.81
269
1.07
228
3.94
270
0.24
163
0.37
185
0.79
223
1.00
231
0.96
218
0.75
192
ADCStwo views2.04
281
1.07
293
1.00
277
0.94
265
1.14
289
1.12
277
1.36
290
1.33
295
2.44
321
0.89
285
1.32
275
1.60
266
3.55
305
0.93
301
3.79
302
2.20
331
1.53
296
1.25
316
3.17
282
1.36
308
3.65
314
4.50
281
0.80
285
1.17
307
1.34
290
4.40
331
1.46
280
5.67
323
FINETtwo views2.14
282
0.39
102
0.40
155
0.45
183
0.31
141
0.36
140
0.37
185
0.46
85
0.46
216
0.48
100
0.42
122
0.49
110
0.41
193
0.30
183
10.18
337
0.64
185
0.52
124
0.37
97
0.69
144
0.38
136
0.57
137
0.65
119
0.31
201
0.33
159
0.54
140
36.06
352
0.61
120
0.59
146
iRaft-Stereo_20wtwo views2.15
283
0.53
207
1.39
308
1.22
281
0.48
203
0.79
255
0.50
209
0.75
231
0.43
209
0.73
251
6.67
337
0.86
213
0.29
114
0.27
166
1.12
192
1.28
292
0.61
187
0.45
148
1.83
233
0.63
232
1.11
230
5.64
302
0.22
141
0.28
129
0.96
253
25.03
346
1.45
276
2.62
290
SQANettwo views2.17
284
2.74
315
1.21
294
3.10
312
2.22
311
3.35
311
2.73
310
0.95
269
0.65
248
1.00
295
0.73
228
2.76
287
1.34
276
2.32
316
3.29
297
0.63
179
1.34
292
0.73
269
10.90
321
0.70
257
2.37
288
3.46
262
3.27
320
0.60
248
1.05
271
1.52
282
1.39
271
2.31
283
DDF-Stereotwo views2.19
285
0.44
131
0.30
118
10.81
340
0.48
203
15.14
348
0.69
250
0.72
219
0.29
123
0.66
220
0.50
154
18.19
344
0.65
244
0.27
166
0.76
131
0.66
192
0.61
187
0.46
157
1.34
215
0.41
159
0.83
207
1.95
226
0.27
180
0.26
112
0.50
122
0.45
118
0.92
209
0.66
164
MADNet+two views2.24
286
1.21
299
1.26
298
1.48
292
1.30
296
1.12
277
2.54
304
1.95
322
1.46
302
1.34
314
1.29
274
2.44
281
2.24
292
1.30
310
8.99
334
2.12
329
2.64
319
1.14
310
2.82
274
1.90
326
4.19
318
4.31
279
1.30
308
2.17
338
2.03
313
1.57
283
1.59
290
2.76
294
ADCPNettwo views2.25
287
0.78
260
0.91
270
0.83
254
1.24
295
0.87
259
1.74
296
1.04
282
1.32
296
0.83
277
1.84
296
1.05
234
8.05
326
0.76
289
4.11
305
1.21
288
0.99
277
0.72
266
4.28
289
1.01
288
1.66
264
3.55
265
0.73
280
0.80
277
1.57
306
2.02
300
1.35
268
15.39
342
CBMV_ROBtwo views2.30
288
0.82
266
0.68
248
1.36
289
1.15
291
1.09
275
0.82
261
1.03
280
0.57
235
0.72
248
0.82
241
9.72
336
6.90
321
0.58
272
4.50
314
0.77
236
0.82
253
0.59
234
5.75
298
1.23
305
4.26
319
5.15
295
0.53
260
0.73
265
1.47
301
3.61
324
2.91
326
3.40
304
DDVStwo views2.34
289
0.70
252
0.83
265
0.70
240
0.75
265
0.75
247
0.60
224
1.08
285
0.87
268
0.82
274
32.66
353
3.89
305
1.27
270
0.53
257
1.37
229
1.39
302
0.74
239
0.66
251
2.14
247
0.96
283
1.75
270
3.32
259
0.49
245
0.60
248
0.72
202
0.88
214
1.37
270
1.33
249
SPS-STEREOcopylefttwo views2.34
289
1.27
301
1.24
297
1.58
297
1.36
299
1.49
294
1.27
286
1.67
312
1.36
299
1.38
316
2.76
306
3.04
291
1.30
273
1.06
305
4.12
307
1.82
325
1.66
300
1.39
322
9.69
318
1.36
308
4.41
321
7.92
329
1.28
306
1.43
317
1.48
302
1.76
292
2.03
305
2.03
274
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
AnyNet_C01two views2.37
291
1.10
295
1.07
287
1.16
276
1.12
288
1.05
270
3.27
313
1.75
316
2.58
326
1.20
307
1.66
289
3.03
290
2.81
303
1.03
303
4.41
313
3.73
338
2.42
313
2.18
338
3.18
283
1.64
320
4.45
323
7.10
320
1.26
303
1.22
311
2.09
314
1.57
283
1.52
285
4.30
312
RainbowNettwo views2.44
292
2.98
322
1.98
319
3.35
317
2.61
320
3.55
313
3.57
318
1.29
291
0.91
273
1.53
325
0.89
245
3.23
294
2.50
295
2.96
324
2.91
287
0.91
250
1.93
302
1.05
300
5.80
299
1.56
316
3.09
299
4.31
279
4.23
325
1.01
296
1.40
298
1.57
283
1.81
299
2.97
298
otakutwo views2.54
293
3.10
326
1.32
304
3.38
318
2.41
314
3.63
316
3.11
311
1.05
284
0.97
281
1.13
299
0.81
240
2.95
288
1.88
288
2.63
319
3.57
300
0.67
194
1.56
297
0.77
277
13.58
329
1.10
295
2.70
291
4.14
273
4.46
328
0.78
274
1.18
284
1.37
273
1.72
295
2.50
289
Ntrotwo views2.56
294
3.44
334
1.64
312
3.56
320
2.56
319
3.77
321
3.41
314
1.11
289
1.04
285
1.16
304
0.92
247
2.98
289
1.40
277
2.75
323
3.10
294
0.68
204
1.91
301
0.84
291
11.74
324
1.16
297
2.88
295
5.44
300
4.15
324
0.75
267
1.27
287
1.58
286
1.61
293
2.30
282
ACVNet-4btwo views2.61
295
2.78
318
1.77
314
3.15
313
2.34
313
3.59
315
3.82
321
1.34
297
1.35
298
1.27
311
0.72
224
3.29
297
2.76
302
3.05
327
3.12
295
0.82
244
2.46
314
1.10
307
10.23
320
1.26
306
3.40
304
5.28
297
4.07
323
0.95
286
1.28
288
1.29
266
1.47
282
2.47
288
ACVNet_1two views2.64
296
3.24
329
2.43
325
4.43
327
3.01
328
3.83
323
4.20
326
1.35
298
1.18
290
1.22
309
1.08
261
3.35
298
2.52
296
3.12
329
1.93
262
0.72
223
2.67
320
1.17
312
9.65
317
1.16
297
3.59
312
2.70
247
4.47
329
1.11
301
1.43
299
2.04
301
1.46
280
2.10
275
SFCPSMtwo views2.77
297
0.82
266
0.65
243
0.77
248
0.70
251
0.74
245
0.63
232
0.84
257
0.97
281
0.71
246
1.85
297
2.58
282
4.16
308
0.57
265
2.35
280
0.96
254
0.75
241
0.64
245
44.80
351
1.20
301
0.92
218
1.50
203
0.56
268
0.60
248
0.97
256
0.96
228
1.22
258
1.37
250
DGSMNettwo views2.86
298
0.99
287
1.40
309
1.06
270
1.09
284
1.14
279
1.07
278
1.42
301
0.94
279
2.17
338
11.83
349
1.77
272
1.86
287
0.95
302
7.21
327
3.88
339
6.07
331
1.70
331
5.05
294
1.75
323
7.07
340
8.89
334
0.97
299
1.24
312
1.03
270
1.46
277
1.44
275
1.85
267
DPSNettwo views2.86
298
0.84
272
0.79
261
1.23
283
1.35
298
1.35
289
0.95
272
1.10
287
1.48
303
0.80
269
1.17
264
7.04
323
4.28
310
0.75
288
6.78
326
2.57
334
1.59
299
1.27
318
14.87
333
1.61
319
5.07
329
9.58
335
1.81
314
1.44
319
1.49
303
2.52
310
1.66
294
1.87
269
MonStereo1two views2.90
300
2.91
321
1.86
316
3.96
324
3.79
337
3.64
317
3.76
319
1.56
305
1.64
306
1.44
318
1.58
285
4.91
314
6.90
321
3.02
326
2.30
277
0.96
254
2.10
308
1.36
321
6.47
305
1.77
325
3.44
305
4.12
272
4.85
334
0.96
287
1.73
308
2.01
299
2.69
321
2.63
291
PSMNet_ROBtwo views2.93
301
3.42
333
2.10
320
2.90
308
2.09
309
4.14
326
3.88
322
1.50
303
1.44
301
1.61
328
2.63
305
3.83
304
5.07
311
5.05
337
3.50
298
0.96
254
2.14
310
1.10
307
8.78
313
1.70
322
2.75
293
2.96
255
5.52
339
1.38
316
2.15
315
2.21
305
1.95
302
2.38
286
WAO-7two views2.94
302
1.85
307
2.82
331
7.24
333
1.77
307
1.84
302
2.02
297
2.09
323
2.63
327
2.22
339
5.33
327
4.72
313
6.89
320
1.25
308
3.06
292
1.30
294
1.96
304
1.23
315
8.68
312
1.55
313
2.35
286
3.54
264
0.89
292
1.69
327
1.89
310
3.34
320
2.02
304
3.26
302
WAO-6two views2.96
303
2.29
312
1.76
313
3.04
310
2.29
312
3.05
309
3.14
312
1.77
319
2.34
320
1.52
324
1.58
285
4.04
307
5.83
315
2.65
321
3.52
299
1.40
305
5.11
330
1.42
326
5.06
295
1.57
317
3.08
298
5.20
296
2.70
318
1.78
329
2.74
320
3.12
318
2.78
323
5.24
321
Deantwo views2.99
304
3.25
330
1.92
317
5.91
330
3.47
335
3.67
318
3.78
320
1.88
320
1.96
314
1.49
322
1.39
278
3.77
303
4.25
309
2.99
325
2.38
281
0.98
262
2.82
321
1.33
320
6.23
302
1.76
324
3.56
309
5.37
298
4.77
330
1.59
324
2.73
319
2.30
306
2.62
320
2.67
292
IMH-64-1two views3.00
305
2.74
315
2.51
326
3.26
314
2.79
322
3.76
319
4.17
324
1.68
313
2.47
323
1.13
299
1.25
271
3.66
300
6.37
316
3.61
330
2.63
284
1.16
281
2.53
315
1.41
324
6.20
300
1.55
313
3.46
306
5.75
305
4.82
332
1.44
319
2.82
321
1.99
297
2.35
310
3.59
305
IMH-64two views3.00
305
2.74
315
2.51
326
3.26
314
2.79
322
3.76
319
4.17
324
1.68
313
2.47
323
1.13
299
1.25
271
3.66
300
6.37
316
3.61
330
2.63
284
1.16
281
2.53
315
1.41
324
6.20
300
1.55
313
3.46
306
5.75
305
4.82
332
1.44
319
2.82
321
1.99
297
2.35
310
3.59
305
IMHtwo views3.37
307
2.80
319
2.52
328
3.30
316
2.81
324
3.78
322
4.24
327
1.75
316
2.57
325
1.17
305
1.23
270
3.99
306
10.97
329
5.78
343
2.21
276
1.12
276
2.58
317
1.39
322
6.86
308
1.60
318
3.49
308
5.44
300
4.89
336
1.50
322
3.02
325
2.37
308
2.52
317
5.01
317
anonymitytwo views3.37
307
0.42
118
1.10
290
0.58
215
0.43
191
0.48
185
0.31
173
0.78
243
0.35
168
0.62
189
65.69
357
0.87
214
0.30
120
0.25
142
1.14
197
1.37
299
0.61
187
0.44
140
1.39
218
0.63
232
0.75
192
7.27
321
0.25
171
0.32
149
0.99
262
1.23
258
1.10
243
1.44
254
SGM_RVCbinarytwo views3.37
307
1.46
303
0.88
266
1.79
299
1.36
299
1.81
301
1.40
292
1.65
311
1.12
289
0.83
277
1.60
287
7.12
324
3.65
306
0.43
229
2.16
273
0.62
173
0.80
250
0.58
228
11.35
323
0.68
252
2.17
281
1.08
181
0.52
259
0.98
290
2.24
316
1.97
296
6.00
342
34.83
351
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
ACVNet_2two views3.45
310
3.01
323
2.34
324
4.63
328
2.95
327
3.55
313
3.53
316
1.59
308
1.33
297
1.30
312
1.13
263
3.27
295
2.54
298
2.69
322
1.95
263
0.87
248
9.85
335
1.08
306
21.96
337
1.38
310
3.39
303
4.29
277
4.23
325
1.43
317
2.01
311
2.58
311
1.90
301
2.34
285
ELAS_RVCcopylefttwo views3.56
311
2.05
308
1.92
317
2.68
305
2.14
310
5.31
337
2.31
300
2.50
330
1.91
312
1.84
333
4.76
321
7.99
328
8.55
328
0.84
292
3.62
301
1.05
270
1.96
304
1.22
314
4.63
292
1.51
312
4.77
327
9.74
336
1.27
305
1.99
336
8.57
341
3.59
323
3.42
330
3.96
311
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views3.61
312
2.21
310
1.84
315
3.04
310
2.46
316
3.47
312
2.38
302
2.81
335
2.86
330
1.46
319
4.82
322
8.36
330
8.06
327
0.87
294
4.11
305
1.04
268
1.99
306
1.15
311
4.54
291
1.19
300
4.74
326
10.44
341
1.26
303
1.86
334
6.96
339
4.71
332
3.75
332
5.16
319
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MeshStereopermissivetwo views3.67
313
1.54
305
1.08
288
2.64
303
1.78
308
2.12
304
1.19
284
2.47
328
1.38
300
0.91
287
6.33
334
9.51
334
7.65
325
0.50
248
9.98
336
1.96
326
0.90
261
0.75
275
8.92
314
0.82
270
8.67
341
10.38
340
0.73
280
1.12
302
3.41
328
2.18
304
5.22
339
4.91
316
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
MDST_ROBtwo views4.20
314
2.33
313
0.80
262
3.91
323
1.60
306
2.83
307
1.12
280
1.14
290
0.79
260
0.78
266
1.19
265
1.60
266
25.00
342
0.36
208
11.29
339
0.67
194
0.68
223
0.49
179
4.16
288
0.65
240
1.82
273
6.21
317
0.61
275
0.78
274
8.88
342
3.05
316
18.20
349
12.37
337
DispFullNettwo views4.35
315
3.21
327
4.31
342
2.72
306
2.48
318
2.93
308
2.71
309
2.81
335
1.89
311
4.52
348
6.61
335
8.91
333
5.38
312
2.59
317
2.40
282
7.94
344
3.27
324
2.03
334
27.02
339
2.94
340
4.26
319
4.88
286
1.79
313
1.18
309
1.35
292
1.33
270
2.38
313
3.59
305
LVEtwo views4.48
316
3.05
324
2.13
321
26.62
348
3.20
331
3.95
324
12.38
347
1.56
305
1.65
307
1.86
334
1.66
289
3.36
299
4.03
307
3.08
328
2.05
270
1.07
272
2.36
312
1.44
327
17.31
335
1.64
320
3.69
315
5.87
311
4.40
327
1.82
332
2.86
324
2.32
307
2.39
314
3.29
303
WAO-8two views4.61
317
3.39
331
2.82
331
10.45
338
3.06
329
4.31
327
7.22
333
2.68
333
4.40
337
1.75
331
3.16
311
6.16
318
13.19
333
5.21
339
4.20
308
1.35
295
3.33
325
1.55
329
12.12
325
2.51
334
3.15
300
4.91
287
3.42
321
1.62
325
5.04
334
4.04
325
3.84
336
5.71
324
Venustwo views4.61
317
3.39
331
2.82
331
10.45
338
3.06
329
4.31
327
7.22
333
2.68
333
4.40
337
1.75
331
3.16
311
6.16
318
13.19
333
5.21
339
4.20
308
1.35
295
3.33
325
1.55
329
12.12
325
2.51
334
3.15
300
4.91
287
3.42
321
1.62
325
5.04
334
4.04
325
3.84
336
5.71
324
TRStereotwo views4.80
319
0.88
278
1.21
294
0.56
211
0.36
160
1.43
292
0.49
206
0.68
198
0.30
130
0.65
210
0.47
139
1.13
244
0.28
108
0.23
117
1.25
218
1.09
273
0.58
159
0.48
172
2.00
243
0.51
192
0.76
196
5.69
303
0.19
106
0.30
138
0.79
223
104.35
360
1.77
298
1.07
228
PWCKtwo views5.22
320
3.06
325
2.20
323
3.63
321
2.67
321
4.53
331
5.48
330
2.47
328
2.98
332
3.29
344
4.30
318
9.76
337
5.51
313
1.79
313
3.20
296
1.42
306
2.58
317
1.45
328
51.06
354
2.39
332
4.63
324
4.24
275
2.66
317
1.80
330
3.05
326
3.57
322
2.56
318
4.64
314
SGM-ForestMtwo views5.65
321
4.50
339
1.05
284
2.91
309
1.57
304
4.11
325
4.85
328
2.98
337
2.33
318
0.72
248
4.70
320
7.33
326
6.60
319
0.49
246
39.89
350
0.68
204
0.97
274
0.56
220
8.53
311
0.68
252
4.43
322
1.50
203
0.54
262
0.96
287
7.49
340
21.53
343
7.62
343
13.00
338
notakertwo views5.86
322
5.54
344
3.78
340
13.93
342
5.35
342
5.67
339
9.28
343
2.38
327
2.66
328
2.06
337
1.78
294
13.93
343
24.00
340
4.00
333
4.62
315
1.76
322
5.10
329
2.17
337
17.07
334
2.17
329
6.58
339
6.08
314
6.15
343
2.16
337
1.79
309
2.08
303
2.35
310
3.69
308
MADNet++two views5.91
323
3.53
335
3.85
341
2.86
307
4.61
340
3.06
310
4.05
323
4.68
343
5.50
339
4.18
347
5.19
326
6.42
320
6.59
318
6.60
344
7.82
331
6.76
342
4.79
328
4.06
343
7.98
310
5.77
344
9.82
344
16.30
346
2.35
316
4.40
347
4.10
333
14.38
339
5.24
340
4.57
313
JetBluetwo views6.09
324
3.86
336
3.31
338
6.02
331
4.23
339
6.50
340
9.13
341
3.53
338
2.89
331
1.48
320
1.60
287
8.25
329
1.97
291
5.45
342
6.44
324
3.14
336
3.63
327
2.97
341
5.48
297
2.48
333
10.91
345
12.33
343
4.85
334
2.26
339
6.93
338
17.02
340
3.81
335
24.06
346
AIO-Stereo-zeroshot1permissivetwo views6.10
325
0.61
235
1.30
303
0.77
248
0.74
261
1.19
281
0.83
262
0.81
253
0.96
280
0.80
269
6.66
336
1.02
230
0.37
182
0.27
166
1.82
256
1.97
327
0.71
235
0.62
242
123.79
357
0.58
214
1.43
259
7.73
326
0.23
153
0.40
197
0.96
253
4.91
333
1.12
245
2.12
276
UNDER WATER-64two views6.32
326
5.21
342
3.26
337
12.14
341
5.88
343
6.71
342
9.26
342
4.87
344
3.46
334
2.30
342
2.35
302
11.93
342
12.73
331
5.12
338
5.34
322
1.80
324
12.41
344
2.22
340
8.98
316
4.33
343
6.38
337
7.95
330
8.71
349
2.66
342
3.83
331
8.23
336
4.61
338
7.84
332
TorneroNet-64two views6.40
327
4.65
340
2.74
330
15.54
344
3.31
332
4.94
332
8.03
335
2.22
325
9.83
344
1.42
317
1.34
276
7.37
327
29.26
346
4.42
335
5.17
321
1.23
290
11.76
343
1.76
333
17.82
336
2.71
337
5.61
334
6.19
315
5.20
337
1.81
331
3.54
329
4.38
328
2.30
309
8.17
333
STStereotwo views6.54
328
2.50
314
5.20
344
5.17
329
2.86
326
5.44
338
3.55
317
6.26
346
6.79
340
1.56
326
7.62
341
9.51
334
14.78
337
0.67
281
10.87
338
0.93
251
0.98
276
0.64
245
36.61
347
1.16
297
2.12
279
4.60
283
0.80
285
1.84
333
5.84
336
11.36
337
3.79
333
23.26
345
SGM+DAISYtwo views7.37
329
1.43
302
1.33
306
1.85
300
1.57
304
2.10
303
2.58
307
1.57
307
1.92
313
1.37
315
7.84
342
8.83
332
13.00
332
1.27
309
12.20
340
2.02
328
1.50
295
1.26
317
11.20
322
1.43
311
6.12
336
10.35
339
1.28
306
1.58
323
22.91
348
36.14
353
3.33
329
41.05
355
UNDER WATERtwo views7.65
330
4.75
341
3.20
336
10.38
337
5.97
344
6.52
341
8.90
338
4.43
339
3.71
336
1.97
336
2.13
299
10.58
340
57.67
353
4.90
336
4.62
315
1.61
318
12.55
345
2.15
336
9.80
319
4.02
341
6.55
338
7.81
328
8.85
350
2.70
343
3.94
332
5.71
334
3.74
331
7.34
329
JetRedtwo views7.88
331
5.28
343
6.04
346
3.77
322
5.01
341
7.11
343
10.17
344
4.64
342
3.46
334
3.00
343
2.43
303
6.74
322
2.58
299
7.32
345
6.13
323
7.14
343
8.68
334
7.10
345
4.85
293
4.17
342
11.09
346
12.68
344
8.09
348
3.36
345
11.02
343
24.14
345
12.36
346
24.50
347
KSHMRtwo views8.09
332
4.19
337
3.02
335
20.01
347
3.97
338
5.23
336
5.85
331
2.62
332
2.46
322
2.23
340
2.33
301
4.57
312
77.01
357
5.26
341
3.82
303
1.74
321
3.01
323
2.05
335
30.62
343
2.04
328
5.15
330
6.07
313
7.51
347
1.94
335
3.25
327
2.86
315
3.03
327
6.46
327
MaskLacGwcNet_RVCtwo views8.44
333
0.67
245
1.08
288
0.97
267
0.87
272
0.82
256
1.29
287
0.85
260
0.73
253
0.90
286
5.88
329
182.08
358
2.36
293
1.37
311
1.72
253
1.04
268
0.95
270
1.05
300
6.37
304
0.80
268
3.60
313
4.99
289
0.56
268
0.86
279
1.00
265
1.48
280
1.21
256
2.39
287
LSM0two views8.46
334
1.08
294
0.97
275
1.68
298
1.46
302
1.66
299
2.34
301
2.26
326
2.33
318
1.64
329
3.73
315
4.12
309
7.50
323
0.66
279
61.95
357
74.50
358
1.94
303
1.07
305
12.24
327
2.24
330
5.75
335
11.09
342
0.92
294
1.32
314
2.02
312
3.44
321
3.80
334
14.65
341
ACV-stereotwo views8.54
335
1.03
290
0.99
276
1.31
287
0.73
258
1.51
295
0.96
274
0.88
263
1.09
288
1.07
298
1.26
273
1.09
239
24.12
341
0.52
254
4.26
311
3.65
337
1.07
280
0.79
284
168.90
358
1.90
326
3.75
316
3.35
261
0.73
280
0.75
267
0.78
219
1.47
278
1.57
289
1.05
224
ktntwo views8.56
336
3.21
327
2.95
334
6.28
332
3.33
333
4.46
330
10.27
345
2.14
324
9.87
345
2.28
341
1.79
295
40.24
351
55.84
352
3.95
332
2.98
291
2.12
329
12.68
346
2.18
338
33.93
344
2.29
331
3.76
317
3.97
271
4.78
331
2.28
340
2.60
317
2.77
313
3.18
328
5.01
317
TorneroNettwo views8.57
337
4.31
338
2.73
329
29.82
350
3.34
334
5.12
333
6.26
332
2.59
331
9.76
342
1.48
320
2.49
304
11.42
341
68.87
356
4.30
334
4.82
318
1.20
286
10.34
336
1.71
332
23.71
338
2.90
339
5.60
333
5.95
312
5.37
338
1.69
327
3.61
330
3.06
317
2.60
319
6.24
326
zero-FEtwo views9.27
338
0.42
118
0.30
118
61.33
357
0.57
227
106.65
358
1.29
287
0.72
219
0.30
130
0.66
220
0.56
177
63.71
356
0.72
249
0.26
155
0.82
145
0.62
173
0.61
187
0.48
172
2.66
269
0.42
167
1.29
250
2.95
254
0.27
180
0.26
112
0.51
127
0.44
116
0.92
209
0.65
161
XX-Stereotwo views9.59
339
0.38
95
0.41
166
0.62
226
0.28
121
0.54
201
0.28
155
0.69
203
0.28
112
0.69
239
6.22
332
1.02
230
0.30
120
0.24
132
1.91
261
1.60
317
0.61
187
0.52
199
1.97
242
0.54
197
0.76
196
1.31
194
0.19
106
0.29
132
233.45
359
0.86
211
1.03
229
1.85
267
MANEtwo views10.17
340
2.87
320
4.55
343
3.48
319
3.67
336
4.33
329
5.37
329
5.85
345
8.41
341
1.15
303
6.84
340
8.81
331
11.91
330
0.74
287
34.96
347
9.77
346
2.33
311
17.98
350
8.97
315
0.99
286
5.17
331
10.08
337
0.75
283
2.44
341
19.90
347
30.18
349
24.05
352
39.03
354
DGTPSM_ROBtwo views12.60
341
5.94
345
17.42
351
4.21
325
7.87
345
5.18
334
8.36
336
4.59
340
11.62
347
4.53
349
8.72
343
5.12
315
17.04
338
12.93
349
25.30
346
14.55
348
6.98
332
15.75
348
13.36
328
12.08
348
9.26
342
21.71
349
5.68
340
11.58
349
12.26
344
31.67
350
13.08
347
33.34
349
DPSMNet_ROBtwo views13.44
342
5.95
346
17.43
352
4.22
326
7.88
346
5.18
334
8.37
337
4.59
340
11.63
348
4.55
350
8.85
344
5.31
316
22.17
339
12.96
350
41.18
353
14.59
349
7.06
333
15.81
349
14.45
332
12.09
349
9.28
343
21.72
350
5.68
340
11.58
349
12.30
345
31.67
350
13.08
347
33.34
349
WQFJA1++two views16.38
343
0.39
102
0.26
106
123.01
359
0.29
128
112.02
359
109.17
359
0.56
119
0.26
98
0.65
210
0.48
141
1.79
273
1.94
290
0.24
132
0.72
125
0.79
239
0.53
128
0.42
125
1.94
239
0.35
113
0.55
129
1.20
184
0.23
153
0.21
74
0.54
140
82.05
359
0.88
200
0.89
210
DLNR_Zeroshot_testpermissivetwo views17.85
344
67.20
359
1.21
294
81.88
358
0.36
160
0.45
172
74.74
358
0.76
235
0.28
112
0.69
239
0.57
178
1.21
249
0.30
120
8.16
346
84.46
358
99.85
359
23.71
350
15.03
347
7.28
309
0.56
205
5.49
332
3.79
268
0.19
106
0.46
214
0.77
215
0.84
206
0.81
179
0.80
199
LE_ROBtwo views18.13
345
1.84
306
5.86
345
9.46
336
53.77
359
8.04
344
45.58
353
11.04
351
28.98
352
1.91
335
6.75
339
38.77
350
49.52
351
0.36
208
14.59
341
0.59
162
0.86
257
0.60
238
36.50
346
7.48
346
4.68
325
6.20
316
25.95
354
12.06
351
26.61
349
25.97
347
28.65
354
36.99
352
DPSM_ROBtwo views18.33
346
16.23
348
21.89
353
9.40
334
8.73
347
13.60
346
9.09
339
10.89
348
15.09
349
8.44
351
8.95
345
10.11
338
13.19
333
16.30
351
18.97
342
18.97
351
18.34
348
20.44
351
13.82
330
14.87
351
26.45
352
27.55
351
6.48
344
14.45
353
32.48
354
38.81
354
37.03
356
44.38
356
DPSMtwo views18.33
346
16.23
348
21.89
353
9.40
334
8.73
347
13.60
346
9.09
339
10.89
348
15.09
349
8.44
351
8.95
345
10.11
338
13.19
333
16.30
351
18.97
342
18.97
351
18.34
348
20.44
351
13.82
330
14.87
351
26.45
352
27.55
351
6.48
344
14.45
353
32.48
354
38.81
354
37.03
356
44.38
356
HanzoNettwo views20.46
348
15.45
347
7.17
348
35.04
352
15.40
350
42.60
353
42.25
352
19.41
352
22.53
351
3.57
345
8.95
345
41.20
352
59.36
355
45.57
357
19.76
344
4.23
340
41.32
354
3.33
342
50.89
353
8.87
347
11.85
347
10.25
338
15.36
353
3.51
346
5.98
337
5.84
335
5.30
341
7.56
330
LRCNet_RVCtwo views21.82
349
29.16
351
11.33
350
31.73
351
29.10
355
34.20
352
27.48
350
21.70
355
10.00
346
29.64
356
30.45
352
32.28
348
25.87
343
34.03
355
20.67
345
2.95
335
25.60
351
21.94
353
44.10
350
20.69
353
15.98
350
6.68
319
36.66
355
27.37
355
2.65
318
1.65
288
8.66
345
6.68
328
BEATNet-Init1two views24.80
350
35.34
354
3.40
339
54.39
356
11.05
349
52.62
357
30.07
351
9.50
347
9.78
343
1.71
330
9.05
348
32.52
349
48.55
350
0.91
299
59.64
356
13.60
347
2.94
322
1.21
313
78.28
355
35.97
356
14.53
349
17.14
348
1.30
308
2.98
344
29.70
352
22.69
344
52.62
358
38.22
353
PMLtwo views30.79
351
20.86
350
7.14
347
29.36
349
20.49
354
28.87
351
10.60
346
10.92
350
87.59
359
20.00
355
153.26
359
98.26
357
119.13
358
10.64
348
9.27
335
9.16
345
16.55
347
7.27
346
34.78
345
7.44
345
12.95
348
13.29
345
5.71
342
6.19
348
32.49
356
12.75
338
34.25
355
12.19
336
FlowAnythingtwo views36.82
352
32.60
352
44.20
359
18.89
346
17.64
352
27.10
349
18.35
349
21.81
356
30.46
354
17.52
354
18.20
351
20.29
346
26.53
344
33.10
354
36.77
348
37.70
353
36.79
352
40.89
354
27.34
340
30.02
355
53.13
357
55.97
357
12.99
352
29.60
357
64.32
357
78.22
358
74.36
360
89.35
360
CasAABBNettwo views36.82
352
32.66
353
44.09
358
18.77
345
17.41
351
27.26
350
18.09
348
21.65
354
30.38
353
17.51
353
18.08
350
20.27
345
26.53
344
32.72
353
37.32
349
38.13
354
36.79
352
41.08
355
27.46
341
29.84
354
53.33
358
55.90
356
12.92
351
28.97
356
65.31
358
78.04
357
74.31
359
89.23
359
HaxPigtwo views41.43
354
43.78
356
40.67
355
44.87
353
47.40
357
44.66
354
45.90
354
46.29
357
45.65
356
48.99
357
49.28
354
47.25
354
43.73
348
43.21
356
40.38
352
39.12
356
48.32
355
51.04
356
43.25
348
42.26
357
42.89
354
36.79
353
50.70
357
43.01
359
27.27
350
19.90
341
20.68
350
21.39
344
AVERAGE_ROBtwo views41.95
355
44.71
357
42.09
356
45.93
354
46.78
356
45.54
355
46.49
355
47.00
358
43.80
355
49.16
358
49.81
355
47.19
353
43.01
347
49.34
358
40.06
351
38.39
355
48.88
356
51.23
357
43.85
349
42.36
358
43.28
355
39.80
354
49.36
356
42.83
358
28.47
351
20.13
342
23.38
351
19.90
343
MEDIAN_ROBtwo views44.92
356
47.22
358
43.96
357
48.39
355
49.65
358
48.09
356
49.12
356
49.68
359
46.28
357
52.49
359
53.49
356
50.50
355
45.47
349
49.67
359
43.04
354
41.33
357
51.67
357
54.31
358
46.89
352
45.84
359
45.76
356
41.31
355
52.59
358
45.67
360
30.78
353
26.35
348
25.34
353
27.98
348
GS-Stereotwo views0.08
13
0.10
20
0.19
22
0.17
15
0.25
24
0.16
24
FSDtwo views0.53
207
0.53
211
0.53
204
0.53
219
0.52
196
0.53
213
0.75
231
0.40
193
0.79
267
0.57
178
0.55
260
0.64
107
0.68
204
0.67
142
0.56
205
0.53
241
0.70
196
0.72
182
0.70
148
0.69
174
STTRV1_RVCtwo views0.82
266
0.67
246
1.06
270
0.75
265
1.07
273
0.90
268
0.94
267
0.93
275
0.95
291
1.19
265
1.84
274
2.61
300
0.87
294
1.01
263
1.49
294
0.73
269
2.75
338
2.45
290
1.00
294
1.39
293
1.47
278
1.98
303
4.80
315
DPSimNet_ROBtwo views42.01
355
9.19
349
15.49
343
19.18
353
8.81
345
51.60
357
21.45
353
69.48
358
4.09
346
130.66
358
21.85
347
59.34
354
9.82
347
51.06
355
15.06
350
4.22
344
102.54
356
14.43
350
17.28
351
16.43
347
6.62
346
13.29
352
45.88
356
8.52
344
55.57
358