This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
RSMtwo views0.15
17
0.16
30
0.12
35
0.14
38
0.09
20
0.14
39
0.06
16
0.10
1
0.08
7
0.09
4
0.15
28
0.14
15
0.10
27
0.07
18
0.22
29
0.25
30
0.21
17
0.20
27
0.18
7
0.17
34
0.25
33
0.18
23
0.08
15
0.10
21
0.16
9
0.16
12
0.27
33
0.15
17
BridgeDepthpermissivetwo views0.13
5
0.13
12
0.09
18
0.11
21
0.08
15
0.11
23
0.06
16
0.11
2
0.10
14
0.11
11
0.06
3
0.31
55
0.07
7
0.06
10
0.17
7
0.17
4
0.15
2
0.15
7
0.17
5
0.11
3
0.16
7
0.17
17
0.05
1
0.08
7
0.18
21
0.17
23
0.22
14
0.15
17
Tongfan Guan, Jiaxin Guo, Chen Wang, Yun-Hui Liu: BridgeDepth: Bridging Monocular and Stereo Reasoning with Latent Alignment. ICCV 2025 Highlight
MonStereotwo views0.15
17
0.14
21
0.13
38
0.12
29
0.12
38
0.10
18
0.08
35
0.11
2
0.11
18
0.14
24
0.13
22
0.17
25
0.11
32
0.07
18
0.20
21
0.23
25
0.23
26
0.17
17
0.21
20
0.15
26
0.19
15
0.18
23
0.08
15
0.08
7
0.22
40
0.18
24
0.23
17
0.24
49
MSCFtwo views0.16
28
0.15
26
0.09
18
0.14
38
0.09
20
0.11
23
0.07
24
0.11
2
0.15
40
0.14
24
0.09
11
0.17
25
0.11
32
0.06
10
0.25
37
0.23
25
0.23
26
0.20
27
0.23
29
0.15
26
0.24
30
0.21
38
0.11
48
0.10
21
0.19
27
0.22
42
0.27
33
0.15
17
MLG-Stereo_test1two views0.12
3
0.08
2
0.07
2
0.07
5
0.07
7
0.07
3
0.06
16
0.11
2
0.09
10
0.16
36
0.09
11
0.17
25
0.06
1
0.05
4
0.16
4
0.18
10
0.22
20
0.19
24
0.22
24
0.12
7
0.23
23
0.11
1
0.06
4
0.06
1
0.15
5
0.12
2
0.21
10
0.14
13
MLG-Stereotwo views0.12
3
0.10
6
0.08
5
0.06
1
0.08
15
0.06
1
0.04
1
0.11
2
0.09
10
0.15
29
0.07
6
0.16
18
0.06
1
0.05
4
0.17
7
0.18
10
0.22
20
0.19
24
0.19
12
0.12
7
0.21
19
0.12
5
0.06
4
0.06
1
0.15
5
0.12
2
0.20
8
0.14
13
AIO-Stereopermissivetwo views0.15
17
0.17
34
0.12
35
0.17
54
0.10
28
0.12
29
0.06
16
0.11
2
0.08
7
0.10
6
0.14
25
0.12
7
0.09
22
0.08
30
0.20
21
0.21
18
0.20
13
0.20
27
0.21
20
0.17
34
0.23
23
0.20
33
0.07
11
0.11
31
0.17
16
0.16
12
0.23
17
0.12
6
GSStereotwo views0.16
28
0.18
37
0.13
38
0.13
33
0.13
40
0.12
29
0.09
47
0.12
8
0.10
14
0.16
36
0.11
17
0.22
40
0.08
14
0.05
4
0.22
29
0.25
30
0.28
43
0.20
27
0.25
37
0.16
29
0.32
47
0.19
28
0.08
15
0.10
21
0.18
21
0.16
12
0.25
26
0.16
24
GASTEREOtwo views0.16
28
0.16
30
0.10
23
0.14
38
0.10
28
0.11
23
0.07
24
0.12
8
0.15
40
0.14
24
0.09
11
0.18
31
0.11
32
0.06
10
0.24
34
0.24
29
0.23
26
0.20
27
0.23
29
0.16
29
0.23
23
0.23
50
0.11
48
0.10
21
0.19
27
0.22
42
0.28
37
0.14
13
111111two views0.13
5
0.16
30
0.08
5
0.12
29
0.10
28
0.07
3
0.06
16
0.12
8
0.12
26
0.07
1
0.10
16
0.15
16
0.09
22
0.05
4
0.19
18
0.21
18
0.22
20
0.18
20
0.19
12
0.13
15
0.23
23
0.18
23
0.10
36
0.08
7
0.16
9
0.14
7
0.19
6
0.11
1
GIP-stereotwo views0.17
34
0.21
45
0.13
38
0.15
43
0.09
20
0.09
12
0.07
24
0.12
8
0.09
10
0.16
36
0.13
22
0.16
18
0.08
14
0.15
66
0.27
48
0.25
30
0.25
34
0.21
36
0.24
35
0.19
46
0.27
37
0.20
33
0.07
11
0.11
31
0.20
34
0.22
42
0.35
57
0.17
31
Occ-Gtwo views0.18
39
0.26
58
0.15
46
0.17
54
0.14
48
0.15
46
0.07
24
0.12
8
0.11
18
0.11
11
0.22
58
0.20
37
0.09
22
0.10
43
0.28
53
0.28
45
0.25
34
0.22
40
0.29
46
0.19
46
0.26
35
0.19
28
0.10
36
0.15
53
0.19
27
0.18
24
0.29
40
0.17
31
CroCo-Stereo Lap2two views0.14
13
0.10
6
0.08
5
0.08
9
0.08
15
0.08
8
0.05
6
0.12
8
0.06
2
0.22
53
0.07
6
0.16
18
0.07
7
0.04
1
0.20
21
0.26
38
0.22
20
0.19
24
0.26
41
0.11
3
0.28
41
0.16
14
0.06
4
0.08
7
0.22
40
0.23
51
0.20
8
0.16
24
WQFJXtwo views0.15
17
0.13
12
0.09
18
0.11
21
0.09
20
0.13
36
0.09
47
0.13
14
0.15
40
0.11
11
0.33
101
0.11
4
0.36
182
0.06
10
0.17
7
0.17
4
0.15
2
0.14
6
0.18
7
0.13
15
0.14
2
0.15
10
0.10
36
0.11
31
0.18
21
0.19
30
0.21
10
0.16
24
AIO-test2two views0.11
1
0.07
1
0.07
2
0.06
1
0.05
2
0.07
3
0.04
1
0.13
14
0.12
26
0.11
11
0.14
25
0.16
18
0.07
7
0.06
10
0.15
2
0.17
4
0.15
2
0.13
5
0.16
4
0.11
3
0.17
10
0.13
6
0.06
4
0.08
7
0.11
1
0.14
7
0.10
1
0.11
1
Pointernettwo views0.11
1
0.09
3
0.06
1
0.07
5
0.06
4
0.09
12
0.08
35
0.13
14
0.06
2
0.11
11
0.09
11
0.10
2
0.07
7
0.06
10
0.16
4
0.16
3
0.19
11
0.11
1
0.18
7
0.09
1
0.17
10
0.11
1
0.08
15
0.07
4
0.14
3
0.12
2
0.24
23
0.12
6
RSM++two views0.17
34
0.18
37
0.13
38
0.17
54
0.10
28
0.14
39
0.07
24
0.13
14
0.13
30
0.12
18
0.14
25
0.17
25
0.11
32
0.08
30
0.25
37
0.27
44
0.25
34
0.21
36
0.23
29
0.18
39
0.26
35
0.21
38
0.08
15
0.10
21
0.20
34
0.18
24
0.29
40
0.18
34
MoCha-V2two views0.14
13
0.15
26
0.11
30
0.12
29
0.09
20
0.11
23
0.09
47
0.13
14
0.08
7
0.13
22
0.18
41
0.17
25
0.07
7
0.07
18
0.17
7
0.23
25
0.20
13
0.20
27
0.25
37
0.14
20
0.29
45
0.17
17
0.08
15
0.08
7
0.17
16
0.16
12
0.15
3
0.11
1
ProNettwo views0.14
13
0.13
12
0.14
43
0.11
21
0.07
7
0.14
39
0.12
66
0.13
14
0.06
2
0.08
2
0.24
66
0.09
1
0.06
1
0.07
18
0.22
29
0.21
18
0.22
20
0.18
20
0.19
12
0.14
20
0.20
16
0.11
1
0.12
56
0.11
31
0.16
9
0.13
5
0.17
4
0.12
6
MM-Stereo_test2two views0.15
17
0.19
39
0.11
30
0.16
48
0.11
34
0.08
8
0.05
6
0.14
20
0.11
18
0.20
47
0.08
10
0.12
7
0.08
14
0.09
37
0.20
21
0.22
22
0.25
34
0.20
27
0.20
17
0.18
39
0.25
33
0.21
38
0.10
36
0.10
21
0.16
9
0.16
12
0.21
10
0.16
24
CroCo-Stereocopylefttwo views0.13
5
0.09
3
0.08
5
0.07
5
0.04
1
0.06
1
0.04
1
0.14
20
0.05
1
0.10
6
0.03
1
0.13
11
0.06
1
0.04
1
0.24
34
0.26
38
0.20
13
0.18
20
0.20
17
0.11
3
0.24
30
0.15
10
0.05
1
0.06
1
0.22
40
0.20
32
0.23
17
0.15
17
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
WQFJA1two views0.15
17
0.14
21
0.08
5
0.11
21
0.09
20
0.12
29
0.08
35
0.15
22
0.16
43
0.10
6
0.36
109
0.11
4
0.28
115
0.07
18
0.18
15
0.17
4
0.17
8
0.15
7
0.19
12
0.12
7
0.14
2
0.15
10
0.11
48
0.11
31
0.16
9
0.16
12
0.23
17
0.16
24
NLMM1two views0.17
34
0.14
21
0.09
18
0.08
9
0.09
20
0.10
18
0.07
24
0.15
22
0.20
63
0.12
18
0.34
104
0.21
38
0.51
225
0.07
18
0.17
7
0.18
10
0.16
5
0.15
7
0.22
24
0.14
20
0.14
2
0.19
28
0.10
36
0.11
31
0.19
27
0.18
24
0.24
23
0.13
11
NLMMtwo views0.15
17
0.14
21
0.08
5
0.11
21
0.09
20
0.12
29
0.08
35
0.15
22
0.16
43
0.10
6
0.36
109
0.11
4
0.28
115
0.07
18
0.18
15
0.17
4
0.17
8
0.15
7
0.19
12
0.12
7
0.14
2
0.15
10
0.11
48
0.11
31
0.16
9
0.16
12
0.23
17
0.16
24
NLSM3two views0.15
17
0.13
12
0.10
23
0.11
21
0.10
28
0.10
18
0.08
35
0.15
22
0.17
45
0.11
11
0.17
37
0.12
7
0.13
43
0.11
47
0.21
25
0.20
14
0.20
13
0.17
17
0.17
5
0.12
7
0.16
7
0.16
14
0.08
15
0.11
31
0.18
21
0.23
51
0.27
33
0.18
34
LG-Stereotwo views0.15
17
0.11
8
0.08
5
0.09
14
0.11
34
0.11
23
0.05
6
0.15
22
0.11
18
0.19
45
0.12
20
0.26
47
0.09
22
0.06
10
0.19
18
0.20
14
0.23
26
0.16
14
0.18
7
0.14
20
0.23
23
0.20
33
0.05
1
0.08
7
0.17
16
0.18
24
0.24
23
0.15
17
MM-Stereo_test1two views0.13
5
0.13
12
0.08
5
0.11
21
0.06
4
0.08
8
0.05
6
0.15
22
0.11
18
0.16
36
0.07
6
0.15
16
0.06
1
0.07
18
0.17
7
0.18
10
0.23
26
0.17
17
0.22
24
0.14
20
0.20
16
0.14
7
0.08
15
0.08
7
0.16
9
0.13
5
0.25
26
0.15
17
CoSvtwo views0.13
5
0.17
34
0.08
5
0.08
9
0.07
7
0.17
53
0.07
24
0.15
22
0.10
14
0.13
22
0.06
3
0.10
2
0.07
7
0.04
1
0.17
7
0.20
14
0.21
17
0.12
3
0.22
24
0.12
7
0.20
16
0.11
1
0.06
4
0.07
4
0.22
40
0.15
10
0.19
6
0.11
1
IGEV-Stereo++two views0.16
28
0.24
53
0.09
18
0.13
33
0.13
40
0.10
18
0.05
6
0.15
22
0.13
30
0.12
18
0.16
33
0.16
18
0.11
32
0.07
18
0.21
25
0.22
22
0.22
20
0.18
20
0.21
20
0.16
29
0.22
22
0.27
60
0.09
29
0.08
7
0.17
16
0.18
24
0.25
26
0.18
34
AEACVtwo views0.19
44
0.31
70
0.14
43
0.17
54
0.13
40
0.12
29
0.07
24
0.15
22
0.07
6
0.16
36
0.15
28
0.18
31
0.11
32
0.11
47
0.25
37
0.25
30
0.32
48
0.23
43
0.35
57
0.18
39
0.27
37
0.22
46
0.11
48
0.11
31
0.20
34
0.22
42
0.25
26
0.18
34
MatchStereotwo views0.16
28
0.14
21
0.11
30
0.07
5
0.12
38
0.07
3
0.06
16
0.16
31
0.18
51
0.08
2
0.12
20
0.13
11
0.13
43
0.11
47
0.21
25
0.25
30
0.17
8
0.20
27
0.18
7
0.19
46
0.21
19
0.26
56
0.08
15
0.12
43
0.21
38
0.23
51
0.22
14
0.19
38
WQFJX1two views0.14
13
0.15
26
0.08
5
0.10
16
0.08
15
0.09
12
0.05
6
0.16
31
0.19
57
0.10
6
0.28
79
0.12
7
0.30
129
0.08
30
0.16
4
0.17
4
0.16
5
0.12
3
0.15
2
0.12
7
0.14
2
0.17
17
0.11
48
0.09
19
0.17
16
0.16
12
0.22
14
0.12
6
GEAStereotwo views0.18
39
0.22
47
0.15
46
0.19
61
0.14
48
0.14
39
0.09
47
0.16
31
0.13
30
0.15
29
0.11
17
0.23
41
0.08
14
0.09
37
0.25
37
0.25
30
0.27
39
0.21
36
0.23
29
0.17
34
0.34
53
0.22
46
0.10
36
0.12
43
0.19
27
0.21
38
0.30
44
0.19
38
gasm-ftwo views0.18
39
0.22
47
0.15
46
0.19
61
0.14
48
0.14
39
0.09
47
0.16
31
0.13
30
0.15
29
0.11
17
0.23
41
0.08
14
0.09
37
0.25
37
0.25
30
0.27
39
0.21
36
0.23
29
0.17
34
0.34
53
0.22
46
0.10
36
0.12
43
0.19
27
0.21
38
0.30
44
0.19
38
AdaDepthtwo views0.18
39
0.19
39
0.10
23
0.12
29
0.14
48
0.12
29
0.09
47
0.16
31
0.14
35
0.14
24
0.17
37
0.19
34
0.10
27
0.08
30
0.26
45
0.29
51
0.28
43
0.23
43
0.25
37
0.16
29
0.24
30
0.20
33
0.09
29
0.11
31
0.19
27
0.20
32
0.32
48
0.25
51
GREAT-IGEVtwo views0.15
17
0.15
26
0.11
30
0.08
9
0.06
4
0.08
8
0.05
6
0.16
31
0.10
14
0.12
18
0.13
22
0.25
46
0.09
22
0.08
30
0.22
29
0.25
30
0.24
33
0.16
14
0.23
29
0.13
15
0.18
13
0.16
14
0.09
29
0.10
21
0.15
5
0.16
12
0.31
47
0.13
11
Utwo views0.15
17
0.11
8
0.08
5
0.06
1
0.05
2
0.09
12
0.04
1
0.16
31
0.06
2
0.15
29
0.04
2
0.17
25
0.07
7
0.05
4
0.22
29
0.28
45
0.26
38
0.23
43
0.27
42
0.17
34
0.28
41
0.19
28
0.06
4
0.08
7
0.26
46
0.23
51
0.23
17
0.20
41
NLCSMtwo views0.13
5
0.11
8
0.07
2
0.10
16
0.07
7
0.12
29
0.07
24
0.17
38
0.17
45
0.09
4
0.27
75
0.13
11
0.27
109
0.07
18
0.13
1
0.15
1
0.13
1
0.11
1
0.13
1
0.09
1
0.12
1
0.14
7
0.07
11
0.09
19
0.13
2
0.15
10
0.18
5
0.11
1
AIO-test1two views0.13
5
0.09
3
0.08
5
0.06
1
0.07
7
0.11
23
0.04
1
0.17
38
0.13
30
0.15
29
0.16
33
0.19
34
0.08
14
0.09
37
0.18
15
0.22
22
0.19
11
0.16
14
0.15
2
0.14
20
0.17
10
0.14
7
0.08
15
0.07
4
0.14
3
0.14
7
0.13
2
0.12
6
StereoVisiontwo views0.18
39
0.13
12
0.11
30
0.09
14
0.14
48
0.16
48
0.08
35
0.17
38
0.17
45
0.15
29
0.15
28
0.16
18
0.10
27
0.06
10
0.25
37
0.26
38
0.27
39
0.22
40
0.22
24
0.16
29
0.23
23
0.17
17
0.06
4
0.13
47
0.28
56
0.29
68
0.38
62
0.28
57
MLG-Stereo_test2two views0.16
28
0.12
11
0.10
23
0.10
16
0.08
15
0.09
12
0.05
6
0.18
41
0.11
18
0.20
47
0.07
6
0.23
41
0.08
14
0.08
30
0.19
18
0.23
25
0.30
46
0.25
48
0.31
48
0.18
39
0.28
41
0.17
17
0.09
29
0.08
7
0.20
34
0.16
12
0.29
40
0.21
43
MM-Stereo_test3two views0.13
5
0.13
12
0.08
5
0.10
16
0.07
7
0.07
3
0.05
6
0.19
42
0.14
35
0.15
29
0.06
3
0.13
11
0.06
1
0.07
18
0.15
2
0.15
1
0.23
26
0.15
7
0.21
20
0.12
7
0.18
13
0.18
23
0.08
15
0.08
7
0.15
5
0.11
1
0.28
37
0.15
17
DEFOM-Stereotwo views0.21
46
0.19
39
0.12
35
0.18
59
0.13
40
0.20
66
0.08
35
0.19
42
0.14
35
0.16
36
0.23
61
0.21
38
0.10
27
0.12
53
0.27
48
0.29
51
0.34
55
0.28
56
0.32
49
0.22
61
0.32
47
0.21
38
0.12
56
0.11
31
0.26
46
0.22
42
0.47
78
0.29
59
NLSM1two views0.17
34
0.13
12
0.10
23
0.11
21
0.11
34
0.14
39
0.08
35
0.20
44
0.19
57
0.11
11
0.38
120
0.18
31
0.42
200
0.09
37
0.17
7
0.21
18
0.16
5
0.15
7
0.20
17
0.13
15
0.16
7
0.22
46
0.10
36
0.11
31
0.18
21
0.19
30
0.27
33
0.14
13
MLG-Stereo_test3two views0.23
49
0.17
34
0.13
38
0.14
38
0.17
64
0.16
48
0.09
47
0.21
45
0.12
26
0.21
50
0.18
41
0.35
63
0.11
32
0.15
66
0.29
54
0.26
38
0.33
51
0.28
56
0.63
136
0.18
39
0.40
66
0.41
98
0.11
48
0.15
53
0.21
38
0.21
38
0.33
50
0.27
55
RAStereotwo views0.19
44
0.16
30
0.10
23
0.08
9
0.07
7
0.09
12
0.06
16
0.21
45
0.09
10
0.45
87
0.09
11
0.26
47
0.08
14
0.07
18
0.25
37
0.26
38
0.28
43
0.25
48
0.33
52
0.15
26
0.35
57
0.18
23
0.08
15
0.10
21
0.28
56
0.23
51
0.25
26
0.24
49
delettwo views0.24
50
0.25
56
0.22
93
0.24
88
0.20
77
0.28
108
0.16
98
0.21
45
0.18
51
0.23
55
0.26
72
0.26
47
0.15
53
0.25
151
0.32
67
0.28
45
0.31
47
0.27
53
0.24
35
0.24
70
0.31
46
0.20
33
0.16
78
0.19
70
0.28
56
0.25
60
0.32
48
0.31
64
MaDis-Stereotwo views0.26
56
0.20
43
0.16
52
0.10
16
0.10
28
0.10
18
0.08
35
0.24
48
0.14
35
0.36
67
0.16
33
0.36
71
0.12
40
0.08
30
0.33
68
0.35
68
0.39
72
0.35
91
0.53
99
0.20
53
0.40
66
0.26
56
0.13
64
0.15
53
0.39
105
0.39
109
0.40
68
0.49
110
RAFTtwo views0.17
34
0.13
12
0.10
23
0.16
48
0.07
7
0.21
68
0.05
6
0.25
49
0.12
26
0.14
24
0.15
28
0.16
18
0.10
27
0.05
4
0.21
25
0.20
14
0.23
26
0.15
7
0.28
44
0.13
15
0.21
19
0.17
17
0.07
11
0.10
21
0.26
46
0.24
56
0.33
50
0.23
46
RYNettwo views0.27
60
0.23
51
0.18
62
0.15
43
0.17
64
0.19
63
0.13
70
0.25
49
0.31
151
0.17
42
0.20
50
0.19
34
0.14
46
0.13
57
0.80
193
0.28
45
0.27
39
0.41
123
0.28
44
0.19
46
0.27
37
0.21
38
0.29
195
0.18
67
0.27
52
0.76
200
0.34
54
0.23
46
BridgeDepth_RVCpermissivetwo views0.21
46
0.21
45
0.15
46
0.15
43
0.14
48
0.17
53
0.09
47
0.26
51
0.23
76
0.17
42
0.17
37
0.24
44
0.14
46
0.13
57
0.26
45
0.29
51
0.21
17
0.23
43
0.27
42
0.20
53
0.23
23
0.25
53
0.10
36
0.12
43
0.26
46
0.30
71
0.29
40
0.36
78
Tongfan Guan, Jiaxin Guo, Chen Wang, Yun-Hui Liu: BridgeDepth: Bridging Monocular and Stereo Reasoning with Latent Alignment. ICCV 2025 Highlight
TDLMtwo views0.24
50
0.29
64
0.22
93
0.22
71
0.27
118
0.23
86
0.18
106
0.26
51
0.19
57
0.18
44
0.38
120
0.29
52
0.21
81
0.15
66
0.24
34
0.28
45
0.32
48
0.28
56
0.25
37
0.21
57
0.28
41
0.19
28
0.16
78
0.21
78
0.24
44
0.20
32
0.28
37
0.25
51
LG-G_1two views0.25
52
0.22
47
0.19
64
0.23
84
0.22
82
0.22
74
0.12
66
0.28
53
0.11
18
0.21
50
0.20
50
0.35
63
0.14
46
0.18
80
0.31
64
0.30
57
0.35
59
0.32
70
0.51
86
0.24
70
0.39
64
0.26
56
0.10
36
0.15
53
0.27
52
0.24
56
0.36
59
0.34
72
LG-Gtwo views0.25
52
0.22
47
0.19
64
0.23
84
0.22
82
0.22
74
0.12
66
0.28
53
0.11
18
0.21
50
0.20
50
0.35
63
0.14
46
0.18
80
0.31
64
0.30
57
0.35
59
0.32
70
0.51
86
0.24
70
0.39
64
0.26
56
0.10
36
0.15
53
0.27
52
0.24
56
0.36
59
0.34
72
LGtest1two views0.26
56
0.19
39
0.20
71
0.16
48
0.18
68
0.16
48
0.09
47
0.28
53
0.17
45
0.22
53
0.27
75
0.29
52
0.13
43
0.14
62
0.30
60
0.31
61
0.38
67
0.33
78
0.49
81
0.25
76
0.41
68
0.41
98
0.13
64
0.16
62
0.30
65
0.24
56
0.39
64
0.31
64
VIP-Stereotwo views0.22
48
0.20
43
0.19
64
0.14
38
0.11
34
0.13
36
0.06
16
0.29
56
0.19
57
0.19
45
0.28
79
0.28
51
0.11
32
0.12
53
0.27
48
0.28
45
0.37
63
0.26
51
0.33
52
0.21
57
0.34
53
0.21
38
0.11
48
0.15
53
0.24
44
0.22
42
0.25
26
0.30
61
SGD-Stereotwo views0.29
69
0.24
53
0.17
57
0.16
48
0.15
57
0.22
74
0.08
35
0.29
56
0.22
71
0.29
59
0.15
28
0.45
100
0.20
73
0.10
43
0.71
180
0.45
120
0.46
90
0.27
53
0.47
76
0.22
61
0.41
68
0.36
80
0.19
113
0.19
70
0.28
56
0.32
81
0.46
76
0.40
90
AANet_RVCtwo views0.28
65
0.27
60
0.23
98
0.19
61
0.28
123
0.16
48
0.16
98
0.29
56
0.30
133
0.20
47
0.27
75
0.24
44
0.21
81
0.19
87
0.45
97
0.36
74
0.33
51
0.34
82
0.29
46
0.29
94
0.27
37
0.27
60
0.22
152
0.21
78
0.34
85
0.33
86
0.42
70
0.52
123
AASNettwo views0.28
65
0.34
77
0.22
93
0.25
94
0.26
108
0.34
135
0.25
149
0.32
59
0.17
45
0.29
59
0.36
109
0.26
47
0.18
64
0.24
135
0.36
72
0.31
61
0.34
55
0.32
70
0.32
49
0.28
89
0.35
57
0.28
63
0.17
93
0.22
92
0.30
65
0.28
66
0.35
57
0.25
51
MMNettwo views0.29
69
0.29
64
0.22
93
0.26
98
0.26
108
0.26
96
0.18
106
0.33
60
0.23
76
0.24
56
0.28
79
0.35
63
0.15
53
0.32
198
0.39
78
0.31
61
0.36
61
0.34
82
0.41
66
0.27
86
0.32
47
0.21
38
0.17
93
0.23
104
0.32
80
0.30
71
0.46
76
0.32
67
UniTT-Stereotwo views0.28
65
0.27
60
0.15
46
0.15
43
0.13
40
0.17
53
0.09
47
0.35
61
0.19
57
0.49
108
0.21
54
0.41
86
0.18
64
0.14
62
0.40
80
0.39
85
0.42
80
0.34
82
0.56
114
0.25
76
0.43
76
0.24
52
0.13
64
0.19
70
0.31
75
0.41
114
0.30
44
0.37
80
YMNettwo views0.30
73
0.31
70
0.23
98
0.27
103
0.23
88
0.26
96
0.25
149
0.36
62
0.37
189
0.25
57
0.19
45
0.40
79
0.27
109
0.29
181
0.38
75
0.47
140
0.37
63
0.28
56
0.43
72
0.19
46
0.35
57
0.33
71
0.16
78
0.19
70
0.36
96
0.29
68
0.39
64
0.35
75
IGEV-Stereo+two views0.27
60
0.25
56
0.14
43
0.22
71
0.14
48
0.13
36
0.07
24
0.36
62
0.20
63
0.55
141
0.23
61
0.38
75
0.14
46
0.16
73
0.26
45
0.35
68
0.40
75
0.35
91
0.48
79
0.24
70
0.44
82
0.51
151
0.12
56
0.13
47
0.28
56
0.20
32
0.34
54
0.23
46
DMCAtwo views0.32
80
0.31
70
0.30
123
0.24
88
0.25
98
0.27
101
0.22
131
0.36
62
0.33
164
0.31
62
0.40
130
0.40
79
0.23
91
0.25
151
0.41
86
0.37
78
0.40
75
0.39
106
0.36
58
0.28
89
0.41
68
0.27
60
0.25
174
0.25
124
0.31
75
0.35
91
0.39
64
0.37
80
MIF-Stereo (partial)two views0.30
73
0.44
135
0.18
62
0.16
48
0.16
62
0.21
68
0.11
61
0.37
65
0.22
71
0.37
70
0.24
66
0.32
57
0.17
60
0.13
57
0.39
78
0.45
120
0.46
90
0.38
104
0.42
70
0.25
76
0.43
76
0.35
76
0.18
105
0.21
78
0.35
95
0.32
81
0.50
84
0.44
101
anonymousdsptwo views0.25
52
0.23
51
0.19
64
0.16
48
0.14
48
0.18
58
0.10
58
0.37
65
0.19
57
0.32
64
0.22
58
0.32
57
0.12
40
0.14
62
0.29
54
0.32
64
0.32
48
0.28
56
0.39
61
0.22
61
0.46
93
0.31
68
0.12
56
0.15
53
0.26
46
0.20
32
0.52
96
0.20
41
AIO_rvctwo views0.25
52
0.34
77
0.16
52
0.19
61
0.15
57
0.18
58
0.11
61
0.39
67
0.22
71
0.30
61
0.16
33
0.32
57
0.12
40
0.18
80
0.27
48
0.26
38
0.33
51
0.22
40
0.38
60
0.20
53
0.42
74
0.44
118
0.13
64
0.14
50
0.28
56
0.22
42
0.33
50
0.21
43
DFGA-Nettwo views0.28
65
0.37
92
0.16
52
0.26
98
0.15
57
0.22
74
0.15
89
0.40
68
0.21
68
0.41
74
0.24
66
0.31
55
0.17
60
0.13
57
0.42
92
0.39
85
0.38
67
0.30
67
0.42
70
0.21
57
0.36
61
0.29
64
0.13
64
0.21
78
0.31
75
0.27
63
0.51
85
0.28
57
HCRNettwo views0.32
80
0.38
101
0.20
71
0.39
157
0.17
64
0.29
111
0.18
106
0.40
68
0.18
51
0.80
270
0.40
130
0.49
112
0.18
64
0.22
110
0.38
75
0.30
57
0.38
67
0.29
64
0.40
63
0.19
46
0.33
51
0.23
50
0.19
113
0.16
62
0.26
46
0.31
76
0.51
85
0.31
64
plaintwo views0.31
78
0.43
129
0.20
71
0.20
67
0.16
62
0.20
66
0.10
58
0.41
70
0.18
51
0.48
99
0.19
45
0.34
62
0.17
60
0.10
43
0.41
86
0.44
109
0.45
85
0.40
118
0.55
108
0.24
70
0.41
68
0.34
74
0.14
72
0.21
78
0.32
80
0.33
86
0.39
64
0.48
108
CAStwo views0.38
94
0.45
143
0.25
106
0.29
111
0.29
130
0.23
86
0.13
70
0.41
70
0.27
110
0.41
74
0.54
177
0.35
63
0.35
177
0.21
104
0.52
113
0.38
81
0.50
113
0.34
82
0.52
91
0.26
83
0.43
76
0.41
98
0.19
113
0.23
104
0.51
144
0.52
155
0.62
128
0.77
195
RAFT + AFFtwo views0.27
60
0.26
58
0.17
57
0.21
68
0.13
40
0.19
63
0.13
70
0.41
70
0.18
51
0.44
85
0.19
45
0.42
88
0.14
46
0.09
37
0.86
211
0.29
51
0.41
78
0.20
27
0.55
108
0.23
66
0.47
100
0.21
38
0.12
56
0.15
53
0.28
56
0.20
32
0.21
10
0.17
31
CVANet_RVCtwo views0.31
78
0.40
113
0.30
123
0.40
163
0.29
130
0.37
146
0.23
141
0.41
70
0.23
76
0.31
62
0.49
152
0.37
73
0.26
102
0.19
87
0.29
54
0.33
67
0.34
55
0.32
70
0.32
49
0.25
76
0.34
53
0.25
53
0.18
105
0.25
124
0.30
65
0.25
60
0.34
54
0.30
61
LG-Stereo_L2two views0.26
56
0.31
70
0.17
57
0.13
33
0.13
40
0.14
39
0.07
24
0.42
74
0.20
63
0.48
99
0.22
58
0.40
79
0.14
46
0.17
77
0.30
60
0.37
78
0.39
72
0.28
56
0.40
63
0.19
46
0.45
86
0.35
76
0.09
29
0.14
50
0.30
65
0.22
42
0.33
50
0.33
70
LG-Stereo_L1two views0.27
60
0.30
68
0.17
57
0.13
33
0.13
40
0.15
46
0.08
35
0.42
74
0.21
68
0.49
108
0.20
50
0.39
78
0.15
53
0.15
66
0.30
60
0.38
81
0.39
72
0.29
64
0.40
63
0.18
39
0.47
100
0.35
76
0.08
15
0.14
50
0.30
65
0.21
38
0.37
61
0.36
78
AIO_testtwo views0.27
60
0.39
106
0.19
64
0.29
111
0.19
71
0.18
58
0.14
83
0.42
74
0.23
76
0.33
65
0.19
45
0.37
73
0.18
64
0.18
80
0.25
37
0.29
51
0.34
55
0.24
47
0.39
61
0.21
57
0.49
110
0.46
127
0.13
64
0.15
53
0.30
65
0.28
66
0.41
69
0.21
43
iinet-ftwo views0.52
152
0.43
129
0.36
148
0.34
135
0.25
98
0.47
185
0.25
149
0.43
77
0.27
110
0.52
122
0.94
256
0.61
154
0.44
210
0.25
151
1.06
251
0.57
191
0.52
128
0.39
106
1.51
223
0.50
192
0.58
162
0.75
209
0.26
183
0.25
124
0.52
148
0.38
106
0.76
172
0.53
127
PWCDC_ROBbinarytwo views0.67
192
0.35
87
0.39
163
0.29
111
0.43
197
0.34
135
0.36
186
0.43
77
1.25
293
0.27
58
0.72
229
0.44
96
2.38
299
0.57
271
1.11
257
0.76
240
0.56
155
0.56
222
0.64
137
0.55
209
0.63
173
2.08
293
0.46
239
0.40
207
0.36
96
0.63
174
0.51
85
0.67
169
LoS_RVCtwo views0.42
109
0.45
143
0.43
185
0.19
61
0.25
98
0.24
91
0.16
98
0.44
79
0.28
117
0.51
115
0.48
147
0.42
88
0.31
143
0.22
110
0.60
136
0.45
120
0.46
90
0.41
123
0.71
157
0.30
98
0.67
188
0.51
151
0.19
113
0.32
165
0.61
180
0.44
121
0.58
114
0.61
152
tt_lltwo views0.42
109
0.45
143
0.43
185
0.19
61
0.25
98
0.24
91
0.16
98
0.44
79
0.28
117
0.51
115
0.48
147
0.42
88
0.31
143
0.22
110
0.60
136
0.45
120
0.46
90
0.41
123
0.71
157
0.30
98
0.67
188
0.51
151
0.19
113
0.32
165
0.61
180
0.44
121
0.58
114
0.61
152
iRaftStereo_RVCtwo views0.26
56
0.27
60
0.16
52
0.13
33
0.14
48
0.18
58
0.09
47
0.44
79
0.14
35
0.36
67
0.36
109
0.32
57
0.16
57
0.13
57
0.29
54
0.29
51
0.38
67
0.28
56
0.34
56
0.22
61
0.41
68
0.38
86
0.12
56
0.17
64
0.27
52
0.29
68
0.42
70
0.27
55
ARAFTtwo views0.34
87
0.38
101
0.23
98
0.26
98
0.21
80
0.27
101
0.14
83
0.44
79
0.24
87
0.50
110
0.30
89
0.41
86
0.16
57
0.15
66
0.67
166
0.42
97
0.50
113
0.47
170
0.51
86
0.23
66
0.53
137
0.32
70
0.16
78
0.19
70
0.43
114
0.30
71
0.52
96
0.37
80
FINETtwo views0.40
100
0.38
101
0.39
163
0.43
177
0.30
138
0.34
135
0.35
182
0.44
79
0.36
179
0.47
93
0.32
94
0.47
105
0.30
129
0.28
174
0.66
160
0.50
157
0.48
105
0.36
95
0.60
130
0.33
110
0.46
93
0.37
85
0.30
198
0.30
152
0.43
114
0.35
91
0.56
104
0.42
97
GANettwo views0.32
80
0.29
64
0.27
112
0.34
135
0.33
148
0.38
151
0.29
167
0.44
79
0.24
87
0.35
66
0.30
89
0.46
102
0.22
85
0.21
104
0.31
64
0.32
64
0.40
75
0.43
137
0.33
52
0.22
61
0.33
51
0.29
64
0.22
152
0.24
113
0.31
75
0.27
63
0.42
70
0.34
72
MGS-Stereotwo views0.37
92
0.46
155
0.21
84
0.22
71
0.19
71
0.22
74
0.15
89
0.45
85
0.17
45
0.36
67
0.26
72
0.29
52
0.19
70
0.23
123
1.37
273
0.40
89
0.52
128
0.45
152
0.55
108
0.33
110
0.50
114
0.41
98
0.21
138
0.22
92
0.33
84
0.30
71
0.47
78
0.45
103
MIM_Stereotwo views0.32
80
0.40
113
0.25
106
0.28
106
0.20
77
0.27
101
0.14
83
0.45
85
0.18
51
0.48
99
0.25
69
0.42
88
0.18
64
0.16
73
0.36
72
0.42
97
0.44
82
0.36
95
0.47
76
0.28
89
0.47
100
0.36
80
0.12
56
0.23
104
0.29
64
0.27
63
0.47
78
0.33
70
DISCOtwo views0.45
130
0.44
135
0.29
119
0.40
163
0.38
178
0.49
189
0.43
201
0.45
85
0.43
215
0.50
110
0.57
182
0.40
79
0.29
119
0.30
184
0.61
141
0.43
104
0.55
149
0.46
164
0.69
154
0.41
167
0.48
106
0.43
112
0.26
183
0.32
165
0.47
126
0.50
151
0.62
128
0.50
119
DSFCAtwo views0.45
130
0.50
193
0.40
168
0.40
163
0.37
172
0.44
173
0.34
180
0.46
88
0.39
197
0.40
73
0.57
182
0.49
112
0.29
119
0.24
135
0.61
141
0.44
109
0.49
108
0.49
184
0.64
137
0.39
159
0.50
114
0.51
151
0.33
210
0.35
187
0.49
137
0.50
151
0.57
106
0.58
142
DMCA-RVCcopylefttwo views0.44
125
0.37
92
0.35
142
0.33
133
0.37
172
0.32
121
0.41
198
0.46
88
0.52
227
0.43
78
0.48
147
0.68
172
0.33
158
0.29
181
0.65
159
0.46
129
0.47
100
0.44
142
0.49
81
0.38
145
0.49
110
0.48
138
0.29
195
0.32
165
0.38
102
0.37
102
0.57
106
0.62
156
IERtwo views0.41
104
0.37
92
0.31
128
0.30
119
0.28
123
0.35
141
0.24
144
0.47
90
0.28
117
0.44
85
0.59
185
0.77
200
0.29
119
0.35
209
0.63
150
0.42
97
0.47
100
0.42
132
0.44
73
0.34
116
0.42
74
0.36
80
0.28
190
0.26
130
0.40
109
0.47
137
0.52
96
0.52
123
UPFNettwo views0.38
94
0.34
77
0.34
140
0.32
127
0.33
148
0.39
153
0.29
167
0.47
90
0.33
164
0.43
78
0.41
132
0.40
79
0.30
129
0.34
203
0.61
141
0.40
89
0.46
90
0.41
123
0.52
91
0.35
133
0.35
57
0.34
74
0.25
174
0.27
133
0.38
102
0.35
91
0.55
102
0.37
80
DEFOM-Stereo_RVCtwo views0.33
85
0.36
90
0.20
71
0.23
84
0.20
77
0.17
53
0.10
58
0.48
92
0.23
76
0.55
141
0.32
94
0.40
79
0.19
70
0.15
66
0.48
107
0.36
74
0.47
100
0.33
78
0.51
86
0.27
86
0.50
114
0.42
105
0.16
78
0.18
67
0.30
65
0.31
76
0.48
81
0.53
127
HGLStereotwo views0.43
122
0.43
129
0.37
152
0.34
135
0.37
172
0.39
153
0.23
141
0.48
92
0.31
151
0.47
93
0.72
229
0.42
88
0.29
119
0.32
198
0.51
111
0.49
153
0.55
149
0.50
190
0.55
108
0.39
159
0.51
120
0.43
112
0.22
152
0.33
179
0.51
144
0.51
153
0.57
106
0.45
103
IGEV-BASED-STEREO-two views0.30
73
0.24
53
0.17
57
0.23
84
0.19
71
0.18
58
0.08
35
0.49
94
0.25
93
0.54
134
0.21
54
0.32
57
0.17
60
0.17
77
0.29
54
0.39
85
0.45
85
0.36
95
0.50
83
0.26
83
0.56
148
0.49
139
0.13
64
0.13
47
0.31
75
0.26
62
0.45
74
0.30
61
AFF-stereotwo views0.30
73
0.34
77
0.26
110
0.18
59
0.17
64
0.33
128
0.11
61
0.50
95
0.23
76
0.46
90
0.28
79
0.40
79
0.16
57
0.12
53
0.27
48
0.35
68
0.37
63
0.25
48
0.57
118
0.23
66
0.38
62
0.25
53
0.17
93
0.17
64
0.37
98
0.37
102
0.48
81
0.32
67
PDISCO_ROBtwo views0.48
141
0.40
113
0.39
163
0.38
154
0.34
157
0.39
153
0.28
160
0.50
95
0.35
175
0.37
70
0.52
167
0.49
112
0.35
177
0.31
191
0.63
150
0.58
196
0.54
140
0.68
262
0.59
123
0.44
178
0.62
170
0.67
194
0.24
171
0.34
183
0.54
156
0.53
157
0.85
198
0.58
142
S2M2_Ltwo views0.40
100
0.42
124
0.41
177
0.24
88
0.27
118
0.35
141
0.22
131
0.51
97
0.24
87
0.61
181
0.23
61
0.43
93
0.21
81
0.31
191
0.59
130
0.49
153
0.55
149
0.36
95
0.53
99
0.34
116
0.55
143
0.38
86
0.28
190
0.27
133
0.42
112
0.43
117
0.63
131
0.66
165
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
HUFtwo views0.29
69
0.34
77
0.20
71
0.22
71
0.21
80
0.19
63
0.11
61
0.51
97
0.22
71
0.42
76
0.18
41
0.35
63
0.22
85
0.19
87
0.30
60
0.32
64
0.38
67
0.26
51
0.52
91
0.25
76
0.52
130
0.43
112
0.16
78
0.18
67
0.30
65
0.22
42
0.38
62
0.29
59
TANstereotwo views0.55
162
0.41
117
0.35
142
0.40
163
0.39
180
0.45
178
0.21
125
0.52
99
0.30
133
0.54
134
0.37
117
0.38
75
0.38
190
0.41
223
0.84
205
0.73
237
0.66
218
0.78
283
1.10
203
0.89
281
0.62
170
0.54
162
0.93
296
0.32
165
0.34
85
0.45
127
0.99
229
0.53
127
XX-TBDtwo views0.55
162
0.41
117
0.35
142
0.40
163
0.39
180
0.45
178
0.21
125
0.52
99
0.30
133
0.54
134
0.37
117
0.38
75
0.38
190
0.41
223
0.84
205
0.73
237
0.66
218
0.78
283
1.10
203
0.89
281
0.62
170
0.54
162
0.93
296
0.32
165
0.34
85
0.45
127
0.99
229
0.53
127
STTStereotwo views0.53
155
0.56
222
0.54
222
0.44
182
0.52
219
0.43
170
0.59
229
0.52
99
0.46
220
0.47
93
0.55
179
0.71
180
0.42
200
0.56
266
0.87
217
0.44
109
0.49
108
0.51
197
0.54
105
0.37
141
0.51
120
0.40
95
0.32
208
0.35
187
0.52
148
0.66
180
0.68
148
0.99
221
DeepPrunerFtwo views1.22
262
0.49
178
0.39
163
0.58
215
2.86
326
0.49
189
0.55
222
0.52
99
0.58
241
0.43
78
0.67
219
0.43
93
0.32
152
0.42
233
1.64
288
0.75
239
0.58
168
0.46
164
0.93
189
0.46
185
0.61
168
0.53
160
0.40
229
0.35
187
15.32
349
0.82
215
0.65
139
0.62
156
S2M2_XLtwo views0.33
85
0.30
68
0.30
123
0.17
54
0.19
71
0.23
86
0.21
125
0.53
103
0.26
104
0.47
93
0.25
69
0.48
108
0.18
64
0.22
110
0.38
75
0.36
74
0.54
140
0.29
64
0.41
66
0.28
89
0.50
114
0.31
68
0.21
138
0.21
78
0.34
85
0.32
81
0.45
74
0.51
121
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
RAFT_CTSACEtwo views0.30
73
0.37
92
0.15
46
0.15
43
0.15
57
0.25
94
0.18
106
0.53
103
0.20
63
0.55
141
0.18
41
0.44
96
0.29
119
0.16
73
0.29
54
0.30
57
0.37
63
0.27
53
0.37
59
0.18
39
0.38
62
0.45
122
0.10
36
0.17
64
0.30
65
0.31
76
0.60
122
0.26
54
CFNettwo views0.45
130
0.44
135
0.33
134
0.48
188
0.40
185
0.39
153
0.30
174
0.53
103
0.32
159
0.48
99
0.50
158
0.68
172
0.40
196
0.30
184
0.56
119
0.37
78
0.48
105
0.43
137
0.52
91
0.33
110
0.46
93
0.30
67
0.23
163
0.31
160
0.61
180
0.52
155
0.69
151
0.71
184
CFNet_RVCtwo views0.51
148
0.51
198
0.47
202
0.50
193
0.48
210
0.48
187
0.32
176
0.53
103
0.37
189
0.51
115
0.65
209
0.57
139
0.34
170
0.30
184
0.69
171
0.44
109
0.52
128
0.47
170
0.57
118
0.42
173
0.56
148
0.49
139
0.27
187
0.35
187
0.65
194
0.74
193
0.80
181
0.75
192
XPNet_ROBtwo views0.74
210
0.77
259
0.57
228
0.54
208
0.61
237
0.63
229
0.61
238
0.53
103
0.65
248
0.58
166
0.81
244
2.35
281
0.46
214
0.43
236
0.79
191
0.63
207
0.85
261
0.57
227
0.83
178
0.55
209
0.72
200
1.09
244
0.45
237
0.49
239
0.63
189
0.74
193
1.39
279
0.86
207
G2L-Stereotwo views0.42
109
0.39
106
0.28
114
0.35
145
0.40
185
0.34
135
0.22
131
0.54
108
0.34
169
0.52
122
0.61
195
0.50
118
0.38
190
0.26
162
0.61
141
0.44
109
0.50
113
0.40
118
0.46
75
0.33
110
0.43
76
0.39
92
0.28
190
0.27
133
0.49
137
0.54
160
0.69
151
0.49
110
TESTrafttwo views0.37
92
0.46
155
0.21
84
0.21
68
0.23
88
0.21
68
0.16
98
0.54
108
0.31
151
0.51
115
0.23
61
0.36
71
0.36
182
0.11
47
0.85
209
0.48
146
0.45
85
0.32
70
0.48
79
0.24
70
0.46
93
0.65
186
0.12
56
0.23
104
0.37
98
0.43
117
0.57
106
0.39
85
test_5two views0.29
69
0.39
106
0.16
52
0.22
71
0.15
57
0.21
68
0.13
70
0.54
108
0.20
63
0.38
72
0.19
45
0.44
96
0.34
170
0.10
43
0.43
94
0.38
81
0.33
51
0.32
70
0.33
52
0.20
53
0.32
47
0.35
76
0.09
29
0.21
78
0.28
56
0.30
71
0.51
85
0.32
67
raft+_RVCtwo views0.35
90
0.34
77
0.26
110
0.25
94
0.23
88
0.25
94
0.18
106
0.54
108
0.26
104
0.52
122
0.43
135
0.46
102
0.23
91
0.18
80
0.42
92
0.38
81
0.43
81
0.34
82
0.61
134
0.26
83
0.43
76
0.38
86
0.13
64
0.20
75
0.39
105
0.39
109
0.58
114
0.42
97
RALAANettwo views0.41
104
0.41
117
0.37
152
0.28
106
0.28
123
0.33
128
0.24
144
0.54
108
0.27
110
0.48
99
0.48
147
0.43
93
0.25
99
0.20
98
0.57
122
0.41
93
0.49
108
0.50
190
0.71
157
0.40
164
0.52
130
0.46
127
0.21
138
0.29
144
0.46
124
0.45
127
0.70
157
0.47
106
ADLNettwo views0.46
135
0.53
213
0.37
152
0.41
168
0.41
191
0.44
173
0.40
196
0.54
108
0.35
175
0.45
87
0.53
171
0.76
197
0.36
182
0.62
277
0.58
126
0.42
97
0.49
108
0.42
132
0.50
83
0.37
141
0.43
76
0.44
118
0.34
212
0.25
124
0.47
126
0.55
163
0.57
106
0.45
103
PMTNettwo views0.48
141
0.48
175
0.43
185
0.31
125
0.30
138
0.27
101
0.22
131
0.54
108
0.29
124
0.57
154
0.39
127
0.59
149
0.23
91
0.23
123
0.64
156
0.59
199
0.57
164
0.37
100
1.17
209
0.33
110
0.67
188
0.40
95
0.20
129
0.21
78
0.79
233
0.59
169
0.65
139
0.92
214
coex_refinementtwo views0.45
130
0.43
129
0.33
134
0.35
145
0.35
161
0.44
173
0.22
131
0.55
115
0.50
224
0.50
110
0.60
188
0.54
129
0.27
109
0.28
174
0.58
126
0.45
120
0.50
113
0.44
142
0.54
105
0.33
110
0.45
86
0.39
92
0.28
190
0.31
160
0.52
148
0.53
157
0.67
146
0.78
198
Former-RAFT_DAM_RVCtwo views0.41
104
0.33
74
0.29
119
0.29
111
0.24
96
0.26
96
0.16
98
0.55
115
0.40
199
0.55
141
0.49
152
0.49
112
0.27
109
0.23
123
0.58
126
0.45
120
0.51
124
0.40
118
0.50
83
0.36
135
0.46
93
0.50
144
0.16
78
0.23
104
0.49
137
0.75
197
0.44
73
0.56
138
AE-Stereotwo views0.54
160
0.48
175
0.44
193
0.50
193
0.35
161
0.36
144
0.28
160
0.55
115
0.29
124
0.64
204
0.31
92
0.89
219
0.31
143
0.24
135
0.55
116
0.65
220
0.68
226
0.52
204
0.87
183
0.53
198
0.72
200
0.81
220
0.21
138
0.47
232
0.79
233
0.69
182
0.94
217
0.62
156
TestStereo1two views0.38
94
0.49
178
0.19
64
0.22
71
0.23
88
0.23
86
0.15
89
0.55
115
0.30
133
0.52
122
0.21
54
0.35
63
0.39
193
0.11
47
0.80
193
0.50
157
0.46
90
0.32
70
0.53
99
0.25
76
0.52
130
0.67
194
0.15
74
0.22
92
0.37
98
0.42
115
0.60
122
0.39
85
SA-5Ktwo views0.38
94
0.49
178
0.19
64
0.22
71
0.23
88
0.23
86
0.15
89
0.55
115
0.30
133
0.52
122
0.21
54
0.35
63
0.39
193
0.11
47
0.80
193
0.50
157
0.46
90
0.32
70
0.53
99
0.25
76
0.52
130
0.67
194
0.15
74
0.22
92
0.37
98
0.42
115
0.60
122
0.39
85
DLCB_ROBtwo views0.53
155
0.50
193
0.48
205
0.41
168
0.45
200
0.43
170
0.39
194
0.55
115
0.45
216
0.57
154
0.61
195
0.70
178
0.52
227
0.41
223
0.60
136
0.47
140
0.57
164
0.48
176
0.52
91
0.43
177
0.55
143
0.47
132
0.38
224
0.42
213
0.96
264
0.79
209
0.70
157
0.62
156
WQFJA1++two views13.32
343
0.37
92
0.25
106
123.26
359
0.29
130
112.03
359
109.42
359
0.56
121
0.25
93
0.65
209
0.49
152
1.70
272
1.51
282
0.23
123
0.43
94
0.60
201
0.53
137
0.41
123
1.83
238
0.31
103
0.53
137
0.51
151
0.22
152
0.20
75
0.52
148
0.76
200
0.88
206
0.91
212
castereotwo views0.47
137
0.36
90
0.35
142
0.34
135
0.26
108
0.26
96
0.17
104
0.56
121
0.29
124
0.60
177
0.45
141
0.68
172
0.22
85
0.20
98
0.52
113
0.58
196
0.61
197
0.39
106
0.92
188
0.36
135
0.96
239
0.76
212
0.19
113
0.24
113
0.54
156
0.64
177
0.57
106
0.58
142
NLCA_NET_v2_RVCtwo views0.51
148
0.52
207
0.48
205
0.43
177
0.57
231
0.42
167
0.62
241
0.56
121
0.62
245
0.52
122
0.51
164
0.67
170
0.34
170
0.58
274
0.78
187
0.42
97
0.47
100
0.42
132
0.57
118
0.38
145
0.46
93
0.42
105
0.30
198
0.32
165
0.48
129
0.76
200
0.62
128
0.64
162
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
EGLCR-Stereotwo views0.47
137
0.49
178
0.41
177
0.29
111
0.30
138
0.44
173
0.14
83
0.57
124
0.26
104
0.57
154
0.27
75
0.58
144
0.23
91
0.21
104
0.36
72
0.47
140
0.53
137
0.45
152
0.75
168
0.32
108
0.69
194
0.93
231
0.19
113
0.24
113
0.48
129
0.49
147
1.30
270
0.70
182
LMCR-Stereopermissivemany views0.50
145
0.46
155
0.33
134
0.32
127
0.33
148
0.42
167
0.24
144
0.57
124
0.37
189
0.55
141
0.46
145
0.65
167
0.40
196
0.26
162
0.69
171
0.49
153
0.62
203
0.49
184
1.11
205
0.57
219
0.66
184
0.64
184
0.25
174
0.32
165
0.48
129
0.49
147
0.63
131
0.65
164
CREStereo++_RVCtwo views0.43
122
0.42
124
0.39
163
0.30
119
0.33
148
0.27
101
0.19
117
0.57
124
0.31
151
0.58
166
0.36
109
0.58
144
0.56
234
0.23
123
0.48
107
0.50
157
0.61
197
0.34
82
0.52
91
0.30
98
0.56
148
0.42
105
0.16
78
0.29
144
0.49
137
0.44
121
0.79
180
0.69
176
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
UNettwo views0.44
125
0.42
124
0.40
168
0.37
151
0.36
165
0.41
161
0.28
160
0.57
124
0.35
175
0.50
110
0.49
152
0.47
105
0.34
170
0.37
215
0.53
115
0.43
104
0.54
140
0.46
164
0.56
114
0.39
159
0.47
100
0.44
118
0.27
187
0.34
183
0.44
116
0.48
142
0.58
114
0.57
140
anonymousdsp2two views0.38
94
0.46
155
0.30
123
0.25
94
0.23
88
0.32
121
0.18
106
0.58
128
0.23
76
0.47
93
0.38
120
0.48
108
0.23
91
0.18
80
0.40
80
0.39
85
0.44
82
0.33
78
0.88
184
0.31
103
0.48
106
0.52
157
0.17
93
0.23
104
0.41
111
0.33
86
0.61
125
0.42
97
RAFT+CT+SAtwo views0.32
80
0.46
155
0.20
71
0.26
98
0.18
68
0.22
74
0.15
89
0.58
128
0.23
76
0.52
122
0.17
37
0.46
102
0.33
158
0.12
53
0.33
68
0.43
104
0.36
61
0.30
67
0.45
74
0.23
66
0.45
86
0.49
139
0.09
29
0.22
92
0.32
80
0.31
76
0.53
100
0.35
75
AnonymousMtwo views0.79
226
0.34
77
0.20
71
0.24
88
0.22
82
0.21
68
0.15
89
0.58
128
0.21
68
0.57
154
0.39
127
0.45
100
0.15
53
0.19
87
0.56
119
0.54
182
0.54
140
0.40
118
0.53
99
0.30
98
0.65
181
0.54
162
0.20
129
0.22
92
0.30
65
0.39
109
1.31
271
11.04
337
RAFT-Stereo + iAFFtwo views0.35
90
0.41
117
0.32
131
0.24
88
0.19
71
0.28
108
0.13
70
0.58
128
0.24
87
0.46
90
0.35
108
0.49
112
0.19
70
0.15
66
0.34
71
0.35
68
0.41
78
0.28
56
0.65
141
0.28
89
0.44
82
0.33
71
0.19
113
0.22
92
0.51
144
0.37
102
0.58
114
0.44
101
RASNettwo views0.42
109
0.45
143
0.43
185
0.33
133
0.33
148
0.37
146
0.27
155
0.58
128
0.34
169
0.47
93
0.43
135
0.49
112
0.33
158
0.25
151
0.41
86
0.41
93
0.48
105
0.39
106
0.47
76
0.30
98
0.49
110
0.40
95
0.19
113
0.44
222
0.40
109
0.46
135
0.75
169
0.63
160
UCFNet_RVCtwo views0.56
169
0.78
261
0.45
197
0.59
218
0.55
227
0.52
199
0.39
194
0.58
128
0.40
199
0.59
171
0.60
188
0.82
206
0.45
211
0.32
198
0.70
176
0.42
97
0.50
113
0.50
190
0.67
147
0.45
180
0.56
148
0.47
132
0.38
224
0.41
210
0.77
228
0.71
187
0.65
139
0.86
207
HITNettwo views0.38
94
0.37
92
0.28
114
0.34
135
0.29
130
0.26
96
0.19
117
0.58
128
0.32
159
0.57
154
0.45
141
0.55
135
0.30
129
0.22
110
0.51
111
0.35
68
0.44
82
0.39
106
0.41
66
0.29
94
0.41
68
0.38
86
0.20
129
0.25
124
0.39
105
0.37
102
0.70
157
0.52
123
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
castereo++two views0.44
125
0.35
87
0.33
134
0.43
177
0.23
88
0.21
68
0.17
104
0.59
135
0.30
133
0.63
197
0.37
117
0.73
185
0.22
85
0.22
110
0.44
96
0.53
174
0.58
168
0.41
123
0.66
143
0.34
116
0.81
214
0.69
199
0.20
129
0.28
139
0.48
129
0.56
167
0.76
172
0.48
108
test_4two views0.34
87
0.33
74
0.27
112
0.21
68
0.18
68
0.16
48
0.11
61
0.59
135
0.26
104
0.58
166
0.25
69
0.50
118
0.20
73
0.19
87
0.33
68
0.40
89
0.45
85
0.34
82
0.41
66
0.29
94
0.45
86
0.41
98
0.16
78
0.24
113
0.38
102
0.40
113
0.59
121
0.42
97
ddtwo views0.50
145
0.51
198
0.28
114
0.91
262
0.31
146
0.65
233
0.29
167
0.59
135
0.23
76
0.54
134
0.30
89
0.75
189
0.27
109
0.26
162
0.84
205
0.46
129
0.70
234
0.39
106
1.05
199
0.38
145
0.48
106
0.43
112
0.23
163
0.30
152
0.53
152
0.39
109
0.74
167
0.58
142
rafts_anoytwo views0.41
104
0.51
198
0.35
142
0.29
111
0.30
138
0.33
128
0.22
131
0.59
135
0.25
93
0.51
115
0.50
158
0.48
108
0.23
91
0.17
77
0.57
122
0.46
129
0.51
124
0.50
190
0.58
122
0.34
116
0.50
114
0.43
112
0.19
113
0.28
139
0.50
141
0.47
137
0.52
96
0.53
127
GEStwo views0.59
181
0.52
207
0.37
152
0.39
157
0.40
185
0.53
203
0.37
188
0.59
135
0.40
199
0.56
150
0.60
188
0.50
118
0.30
129
0.41
223
0.98
240
0.63
207
0.67
224
0.55
220
2.28
253
0.56
214
0.70
197
0.56
167
0.31
203
0.42
213
0.48
129
0.48
142
0.65
139
0.68
174
GMStereopermissivetwo views0.41
104
0.48
175
0.25
106
0.32
127
0.32
147
0.37
146
0.28
160
0.59
135
0.30
133
0.45
87
0.36
109
0.61
154
0.31
143
0.24
135
0.45
97
0.41
93
0.54
140
0.35
91
0.73
161
0.39
159
0.51
120
0.33
71
0.23
163
0.28
139
0.48
129
0.36
94
0.68
148
0.41
92
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
UDGNettwo views0.67
192
0.66
246
0.42
180
1.35
288
1.02
285
1.21
284
0.91
273
0.60
141
0.41
204
0.52
122
0.60
188
0.56
137
0.23
91
1.19
307
0.66
160
0.45
120
0.56
155
0.51
197
0.73
161
0.53
198
0.64
180
0.67
194
0.79
285
0.29
144
0.72
209
0.55
163
0.63
131
0.66
165
ICVPtwo views0.58
175
0.49
178
0.67
252
0.50
193
0.48
210
0.52
199
0.36
186
0.60
141
0.45
216
0.61
181
0.58
184
0.61
154
0.56
234
0.30
184
0.67
166
0.64
213
0.58
168
0.51
197
0.72
160
0.51
195
0.58
162
0.74
208
0.59
273
0.47
232
0.60
179
0.75
197
0.74
167
0.72
186
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
RALCasStereoNettwo views0.42
109
0.50
193
0.35
142
0.35
145
0.30
138
0.31
118
0.24
144
0.60
141
0.25
93
0.56
150
0.49
152
0.58
144
0.26
102
0.18
80
0.57
122
0.46
129
0.54
140
0.49
184
0.51
86
0.34
116
0.51
120
0.41
98
0.21
138
0.31
160
0.53
152
0.49
147
0.48
81
0.58
142
sCroCo_RVCtwo views0.58
175
0.42
124
0.29
119
0.28
106
0.29
130
0.39
153
0.22
131
0.60
141
0.41
204
0.53
133
0.43
135
0.48
108
0.50
221
0.24
135
0.75
185
0.99
278
0.75
246
0.63
244
1.02
198
0.56
214
1.10
254
1.36
263
0.28
190
0.39
204
0.63
189
0.63
174
0.93
215
0.64
162
APVNettwo views0.56
169
0.47
162
0.38
161
0.46
185
0.50
215
0.57
213
0.53
216
0.60
141
0.42
211
0.46
90
0.65
209
0.50
118
0.30
129
0.36
211
0.74
184
0.71
232
0.71
240
0.64
248
0.95
193
0.53
198
0.57
158
0.77
214
0.34
212
0.46
229
0.59
176
0.46
135
0.82
187
0.58
142
NVstereo2Dtwo views0.55
162
0.47
162
0.40
168
0.52
202
0.48
210
0.66
236
0.64
244
0.60
141
0.38
194
0.48
99
0.61
195
0.53
127
0.30
129
0.63
279
1.53
282
0.61
205
0.58
168
0.55
220
0.53
99
0.41
167
0.50
114
0.38
86
0.54
266
0.43
216
0.64
192
0.48
142
0.56
104
0.53
127
iResNet_ROBtwo views0.50
145
0.49
178
0.42
180
0.42
172
0.30
138
0.42
167
0.32
176
0.60
141
0.33
164
0.52
122
0.59
185
0.47
105
0.56
234
0.25
151
0.81
196
0.46
129
0.57
164
0.49
184
1.19
210
0.36
135
0.48
106
0.36
80
0.25
174
0.37
199
0.57
165
0.54
160
0.75
169
0.61
152
AACVNettwo views0.55
162
0.47
162
0.40
168
0.58
215
0.61
237
0.53
203
0.37
188
0.61
148
0.40
199
0.59
171
0.64
204
0.58
144
0.33
158
0.36
211
0.69
171
0.54
182
0.58
168
0.54
214
0.69
154
0.52
197
0.54
141
0.52
157
0.36
217
0.44
222
0.59
176
0.69
182
0.82
187
0.83
203
s12784htwo views0.62
184
0.68
250
0.47
202
0.65
233
0.44
199
0.34
135
0.24
144
0.61
148
0.31
151
0.60
177
0.44
138
0.81
204
0.55
232
0.25
151
0.62
146
0.50
157
0.62
203
0.38
104
0.74
167
0.36
135
1.26
263
0.47
132
0.18
105
0.30
152
0.70
203
0.74
193
1.39
279
2.07
275
CREStereotwo views0.44
125
0.51
198
0.40
168
0.34
135
0.26
108
0.28
108
0.15
89
0.61
148
0.30
133
0.58
166
0.36
109
0.72
182
0.33
158
0.24
135
0.59
130
0.59
199
0.59
182
0.34
82
0.52
91
0.31
103
0.59
166
0.42
105
0.18
105
0.30
152
0.54
156
0.48
142
0.64
135
0.69
176
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
AF-Nettwo views0.53
155
0.49
178
0.44
193
0.50
193
0.53
220
0.61
223
0.54
220
0.61
148
0.55
235
0.43
78
0.66
212
0.85
213
0.42
200
0.40
220
0.64
156
0.46
129
0.46
90
0.44
142
0.60
130
0.40
164
0.45
86
0.45
122
0.41
231
0.39
204
0.50
141
0.55
163
0.81
184
0.69
176
Nwc_Nettwo views0.53
155
0.49
178
0.44
193
0.50
193
0.53
220
0.61
223
0.54
220
0.61
148
0.55
235
0.43
78
0.66
212
0.85
213
0.42
200
0.40
220
0.64
156
0.46
129
0.46
90
0.44
142
0.60
130
0.40
164
0.45
86
0.45
122
0.41
231
0.39
204
0.50
141
0.55
163
0.81
184
0.69
176
ADCReftwo views1.01
251
0.65
243
0.48
205
0.39
157
0.47
207
0.65
233
0.68
254
0.61
148
1.08
286
0.52
122
0.64
204
0.75
189
0.43
205
0.38
216
1.56
284
0.72
233
0.61
197
0.59
237
1.53
226
0.58
222
0.66
184
0.71
202
0.50
251
0.43
216
0.75
221
1.25
279
0.82
187
8.96
335
DeepPruner_ROBtwo views0.59
181
0.44
135
0.54
222
0.52
202
0.54
224
0.49
189
0.37
188
0.61
148
0.46
220
0.60
177
0.70
223
0.61
154
0.51
225
0.32
198
1.06
251
0.58
196
0.62
203
0.59
237
0.66
143
0.47
189
0.97
242
0.72
206
0.36
217
0.44
222
0.61
180
1.00
248
0.72
162
0.58
142
LG-Stereo_Zeroshottwo views0.66
189
0.37
92
0.23
98
0.51
199
0.74
266
0.89
263
0.49
211
0.62
155
0.26
104
1.60
329
0.31
92
2.57
282
0.26
102
0.22
110
0.46
99
0.48
146
0.58
168
0.45
152
0.93
189
0.37
141
0.63
173
0.71
202
0.19
113
0.23
104
0.58
169
0.49
147
0.89
208
1.91
273
GCAP-BATtwo views0.76
215
0.45
143
0.20
71
0.22
71
0.25
98
0.22
74
0.13
70
0.62
155
0.25
93
0.57
154
0.29
83
0.75
189
0.20
73
0.19
87
0.47
100
0.51
164
10.38
339
0.39
106
0.59
123
0.34
116
0.93
229
0.50
144
0.17
93
0.21
78
0.34
85
0.36
94
0.51
85
0.49
110
test_for_modeltwo views0.76
215
0.45
143
0.20
71
0.22
71
0.25
98
0.22
74
0.13
70
0.62
155
0.25
93
0.57
154
0.29
83
0.75
189
0.20
73
0.19
87
0.47
100
0.51
164
10.38
339
0.39
106
0.59
123
0.34
116
0.93
229
0.50
144
0.17
93
0.21
78
0.34
85
0.36
94
0.51
85
0.49
110
trnettwo views0.44
125
0.51
198
0.40
168
0.34
135
0.26
108
0.27
101
0.14
83
0.62
155
0.30
133
0.60
177
0.36
109
0.73
185
0.33
158
0.24
135
0.56
119
0.57
191
0.58
168
0.34
82
0.52
91
0.31
103
0.57
158
0.42
105
0.17
93
0.30
152
0.54
156
0.48
142
0.65
139
0.69
176
testlalala2two views0.76
215
0.45
143
0.20
71
0.22
71
0.25
98
0.22
74
0.13
70
0.62
155
0.25
93
0.57
154
0.29
83
0.75
189
0.20
73
0.19
87
0.47
100
0.51
164
10.38
339
0.39
106
0.59
123
0.34
116
0.93
229
0.50
144
0.17
93
0.21
78
0.34
85
0.36
94
0.51
85
0.49
110
CASnettwo views0.40
100
0.52
207
0.23
98
0.27
103
0.27
118
0.30
117
0.14
83
0.62
155
0.29
124
0.61
181
0.44
138
0.64
164
0.28
115
0.23
123
0.55
116
0.36
74
0.45
85
0.31
69
0.73
161
0.27
86
0.63
173
0.39
92
0.21
138
0.24
113
0.42
112
0.32
81
0.61
125
0.56
138
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
testlalalatwo views0.76
215
0.45
143
0.20
71
0.22
71
0.25
98
0.22
74
0.13
70
0.62
155
0.25
93
0.57
154
0.29
83
0.75
189
0.20
73
0.19
87
0.47
100
0.51
164
10.38
339
0.39
106
0.59
123
0.34
116
0.93
229
0.50
144
0.17
93
0.21
78
0.34
85
0.36
94
0.51
85
0.49
110
testlalala_basetwo views0.76
215
0.45
143
0.20
71
0.22
71
0.25
98
0.22
74
0.13
70
0.62
155
0.25
93
0.57
154
0.29
83
0.75
189
0.20
73
0.19
87
0.47
100
0.51
164
10.38
339
0.39
106
0.59
123
0.34
116
0.93
229
0.50
144
0.17
93
0.21
78
0.34
85
0.36
94
0.51
85
0.49
110
GCAP-Stereotwo views0.76
215
0.45
143
0.20
71
0.22
71
0.25
98
0.22
74
0.13
70
0.62
155
0.25
93
0.57
154
0.29
83
0.75
189
0.20
73
0.19
87
0.47
100
0.51
164
10.38
339
0.39
106
0.59
123
0.34
116
0.93
229
0.50
144
0.17
93
0.21
78
0.34
85
0.36
94
0.51
85
0.49
110
MIPNettwo views0.51
148
0.51
198
0.33
134
0.32
127
0.30
138
0.37
146
0.25
149
0.62
155
0.24
87
0.50
110
0.52
167
0.61
154
0.41
199
0.30
184
1.01
247
0.51
164
0.59
182
0.50
190
0.76
171
0.47
189
0.44
82
0.85
223
0.20
129
0.26
130
0.66
195
0.98
244
0.71
161
0.61
152
IPLGRtwo views0.57
173
0.55
217
0.37
152
0.43
177
0.38
178
0.36
144
0.23
141
0.62
155
0.30
133
0.56
150
0.68
222
0.61
154
0.32
152
0.29
181
1.73
294
0.47
140
0.56
155
0.56
222
1.09
201
0.54
204
0.53
137
0.81
220
0.20
129
0.32
165
0.71
206
0.97
243
0.73
165
0.57
140
CFNet_pseudotwo views0.51
148
0.44
135
0.43
185
0.54
208
0.43
197
0.53
203
0.34
180
0.62
155
0.36
179
0.61
181
0.64
204
0.57
139
0.52
227
0.35
209
0.90
222
0.50
157
0.50
113
0.47
170
0.67
147
0.36
135
0.47
100
0.42
105
0.26
183
0.33
179
0.57
165
0.60
172
0.68
148
0.73
189
R-Stereo Traintwo views0.66
189
0.55
217
0.43
185
0.48
188
0.36
165
0.50
193
0.18
106
0.62
155
0.31
151
0.68
232
0.62
200
0.72
182
0.34
170
0.25
151
0.69
171
0.89
256
0.66
218
0.51
197
2.12
248
0.46
185
0.94
235
1.49
273
0.22
152
0.36
194
0.71
206
0.96
238
0.77
174
1.10
233
RAFT-Stereopermissivetwo views0.66
189
0.55
217
0.43
185
0.48
188
0.36
165
0.50
193
0.18
106
0.62
155
0.31
151
0.68
232
0.62
200
0.72
182
0.34
170
0.25
151
0.69
171
0.89
256
0.66
218
0.51
197
2.12
248
0.46
185
0.94
235
1.49
273
0.22
152
0.36
194
0.71
206
0.96
238
0.77
174
1.10
233
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
LL-Strereo2two views0.34
87
0.29
64
0.21
84
0.24
88
0.19
71
0.17
53
0.13
70
0.63
169
0.26
104
0.58
166
0.23
61
0.44
96
0.22
85
0.14
62
0.41
86
0.41
93
0.47
100
0.35
91
0.73
161
0.31
103
0.47
100
0.36
80
0.21
138
0.20
75
0.32
80
0.34
90
0.51
85
0.35
75
4D-IteraStereotwo views0.40
100
0.28
63
0.33
134
0.35
145
0.24
96
0.24
91
0.15
89
0.63
169
0.28
117
0.61
181
0.39
127
0.51
123
0.22
85
0.22
110
0.48
107
0.43
104
0.49
108
0.43
137
0.66
143
0.34
116
0.63
173
0.70
201
0.14
72
0.22
92
0.39
105
0.47
137
0.63
131
0.39
85
CIPLGtwo views0.42
109
0.47
162
0.24
104
0.32
127
0.22
82
0.32
121
0.19
117
0.63
169
0.24
87
0.55
141
0.50
158
0.60
153
0.30
129
0.41
223
0.93
228
0.44
109
0.52
128
0.37
100
0.56
114
0.38
145
0.56
148
0.45
122
0.19
113
0.24
113
0.44
116
0.31
76
0.57
106
0.38
84
IPLGtwo views0.47
137
0.45
143
0.32
131
0.28
106
0.27
118
0.32
121
0.21
125
0.63
169
0.22
71
0.51
115
0.38
120
0.56
137
0.29
119
0.31
191
1.64
288
0.44
109
0.56
155
0.48
176
0.56
114
0.41
167
0.45
86
0.75
209
0.18
105
0.28
139
0.45
120
0.59
169
0.65
139
0.51
121
IPLGR_Ctwo views0.42
109
0.47
162
0.23
98
0.31
125
0.22
82
0.32
121
0.18
106
0.63
169
0.23
76
0.55
141
0.50
158
0.61
154
0.31
143
0.41
223
0.87
217
0.45
120
0.52
128
0.37
100
0.55
108
0.38
145
0.56
148
0.46
127
0.19
113
0.24
113
0.44
116
0.33
86
0.58
114
0.40
90
ACREtwo views0.42
109
0.47
162
0.22
93
0.32
127
0.22
82
0.33
128
0.18
106
0.63
169
0.23
76
0.55
141
0.50
158
0.61
154
0.30
129
0.41
223
0.91
223
0.45
120
0.52
128
0.36
95
0.55
108
0.38
145
0.57
158
0.44
118
0.19
113
0.23
104
0.44
116
0.32
81
0.58
114
0.39
85
RPtwo views0.58
175
0.57
227
0.72
257
0.62
226
0.56
228
0.57
213
0.64
244
0.63
169
0.61
243
0.42
76
0.81
244
0.78
201
0.53
229
0.43
236
0.68
169
0.48
146
0.53
137
0.44
142
0.64
137
0.45
180
0.51
120
0.54
162
0.37
222
0.44
222
0.62
185
0.59
169
0.83
194
0.77
195
Any-RAFTtwo views0.69
198
0.47
162
0.85
269
0.53
205
0.40
185
0.38
151
0.27
155
0.64
176
0.32
159
0.57
154
0.76
236
0.86
217
0.24
98
0.22
110
0.57
122
0.76
240
0.60
189
0.45
152
2.19
250
0.45
180
1.20
259
0.71
202
0.22
152
0.31
160
0.99
269
1.24
276
0.73
165
1.65
264
SAtwo views0.42
109
0.47
162
0.21
84
0.25
94
0.23
88
0.31
118
0.13
70
0.64
176
0.32
159
0.61
181
0.26
72
0.54
129
0.21
81
0.16
73
0.63
150
0.47
140
0.52
128
0.41
123
0.60
130
0.29
94
0.46
93
0.61
177
0.15
74
0.27
133
0.45
120
0.58
168
0.96
222
0.47
106
GLC_STEREOtwo views0.47
137
0.51
198
0.40
168
0.38
154
0.37
172
0.37
146
0.28
160
0.64
176
0.29
124
0.62
191
0.53
171
0.55
135
0.28
115
0.30
184
0.49
110
0.48
146
0.66
218
0.41
123
0.65
141
0.41
167
0.70
197
0.60
172
0.23
163
0.30
152
0.47
126
0.36
94
0.84
196
0.53
127
raftrobusttwo views0.43
122
0.33
74
0.36
148
0.28
106
0.28
123
0.27
101
0.18
106
0.64
176
0.25
93
0.63
197
0.53
171
0.51
123
0.25
99
0.22
110
0.63
150
0.48
146
0.51
124
0.41
123
0.96
195
0.38
145
0.53
137
0.46
127
0.20
129
0.24
113
0.57
165
0.54
160
0.54
101
0.52
123
BEATNet_4xtwo views0.53
155
0.40
113
0.34
140
0.39
157
0.36
165
0.32
121
0.27
155
0.64
176
0.41
204
0.66
220
0.45
141
0.62
162
0.39
193
0.24
135
0.83
201
0.63
207
0.58
168
0.58
232
0.57
118
0.36
135
0.90
227
1.52
276
0.25
174
0.36
194
0.46
124
0.44
121
0.77
174
0.60
150
PS-NSSStwo views0.60
183
0.81
267
0.44
193
0.89
259
0.54
224
0.71
244
0.63
242
0.64
176
0.38
194
0.64
204
0.41
132
1.52
265
0.47
216
0.41
223
0.59
130
0.42
97
0.52
128
0.45
152
0.94
192
0.42
173
0.44
82
0.29
64
0.36
217
0.34
183
0.63
189
0.69
182
0.70
157
0.80
199
iResNetv2_ROBtwo views0.52
152
0.45
143
0.32
131
0.48
188
0.39
180
0.48
187
0.28
160
0.64
176
0.34
169
0.52
122
0.66
212
0.70
178
0.55
232
0.28
174
0.67
166
0.47
140
0.50
113
0.46
164
1.12
206
0.45
180
0.57
158
0.47
132
0.29
195
0.40
207
0.55
160
0.51
153
0.81
184
0.58
142
Sa-1000two views0.48
141
0.47
162
0.21
84
0.26
98
0.26
108
0.31
118
0.15
89
0.65
183
0.36
179
0.63
197
0.33
101
0.50
118
0.26
102
0.30
184
0.94
232
0.49
153
0.59
182
0.45
152
0.90
186
0.32
108
0.52
130
0.75
209
0.17
93
0.27
133
0.72
209
0.53
157
1.00
234
0.49
110
test-3two views0.55
162
0.37
92
0.37
152
0.34
135
0.33
148
0.33
128
0.22
131
0.65
183
0.27
110
0.61
181
0.34
104
0.90
220
0.31
143
0.21
104
0.60
136
0.44
109
0.55
149
0.42
132
2.59
269
0.38
145
0.56
148
1.37
264
0.16
78
0.29
144
0.48
129
0.38
106
0.69
151
0.54
134
ADCP+two views0.92
238
0.59
229
0.62
239
0.44
182
0.45
200
0.55
209
0.85
267
0.65
183
1.81
311
0.48
99
1.10
270
1.62
269
0.33
158
0.42
233
1.03
248
0.52
172
0.52
128
0.48
176
1.19
210
0.38
145
0.58
162
0.60
172
0.32
208
0.30
152
0.66
195
3.45
334
0.77
174
4.14
314
PA-Nettwo views0.64
187
0.67
248
0.66
249
0.50
193
0.66
250
0.50
193
0.64
244
0.65
183
0.73
254
0.54
134
0.52
167
0.58
144
0.58
240
0.59
276
0.93
228
0.57
191
0.46
90
0.54
214
0.61
134
0.54
204
0.49
110
0.66
189
0.36
217
0.52
242
0.64
192
1.24
276
0.64
135
1.32
249
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
test_1two views0.55
162
0.37
92
0.37
152
0.34
135
0.33
148
0.33
128
0.22
131
0.66
187
0.27
110
0.62
191
0.34
104
0.90
220
0.31
143
0.21
104
0.61
141
0.44
109
0.55
149
0.42
132
2.58
268
0.38
145
0.56
148
1.38
266
0.16
78
0.29
144
0.48
129
0.38
106
0.69
151
0.54
134
pcwnet_v2two views0.62
184
0.46
155
0.50
211
0.62
226
0.49
214
0.61
223
0.46
205
0.66
187
0.45
216
0.65
209
0.79
239
0.64
164
0.86
260
0.53
260
1.15
261
0.55
184
0.59
182
0.51
197
0.83
178
0.41
167
0.55
143
0.47
132
0.34
212
0.43
216
0.75
221
0.76
200
0.85
198
0.95
215
ETE_ROBtwo views0.87
235
0.90
279
0.58
230
0.67
236
0.69
253
0.85
258
0.60
233
0.66
187
0.89
273
0.64
204
1.09
268
2.63
285
0.54
230
0.54
261
1.00
244
0.72
233
0.91
271
0.63
244
0.99
197
0.66
253
0.88
223
1.08
243
0.50
251
0.59
254
0.78
230
0.92
230
1.48
289
1.17
241
GMOStereotwo views0.42
109
0.39
106
0.21
84
0.30
119
0.26
108
0.29
111
0.19
117
0.67
190
0.30
133
0.66
220
0.32
94
0.54
129
0.33
158
0.20
98
0.40
80
0.46
129
0.50
113
0.44
142
0.68
149
0.34
116
0.51
120
0.66
189
0.16
78
0.22
92
0.58
169
0.45
127
0.82
187
0.41
92
error versiontwo views0.42
109
0.39
106
0.21
84
0.30
119
0.26
108
0.29
111
0.19
117
0.67
190
0.30
133
0.66
220
0.32
94
0.54
129
0.33
158
0.20
98
0.40
80
0.46
129
0.50
113
0.44
142
0.68
149
0.34
116
0.51
120
0.66
189
0.16
78
0.22
92
0.58
169
0.45
127
0.82
187
0.41
92
test-vtwo views0.42
109
0.39
106
0.21
84
0.30
119
0.26
108
0.29
111
0.19
117
0.67
190
0.30
133
0.66
220
0.32
94
0.54
129
0.33
158
0.20
98
0.40
80
0.46
129
0.50
113
0.44
142
0.68
149
0.34
116
0.51
120
0.66
189
0.16
78
0.22
92
0.58
169
0.45
127
0.82
187
0.41
92
test-2two views0.42
109
0.39
106
0.21
84
0.30
119
0.26
108
0.29
111
0.19
117
0.67
190
0.30
133
0.66
220
0.32
94
0.54
129
0.33
158
0.20
98
0.40
80
0.46
129
0.50
113
0.44
142
0.68
149
0.34
116
0.51
120
0.66
189
0.16
78
0.22
92
0.58
169
0.45
127
0.82
187
0.41
92
NCC-stereotwo views0.67
192
0.63
240
0.59
231
0.64
230
0.65
245
0.63
229
0.69
255
0.67
190
0.74
257
0.43
78
0.81
244
0.82
206
0.70
251
0.47
244
0.82
199
0.53
174
0.58
168
0.64
248
0.80
175
0.54
204
0.56
148
0.60
172
0.53
262
0.45
227
0.75
221
0.96
238
0.92
213
0.98
219
Abc-Nettwo views0.67
192
0.63
240
0.59
231
0.64
230
0.65
245
0.63
229
0.69
255
0.67
190
0.74
257
0.43
78
0.81
244
0.82
206
0.70
251
0.47
244
0.82
199
0.53
174
0.58
168
0.64
248
0.80
175
0.54
204
0.56
148
0.60
172
0.53
262
0.45
227
0.75
221
0.96
238
0.92
213
0.98
219
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
RTSCtwo views0.73
205
0.49
178
0.46
198
0.47
187
0.51
218
0.55
209
0.56
224
0.67
190
0.68
251
0.54
134
0.79
239
0.57
139
0.57
238
0.41
223
1.92
302
0.77
242
0.96
278
0.58
232
1.36
219
0.56
214
0.85
222
1.11
245
0.31
203
0.53
245
0.58
169
0.65
179
0.95
219
1.26
247
MyStereo04two views0.68
197
0.52
207
0.57
228
0.44
182
0.37
172
0.35
141
0.26
153
0.68
197
0.45
216
0.62
191
0.45
141
0.68
172
0.34
170
0.25
151
1.00
244
0.68
226
0.56
155
0.53
208
3.39
285
0.56
214
0.92
228
0.64
184
0.27
187
0.41
210
0.77
228
0.92
230
0.96
222
0.66
165
test_3two views0.56
169
0.38
101
0.36
148
0.34
135
0.33
148
0.33
128
0.21
125
0.68
197
0.29
124
0.65
209
0.33
101
0.92
222
0.35
177
0.21
104
0.60
136
0.44
109
0.56
155
0.45
152
2.68
271
0.39
159
0.55
143
1.35
262
0.15
74
0.32
165
0.51
144
0.47
137
0.67
146
0.50
119
GANet-ADLtwo views0.70
201
0.59
229
0.52
216
0.60
221
0.57
231
0.61
223
0.46
205
0.68
197
0.52
227
0.65
209
0.67
219
0.76
197
0.43
205
0.39
217
1.08
254
0.79
248
0.68
226
0.52
204
1.84
240
0.64
250
0.66
184
0.86
225
0.42
234
0.43
216
0.70
203
0.87
221
0.97
225
0.89
211
TRStereotwo views0.75
211
0.83
272
1.19
295
0.56
212
0.34
157
1.42
293
0.48
208
0.68
197
0.28
117
0.65
209
0.46
145
1.10
244
0.27
109
0.22
110
0.70
176
0.85
253
0.57
164
0.48
176
1.85
241
0.50
192
0.73
203
0.87
226
0.18
105
0.27
133
0.78
230
1.22
275
1.78
301
1.09
229
FCDSN-DCtwo views0.69
198
0.61
236
0.62
239
0.66
235
0.61
237
0.59
217
0.60
233
0.68
197
0.42
211
0.75
257
0.42
134
0.57
139
0.36
182
0.50
251
2.43
327
0.67
223
0.80
254
0.76
279
0.64
137
0.56
214
0.70
197
0.60
172
0.47
240
0.83
284
0.66
195
0.74
193
0.61
125
0.67
169
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
FADNet-RVCtwo views0.58
175
0.50
193
0.37
152
0.51
199
0.42
194
0.39
153
0.56
224
0.68
197
0.36
179
0.64
204
0.50
158
1.13
247
0.45
211
0.34
203
0.91
223
0.53
174
0.54
140
0.45
152
1.20
212
0.51
195
0.54
141
0.52
157
0.33
210
0.51
240
0.57
165
0.75
197
0.64
135
0.81
201
SGM-Foresttwo views0.73
205
0.71
254
0.40
168
1.13
275
0.64
244
0.74
250
0.45
203
0.68
197
0.39
197
0.61
181
0.44
138
1.16
248
1.06
264
0.49
247
0.86
211
0.61
205
0.55
149
0.46
164
0.68
149
0.44
178
0.61
168
0.49
139
0.45
237
0.44
222
0.90
253
0.86
218
1.95
305
1.47
254
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
HHtwo views0.84
230
0.34
77
0.99
280
0.42
172
0.36
165
0.51
196
0.42
199
0.69
204
0.34
169
0.65
209
0.38
120
1.03
235
0.26
102
0.28
174
0.66
160
1.37
313
0.61
197
0.53
208
2.39
259
0.60
231
3.55
321
1.64
280
0.25
174
0.33
179
0.83
243
1.05
258
1.09
243
1.12
236
HanStereotwo views0.84
230
0.34
77
0.99
280
0.42
172
0.36
165
0.51
196
0.42
199
0.69
204
0.34
169
0.65
209
0.38
120
1.03
235
0.26
102
0.28
174
0.66
160
1.37
313
0.61
197
0.53
208
2.39
259
0.60
231
3.55
321
1.64
280
0.25
174
0.33
179
0.83
243
1.05
258
1.09
243
1.12
236
SACVNettwo views0.62
184
0.53
213
0.51
215
0.55
211
0.57
231
0.52
199
0.60
233
0.69
204
0.56
237
0.67
229
0.54
177
0.59
149
0.37
187
0.41
223
0.71
180
0.60
201
0.64
211
0.57
227
0.95
193
0.64
250
0.67
188
0.78
217
0.36
217
0.47
232
0.75
221
0.77
204
0.84
196
0.84
204
XX-Stereotwo views9.49
340
0.38
101
0.36
148
0.63
228
0.28
123
0.54
207
0.28
160
0.69
204
0.28
117
0.69
240
6.24
336
1.00
230
0.29
119
0.23
123
0.70
176
1.08
288
0.60
189
0.52
204
1.58
228
0.53
198
0.76
207
0.65
186
0.18
105
0.26
130
233.61
360
0.88
223
1.01
235
1.90
272
MSMDNettwo views0.73
205
0.52
207
0.48
205
0.35
145
0.34
157
0.45
178
0.33
179
0.69
204
0.30
133
0.63
197
0.60
188
0.71
180
0.35
177
0.23
123
0.78
187
1.05
285
0.63
208
0.50
190
2.88
276
0.81
275
1.59
276
1.80
288
0.23
163
0.29
144
0.74
216
0.89
225
0.85
198
0.76
194
DN-CSS_ROBtwo views0.52
152
0.43
129
0.46
198
0.41
168
0.40
185
0.34
135
0.22
131
0.69
204
0.34
169
0.59
171
0.79
239
0.66
168
0.47
216
0.24
135
0.63
150
0.40
89
0.58
168
0.43
137
1.74
234
0.38
145
0.63
173
0.38
86
0.31
203
0.47
232
0.53
152
0.43
117
0.66
145
0.54
134
stereogantwo views0.67
192
0.67
248
0.62
239
0.68
239
0.73
262
0.75
251
0.64
244
0.70
210
0.57
238
0.51
115
0.64
204
1.08
241
0.62
243
0.44
239
0.83
201
0.55
184
0.56
155
0.51
197
0.91
187
0.59
226
0.59
166
0.69
199
0.47
240
0.46
229
0.59
176
0.67
181
1.16
252
0.87
209
NCCL2two views0.69
198
0.73
257
0.66
249
0.57
214
0.56
228
0.51
196
0.45
203
0.70
210
0.57
238
0.68
232
0.71
224
0.66
168
0.48
219
0.39
217
0.93
228
0.72
233
0.65
215
0.57
227
0.76
171
0.57
219
0.74
205
0.88
227
0.49
247
0.60
256
0.98
266
0.95
235
0.85
198
1.16
240
LALA_ROBtwo views0.86
234
0.97
286
0.67
252
0.63
228
0.69
253
0.83
257
0.67
252
0.70
210
0.80
262
0.68
232
1.10
270
2.61
284
0.58
240
0.51
253
1.11
257
0.67
223
0.86
262
0.72
269
0.89
185
0.67
257
0.80
212
1.00
238
0.49
247
0.59
254
0.73
214
0.92
230
1.16
252
1.10
233
EKT-Stereotwo views0.75
211
0.64
242
0.54
222
0.59
218
0.47
207
0.60
219
0.73
258
0.71
213
0.29
124
0.63
197
0.66
212
0.73
185
0.30
129
0.26
162
0.86
211
1.22
305
0.68
226
0.76
279
1.46
222
0.60
231
1.75
284
1.74
286
0.21
138
0.32
165
0.93
257
0.81
212
1.06
239
0.72
186
GEStereo_RVCtwo views0.71
203
0.59
229
0.40
168
0.54
208
0.50
215
0.61
223
0.51
213
0.71
213
0.41
204
0.59
171
0.51
164
0.76
197
0.46
214
0.39
217
0.96
237
0.92
261
0.78
249
0.75
276
1.94
243
0.62
244
0.80
212
1.37
264
0.31
203
0.52
242
0.61
180
0.63
174
0.86
203
1.12
236
TestStereotwo views0.45
130
0.51
198
0.38
161
0.42
172
0.30
138
0.44
173
0.26
153
0.71
213
0.28
117
0.76
260
0.32
94
0.64
164
0.32
152
0.24
135
0.47
100
0.35
68
0.54
140
0.33
78
0.78
173
0.38
145
0.63
173
0.42
105
0.24
171
0.30
152
0.53
152
0.43
117
0.75
169
0.55
137
sAnonymous2two views0.58
175
0.41
117
0.31
128
0.29
111
0.29
130
0.45
178
0.29
167
0.71
213
0.41
204
0.48
99
0.53
171
0.51
123
0.43
205
0.23
123
0.86
211
0.84
251
0.70
234
0.67
256
1.34
216
0.60
231
0.83
217
0.98
235
0.30
198
0.35
187
0.62
185
0.72
190
0.72
162
0.73
189
CroCo_RVCtwo views0.58
175
0.41
117
0.31
128
0.29
111
0.29
130
0.45
178
0.29
167
0.71
213
0.41
204
0.48
99
0.53
171
0.51
123
0.43
205
0.23
123
0.86
211
0.84
251
0.70
234
0.67
256
1.34
216
0.60
231
0.83
217
0.98
235
0.30
198
0.35
187
0.62
185
0.72
190
0.72
162
0.73
189
psm_uptwo views0.56
169
0.51
198
0.53
218
0.56
212
0.45
200
0.58
216
0.35
182
0.71
213
0.66
250
0.55
141
0.53
171
0.59
149
0.50
221
0.40
220
0.63
150
0.50
157
0.59
182
0.49
184
0.84
181
0.46
185
0.51
120
0.45
122
0.31
203
0.51
240
0.70
203
0.78
205
0.80
181
0.67
169
HSMtwo views0.54
160
0.49
178
0.47
202
0.48
188
0.47
207
0.41
161
0.37
188
0.71
213
0.37
189
0.61
181
0.65
209
0.59
149
0.48
219
0.31
191
0.70
176
0.48
146
0.64
211
0.47
170
0.75
168
0.48
191
0.63
173
0.49
139
0.26
183
0.42
213
0.62
185
0.72
190
0.87
205
0.67
169
DDF-Stereotwo views2.07
290
0.43
129
0.28
114
10.45
339
0.48
210
14.62
348
0.70
257
0.72
220
0.29
124
0.66
220
0.48
147
17.48
344
0.59
242
0.26
162
0.55
116
0.56
190
0.60
189
0.45
152
1.27
215
0.38
145
0.83
217
0.77
214
0.25
174
0.24
113
0.45
120
0.45
127
0.91
210
0.67
169
zero-FEtwo views9.08
339
0.42
124
0.28
114
61.19
357
0.56
228
106.36
358
1.24
290
0.72
220
0.30
133
0.66
220
0.56
180
61.54
356
0.66
249
0.25
151
0.59
130
0.53
174
0.60
189
0.47
170
2.54
264
0.38
145
1.35
269
0.96
233
0.25
174
0.24
113
0.45
120
0.44
121
0.91
210
0.66
165
model_zeroshottwo views0.80
229
0.46
155
0.42
180
0.42
172
0.39
180
0.43
170
0.27
155
0.72
220
0.36
179
0.64
204
0.66
212
0.97
228
0.29
119
0.24
135
1.05
249
0.92
261
0.69
232
0.54
214
3.03
280
0.73
266
1.21
260
1.20
255
0.22
152
0.38
202
0.84
247
1.14
268
1.08
241
2.21
281
FADNet-RVC-Resampletwo views0.57
173
0.52
207
0.42
180
0.46
185
0.39
180
0.41
161
0.40
196
0.72
220
0.42
211
0.68
232
0.51
164
1.04
239
0.43
205
0.43
236
0.96
237
0.48
146
0.56
155
0.61
242
0.85
182
0.55
209
0.52
130
0.63
180
0.34
212
0.60
256
0.58
169
0.71
187
0.55
102
0.77
195
RAFT-Testtwo views0.72
204
0.50
193
0.46
198
0.52
202
0.34
157
0.41
161
0.29
167
0.73
224
0.30
133
0.62
191
0.72
229
0.68
172
0.31
143
0.22
110
0.71
180
1.03
283
0.62
203
0.50
190
2.89
277
0.66
253
1.72
281
1.14
250
0.23
163
0.29
144
0.80
237
0.96
238
0.95
219
0.91
212
raft_robusttwo views0.49
144
0.44
135
0.24
104
0.38
154
0.29
130
0.32
121
0.21
125
0.73
224
0.35
175
0.69
240
0.34
104
0.57
139
0.31
143
0.24
135
0.59
130
0.53
174
0.54
140
0.46
164
0.98
196
0.37
141
0.69
194
0.94
232
0.20
129
0.28
139
0.55
160
0.69
182
0.69
151
0.60
150
cross-rafttwo views0.73
205
0.56
222
0.46
198
0.43
177
0.33
148
0.40
159
0.27
155
0.73
224
0.33
164
0.65
209
0.60
188
0.74
188
0.30
129
0.23
123
0.76
186
0.96
269
0.63
208
0.48
176
2.91
278
0.59
226
1.81
287
1.31
261
0.22
152
0.32
165
0.82
241
0.94
234
0.93
215
1.01
223
test-1two views0.84
230
0.34
77
0.50
211
0.37
151
0.40
185
0.60
219
0.37
188
0.73
224
0.38
194
0.68
232
0.71
224
1.08
241
0.40
196
0.25
151
0.79
191
0.91
260
0.63
208
0.58
232
2.22
252
0.58
222
1.17
258
3.78
318
0.22
152
0.36
194
0.81
238
1.15
269
1.10
246
1.59
259
EAI-Stereotwo views0.75
211
0.49
178
0.50
211
0.51
199
0.46
203
0.56
212
0.60
233
0.73
224
0.32
159
0.63
197
0.72
229
0.82
206
0.26
102
0.24
135
1.05
249
0.96
269
0.60
189
0.49
184
3.00
279
0.62
244
0.82
215
1.13
248
0.19
113
0.31
160
0.78
230
0.70
186
1.55
291
1.17
241
gcap-zeroshottwo views1.75
282
0.44
135
0.89
273
0.59
218
0.36
165
0.55
209
0.29
167
0.74
229
0.29
124
0.74
253
0.76
236
1.18
250
0.33
158
0.24
135
0.78
187
0.97
271
0.61
197
0.53
208
29.80
342
0.80
271
1.04
247
1.45
269
0.23
163
0.34
183
0.75
221
0.99
246
0.96
222
0.75
192
PSMNet-ADLtwo views0.96
247
0.62
239
0.66
249
0.67
236
0.70
259
0.66
236
0.58
228
0.74
229
0.60
242
0.85
281
5.03
325
0.95
227
1.26
275
0.45
241
0.89
220
1.03
283
0.68
226
0.54
214
2.03
246
0.68
259
0.84
220
0.79
219
0.54
266
0.47
232
0.73
214
0.95
235
1.32
272
0.63
160
FADNettwo views0.65
188
0.55
217
0.41
177
0.53
205
0.42
194
0.49
189
0.65
249
0.74
229
0.42
211
0.66
220
0.64
204
0.81
204
0.50
221
0.36
211
1.17
263
0.51
164
0.51
124
0.53
208
1.61
231
0.53
198
0.69
194
0.59
168
0.35
216
0.41
210
0.72
209
0.88
223
0.78
179
1.06
227
RGCtwo views0.76
215
0.72
255
0.99
280
0.70
240
0.71
260
0.76
254
0.57
227
0.74
229
0.74
257
0.56
150
0.96
259
0.83
210
0.85
259
0.56
266
0.93
228
0.60
201
0.62
203
0.56
222
0.93
189
0.61
240
0.66
184
0.71
202
0.51
259
0.56
249
0.81
238
1.01
251
0.99
229
1.19
243
FSDtwo views0.53
213
0.53
218
0.53
205
0.53
220
0.52
199
0.53
216
0.75
233
0.40
199
0.80
270
0.59
185
0.55
264
0.62
146
0.64
213
0.66
143
0.55
209
0.52
242
0.68
199
0.62
173
0.69
151
0.70
182
Reg-Stereo(zero)two views0.78
224
0.47
162
0.56
226
0.39
157
0.28
123
0.41
161
0.35
182
0.75
233
0.36
179
0.62
191
6.09
332
0.78
201
0.32
152
0.27
171
0.41
86
0.63
207
0.58
168
0.45
152
1.51
223
0.42
173
0.65
181
0.62
178
0.21
138
0.32
165
0.55
160
0.78
205
1.26
266
1.09
229
HItwo views0.78
224
0.47
162
0.56
226
0.39
157
0.28
123
0.41
161
0.35
182
0.75
233
0.36
179
0.62
191
6.09
332
0.78
201
0.32
152
0.27
171
0.41
86
0.63
207
0.58
168
0.45
152
1.51
223
0.42
173
0.65
181
0.62
178
0.21
138
0.32
165
0.55
160
0.78
205
1.26
266
1.09
229
ADCLtwo views1.27
264
0.82
270
0.64
245
0.60
221
0.53
220
0.73
246
0.91
273
0.75
233
2.78
330
0.68
232
1.01
263
0.86
217
0.50
221
0.50
251
1.27
267
0.64
213
0.66
218
0.57
227
1.20
212
0.60
231
0.98
243
0.88
227
0.50
251
0.47
232
1.60
308
1.50
299
0.88
206
11.30
338
MSKI-zero shottwo views0.84
230
0.49
178
0.43
185
0.41
168
0.35
161
0.46
184
0.32
176
0.76
237
0.30
133
0.65
209
0.92
255
0.83
210
0.32
152
0.22
110
0.62
146
1.08
288
0.64
211
0.47
170
3.14
283
0.61
240
2.23
294
1.58
278
0.20
129
0.38
202
0.96
264
1.47
294
1.24
264
1.60
260
DLNR_Zeroshot_testpermissivetwo views17.86
345
67.45
359
1.21
297
81.91
358
0.35
161
0.45
178
74.74
358
0.76
237
0.27
110
0.69
240
0.60
188
1.16
248
0.29
119
8.20
347
84.48
359
102.07
359
23.88
351
15.14
347
7.31
309
0.50
192
4.38
330
2.51
301
0.18
105
0.43
216
0.76
227
0.86
218
0.80
181
0.80
199
iRaft-Stereo_20wtwo views1.06
254
0.49
178
1.34
308
1.18
280
0.46
203
0.78
255
0.46
205
0.76
237
0.37
189
0.74
253
6.16
335
0.84
212
0.29
119
0.26
162
0.81
196
0.97
271
0.59
182
0.44
142
1.72
233
0.61
240
1.04
247
1.56
277
0.21
138
0.25
124
0.92
256
1.31
285
1.45
287
2.71
293
UDGtwo views1.35
267
2.24
311
0.81
265
2.58
302
2.45
317
2.48
305
2.57
308
0.76
237
0.86
268
0.77
262
1.08
267
1.51
263
0.56
234
2.59
317
1.06
251
0.69
227
1.89
310
0.80
287
2.31
254
0.97
287
1.24
262
0.98
235
1.43
311
0.62
259
0.74
216
0.81
212
0.95
219
0.81
201
HSM-Net_RVCpermissivetwo views0.75
211
0.53
213
0.60
236
0.77
250
0.62
243
0.61
223
0.37
188
0.76
237
0.49
223
0.74
253
1.71
296
1.32
256
0.80
256
0.36
211
0.72
183
0.55
184
0.64
211
0.53
208
0.78
173
0.53
198
0.67
188
0.89
229
0.43
235
0.64
262
0.94
260
1.09
262
1.07
240
1.04
226
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
AIO-Stereo-zeroshotpermissivetwo views1.21
261
0.49
178
1.28
305
0.75
246
0.41
191
1.04
273
0.67
252
0.77
242
0.52
227
0.78
266
5.67
331
1.03
235
0.35
177
0.26
162
0.86
211
1.39
317
0.68
226
0.70
266
2.61
270
0.64
250
2.89
306
2.21
295
0.19
113
0.43
216
1.03
278
1.15
269
1.35
275
2.41
287
GwcNet-ADLtwo views0.97
249
0.83
272
0.81
265
0.91
262
0.68
251
0.70
242
0.53
216
0.77
242
0.50
224
0.72
249
5.46
328
1.20
251
0.65
248
0.46
243
0.81
196
0.95
266
0.72
242
0.56
222
1.26
214
0.71
264
0.67
188
0.78
217
0.59
273
0.56
249
0.79
233
0.98
244
0.85
198
1.75
268
FADNet_RVCtwo views0.92
238
0.69
251
0.55
225
0.88
258
0.75
268
0.54
207
0.51
213
0.77
242
0.54
231
0.70
243
0.96
259
1.36
258
1.06
264
0.54
261
1.85
300
0.64
213
0.80
254
0.90
292
3.34
284
0.76
267
1.00
244
1.13
248
0.37
222
0.60
256
0.66
195
0.87
221
0.97
225
1.14
239
CASStwo views0.79
226
0.55
217
0.53
218
0.65
233
0.54
224
0.59
217
0.53
216
0.78
245
0.52
227
0.71
246
0.75
235
0.67
170
0.47
216
0.28
174
0.83
201
0.67
223
0.98
279
0.56
222
1.60
230
0.58
222
2.74
302
1.44
267
0.38
224
0.35
187
0.84
247
0.81
212
0.90
209
1.02
224
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
anonymitytwo views3.27
313
0.41
117
1.09
292
0.58
215
0.41
191
0.47
185
0.30
174
0.79
246
0.33
164
0.61
181
69.49
357
0.85
213
0.30
129
0.24
135
0.59
130
1.02
282
0.60
189
0.43
137
1.35
218
0.60
231
0.73
203
1.82
289
0.24
171
0.29
144
1.00
272
1.24
276
1.08
241
1.47
254
CC-Net-ROBtwo views0.96
247
1.18
297
0.70
255
1.56
295
1.06
287
1.63
299
1.20
289
0.79
246
0.61
243
0.81
273
0.56
180
3.07
293
0.57
238
0.85
297
0.68
169
0.44
109
0.71
240
0.63
244
1.40
220
0.57
219
0.58
162
0.43
112
1.91
315
0.46
229
0.83
243
0.83
216
0.77
174
1.20
244
DDUNettwo views1.38
268
2.18
309
0.79
263
2.67
305
2.43
316
2.57
306
2.52
307
0.80
248
0.84
267
0.63
197
0.94
256
1.57
268
0.45
211
2.65
321
0.94
232
0.78
245
1.99
312
0.75
276
2.31
254
0.91
283
1.16
257
0.97
234
2.71
319
0.56
249
0.72
209
0.71
187
0.97
225
0.85
205
Anonymous3two views0.79
226
0.59
229
0.42
180
0.37
151
0.42
194
0.57
213
0.50
212
0.80
248
0.64
247
0.68
232
0.49
152
1.48
261
0.54
230
0.31
191
1.53
282
1.42
319
0.88
267
0.82
288
1.45
221
0.69
262
1.31
266
1.30
260
0.40
229
0.40
207
0.74
216
0.86
218
1.03
238
0.71
184
RTStwo views1.09
255
0.59
229
0.59
231
0.60
221
0.58
234
0.96
266
0.90
271
0.80
248
0.88
270
0.59
171
0.71
224
1.28
254
0.62
243
0.51
253
2.04
305
0.98
274
1.19
289
0.77
281
2.33
256
0.85
278
0.96
239
1.16
251
0.49
247
0.65
264
1.23
289
4.43
337
1.15
249
1.45
252
RTSAtwo views1.09
255
0.59
229
0.59
231
0.60
221
0.58
234
0.96
266
0.90
271
0.80
248
0.88
270
0.59
171
0.71
224
1.28
254
0.62
243
0.51
253
2.04
305
0.98
274
1.19
289
0.77
281
2.33
256
0.85
278
0.96
239
1.16
251
0.49
247
0.65
264
1.23
289
4.43
337
1.15
249
1.45
252
NOSS_ROBtwo views0.76
215
0.84
276
0.50
211
0.72
243
0.61
237
0.75
251
0.52
215
0.80
248
0.54
231
0.70
243
0.62
200
0.62
162
0.86
260
0.62
277
1.14
260
1.10
291
0.78
249
0.69
265
0.73
161
0.60
231
0.88
223
0.67
194
0.50
251
0.71
268
0.86
250
0.95
235
1.38
278
0.85
205
IGEV-FEtwo views0.94
242
0.47
162
1.24
300
1.15
277
0.46
203
0.60
219
0.65
249
0.81
253
0.36
179
0.67
229
1.75
297
0.94
223
0.30
129
0.26
162
0.66
160
1.14
295
0.60
189
0.48
176
2.55
265
0.63
248
2.19
292
2.33
298
0.21
138
0.37
199
1.00
272
1.03
256
1.17
254
1.48
256
IGEV_Zeroshot_testtwo views0.95
244
0.47
162
1.24
300
1.15
277
0.46
203
0.60
219
0.65
249
0.81
253
0.36
179
0.66
220
1.86
301
0.94
223
0.30
129
0.26
162
0.66
160
1.14
295
0.60
189
0.48
176
2.56
266
0.63
248
2.23
294
2.36
299
0.21
138
0.37
199
1.00
272
1.03
256
1.17
254
1.48
256
MLCVtwo views0.70
201
0.49
178
0.53
218
0.73
245
0.50
215
0.65
233
0.43
201
0.81
253
0.41
204
0.71
246
0.88
251
1.01
233
0.81
257
0.28
174
0.92
226
0.43
104
0.65
215
0.52
204
2.47
263
0.45
180
0.55
143
0.72
206
0.39
228
0.54
246
0.69
200
0.80
210
0.83
194
0.72
186
AIO-Stereo-zeroshot1permissivetwo views5.67
326
0.56
222
1.25
302
0.75
246
0.69
253
1.17
281
0.81
263
0.82
256
0.80
262
0.81
273
4.78
322
1.00
230
0.37
187
0.27
171
1.13
259
1.54
322
0.70
234
0.60
240
124.50
357
0.54
204
1.43
271
2.64
303
0.22
152
0.36
194
0.91
254
1.13
267
1.13
248
2.18
279
SFCPSMtwo views3.03
309
0.82
270
0.63
243
0.77
250
0.69
253
0.72
245
0.63
242
0.83
257
0.98
283
0.71
246
2.00
303
2.57
282
3.49
307
0.56
266
1.16
262
0.93
265
0.74
244
0.64
248
54.48
354
1.19
304
0.88
223
0.91
230
0.55
268
0.55
248
0.94
260
0.93
233
1.11
247
1.39
251
PWC_ROBbinarytwo views1.18
260
0.70
252
1.06
288
0.60
221
0.71
260
0.70
242
0.98
280
0.83
257
1.55
306
0.76
260
1.40
285
1.00
230
2.46
301
0.57
271
2.17
313
0.99
278
1.15
287
0.90
292
2.37
258
0.95
284
1.63
278
2.05
292
0.44
236
0.98
296
0.81
238
0.80
210
1.24
264
2.15
278
DAStwo views0.95
244
0.61
236
0.48
205
0.78
252
0.61
237
0.68
239
0.59
229
0.84
259
0.93
277
0.65
209
1.58
290
1.66
270
1.06
264
0.34
203
0.95
234
0.92
261
0.92
273
0.73
272
1.77
235
1.03
292
1.73
282
1.11
245
0.47
240
0.92
290
0.93
257
1.00
248
1.39
279
0.96
216
SepStereotwo views0.95
244
0.61
236
0.48
205
0.78
252
0.61
237
0.68
239
0.59
229
0.84
259
0.93
277
0.65
209
1.58
290
1.66
270
1.06
264
0.34
203
0.95
234
0.92
261
0.92
273
0.73
272
1.77
235
1.03
292
1.73
282
1.11
245
0.47
240
0.92
290
0.93
257
1.00
248
1.39
279
0.96
216
MaskLacGwcNet_RVCtwo views8.29
335
0.65
243
1.07
290
0.94
267
0.83
272
0.81
256
1.27
291
0.85
261
0.73
254
0.93
287
6.13
334
180.62
358
2.17
293
1.33
311
1.22
265
1.01
280
0.93
275
1.06
306
6.32
307
0.79
270
3.32
319
3.77
317
0.55
268
0.76
277
0.95
262
1.34
290
1.19
257
2.42
288
AMNettwo views1.02
252
0.98
287
0.95
276
0.98
268
1.01
282
1.03
271
0.96
279
0.87
262
0.93
277
0.97
293
1.02
264
1.10
244
0.74
254
1.06
305
0.99
243
1.09
290
1.17
288
1.04
304
1.08
200
1.05
294
1.13
256
1.04
241
0.82
289
0.98
296
1.01
275
1.07
260
1.20
258
1.27
248
NaN_ROBtwo views0.73
205
0.59
229
0.61
238
0.64
230
0.78
270
0.53
203
0.48
208
0.87
262
0.63
246
0.73
252
0.61
195
1.96
276
0.62
243
0.45
241
0.84
205
0.55
184
0.56
155
0.54
214
0.73
161
0.55
209
0.52
130
0.51
151
0.38
224
0.64
262
0.83
243
1.11
265
0.94
217
1.64
263
CBMVpermissivetwo views1.15
259
0.84
276
0.60
236
0.85
255
0.76
269
0.73
246
0.48
208
0.87
262
0.80
262
0.81
273
0.61
195
2.86
288
0.81
257
0.52
257
1.31
270
1.17
300
0.91
271
0.74
274
2.40
261
0.66
253
1.57
275
0.76
212
0.48
245
1.06
301
0.99
269
1.09
262
2.25
309
4.25
315
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
ACV-stereotwo views8.39
337
1.01
290
0.97
278
1.29
286
0.73
262
1.48
295
0.95
278
0.88
265
1.10
288
1.07
298
1.33
282
1.06
240
23.12
340
0.52
257
4.00
335
3.78
337
1.05
284
0.79
285
168.94
358
1.91
327
3.64
323
1.44
267
0.72
280
0.74
275
0.74
216
0.90
227
1.43
286
1.03
225
HBP-ISPtwo views1.60
275
0.86
278
0.90
274
0.98
268
0.69
253
0.85
258
0.56
224
0.89
266
0.48
222
0.82
276
0.79
239
0.97
228
0.36
182
0.69
286
11.97
346
5.83
342
0.70
234
0.67
256
0.70
156
0.62
244
1.05
249
5.90
334
0.50
251
0.62
259
0.82
241
1.01
251
2.01
307
1.06
227
STTRV1_RVCtwo views0.81
267
0.64
245
1.04
271
0.73
262
1.03
271
0.85
267
0.91
267
0.92
275
0.93
287
0.95
258
1.72
274
2.23
294
0.86
298
1.46
279
0.78
245
1.37
295
0.72
269
1.97
328
1.59
276
1.23
256
0.97
294
1.07
280
1.11
265
1.75
300
3.40
306
FC-DCNNcopylefttwo views0.88
236
0.96
284
1.23
299
1.36
290
0.93
278
1.26
288
0.82
264
0.91
267
0.78
260
0.87
283
0.63
203
1.08
241
0.42
200
0.56
266
0.88
219
0.69
227
0.81
257
0.68
262
0.81
177
0.59
226
0.78
209
0.59
168
0.50
251
0.77
280
1.11
283
0.99
246
1.21
259
1.57
258
DCVSM-stereotwo views1.13
258
0.66
246
0.79
263
0.89
259
0.65
245
1.15
280
0.73
258
0.95
269
0.82
266
1.04
297
4.18
319
3.75
304
1.45
280
0.49
247
0.83
201
0.86
254
0.69
232
0.60
240
2.08
247
0.87
280
1.06
251
0.77
214
0.84
290
0.72
271
0.74
216
0.89
225
0.98
228
1.09
229
ITSA-stereotwo views1.12
257
0.72
255
0.59
231
1.20
282
0.84
273
0.64
232
0.64
244
0.95
269
0.78
260
0.84
279
2.54
308
1.39
259
1.23
273
0.81
294
1.20
264
1.01
280
0.83
259
0.67
256
1.56
227
0.62
244
1.08
253
1.46
270
0.56
270
0.71
268
0.95
262
1.27
281
0.99
229
4.08
313
SQANettwo views1.90
286
2.70
316
1.03
285
3.09
312
2.17
311
3.29
311
2.70
310
0.95
269
0.65
248
1.00
295
0.71
224
2.69
287
1.10
268
2.30
316
0.78
187
0.55
184
1.02
281
0.72
269
9.92
321
0.68
259
2.11
291
1.25
257
3.28
320
0.58
253
0.98
266
1.31
285
1.33
273
2.34
283
AnyNet_C32two views1.64
277
0.65
243
0.74
259
0.67
236
0.73
262
0.86
261
1.14
284
0.95
269
3.12
333
0.75
257
1.53
289
0.94
223
0.64
247
0.67
284
1.83
299
1.11
293
1.06
286
0.95
299
1.78
237
0.76
267
1.76
285
1.71
284
0.66
278
0.85
287
1.13
285
2.68
323
1.17
254
13.55
340
iResNettwo views0.92
238
0.56
222
0.62
239
0.72
243
0.68
251
0.96
266
0.55
222
0.95
269
0.57
238
0.67
229
0.82
249
1.41
260
1.51
282
0.31
191
1.49
281
0.66
222
0.75
246
0.67
256
4.08
291
0.68
259
0.72
200
0.63
180
0.41
231
0.83
284
0.72
209
0.91
229
1.02
236
0.87
209
pmcnntwo views1.66
278
0.80
266
0.52
216
1.19
281
1.01
282
1.21
284
0.93
275
0.96
274
0.54
231
0.74
253
2.66
310
3.98
308
5.06
313
0.31
191
1.65
290
1.40
318
1.20
291
0.91
295
3.99
289
0.95
284
4.45
331
1.02
240
0.90
293
0.90
289
1.07
280
1.01
251
2.43
316
3.03
300
CSANtwo views0.93
241
0.83
272
0.75
260
0.86
256
0.82
271
0.73
246
0.61
238
0.97
275
0.94
280
0.94
291
0.73
234
1.96
276
1.56
284
0.49
247
0.98
240
0.63
207
0.74
244
0.66
254
1.09
201
0.71
264
0.78
209
0.63
180
0.53
262
0.76
277
0.98
266
1.49
298
1.21
259
1.63
262
SHDtwo views0.97
249
0.56
222
0.73
258
0.75
246
0.69
253
0.66
236
0.61
238
0.99
276
0.94
280
0.77
262
1.00
262
0.94
223
1.29
277
0.54
261
2.21
315
0.98
274
0.95
276
0.70
266
2.01
245
0.80
271
1.12
255
1.71
284
0.47
240
0.77
280
0.91
254
1.01
251
0.91
210
1.22
246
GANetREF_RVCpermissivetwo views0.77
223
0.74
258
0.68
254
0.76
249
0.65
245
0.69
241
0.60
233
0.99
276
0.73
254
0.93
287
0.52
167
1.33
257
0.72
253
0.44
239
0.85
209
0.57
191
0.67
224
0.63
244
1.13
207
0.61
240
0.77
208
0.63
180
0.59
273
0.71
268
0.89
252
0.90
227
1.15
249
0.99
221
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
ccs_robtwo views1.25
263
0.79
263
0.64
245
0.86
256
0.60
236
0.89
263
0.83
266
0.99
276
0.51
226
0.77
262
6.27
337
5.90
317
1.10
268
0.51
253
1.08
254
1.10
291
0.68
226
0.66
254
1.15
208
0.70
263
1.56
274
1.66
282
0.50
251
0.54
246
0.69
200
0.78
205
0.86
203
1.20
244
FBW_ROBtwo views1.34
266
1.42
303
1.08
291
2.01
301
1.42
303
1.37
292
1.63
297
0.99
276
0.70
252
0.72
249
1.02
264
2.05
279
0.91
262
1.47
312
1.24
266
0.60
201
0.88
267
0.65
252
6.08
304
0.59
226
1.06
251
0.81
220
1.48
312
1.12
307
0.99
269
1.20
272
0.99
229
1.66
265
CBMV_ROBtwo views1.71
281
0.79
263
0.65
248
1.35
288
1.07
288
1.01
269
0.74
260
1.01
280
0.54
231
0.72
249
0.81
244
9.80
336
5.90
320
0.57
271
1.42
275
0.69
227
0.80
254
0.58
232
5.38
297
1.22
305
0.95
238
0.55
166
0.53
262
0.62
259
1.22
288
1.45
293
2.72
325
2.94
297
S-Stereotwo views1.54
272
0.81
267
0.83
268
1.15
277
1.16
293
1.29
289
1.56
295
1.02
281
1.09
287
1.25
310
4.20
320
4.10
309
1.10
268
0.66
282
2.16
312
1.63
324
0.90
270
1.05
305
2.20
251
1.10
297
1.26
263
3.12
310
1.31
310
1.17
311
0.84
247
1.18
271
1.21
259
2.18
279
ADCPNettwo views2.08
291
0.77
259
0.87
271
0.83
254
1.21
295
0.85
258
1.59
296
1.02
281
1.35
298
0.83
278
1.97
302
1.01
233
7.76
326
0.75
291
2.35
324
1.16
299
0.95
276
0.71
268
4.05
290
0.97
287
1.30
265
1.61
279
0.72
280
0.76
277
1.52
306
1.96
312
1.21
259
16.04
343
FC-DCNN v2copylefttwo views0.94
242
0.98
287
1.28
305
1.47
294
0.95
280
1.33
290
0.82
264
1.05
283
0.80
262
0.87
283
0.66
212
1.11
246
0.67
250
0.56
266
0.91
223
0.69
227
0.81
257
0.68
262
0.83
178
0.59
226
0.78
209
0.59
168
0.50
251
0.78
282
1.25
294
1.09
262
1.35
275
1.89
270
otakutwo views2.33
295
3.05
326
1.19
295
3.36
319
2.37
314
3.56
316
3.08
315
1.05
283
0.98
283
1.13
300
0.80
243
2.88
289
1.62
286
2.59
317
0.95
234
0.64
213
1.23
292
0.75
276
13.16
329
1.09
296
2.47
297
2.63
302
4.75
330
0.75
276
1.13
285
1.38
291
1.69
297
2.52
290
CEStwo views0.46
135
0.35
87
0.30
123
0.27
103
0.27
118
0.29
111
0.12
66
1.05
283
0.27
110
0.54
134
0.66
212
0.53
127
0.25
99
0.23
123
0.62
146
0.65
220
0.58
168
0.37
100
0.54
105
0.34
116
0.84
220
0.53
160
0.23
163
0.23
104
0.56
164
0.44
121
0.57
106
0.69
176
XQCtwo views1.03
253
0.90
279
0.71
256
0.91
262
0.92
277
0.92
265
0.86
269
1.06
286
0.90
274
0.84
279
1.11
273
1.03
235
1.30
279
0.71
288
2.04
305
0.95
266
0.87
263
0.67
256
1.64
232
0.78
269
1.00
244
1.67
283
0.62
276
0.73
272
1.09
282
1.47
294
1.26
266
0.97
218
DPSNettwo views2.61
298
0.83
272
0.77
262
1.21
283
1.24
296
1.34
291
0.93
275
1.08
287
1.49
304
0.78
266
0.86
250
6.91
323
3.85
308
0.58
274
4.58
337
2.54
334
1.43
299
1.24
316
14.95
333
1.34
310
4.83
335
8.01
340
1.75
314
1.40
319
1.47
303
1.95
311
1.60
295
1.66
265
DDVStwo views2.32
292
0.70
252
0.82
267
0.70
240
0.74
266
0.73
246
0.59
229
1.09
288
0.88
270
0.80
270
34.26
353
3.93
306
1.16
271
0.52
257
1.09
256
1.35
310
0.73
243
0.65
252
1.95
244
0.95
284
1.67
280
2.27
297
0.48
245
0.56
249
0.69
200
0.84
217
1.21
259
1.35
250
Ntrotwo views2.32
292
3.40
334
1.53
312
3.55
320
2.52
319
3.71
322
3.36
317
1.11
289
1.05
285
1.16
304
0.90
253
2.93
291
1.24
274
2.72
323
1.00
244
0.64
213
1.40
297
0.82
288
10.96
324
1.14
300
2.72
301
3.19
311
4.26
326
0.73
272
1.24
292
1.59
302
1.56
292
2.31
282
MDST_ROBtwo views3.33
314
2.32
313
0.75
260
3.90
323
1.47
305
2.61
307
1.00
281
1.12
290
0.72
253
0.78
266
0.67
219
1.54
266
25.37
342
0.34
203
2.11
311
0.53
174
0.65
215
0.48
176
3.69
286
0.58
222
0.88
223
0.59
168
0.58
272
0.68
266
7.85
344
3.03
328
17.15
349
8.63
334
MFN_U_SF_DS_RVCtwo views1.33
265
0.90
279
0.63
243
1.27
285
0.90
276
1.21
284
2.21
304
1.27
291
1.18
291
1.00
295
0.91
254
1.80
275
1.16
271
1.07
306
1.48
280
0.77
242
0.70
234
0.58
232
2.75
274
0.67
257
1.39
270
2.93
307
0.85
292
0.73
272
1.47
303
1.68
304
1.33
273
2.96
298
ADCStwo views1.88
285
1.06
292
0.98
279
0.93
265
1.10
292
1.09
276
1.14
284
1.27
291
2.49
324
0.89
285
1.36
283
1.51
263
2.92
306
0.86
298
3.30
332
2.26
333
1.46
300
1.26
318
3.10
282
1.29
309
2.48
298
2.88
305
0.80
287
1.10
305
1.33
299
4.48
339
1.41
284
6.08
325
FAT-Stereotwo views1.57
274
0.78
261
1.44
310
1.10
273
1.32
300
1.05
274
0.87
270
1.28
293
0.86
268
1.21
307
5.46
328
3.07
293
1.28
276
0.66
282
1.73
294
1.34
307
0.89
269
0.94
298
1.83
238
1.08
295
2.02
289
3.90
319
0.71
279
0.98
296
0.86
250
1.21
274
1.42
285
3.03
300
RainbowNettwo views2.32
292
2.93
322
1.87
319
3.34
318
2.57
320
3.50
313
3.49
320
1.29
294
0.92
275
1.53
326
0.89
252
3.18
295
2.31
298
2.94
324
1.30
269
0.90
258
1.61
304
1.00
300
5.61
299
1.51
314
2.82
305
4.18
321
4.25
325
0.97
294
1.32
297
1.58
301
1.71
299
3.00
299
ADCMidtwo views1.56
273
0.92
283
0.99
280
0.70
240
0.86
274
1.05
274
1.37
293
1.29
294
1.77
310
0.75
257
1.75
297
1.27
252
1.48
281
0.69
286
2.18
314
1.07
287
0.98
279
0.79
285
2.74
273
0.80
271
1.31
266
1.74
286
1.06
300
0.70
267
1.01
275
1.53
300
1.02
236
10.33
336
MFMNet_retwo views1.51
271
1.18
297
1.12
294
1.29
286
1.16
293
1.63
299
1.32
292
1.30
296
1.63
307
1.14
303
1.38
284
2.64
286
1.63
287
0.90
301
2.27
320
1.35
310
1.58
301
1.32
324
3.69
286
1.24
307
2.10
290
1.26
259
1.16
301
1.24
313
1.11
283
1.02
255
1.59
293
1.60
260
ACVNet_1two views2.47
297
3.23
329
2.35
325
4.40
327
2.93
330
3.77
324
3.96
326
1.34
297
1.18
291
1.21
307
1.02
264
3.31
299
2.07
292
3.09
329
1.31
270
0.70
231
2.26
319
1.10
310
9.52
319
1.14
300
3.45
320
1.18
254
4.50
329
1.07
302
1.39
301
1.75
306
1.36
277
2.10
276
ACVNet-4btwo views2.35
296
2.75
319
1.60
314
3.13
313
2.29
313
3.52
315
3.67
323
1.35
298
1.35
298
1.27
311
0.72
229
3.26
297
2.62
304
3.04
327
0.98
240
0.78
245
2.13
315
1.02
302
9.04
318
1.23
306
2.74
302
3.39
315
4.08
323
0.92
290
1.24
292
1.29
283
1.46
288
2.48
289
DGSMNettwo views2.66
301
0.96
284
1.36
309
1.03
270
0.99
281
1.12
279
1.05
282
1.36
299
0.94
280
2.15
338
13.54
349
1.71
273
1.85
289
0.93
302
2.50
328
3.85
339
5.34
331
1.61
331
5.07
295
1.68
324
7.04
340
8.02
341
0.96
299
1.19
312
1.01
275
1.33
288
1.40
283
1.88
269
LoStwo views0.55
162
0.44
135
0.29
119
0.36
150
0.37
172
0.40
159
0.20
124
1.37
300
0.31
151
0.86
282
0.78
238
0.68
172
0.37
187
0.24
135
0.58
126
0.72
233
0.59
182
0.40
118
0.75
168
0.35
133
1.03
246
0.65
186
0.21
138
0.24
113
0.79
233
0.64
177
0.64
135
0.68
174
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
MFN_U_SF_RVCtwo views1.68
280
1.06
292
0.88
272
1.25
284
1.01
282
1.53
296
2.07
302
1.38
301
1.17
290
1.51
323
2.95
312
2.00
278
1.57
285
2.05
315
2.38
325
0.98
274
0.87
263
0.82
288
6.78
308
1.11
299
2.21
293
2.38
300
0.65
277
1.11
306
1.23
289
1.33
288
1.28
269
1.69
267
dadtwo views0.89
237
0.57
227
0.37
152
1.42
291
0.65
245
0.75
251
2.23
306
1.43
302
0.36
179
0.93
287
0.38
120
0.85
213
0.76
255
0.32
198
0.97
239
0.52
172
0.78
249
0.45
152
1.87
242
0.41
167
0.74
205
0.41
98
0.30
198
0.47
232
1.15
287
0.47
137
2.64
323
1.96
274
PSMNet_ROBtwo views2.71
302
3.39
333
1.92
320
2.87
309
2.04
309
4.01
327
3.50
321
1.46
303
1.41
301
1.59
328
3.34
313
3.52
300
4.97
312
4.50
336
1.61
287
0.95
266
1.87
309
1.06
306
8.62
314
1.63
322
2.32
296
1.51
275
5.43
340
1.37
316
1.98
317
1.94
310
1.91
304
2.39
286
SGM+DAISYtwo views3.81
317
1.38
302
1.26
303
1.80
300
1.47
305
1.93
303
1.71
298
1.47
304
1.33
296
1.34
316
6.67
340
9.59
335
12.99
334
1.20
308
1.73
294
1.47
321
1.42
298
1.24
316
11.11
325
1.37
312
3.07
312
2.13
294
1.27
307
1.42
322
1.69
309
1.26
280
2.90
327
26.50
349
MSC_U_SF_DS_RVCtwo views1.67
279
1.25
300
1.05
286
1.56
295
1.08
289
1.20
283
3.18
316
1.50
305
2.10
318
1.30
314
0.98
261
1.50
262
1.04
263
1.66
313
1.71
291
1.18
301
0.84
260
1.01
301
6.24
305
1.15
303
1.43
271
3.23
312
1.19
302
1.14
308
1.52
306
1.29
283
1.09
243
2.78
295
LVEtwo views4.33
321
3.03
324
2.00
321
27.23
348
3.06
331
3.83
325
12.07
347
1.53
306
1.64
308
1.85
335
1.48
287
3.30
298
3.91
309
3.06
328
1.45
276
1.05
285
1.95
311
1.38
327
15.68
334
1.62
321
3.25
317
5.86
331
4.42
328
1.76
333
2.87
325
2.06
315
2.34
312
3.25
303
MonStereo1two views2.61
298
2.91
321
1.70
315
3.94
324
3.77
337
3.57
317
3.72
325
1.55
307
1.64
308
1.43
319
1.63
293
4.85
314
5.63
318
2.99
326
1.35
272
0.90
258
1.99
312
1.31
321
5.93
300
1.75
326
2.96
308
1.93
290
4.83
333
0.93
293
1.31
296
1.08
261
2.49
319
2.38
285
SGM_RVCbinarytwo views2.81
305
1.46
304
0.85
269
1.76
299
1.28
297
1.68
301
1.19
288
1.56
308
1.14
289
0.82
276
1.70
295
7.09
324
2.67
305
0.42
233
0.92
226
0.57
191
0.75
246
0.57
227
11.20
326
0.66
253
0.94
235
0.46
127
0.51
259
0.84
286
1.97
316
1.64
303
5.04
340
26.13
348
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
SAMSARAtwo views1.50
270
0.79
263
1.00
284
0.93
265
0.88
275
0.86
261
0.93
275
1.57
309
1.25
293
0.96
292
1.09
268
1.27
252
2.59
302
0.83
295
2.58
329
1.19
303
1.04
282
0.91
295
2.56
266
0.99
290
1.77
286
2.23
296
0.56
270
0.98
296
2.63
319
2.81
324
2.62
322
2.56
291
ACVNet_2two views3.17
310
2.98
323
2.25
324
4.72
328
2.88
327
3.50
313
3.48
319
1.58
310
1.33
296
1.29
313
1.10
270
3.22
296
2.45
300
2.67
322
1.29
268
0.86
254
7.26
335
1.02
302
22.14
337
1.37
312
3.22
315
1.25
257
4.24
324
1.37
316
1.93
313
1.92
308
1.83
302
2.36
284
G-Nettwo views1.86
284
1.00
289
1.28
305
0.89
259
0.93
278
1.10
277
0.77
261
1.63
311
2.07
317
0.99
294
2.89
311
7.30
327
1.67
288
0.55
264
1.45
276
1.75
327
1.04
282
0.93
297
2.87
275
2.72
338
1.89
288
1.47
271
0.80
287
1.02
300
1.06
279
1.71
305
2.82
326
5.60
322
IMH-64-1two views2.92
307
2.70
316
2.36
326
3.23
314
2.71
322
3.70
320
4.05
327
1.66
312
2.48
322
1.13
300
1.26
276
3.60
301
6.29
322
3.59
330
2.28
321
1.15
297
2.20
316
1.31
321
6.02
302
1.52
316
3.03
310
5.48
328
4.83
333
1.40
319
2.83
323
2.02
313
2.34
312
3.64
307
IMH-64two views2.92
307
2.70
316
2.36
326
3.23
314
2.71
322
3.70
320
4.05
327
1.66
312
2.48
322
1.13
300
1.26
276
3.60
301
6.29
322
3.59
330
2.28
321
1.15
297
2.20
316
1.31
321
6.02
302
1.52
316
3.03
310
5.48
328
4.83
333
1.40
319
2.83
323
2.02
313
2.34
312
3.64
307
SPS-STEREOcopylefttwo views1.93
287
1.27
301
1.21
297
1.60
297
1.34
301
1.44
294
1.17
287
1.66
312
1.36
300
1.38
317
3.67
317
3.02
292
1.29
277
1.05
304
1.85
300
1.83
329
1.58
301
1.37
326
8.86
317
1.34
310
3.07
312
1.47
271
1.27
307
1.37
316
1.42
302
1.28
282
2.02
308
1.89
270
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
edge stereotwo views1.82
283
1.16
296
2.22
323
1.46
293
1.28
297
1.58
297
1.38
294
1.67
315
1.30
295
1.20
306
3.42
316
4.33
311
2.26
297
0.80
293
1.41
274
1.46
320
1.05
284
0.83
291
5.42
298
0.97
287
1.34
268
3.76
316
0.95
298
0.88
288
1.26
295
1.20
272
1.70
298
2.91
296
AnyNet_C01two views2.06
289
1.08
294
1.06
288
1.14
276
1.08
289
1.01
269
2.69
309
1.69
316
2.66
327
1.21
307
1.67
294
2.90
290
2.60
303
0.95
303
3.65
333
4.02
340
2.09
314
2.21
340
3.08
281
1.56
319
3.30
318
2.89
306
1.26
303
1.15
309
1.80
311
1.43
292
1.51
290
3.90
311
IMHtwo views3.24
312
2.76
320
2.37
328
3.26
316
2.74
324
3.73
323
4.10
329
1.72
317
2.58
325
1.17
305
1.24
274
3.92
305
10.58
329
6.80
345
1.57
286
1.11
293
2.25
318
1.30
320
6.28
306
1.56
319
2.97
309
4.14
320
4.90
336
1.45
323
3.01
327
2.36
319
2.47
318
5.19
321
SANettwo views1.61
276
0.91
282
1.10
293
1.04
271
1.05
286
1.25
287
0.77
261
1.76
318
1.81
311
0.77
262
1.24
274
6.63
321
5.08
314
0.83
295
1.56
284
0.77
242
1.24
293
0.90
292
1.58
228
0.82
276
1.05
249
1.00
238
0.90
293
1.27
314
1.32
297
1.93
309
1.88
303
3.10
302
WAO-6two views2.71
302
2.26
312
1.57
313
3.00
311
2.25
312
3.01
309
3.02
314
1.77
319
2.35
319
1.52
325
1.62
292
3.94
307
5.12
315
2.64
320
2.22
316
1.38
315
2.65
323
1.36
325
4.86
294
1.54
318
2.76
304
4.79
325
2.70
318
1.73
331
2.71
321
2.59
322
2.68
324
5.02
319
Deantwo views2.84
306
3.23
329
1.81
317
6.04
331
3.38
336
3.63
319
3.67
323
1.88
320
1.97
315
1.47
320
1.30
278
3.69
303
4.10
310
2.97
325
1.45
276
0.97
271
2.41
320
1.29
319
5.94
301
1.74
325
3.20
314
4.23
322
4.79
332
1.55
324
2.65
320
2.27
318
2.56
320
2.64
292
MADNet+two views1.96
288
1.18
297
1.26
303
1.45
292
1.28
297
1.10
277
2.21
304
1.88
320
1.41
301
1.33
315
1.32
280
2.29
280
2.23
294
1.25
310
4.58
337
1.87
330
2.55
322
1.13
313
2.73
272
1.63
322
3.69
324
3.33
313
1.26
303
2.09
338
1.93
313
1.47
294
1.59
293
2.77
294
PVDtwo views1.47
269
1.04
291
1.44
310
1.10
273
1.09
291
1.19
282
1.07
283
1.91
322
2.05
316
0.79
269
1.49
288
1.54
266
1.91
291
0.89
300
2.26
319
1.35
310
1.39
296
1.09
309
2.41
262
1.14
300
1.51
273
1.98
291
0.79
285
1.08
304
1.49
305
1.82
307
1.67
296
2.10
276
WAO-7two views2.72
304
1.83
307
2.89
334
7.39
333
1.73
308
1.76
302
1.82
299
2.07
323
2.65
326
2.21
339
5.39
327
4.58
313
5.72
319
1.23
309
2.07
309
1.27
306
1.69
305
1.22
315
7.70
311
1.51
314
1.64
279
3.07
309
0.84
290
1.65
329
1.83
312
2.48
321
1.97
306
3.27
304
ktntwo views8.45
338
3.18
327
2.84
333
6.37
332
3.26
333
4.31
330
10.28
345
2.15
324
10.13
345
2.27
341
1.83
300
42.17
352
55.84
353
3.93
332
2.34
323
2.09
332
9.85
338
2.17
338
33.98
344
2.24
332
3.24
316
3.03
308
4.78
331
2.25
341
2.59
318
2.81
324
3.18
329
5.04
320
TorneroNet-64two views6.02
327
4.60
340
2.53
329
15.58
344
3.29
334
4.87
333
7.75
336
2.23
325
10.02
343
1.42
318
1.31
279
7.26
326
29.23
346
4.36
335
2.09
310
1.21
304
8.22
336
1.70
333
17.35
336
2.62
337
4.31
329
5.68
330
5.20
338
1.76
333
3.58
331
3.76
336
2.29
310
8.34
333
LSM0two views8.30
336
1.08
294
0.95
276
1.66
298
1.42
303
1.59
298
1.96
300
2.27
326
2.36
320
1.66
330
3.94
318
4.10
309
6.30
324
0.63
279
62.38
358
74.74
358
1.69
305
1.06
306
12.18
327
2.23
331
4.96
336
9.29
344
0.92
295
1.29
315
1.95
315
2.97
327
3.66
335
14.83
342
notakertwo views5.52
324
5.55
344
3.76
340
13.97
343
5.34
342
5.44
339
7.16
335
2.36
327
2.68
328
2.06
337
1.80
299
12.90
343
23.86
341
3.98
333
2.04
305
1.73
326
3.45
329
2.12
337
17.08
335
2.15
330
6.10
339
5.87
332
6.15
344
2.12
339
1.79
310
2.08
316
2.31
311
3.29
305
MeshStereopermissivetwo views3.62
316
1.54
305
1.05
286
2.64
303
1.72
307
2.05
304
1.15
286
2.40
328
1.41
301
0.90
286
6.48
338
9.56
334
7.42
325
0.49
247
11.75
344
1.94
331
0.87
263
0.74
274
8.79
315
0.80
271
8.36
341
8.07
342
0.73
282
1.07
302
3.39
329
2.15
317
5.22
341
4.99
318
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
ELAS_RVCcopylefttwo views3.22
311
2.01
308
1.85
318
2.66
304
2.07
310
5.08
335
2.06
301
2.41
329
1.89
313
1.74
333
4.78
322
8.00
328
8.02
327
0.74
290
2.38
325
0.81
249
1.75
307
1.14
314
3.97
288
1.27
308
4.64
334
7.61
338
1.26
303
1.74
332
6.58
341
3.21
330
3.39
330
3.80
310
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
PWCKtwo views5.04
322
3.03
324
2.21
322
3.61
321
2.60
321
4.41
331
5.09
330
2.45
330
2.76
329
3.31
344
4.34
321
10.15
339
5.13
316
1.74
314
1.99
303
1.38
315
2.41
320
1.45
328
51.59
353
2.35
333
3.70
325
2.69
304
2.65
317
1.78
335
2.97
326
3.21
330
2.43
316
4.77
316
SGM-ForestMtwo views2.61
298
4.20
338
0.93
275
2.78
307
1.37
302
3.57
317
2.93
313
2.59
331
1.51
305
0.70
243
1.32
280
7.25
325
5.36
317
0.47
244
0.89
220
0.53
174
0.79
253
0.54
214
7.58
310
0.60
231
0.82
215
0.47
132
0.51
259
0.80
283
4.97
336
3.66
335
7.05
344
6.30
326
ELAScopylefttwo views3.38
315
2.19
310
1.79
316
2.99
310
2.37
314
3.32
312
2.09
303
2.60
332
2.85
331
1.28
312
4.85
324
8.61
330
8.02
327
0.76
292
2.90
330
0.81
249
1.80
308
1.10
310
4.19
292
1.10
297
4.53
332
7.86
339
1.26
303
1.63
327
7.08
342
4.79
340
3.66
335
4.87
317
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
KSHMRtwo views8.16
334
4.16
337
2.96
335
25.39
347
3.92
338
5.08
335
5.53
331
2.62
333
2.40
321
2.23
340
2.26
305
4.37
312
77.17
357
5.23
339
2.24
317
1.71
325
2.79
326
1.98
334
31.04
343
2.02
329
4.59
333
5.35
326
7.54
347
1.89
337
3.30
328
2.91
326
3.01
328
6.51
328
TorneroNettwo views8.11
333
4.28
339
2.58
330
27.50
349
3.31
335
5.00
334
6.00
334
2.62
333
10.13
345
1.49
322
2.57
309
11.07
341
68.61
356
4.25
334
1.77
298
1.18
301
5.78
332
1.62
332
23.67
338
2.83
339
4.30
328
5.47
327
5.37
339
1.65
329
3.72
332
3.14
329
2.59
321
6.36
327
WAO-8two views4.25
319
3.34
331
2.80
331
10.32
337
2.92
328
4.17
328
5.89
332
2.66
335
4.45
337
1.69
331
3.41
314
5.94
318
11.31
331
5.29
340
1.71
291
1.34
307
2.69
324
1.51
329
10.78
322
2.48
335
2.63
299
4.50
323
3.44
321
1.58
325
5.12
337
3.31
332
3.60
332
5.76
323
Venustwo views4.25
319
3.34
331
2.80
331
10.32
337
2.92
328
4.17
328
5.89
332
2.66
335
4.45
337
1.69
331
3.41
314
5.94
318
11.31
331
5.29
340
1.71
291
1.34
307
2.69
324
1.51
329
10.78
322
2.48
335
2.63
299
4.50
323
3.44
321
1.58
325
5.12
337
3.31
332
3.60
332
5.76
323
DispFullNettwo views4.17
318
3.20
328
4.34
342
2.72
306
2.46
318
2.92
308
2.70
310
2.79
337
1.90
314
4.51
348
6.62
339
8.91
332
4.83
311
2.59
317
2.00
304
8.18
345
3.24
327
1.98
334
24.96
339
2.93
340
3.99
326
3.36
314
1.71
313
1.15
309
1.36
300
1.32
287
2.36
315
3.65
309
JetBluetwo views6.09
328
3.85
336
3.31
339
5.99
330
4.13
339
6.22
341
7.94
337
3.42
338
2.89
332
1.47
320
1.46
286
8.10
329
1.90
290
5.39
342
11.86
345
3.22
336
3.30
328
2.99
341
5.32
296
2.40
334
9.74
344
10.03
347
4.93
337
2.18
340
7.39
343
17.16
348
3.72
337
24.15
346
UNDER WATERtwo views7.55
331
4.74
341
3.06
336
10.46
340
5.92
344
6.35
342
8.05
338
4.32
339
3.69
336
1.97
336
2.14
304
10.53
340
62.60
355
4.83
337
2.25
318
1.59
323
12.22
346
2.08
336
9.67
320
3.97
341
5.27
337
6.65
335
8.86
350
2.65
344
3.82
333
5.62
341
3.62
334
7.03
330
MADNet++two views5.64
325
3.51
335
3.77
341
2.84
308
4.62
340
3.02
310
3.65
322
4.36
340
5.03
339
4.18
347
5.07
326
6.45
320
5.92
321
6.18
344
7.04
340
6.82
343
4.71
330
4.00
344
8.03
312
5.83
344
9.92
345
16.38
349
2.32
316
4.34
347
3.95
335
11.38
346
4.93
339
4.01
312
DPSMNet_ROBtwo views12.40
342
5.97
346
17.46
352
4.21
326
7.87
346
5.15
337
8.18
339
4.56
341
11.65
348
4.54
350
8.87
345
5.17
316
22.69
339
13.00
350
14.98
349
14.62
350
6.90
334
15.82
349
14.07
332
12.05
349
9.09
343
21.75
351
5.68
342
11.54
351
11.87
347
31.03
356
12.99
348
33.06
352
DGTPSM_ROBtwo views12.12
341
5.96
345
17.45
351
4.20
325
7.86
345
5.15
337
8.18
339
4.56
341
11.64
347
4.52
349
8.72
344
5.01
315
17.08
338
12.98
349
14.91
348
14.58
349
6.85
333
15.76
348
12.78
328
12.05
349
9.07
342
21.74
350
5.67
341
11.54
351
11.84
346
31.02
355
12.98
347
33.06
352
JetRedtwo views7.85
332
5.29
343
6.07
346
3.75
322
5.00
341
6.95
344
10.20
344
4.64
343
3.42
334
2.92
343
2.39
307
6.71
322
2.25
296
7.15
346
10.26
342
7.34
344
8.59
337
7.11
345
4.82
293
4.08
342
10.76
348
9.27
343
7.85
348
3.34
345
10.96
345
24.25
352
11.90
346
24.57
347
UNDER WATER-64two views6.11
329
5.20
342
3.13
337
12.20
341
5.77
343
6.55
343
8.53
341
4.74
344
3.45
335
2.30
342
2.36
306
12.04
342
12.47
333
5.08
338
3.02
331
1.81
328
12.11
345
2.17
338
8.81
316
4.17
343
5.75
338
7.27
337
8.74
349
2.61
343
3.86
334
8.63
343
4.32
338
7.86
332
MANEtwo views7.31
330
2.64
315
4.48
343
3.30
317
3.10
332
3.94
326
2.83
312
5.37
345
6.88
341
1.11
299
5.64
330
8.81
331
11.02
330
0.67
284
3.83
334
3.83
338
1.32
294
18.03
350
8.61
313
0.84
277
4.22
327
1.16
251
0.74
283
1.79
336
13.65
348
18.61
349
22.89
351
38.18
356
STStereotwo views5.29
323
2.47
314
5.20
344
5.20
329
2.80
325
4.72
332
3.42
318
6.23
346
6.52
340
1.51
323
7.61
342
9.53
333
14.86
337
0.63
279
4.09
336
0.64
213
0.87
263
0.62
243
36.67
346
1.02
291
1.23
261
1.05
242
0.78
284
1.63
327
3.46
330
2.43
320
3.53
331
14.15
341
BEATNet-Init1two views22.01
351
36.32
355
3.23
338
54.74
356
11.23
349
52.95
357
28.72
352
9.47
347
8.51
342
1.57
327
10.45
348
33.05
349
48.98
351
0.71
288
16.97
350
11.50
348
1.60
303
1.11
312
77.80
355
35.27
356
9.94
346
9.98
346
1.27
307
2.30
342
27.41
351
11.09
345
52.85
358
35.36
354
PMLtwo views30.82
352
20.91
350
7.15
349
29.65
350
20.81
354
29.11
351
10.50
346
10.87
348
88.32
359
20.03
355
154.19
359
98.60
357
119.55
358
10.53
348
9.19
341
8.69
346
16.72
348
7.27
346
34.57
345
7.35
347
12.77
349
10.86
348
5.72
343
6.17
348
33.11
357
12.83
347
34.30
355
12.33
339
DPSM_ROBtwo views18.32
346
16.26
348
21.94
353
9.42
335
8.75
347
13.61
346
9.11
342
10.90
349
15.09
349
8.45
351
8.95
346
10.12
337
13.19
335
16.42
351
19.79
351
19.11
351
18.35
349
20.45
351
13.82
330
14.88
351
26.56
352
27.45
352
6.49
345
14.39
354
31.57
355
38.83
357
36.85
356
43.86
357
DPSMtwo views18.32
346
16.26
348
21.94
353
9.42
335
8.75
347
13.61
346
9.11
342
10.90
349
15.09
349
8.45
351
8.95
346
10.12
337
13.19
335
16.42
351
19.79
351
19.11
351
18.35
349
20.45
351
13.82
330
14.88
351
26.56
352
27.45
352
6.49
345
14.39
354
31.57
355
38.83
357
36.85
356
43.86
357
LE_ROBtwo views17.44
344
1.82
306
6.12
347
9.40
334
53.85
359
8.01
345
46.26
354
11.27
351
28.12
352
1.80
334
7.03
341
38.62
350
49.53
352
0.34
203
1.76
297
0.55
184
0.78
249
0.59
237
36.68
347
6.72
345
2.92
307
0.85
223
29.06
354
12.10
353
26.35
350
25.49
353
27.84
354
37.03
355
DPSimNet_ROBtwo views18.93
348
32.01
352
5.97
345
12.40
342
11.35
350
6.13
340
28.07
351
15.03
352
35.64
355
3.96
346
78.33
358
18.15
345
35.00
347
5.44
343
12.19
347
10.36
347
13.57
347
3.64
343
87.52
356
6.87
346
14.36
351
9.97
345
4.40
327
7.14
349
5.17
339
9.85
344
5.93
343
32.56
351
HanzoNettwo views19.12
349
15.23
347
6.99
348
35.06
352
14.35
351
40.77
353
42.46
353
17.81
353
22.51
351
3.55
345
8.29
343
41.30
351
56.30
354
43.04
357
5.72
339
4.37
341
37.83
355
3.30
342
49.59
352
8.93
348
10.30
347
6.85
336
14.15
353
3.46
346
5.94
340
5.80
342
5.29
342
7.13
331
CasAABBNettwo views36.73
353
32.73
354
44.18
358
18.81
345
17.45
352
27.29
350
18.12
348
21.69
354
30.40
353
17.52
353
18.08
350
20.27
346
26.53
344
32.96
353
38.28
354
37.42
353
36.82
353
41.12
355
27.47
341
29.86
354
53.56
358
55.70
357
12.93
351
28.91
357
63.44
359
78.07
359
73.93
359
88.05
359
LRCNet_RVCtwo views21.34
350
28.92
351
11.37
350
31.78
351
29.09
355
34.25
352
27.43
350
21.71
355
10.07
344
29.63
356
30.60
352
32.06
348
25.81
343
33.87
355
11.15
343
2.97
335
25.27
352
21.35
353
44.05
350
20.83
353
14.27
350
5.87
332
36.69
355
27.43
356
2.76
322
1.47
294
8.68
345
6.79
329
FlowAnythingtwo views36.80
354
32.68
353
44.29
359
18.93
346
17.69
353
27.11
349
18.38
349
21.83
356
30.48
354
17.53
354
18.21
351
20.29
347
26.54
345
33.31
354
37.97
353
37.86
354
36.82
353
40.93
354
27.35
340
30.03
355
53.34
357
55.72
358
12.99
352
29.50
358
63.36
358
78.25
360
73.99
360
88.17
360
HaxPigtwo views41.43
355
43.85
356
40.81
355
44.90
353
47.49
357
44.66
354
46.30
355
46.31
357
45.63
357
49.00
357
49.30
354
47.24
353
43.73
349
42.64
356
40.44
356
39.13
356
48.37
356
51.07
356
43.33
348
42.25
357
42.88
354
36.52
354
50.75
357
43.02
360
27.54
352
19.97
350
20.68
350
20.75
345
AVERAGE_ROBtwo views41.98
356
44.82
357
42.27
356
45.98
354
46.88
356
45.60
355
46.56
356
47.04
358
43.89
356
49.19
358
49.91
355
47.25
354
43.00
348
49.19
358
40.14
355
38.38
355
49.01
357
51.31
357
43.98
349
42.43
358
43.31
355
38.64
355
49.42
356
42.83
359
28.65
353
20.44
351
23.41
352
19.88
344
MEDIAN_ROBtwo views44.95
357
47.36
358
44.12
357
48.52
355
49.78
358
48.21
356
49.25
357
49.72
359
46.35
358
52.53
359
53.59
356
50.59
355
45.49
350
49.36
359
43.27
357
41.36
357
51.85
358
54.40
358
47.03
351
45.93
359
45.78
356
40.06
356
52.67
358
45.67
361
31.00
354
26.54
354
25.33
353
27.95
350
GS-Stereotwo views0.08
15
0.10
21
0.18
21
0.16
12
0.25
26
0.16
24
ASD4two views8.34
350