This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted by
111111two views0.13
5
0.16
21
0.08
4
0.12
20
0.10
22
0.07
3
0.06
15
0.12
8
0.12
26
0.07
1
0.10
16
0.15
9
0.09
22
0.05
4
0.19
11
0.21
11
0.22
10
0.18
12
0.19
7
0.13
10
0.23
14
0.18
17
0.10
33
0.08
7
0.16
8
0.14
7
0.19
5
0.11
1
CoSvtwo views0.13
5
0.17
25
0.08
4
0.08
8
0.07
7
0.17
44
0.07
22
0.15
21
0.10
14
0.13
13
0.06
3
0.10
2
0.07
7
0.04
1
0.17
5
0.20
8
0.21
8
0.12
2
0.22
16
0.12
6
0.20
8
0.11
1
0.06
4
0.07
4
0.22
31
0.15
10
0.19
5
0.11
1
AIO-test2two views0.11
1
0.07
1
0.07
2
0.06
1
0.05
2
0.07
3
0.04
1
0.13
14
0.12
26
0.11
6
0.14
24
0.16
11
0.07
7
0.06
10
0.15
1
0.17
3
0.15
1
0.13
3
0.16
2
0.11
2
0.17
2
0.13
6
0.06
4
0.08
7
0.11
1
0.14
7
0.10
1
0.11
1
MoCha-V2two views0.14
12
0.15
18
0.11
22
0.12
20
0.09
18
0.11
19
0.09
39
0.13
14
0.08
7
0.13
13
0.18
38
0.17
18
0.07
7
0.07
17
0.17
5
0.23
17
0.20
5
0.20
19
0.25
28
0.14
13
0.29
35
0.17
12
0.08
14
0.08
7
0.17
13
0.16
11
0.15
3
0.11
1
AIO-test1two views0.13
5
0.09
3
0.08
4
0.06
1
0.07
7
0.11
19
0.04
1
0.17
31
0.13
30
0.15
20
0.16
32
0.19
26
0.08
14
0.09
31
0.18
10
0.22
14
0.19
3
0.16
7
0.15
1
0.14
13
0.17
2
0.14
7
0.08
14
0.07
4
0.14
2
0.14
7
0.13
2
0.12
5
Pointernettwo views0.11
1
0.09
3
0.06
1
0.07
5
0.06
4
0.09
11
0.08
31
0.13
14
0.06
2
0.11
6
0.09
11
0.10
2
0.07
7
0.06
10
0.16
3
0.16
2
0.19
3
0.11
1
0.18
4
0.09
1
0.17
2
0.11
1
0.08
14
0.07
4
0.14
2
0.12
2
0.24
17
0.12
5
AIO-Stereopermissivetwo views0.15
15
0.17
25
0.12
26
0.17
44
0.10
22
0.12
25
0.06
15
0.11
2
0.08
7
0.10
4
0.14
24
0.12
4
0.09
22
0.08
25
0.20
14
0.21
11
0.20
5
0.20
19
0.21
12
0.17
26
0.23
14
0.20
26
0.07
11
0.11
29
0.17
13
0.16
11
0.23
13
0.12
5
ProNettwo views0.14
12
0.13
11
0.14
34
0.11
17
0.07
7
0.14
31
0.12
56
0.13
14
0.06
2
0.08
2
0.24
63
0.09
1
0.06
1
0.07
17
0.22
20
0.21
11
0.22
10
0.18
12
0.19
7
0.14
13
0.20
8
0.11
1
0.12
46
0.11
29
0.16
8
0.13
5
0.17
4
0.12
5
GREAT-IGEVtwo views0.15
15
0.15
18
0.11
22
0.08
8
0.06
4
0.08
7
0.05
6
0.16
26
0.10
14
0.12
10
0.13
21
0.25
36
0.09
22
0.08
25
0.22
20
0.25
22
0.24
23
0.16
7
0.23
20
0.13
10
0.18
5
0.16
10
0.09
26
0.10
19
0.15
4
0.16
11
0.31
37
0.13
9
GASTEREOtwo views0.16
22
0.16
21
0.10
17
0.14
29
0.10
22
0.11
19
0.07
22
0.12
8
0.15
40
0.14
15
0.09
11
0.18
24
0.11
32
0.06
10
0.24
25
0.24
21
0.23
16
0.20
19
0.23
20
0.16
21
0.23
14
0.23
42
0.11
41
0.10
19
0.19
20
0.22
35
0.28
28
0.14
10
MLG-Stereo_test1two views0.12
3
0.08
2
0.07
2
0.07
5
0.07
7
0.07
3
0.06
15
0.11
2
0.09
10
0.16
27
0.09
11
0.17
18
0.06
1
0.05
4
0.16
3
0.18
5
0.22
10
0.19
16
0.22
16
0.12
6
0.23
14
0.11
1
0.06
4
0.06
1
0.15
4
0.12
2
0.21
9
0.14
10
MLG-Stereotwo views0.12
3
0.10
6
0.08
4
0.06
1
0.08
14
0.06
1
0.04
1
0.11
2
0.09
10
0.15
20
0.07
6
0.16
11
0.06
1
0.05
4
0.17
5
0.18
5
0.22
10
0.19
16
0.19
7
0.12
6
0.21
11
0.12
5
0.06
4
0.06
1
0.15
4
0.12
2
0.20
7
0.14
10
OmniDepthtwo views0.13
5
0.13
11
0.09
14
0.11
17
0.08
14
0.11
19
0.06
15
0.11
2
0.10
14
0.11
6
0.06
3
0.31
45
0.07
7
0.06
10
0.17
5
0.17
3
0.15
1
0.15
4
0.17
3
0.11
2
0.16
1
0.17
12
0.05
1
0.08
7
0.18
17
0.17
19
0.22
12
0.15
13
MSCFtwo views0.16
22
0.15
18
0.09
14
0.14
29
0.09
18
0.11
19
0.07
22
0.11
2
0.15
40
0.14
15
0.09
11
0.17
18
0.11
32
0.06
10
0.25
28
0.23
17
0.23
16
0.20
19
0.23
20
0.15
18
0.24
20
0.21
31
0.11
41
0.10
19
0.19
20
0.22
35
0.27
26
0.15
13
LG-Stereotwo views0.15
15
0.11
8
0.08
4
0.09
12
0.11
27
0.11
19
0.05
6
0.15
21
0.11
18
0.19
35
0.12
20
0.26
37
0.09
22
0.06
10
0.19
11
0.20
8
0.23
16
0.16
7
0.18
4
0.14
13
0.23
14
0.20
26
0.05
1
0.08
7
0.17
13
0.18
20
0.24
17
0.15
13
MM-Stereo_test3two views0.13
5
0.13
11
0.08
4
0.10
14
0.07
7
0.07
3
0.05
6
0.19
34
0.14
35
0.15
20
0.06
3
0.13
6
0.06
1
0.07
17
0.15
1
0.15
1
0.23
16
0.15
4
0.21
12
0.12
6
0.18
5
0.18
17
0.08
14
0.08
7
0.15
4
0.11
1
0.28
28
0.15
13
MM-Stereo_test1two views0.13
5
0.13
11
0.08
4
0.11
17
0.06
4
0.08
7
0.05
6
0.15
21
0.11
18
0.16
27
0.07
6
0.15
9
0.06
1
0.07
17
0.17
5
0.18
5
0.23
16
0.17
10
0.22
16
0.14
13
0.20
8
0.14
7
0.08
14
0.08
7
0.16
8
0.13
5
0.25
19
0.15
13
RSMtwo views0.15
15
0.16
21
0.12
26
0.14
29
0.09
18
0.14
31
0.06
15
0.10
1
0.08
7
0.09
3
0.15
27
0.14
8
0.10
27
0.07
17
0.22
20
0.25
22
0.21
8
0.20
19
0.18
4
0.17
26
0.25
23
0.18
17
0.08
14
0.10
19
0.16
8
0.16
11
0.27
26
0.15
13
CroCo-Stereocopylefttwo views0.13
5
0.09
3
0.08
4
0.07
5
0.04
1
0.06
1
0.04
1
0.14
19
0.05
1
0.10
4
0.03
1
0.13
6
0.06
1
0.04
1
0.24
25
0.26
29
0.20
5
0.18
12
0.20
10
0.11
2
0.24
20
0.15
9
0.05
1
0.06
1
0.22
31
0.20
25
0.23
13
0.15
13
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
GSStereotwo views0.16
22
0.18
28
0.13
29
0.13
24
0.13
31
0.12
25
0.09
39
0.12
8
0.10
14
0.16
27
0.11
17
0.22
31
0.08
14
0.05
4
0.22
20
0.25
22
0.28
33
0.20
19
0.25
28
0.16
21
0.32
37
0.19
22
0.08
14
0.10
19
0.18
17
0.16
11
0.25
19
0.16
20
GS-Stereotwo views0.08
14
0.10
19
0.18
17
0.16
11
0.25
19
0.16
20
MM-Stereo_test2two views0.15
15
0.19
30
0.11
22
0.16
38
0.11
27
0.08
7
0.05
6
0.14
19
0.11
18
0.20
37
0.08
10
0.12
4
0.08
14
0.09
31
0.20
14
0.22
14
0.25
24
0.20
19
0.20
10
0.18
31
0.25
23
0.21
31
0.10
33
0.10
19
0.16
8
0.16
11
0.21
9
0.16
20
CroCo-Stereo Lap2two views0.14
12
0.10
6
0.08
4
0.08
8
0.08
14
0.08
7
0.05
6
0.12
8
0.06
2
0.22
43
0.07
6
0.16
11
0.07
7
0.04
1
0.20
14
0.26
29
0.22
10
0.19
16
0.26
32
0.11
2
0.28
31
0.16
10
0.06
4
0.08
7
0.22
31
0.23
44
0.20
7
0.16
20
GIP-stereotwo views0.17
27
0.21
36
0.13
29
0.15
34
0.09
18
0.09
11
0.07
22
0.12
8
0.09
10
0.16
27
0.13
21
0.16
11
0.08
14
0.15
56
0.27
38
0.25
22
0.25
24
0.21
27
0.24
26
0.19
38
0.27
27
0.20
26
0.07
11
0.11
29
0.20
26
0.22
35
0.35
47
0.17
24
Occ-Gtwo views0.18
30
0.26
48
0.15
37
0.17
44
0.14
39
0.15
37
0.07
22
0.12
8
0.11
18
0.11
6
0.22
55
0.20
29
0.09
22
0.10
36
0.28
43
0.28
36
0.25
24
0.22
31
0.29
36
0.19
38
0.26
25
0.19
22
0.10
33
0.15
43
0.19
20
0.18
20
0.29
31
0.17
24
RAFT + AFFtwo views0.27
50
0.26
48
0.17
47
0.21
58
0.13
31
0.19
53
0.13
60
0.41
60
0.18
46
0.44
75
0.19
42
0.42
78
0.14
44
0.09
31
0.86
200
0.29
42
0.41
68
0.20
19
0.55
98
0.23
56
0.47
90
0.21
31
0.12
46
0.15
43
0.28
46
0.20
25
0.21
9
0.17
24
IGEV-Stereo++two views0.16
22
0.24
43
0.09
14
0.13
24
0.13
31
0.10
16
0.05
6
0.15
21
0.13
30
0.12
10
0.16
32
0.16
11
0.11
32
0.07
17
0.21
18
0.22
14
0.22
10
0.18
12
0.21
12
0.16
21
0.22
13
0.27
50
0.09
26
0.08
7
0.17
13
0.18
20
0.25
19
0.18
27
RSM++two views0.17
27
0.18
28
0.13
29
0.17
44
0.10
22
0.14
31
0.07
22
0.13
14
0.13
30
0.12
10
0.14
24
0.17
18
0.11
32
0.08
25
0.25
28
0.27
35
0.25
24
0.21
27
0.23
20
0.18
31
0.26
25
0.21
31
0.08
14
0.10
19
0.20
26
0.18
20
0.29
31
0.18
27
AEACVtwo views0.19
35
0.31
60
0.14
34
0.17
44
0.13
31
0.12
25
0.07
22
0.15
21
0.07
6
0.16
27
0.15
27
0.18
24
0.11
32
0.11
40
0.25
28
0.25
22
0.32
38
0.23
34
0.35
47
0.18
31
0.27
27
0.22
39
0.11
41
0.11
29
0.20
26
0.22
35
0.25
19
0.18
27
GEAStereotwo views0.18
30
0.22
37
0.15
37
0.19
51
0.14
39
0.14
31
0.09
39
0.16
26
0.13
30
0.15
20
0.11
17
0.23
32
0.08
14
0.09
31
0.25
28
0.25
22
0.27
29
0.21
27
0.23
20
0.17
26
0.34
43
0.22
39
0.10
33
0.12
35
0.19
20
0.21
31
0.30
34
0.19
30
gasm-ftwo views0.18
30
0.22
37
0.15
37
0.19
51
0.14
39
0.14
31
0.09
39
0.16
26
0.13
30
0.15
20
0.11
17
0.23
32
0.08
14
0.09
31
0.25
28
0.25
22
0.27
29
0.21
27
0.23
20
0.17
26
0.34
43
0.22
39
0.10
33
0.12
35
0.19
20
0.21
31
0.30
34
0.19
30
Utwo views0.15
15
0.11
8
0.08
4
0.06
1
0.05
2
0.09
11
0.04
1
0.16
26
0.06
2
0.15
20
0.04
2
0.17
18
0.07
7
0.05
4
0.22
20
0.28
36
0.26
28
0.23
34
0.27
33
0.17
26
0.28
31
0.19
22
0.06
4
0.08
7
0.26
37
0.23
44
0.23
13
0.20
32
anonymousdsptwo views0.25
42
0.23
41
0.19
54
0.16
38
0.14
39
0.18
48
0.10
48
0.37
55
0.19
51
0.32
54
0.22
55
0.32
47
0.12
40
0.14
52
0.29
44
0.32
54
0.32
38
0.28
46
0.39
51
0.22
51
0.46
83
0.31
58
0.12
46
0.15
43
0.26
37
0.20
25
0.52
86
0.20
32
MLG-Stereo_test2two views0.16
22
0.12
10
0.10
17
0.10
14
0.08
14
0.09
11
0.05
6
0.18
33
0.11
18
0.20
37
0.07
6
0.23
32
0.08
14
0.08
25
0.19
11
0.23
17
0.30
36
0.25
38
0.31
38
0.18
31
0.28
31
0.17
12
0.09
26
0.08
7
0.20
26
0.16
11
0.29
31
0.21
34
AIO_rvctwo views0.25
42
0.34
67
0.16
42
0.19
51
0.15
47
0.18
48
0.11
51
0.39
57
0.22
62
0.30
51
0.16
32
0.32
47
0.12
40
0.18
70
0.27
38
0.26
29
0.33
41
0.22
31
0.38
50
0.20
44
0.42
64
0.44
108
0.13
54
0.14
40
0.28
46
0.22
35
0.33
40
0.21
34
AIO_testtwo views0.27
50
0.39
95
0.19
54
0.29
101
0.19
61
0.18
48
0.14
73
0.42
64
0.23
67
0.33
55
0.19
42
0.37
63
0.18
61
0.18
70
0.25
28
0.29
42
0.34
45
0.24
37
0.39
51
0.21
47
0.49
100
0.46
117
0.13
54
0.15
43
0.30
55
0.28
57
0.41
59
0.21
34
IGEV-Stereo+two views0.27
50
0.25
46
0.14
34
0.22
61
0.14
39
0.13
29
0.07
22
0.36
52
0.20
55
0.55
131
0.23
58
0.38
65
0.14
44
0.16
63
0.26
36
0.35
58
0.40
65
0.35
81
0.48
69
0.24
60
0.44
72
0.51
141
0.12
46
0.13
37
0.28
46
0.20
25
0.34
44
0.23
37
RAFTtwo views0.17
27
0.13
11
0.10
17
0.16
38
0.07
7
0.21
58
0.05
6
0.25
40
0.12
26
0.14
15
0.15
27
0.16
11
0.10
27
0.05
4
0.21
18
0.20
8
0.23
16
0.15
4
0.28
34
0.13
10
0.21
11
0.17
12
0.07
11
0.10
19
0.26
37
0.24
47
0.33
40
0.23
37
RYNettwo views0.27
50
0.23
41
0.18
52
0.15
34
0.17
54
0.19
53
0.13
60
0.25
40
0.31
140
0.17
33
0.20
47
0.19
26
0.14
44
0.13
48
0.80
182
0.28
36
0.27
29
0.41
113
0.28
34
0.19
38
0.27
27
0.21
31
0.29
184
0.18
57
0.27
42
0.76
190
0.34
44
0.23
37
MonStereotwo views0.15
15
0.14
17
0.13
29
0.12
20
0.12
30
0.10
16
0.08
31
0.11
2
0.11
18
0.14
15
0.13
21
0.17
18
0.11
32
0.07
17
0.20
14
0.23
17
0.23
16
0.17
10
0.21
12
0.15
18
0.19
7
0.18
17
0.08
14
0.08
7
0.22
31
0.18
20
0.23
13
0.24
40
RAStereotwo views0.19
35
0.16
21
0.10
17
0.08
8
0.07
7
0.09
11
0.06
15
0.21
36
0.09
10
0.45
77
0.09
11
0.26
37
0.08
14
0.07
17
0.25
28
0.26
29
0.28
33
0.25
38
0.33
42
0.15
18
0.35
47
0.18
17
0.08
14
0.10
19
0.28
46
0.23
44
0.25
19
0.24
40
AdaDepthtwo views0.18
30
0.19
30
0.10
17
0.12
20
0.14
39
0.12
25
0.09
39
0.16
26
0.14
35
0.14
15
0.17
36
0.19
26
0.10
27
0.08
25
0.26
36
0.29
42
0.28
33
0.23
34
0.25
28
0.16
21
0.24
20
0.20
26
0.09
26
0.11
29
0.19
20
0.20
25
0.32
38
0.25
42
AASNettwo views0.28
55
0.34
67
0.22
83
0.25
84
0.26
98
0.34
125
0.25
139
0.32
49
0.17
42
0.29
49
0.36
102
0.26
37
0.18
61
0.24
124
0.36
62
0.31
51
0.34
45
0.32
60
0.32
39
0.28
79
0.35
47
0.28
53
0.17
83
0.22
81
0.30
55
0.28
57
0.35
47
0.25
42
TDLMtwo views0.24
40
0.29
54
0.22
83
0.22
61
0.27
108
0.23
76
0.18
96
0.26
42
0.19
51
0.18
34
0.38
111
0.29
42
0.21
78
0.15
56
0.24
25
0.28
36
0.32
38
0.28
46
0.25
28
0.21
47
0.28
31
0.19
22
0.16
68
0.21
67
0.24
35
0.20
25
0.28
28
0.25
42
RAFT_CTSACEtwo views0.30
63
0.37
82
0.15
37
0.15
34
0.15
47
0.25
84
0.18
96
0.53
93
0.20
55
0.55
131
0.18
38
0.44
86
0.29
113
0.16
63
0.29
44
0.30
47
0.37
53
0.27
43
0.37
49
0.18
31
0.38
52
0.45
112
0.10
33
0.17
54
0.30
55
0.31
66
0.60
112
0.26
45
MLG-Stereo_test3two views0.23
39
0.17
25
0.13
29
0.14
29
0.17
54
0.16
39
0.09
39
0.21
36
0.12
26
0.21
40
0.18
38
0.35
53
0.11
32
0.15
56
0.29
44
0.26
29
0.33
41
0.28
46
0.63
126
0.18
31
0.40
56
0.41
88
0.11
41
0.15
43
0.21
30
0.21
31
0.33
40
0.27
46
iRaftStereo_RVCtwo views0.26
46
0.27
50
0.16
42
0.13
24
0.14
39
0.18
48
0.09
39
0.44
69
0.14
35
0.36
57
0.36
102
0.32
47
0.16
54
0.13
48
0.29
44
0.29
42
0.38
57
0.28
46
0.34
46
0.22
51
0.41
58
0.38
76
0.12
46
0.17
54
0.27
42
0.29
59
0.42
60
0.27
46
DFGA-Nettwo views0.28
55
0.37
82
0.16
42
0.26
88
0.15
47
0.22
64
0.15
79
0.40
58
0.21
59
0.41
64
0.24
63
0.31
45
0.17
57
0.13
48
0.42
82
0.39
75
0.38
57
0.30
57
0.42
60
0.21
47
0.36
51
0.29
54
0.13
54
0.21
67
0.31
65
0.27
54
0.51
75
0.28
48
StereoVisiontwo views0.18
30
0.13
11
0.11
22
0.09
12
0.14
39
0.16
39
0.08
31
0.17
31
0.17
42
0.15
20
0.15
27
0.16
11
0.10
27
0.06
10
0.25
28
0.26
29
0.27
29
0.22
31
0.22
16
0.16
21
0.23
14
0.17
12
0.06
4
0.13
37
0.28
46
0.29
59
0.38
52
0.28
48
HUFtwo views0.29
59
0.34
67
0.20
61
0.22
61
0.21
70
0.19
53
0.11
51
0.51
87
0.22
62
0.42
66
0.18
38
0.35
53
0.22
82
0.19
77
0.30
50
0.32
54
0.38
57
0.26
41
0.52
81
0.25
66
0.52
120
0.43
102
0.16
68
0.18
57
0.30
55
0.22
35
0.38
52
0.29
50
DEFOM-Stereotwo views0.21
37
0.19
30
0.12
26
0.18
49
0.13
31
0.20
56
0.08
31
0.19
34
0.14
35
0.16
27
0.23
58
0.21
30
0.10
27
0.12
44
0.27
38
0.29
42
0.34
45
0.28
46
0.32
39
0.22
51
0.32
37
0.21
31
0.12
46
0.11
29
0.26
37
0.22
35
0.47
68
0.29
50
VIP-Stereotwo views0.22
38
0.20
34
0.19
54
0.14
29
0.11
27
0.13
29
0.06
15
0.29
46
0.19
51
0.19
35
0.28
75
0.28
41
0.11
32
0.12
44
0.27
38
0.28
36
0.37
53
0.26
41
0.33
42
0.21
47
0.34
43
0.21
31
0.11
41
0.15
43
0.24
35
0.22
35
0.25
19
0.30
52
IGEV-BASED-STEREO-two views0.30
63
0.24
43
0.17
47
0.23
74
0.19
61
0.18
48
0.08
31
0.49
84
0.25
83
0.54
124
0.21
51
0.32
47
0.17
57
0.17
67
0.29
44
0.39
75
0.45
75
0.36
85
0.50
73
0.26
73
0.56
137
0.49
129
0.13
54
0.13
37
0.31
65
0.26
53
0.45
64
0.30
52
CVANet_RVCtwo views0.31
68
0.40
102
0.30
112
0.40
153
0.29
120
0.37
136
0.23
131
0.41
60
0.23
67
0.31
52
0.49
142
0.37
63
0.26
99
0.19
77
0.29
44
0.33
57
0.34
45
0.32
60
0.32
39
0.25
66
0.34
43
0.25
45
0.18
95
0.25
113
0.30
55
0.25
51
0.34
44
0.30
52
LGtest1two views0.26
46
0.19
30
0.20
61
0.16
38
0.18
58
0.16
39
0.09
39
0.28
43
0.17
42
0.22
43
0.27
72
0.29
42
0.13
43
0.14
52
0.30
50
0.31
51
0.38
57
0.33
68
0.49
71
0.25
66
0.41
58
0.41
88
0.13
54
0.16
52
0.30
55
0.24
47
0.39
54
0.31
55
HCRNettwo views0.32
70
0.38
90
0.20
61
0.39
147
0.17
54
0.29
101
0.18
96
0.40
58
0.18
46
0.80
259
0.40
120
0.49
102
0.18
61
0.22
100
0.38
65
0.30
47
0.38
57
0.29
54
0.40
53
0.19
38
0.33
41
0.23
42
0.19
103
0.16
52
0.26
37
0.31
66
0.51
75
0.31
55
delettwo views0.24
40
0.25
46
0.22
83
0.24
78
0.20
67
0.28
98
0.16
88
0.21
36
0.18
46
0.23
45
0.26
69
0.26
37
0.15
50
0.25
140
0.32
57
0.28
36
0.31
37
0.27
43
0.24
26
0.24
60
0.31
36
0.20
26
0.16
68
0.19
60
0.28
46
0.25
51
0.32
38
0.31
55
test_5two views0.29
59
0.39
95
0.16
42
0.22
61
0.15
47
0.21
58
0.13
60
0.54
98
0.20
55
0.38
62
0.19
42
0.44
86
0.34
163
0.10
36
0.43
84
0.38
71
0.33
41
0.32
60
0.33
42
0.20
44
0.32
37
0.35
66
0.09
26
0.21
67
0.28
46
0.30
62
0.51
75
0.32
58
AFF-stereotwo views0.30
63
0.34
67
0.26
99
0.18
49
0.17
54
0.33
118
0.11
51
0.50
85
0.23
67
0.46
80
0.28
75
0.40
69
0.16
54
0.12
44
0.27
38
0.35
58
0.37
53
0.25
38
0.57
108
0.23
56
0.38
52
0.25
45
0.17
83
0.17
54
0.37
88
0.37
92
0.48
71
0.32
58
MMNettwo views0.29
59
0.29
54
0.22
83
0.26
88
0.26
98
0.26
86
0.18
96
0.33
50
0.23
67
0.24
46
0.28
75
0.35
53
0.15
50
0.32
187
0.39
68
0.31
51
0.36
51
0.34
72
0.41
56
0.27
76
0.32
37
0.21
31
0.17
83
0.23
93
0.32
70
0.30
62
0.46
66
0.32
58
LG-Stereo_L2two views0.26
46
0.31
60
0.17
47
0.13
24
0.13
31
0.14
31
0.07
22
0.42
64
0.20
55
0.48
89
0.22
55
0.40
69
0.14
44
0.17
67
0.30
50
0.37
68
0.39
62
0.28
46
0.40
53
0.19
38
0.45
76
0.35
66
0.09
26
0.14
40
0.30
55
0.22
35
0.33
40
0.33
61
MIM_Stereotwo views0.32
70
0.40
102
0.25
96
0.28
96
0.20
67
0.27
91
0.14
73
0.45
75
0.18
46
0.48
89
0.25
66
0.42
78
0.18
61
0.16
63
0.36
62
0.42
87
0.44
72
0.36
85
0.47
66
0.28
79
0.47
90
0.36
70
0.12
46
0.23
93
0.29
54
0.27
54
0.47
68
0.33
61
LG-G_1two views0.25
42
0.22
37
0.19
54
0.23
74
0.22
72
0.22
64
0.12
56
0.28
43
0.11
18
0.21
40
0.20
47
0.35
53
0.14
44
0.18
70
0.31
54
0.30
47
0.35
49
0.32
60
0.51
76
0.24
60
0.39
54
0.26
47
0.10
33
0.15
43
0.27
42
0.24
47
0.36
49
0.34
63
LG-Gtwo views0.25
42
0.22
37
0.19
54
0.23
74
0.22
72
0.22
64
0.12
56
0.28
43
0.11
18
0.21
40
0.20
47
0.35
53
0.14
44
0.18
70
0.31
54
0.30
47
0.35
49
0.32
60
0.51
76
0.24
60
0.39
54
0.26
47
0.10
33
0.15
43
0.27
42
0.24
47
0.36
49
0.34
63
GANettwo views0.32
70
0.29
54
0.27
101
0.34
125
0.33
137
0.38
141
0.29
157
0.44
69
0.24
77
0.35
56
0.30
84
0.46
92
0.22
82
0.21
94
0.31
54
0.32
54
0.40
65
0.43
126
0.33
42
0.22
51
0.33
41
0.29
54
0.22
142
0.24
102
0.31
65
0.27
54
0.42
60
0.34
63
YMNettwo views0.30
63
0.31
60
0.23
88
0.27
93
0.23
78
0.26
86
0.25
139
0.36
52
0.37
178
0.25
47
0.19
42
0.40
69
0.27
106
0.29
170
0.38
65
0.47
130
0.37
53
0.28
46
0.43
62
0.19
38
0.35
47
0.33
61
0.16
68
0.19
60
0.36
86
0.29
59
0.39
54
0.35
66
LL-Strereo2two views0.34
77
0.29
54
0.21
74
0.24
78
0.19
61
0.17
44
0.13
60
0.63
158
0.26
93
0.58
156
0.23
58
0.44
86
0.22
82
0.14
52
0.41
76
0.41
83
0.47
90
0.35
81
0.73
151
0.31
93
0.47
90
0.36
70
0.21
128
0.20
65
0.32
70
0.34
80
0.51
75
0.35
66
RAFT+CT+SAtwo views0.32
70
0.46
144
0.20
61
0.26
88
0.18
58
0.22
64
0.15
79
0.58
117
0.23
67
0.52
112
0.17
36
0.46
92
0.33
151
0.12
44
0.33
58
0.43
94
0.36
51
0.30
57
0.45
64
0.23
56
0.45
76
0.49
129
0.09
26
0.22
81
0.32
70
0.31
66
0.53
90
0.35
66
LG-Stereo_L1two views0.27
50
0.30
58
0.17
47
0.13
24
0.13
31
0.15
37
0.08
31
0.42
64
0.21
59
0.49
98
0.20
47
0.39
68
0.15
50
0.15
56
0.30
50
0.38
71
0.39
62
0.29
54
0.40
53
0.18
31
0.47
90
0.35
66
0.08
14
0.14
40
0.30
55
0.21
31
0.37
51
0.36
69
UniTT-Stereotwo views0.28
55
0.27
50
0.15
37
0.15
34
0.13
31
0.17
44
0.09
39
0.35
51
0.19
51
0.49
98
0.21
51
0.41
76
0.18
61
0.14
52
0.40
70
0.39
75
0.42
70
0.34
72
0.56
104
0.25
66
0.43
66
0.24
44
0.13
54
0.19
60
0.31
65
0.41
104
0.30
34
0.37
70
ARAFTtwo views0.34
77
0.38
90
0.23
88
0.26
88
0.21
70
0.27
91
0.14
73
0.44
69
0.24
77
0.50
100
0.30
84
0.41
76
0.16
54
0.15
56
0.67
155
0.42
87
0.50
103
0.47
159
0.51
76
0.23
56
0.53
127
0.32
60
0.16
68
0.19
60
0.43
104
0.30
62
0.52
86
0.37
70
UPFNettwo views0.38
84
0.34
67
0.34
129
0.32
117
0.33
137
0.39
143
0.29
157
0.47
80
0.33
153
0.43
68
0.41
122
0.40
69
0.30
123
0.34
192
0.61
130
0.40
79
0.46
80
0.41
113
0.52
81
0.35
122
0.35
47
0.34
64
0.25
163
0.27
122
0.38
92
0.35
81
0.55
92
0.37
70
DMCAtwo views0.32
70
0.31
60
0.30
112
0.24
78
0.25
88
0.27
91
0.22
121
0.36
52
0.33
153
0.31
52
0.40
120
0.40
69
0.23
88
0.25
140
0.41
76
0.37
68
0.40
65
0.39
96
0.36
48
0.28
79
0.41
58
0.27
50
0.25
163
0.25
113
0.31
65
0.35
81
0.39
54
0.37
70
CIPLGtwo views0.42
99
0.47
151
0.24
94
0.32
117
0.22
72
0.32
111
0.19
107
0.63
158
0.24
77
0.55
131
0.50
147
0.60
143
0.30
123
0.41
212
0.93
217
0.44
99
0.52
118
0.37
90
0.56
104
0.38
134
0.56
137
0.45
112
0.19
103
0.24
102
0.44
106
0.31
66
0.57
96
0.38
74
4D-IteraStereotwo views0.40
90
0.28
53
0.33
123
0.35
135
0.24
86
0.24
81
0.15
79
0.63
158
0.28
106
0.61
171
0.39
117
0.51
113
0.22
82
0.22
100
0.48
96
0.43
94
0.49
98
0.43
126
0.66
133
0.34
105
0.63
162
0.70
190
0.14
62
0.22
81
0.39
95
0.47
127
0.63
121
0.39
75
TestStereo1two views0.38
84
0.49
167
0.19
54
0.22
61
0.23
78
0.23
76
0.15
79
0.55
105
0.30
122
0.52
112
0.21
51
0.35
53
0.39
185
0.11
40
0.80
182
0.50
147
0.46
80
0.32
60
0.53
89
0.25
66
0.52
120
0.67
183
0.15
64
0.22
81
0.37
88
0.42
105
0.60
112
0.39
75
TESTrafttwo views0.37
82
0.46
144
0.21
74
0.21
58
0.23
78
0.21
58
0.16
88
0.54
98
0.31
140
0.51
105
0.23
58
0.36
61
0.36
175
0.11
40
0.85
198
0.48
136
0.45
75
0.32
60
0.48
69
0.24
60
0.46
83
0.65
175
0.12
46
0.23
93
0.37
88
0.43
107
0.57
96
0.39
75
SA-5Ktwo views0.38
84
0.49
167
0.19
54
0.22
61
0.23
78
0.23
76
0.15
79
0.55
105
0.30
122
0.52
112
0.21
51
0.35
53
0.39
185
0.11
40
0.80
182
0.50
147
0.46
80
0.32
60
0.53
89
0.25
66
0.52
120
0.67
183
0.15
64
0.22
81
0.37
88
0.42
105
0.60
112
0.39
75
ACREtwo views0.42
99
0.47
151
0.22
83
0.32
117
0.22
72
0.33
118
0.18
96
0.63
158
0.23
67
0.55
131
0.50
147
0.61
144
0.30
123
0.41
212
0.91
212
0.45
110
0.52
118
0.36
85
0.55
98
0.38
134
0.57
147
0.44
108
0.19
103
0.23
93
0.44
106
0.32
71
0.58
104
0.39
75
SGD-Stereotwo views0.29
59
0.24
43
0.17
47
0.16
38
0.15
47
0.22
64
0.08
31
0.29
46
0.22
62
0.29
49
0.15
27
0.45
90
0.20
70
0.10
36
0.71
169
0.45
110
0.46
80
0.27
43
0.47
66
0.22
51
0.41
58
0.36
70
0.19
103
0.19
60
0.28
46
0.32
71
0.46
66
0.40
80
IPLGR_Ctwo views0.42
99
0.47
151
0.23
88
0.31
115
0.22
72
0.32
111
0.18
96
0.63
158
0.23
67
0.55
131
0.50
147
0.61
144
0.31
136
0.41
212
0.87
206
0.45
110
0.52
118
0.37
90
0.55
98
0.38
134
0.56
137
0.46
117
0.19
103
0.24
102
0.44
106
0.33
76
0.58
104
0.40
80
GMOStereotwo views0.42
99
0.39
95
0.21
74
0.30
109
0.26
98
0.29
101
0.19
107
0.67
179
0.30
122
0.66
209
0.32
89
0.54
119
0.33
151
0.20
88
0.40
70
0.46
119
0.50
103
0.44
131
0.68
139
0.34
105
0.51
110
0.66
178
0.16
68
0.22
81
0.58
158
0.45
117
0.82
177
0.41
82
error versiontwo views0.42
99
0.39
95
0.21
74
0.30
109
0.26
98
0.29
101
0.19
107
0.67
179
0.30
122
0.66
209
0.32
89
0.54
119
0.33
151
0.20
88
0.40
70
0.46
119
0.50
103
0.44
131
0.68
139
0.34
105
0.51
110
0.66
178
0.16
68
0.22
81
0.58
158
0.45
117
0.82
177
0.41
82
test-vtwo views0.42
99
0.39
95
0.21
74
0.30
109
0.26
98
0.29
101
0.19
107
0.67
179
0.30
122
0.66
209
0.32
89
0.54
119
0.33
151
0.20
88
0.40
70
0.46
119
0.50
103
0.44
131
0.68
139
0.34
105
0.51
110
0.66
178
0.16
68
0.22
81
0.58
158
0.45
117
0.82
177
0.41
82
test-2two views0.42
99
0.39
95
0.21
74
0.30
109
0.26
98
0.29
101
0.19
107
0.67
179
0.30
122
0.66
209
0.32
89
0.54
119
0.33
151
0.20
88
0.40
70
0.46
119
0.50
103
0.44
131
0.68
139
0.34
105
0.51
110
0.66
178
0.16
68
0.22
81
0.58
158
0.45
117
0.82
177
0.41
82
GMStereopermissivetwo views0.41
94
0.48
164
0.25
96
0.32
117
0.32
136
0.37
136
0.28
150
0.59
124
0.30
122
0.45
77
0.36
102
0.61
144
0.31
136
0.24
124
0.45
86
0.41
83
0.54
129
0.35
81
0.73
151
0.39
148
0.51
110
0.33
61
0.23
152
0.28
128
0.48
119
0.36
84
0.68
138
0.41
82
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
anonymousdsp2two views0.38
84
0.46
144
0.30
112
0.25
84
0.23
78
0.32
111
0.18
96
0.58
117
0.23
67
0.47
83
0.38
111
0.48
98
0.23
88
0.18
70
0.40
70
0.39
75
0.44
72
0.33
68
0.88
174
0.31
93
0.48
96
0.52
146
0.17
83
0.23
93
0.41
101
0.33
76
0.61
115
0.42
87
test_4two views0.34
77
0.33
64
0.27
101
0.21
58
0.18
58
0.16
39
0.11
51
0.59
124
0.26
93
0.58
156
0.25
66
0.50
108
0.20
70
0.19
77
0.33
58
0.40
79
0.45
75
0.34
72
0.41
56
0.29
84
0.45
76
0.41
88
0.16
68
0.24
102
0.38
92
0.40
103
0.59
111
0.42
87
raft+_RVCtwo views0.35
80
0.34
67
0.26
99
0.25
84
0.23
78
0.25
84
0.18
96
0.54
98
0.26
93
0.52
112
0.43
125
0.46
92
0.23
88
0.18
70
0.42
82
0.38
71
0.43
71
0.34
72
0.61
124
0.26
73
0.43
66
0.38
76
0.13
54
0.20
65
0.39
95
0.39
99
0.58
104
0.42
87
FINETtwo views0.40
90
0.38
90
0.39
152
0.43
167
0.30
127
0.34
125
0.35
172
0.44
69
0.36
168
0.47
83
0.32
89
0.47
95
0.30
123
0.28
163
0.66
149
0.50
147
0.48
95
0.36
85
0.60
120
0.33
99
0.46
83
0.37
75
0.30
187
0.30
141
0.43
104
0.35
81
0.56
94
0.42
87
MIF-Stereo (partial)two views0.30
63
0.44
124
0.18
52
0.16
38
0.16
52
0.21
58
0.11
51
0.37
55
0.22
62
0.37
60
0.24
63
0.32
47
0.17
57
0.13
48
0.39
68
0.45
110
0.46
80
0.38
94
0.42
60
0.25
66
0.43
66
0.35
66
0.18
95
0.21
67
0.35
85
0.32
71
0.50
74
0.44
91
RAFT-Stereo + iAFFtwo views0.35
80
0.41
106
0.32
120
0.24
78
0.19
61
0.28
98
0.13
60
0.58
117
0.24
77
0.46
80
0.35
101
0.49
102
0.19
67
0.15
56
0.34
61
0.35
58
0.41
68
0.28
46
0.65
131
0.28
79
0.44
72
0.33
61
0.19
103
0.22
81
0.51
134
0.37
92
0.58
104
0.44
91
MGS-Stereotwo views0.37
82
0.46
144
0.21
74
0.22
61
0.19
61
0.22
64
0.15
79
0.45
75
0.17
42
0.36
57
0.26
69
0.29
42
0.19
67
0.23
113
1.37
262
0.40
79
0.52
118
0.45
141
0.55
98
0.33
99
0.50
104
0.41
88
0.21
128
0.22
81
0.33
74
0.30
62
0.47
68
0.45
93
ADLNettwo views0.46
125
0.53
202
0.37
141
0.41
158
0.41
180
0.44
163
0.40
186
0.54
98
0.35
164
0.45
77
0.53
160
0.76
187
0.36
175
0.62
266
0.58
115
0.42
87
0.49
98
0.42
121
0.50
73
0.37
130
0.43
66
0.44
108
0.34
201
0.25
113
0.47
116
0.55
153
0.57
96
0.45
93
HGLStereotwo views0.43
112
0.43
118
0.37
141
0.34
125
0.37
161
0.39
143
0.23
131
0.48
82
0.31
140
0.47
83
0.72
218
0.42
78
0.29
113
0.32
187
0.51
100
0.49
143
0.55
138
0.50
179
0.55
98
0.39
148
0.51
110
0.43
102
0.22
142
0.33
168
0.51
134
0.51
143
0.57
96
0.45
93
SAtwo views0.42
99
0.47
151
0.21
74
0.25
84
0.23
78
0.31
108
0.13
60
0.64
165
0.32
148
0.61
171
0.26
69
0.54
119
0.21
78
0.16
63
0.63
139
0.47
130
0.52
118
0.41
113
0.60
120
0.29
84
0.46
83
0.61
166
0.15
64
0.27
122
0.45
110
0.58
158
0.96
211
0.47
96
RALAANettwo views0.41
94
0.41
106
0.37
141
0.28
96
0.28
113
0.33
118
0.24
134
0.54
98
0.27
99
0.48
89
0.48
137
0.43
83
0.25
96
0.20
88
0.57
111
0.41
83
0.49
98
0.50
179
0.71
147
0.40
153
0.52
120
0.46
117
0.21
128
0.29
133
0.46
114
0.45
117
0.70
147
0.47
96
castereo++two views0.44
115
0.35
77
0.33
123
0.43
167
0.23
78
0.21
58
0.17
94
0.59
124
0.30
122
0.63
187
0.37
108
0.73
175
0.22
82
0.22
100
0.44
85
0.53
164
0.58
157
0.41
113
0.66
133
0.34
105
0.81
203
0.69
188
0.20
119
0.28
128
0.48
119
0.56
157
0.76
162
0.48
98
plaintwo views0.31
68
0.43
118
0.20
61
0.20
57
0.16
52
0.20
56
0.10
48
0.41
60
0.18
46
0.48
89
0.19
42
0.34
52
0.17
57
0.10
36
0.41
76
0.44
99
0.45
75
0.40
108
0.55
98
0.24
60
0.41
58
0.34
64
0.14
62
0.21
67
0.32
70
0.33
76
0.39
54
0.48
98
G2L-Stereotwo views0.42
99
0.39
95
0.28
103
0.35
135
0.40
174
0.34
125
0.22
121
0.54
98
0.34
158
0.52
112
0.61
184
0.50
108
0.38
182
0.26
151
0.61
130
0.44
99
0.50
103
0.40
108
0.46
65
0.33
99
0.43
66
0.39
82
0.28
179
0.27
122
0.49
127
0.54
150
0.69
141
0.49
100
GCAP-BATtwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
test_for_modeltwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
testlalala2two views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
MaDis-Stereotwo views0.26
46
0.20
34
0.16
42
0.10
14
0.10
22
0.10
16
0.08
31
0.24
39
0.14
35
0.36
57
0.16
32
0.36
61
0.12
40
0.08
25
0.33
58
0.35
58
0.39
62
0.35
81
0.53
89
0.20
44
0.40
56
0.26
47
0.13
54
0.15
43
0.39
95
0.39
99
0.40
58
0.49
100
testlalalatwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
testlalala_basetwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
GCAP-Stereotwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
Sa-1000two views0.48
131
0.47
151
0.21
74
0.26
88
0.26
98
0.31
108
0.15
79
0.65
172
0.36
168
0.63
187
0.33
96
0.50
108
0.26
99
0.30
173
0.94
221
0.49
143
0.59
171
0.45
141
0.90
176
0.32
97
0.52
120
0.75
198
0.17
83
0.27
122
0.72
198
0.53
147
1.00
223
0.49
100
test_3two views0.56
159
0.38
90
0.36
137
0.34
125
0.33
137
0.33
118
0.21
115
0.68
186
0.29
113
0.65
199
0.33
96
0.92
212
0.35
170
0.21
94
0.60
125
0.44
99
0.56
144
0.45
141
2.68
260
0.39
148
0.55
132
1.35
251
0.15
64
0.32
154
0.51
134
0.47
127
0.67
136
0.50
109
DISCOtwo views0.45
120
0.44
124
0.29
108
0.40
153
0.38
167
0.49
179
0.43
191
0.45
75
0.43
204
0.50
100
0.57
171
0.40
69
0.29
113
0.30
173
0.61
130
0.43
94
0.55
138
0.46
153
0.69
144
0.41
156
0.48
96
0.43
102
0.26
172
0.32
154
0.47
116
0.50
141
0.62
118
0.50
109
S2M2_XLtwo views0.33
75
0.30
58
0.30
112
0.17
44
0.19
61
0.23
76
0.21
115
0.53
93
0.26
93
0.47
83
0.25
66
0.48
98
0.18
61
0.22
100
0.38
65
0.36
64
0.54
129
0.29
54
0.41
56
0.28
79
0.50
104
0.31
58
0.21
128
0.21
67
0.34
75
0.32
71
0.45
64
0.51
111
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
IPLGtwo views0.47
127
0.45
132
0.32
120
0.28
96
0.27
108
0.32
111
0.21
115
0.63
158
0.22
62
0.51
105
0.38
111
0.56
127
0.29
113
0.31
180
1.64
277
0.44
99
0.56
144
0.48
165
0.56
104
0.41
156
0.45
76
0.75
198
0.18
95
0.28
128
0.45
110
0.59
159
0.65
129
0.51
111
IERtwo views0.41
94
0.37
82
0.31
117
0.30
109
0.28
113
0.35
131
0.24
134
0.47
80
0.28
106
0.44
75
0.59
174
0.77
190
0.29
113
0.35
198
0.63
139
0.42
87
0.47
90
0.42
121
0.44
63
0.34
105
0.42
64
0.36
70
0.28
179
0.26
119
0.40
99
0.47
127
0.52
86
0.52
113
raftrobusttwo views0.43
112
0.33
64
0.36
137
0.28
96
0.28
113
0.27
91
0.18
96
0.64
165
0.25
83
0.63
187
0.53
160
0.51
113
0.25
96
0.22
100
0.63
139
0.48
136
0.51
114
0.41
113
0.96
185
0.38
134
0.53
127
0.46
117
0.20
119
0.24
102
0.57
154
0.54
150
0.54
91
0.52
113
AANet_RVCtwo views0.28
55
0.27
50
0.23
88
0.19
51
0.28
113
0.16
39
0.16
88
0.29
46
0.30
122
0.20
37
0.27
72
0.24
35
0.21
78
0.19
77
0.45
86
0.36
64
0.33
41
0.34
72
0.29
36
0.29
84
0.27
27
0.27
50
0.22
142
0.21
67
0.34
75
0.33
76
0.42
60
0.52
113
HITNettwo views0.38
84
0.37
82
0.28
103
0.34
125
0.29
120
0.26
86
0.19
107
0.58
117
0.32
148
0.57
144
0.45
131
0.55
125
0.30
123
0.22
100
0.51
100
0.35
58
0.44
72
0.39
96
0.41
56
0.29
84
0.41
58
0.38
76
0.20
119
0.25
113
0.39
95
0.37
92
0.70
147
0.52
113
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
DEFOM-Stereo_RVCtwo views0.33
75
0.36
80
0.20
61
0.23
74
0.20
67
0.17
44
0.10
48
0.48
82
0.23
67
0.55
131
0.32
89
0.40
69
0.19
67
0.15
56
0.48
96
0.36
64
0.47
90
0.33
68
0.51
76
0.27
76
0.50
104
0.42
95
0.16
68
0.18
57
0.30
55
0.31
66
0.48
71
0.53
117
iinet-ftwo views0.52
142
0.43
118
0.36
137
0.34
125
0.25
88
0.47
175
0.25
139
0.43
67
0.27
99
0.52
112
0.94
245
0.61
144
0.44
201
0.25
140
1.06
240
0.57
181
0.52
118
0.39
96
1.51
213
0.50
181
0.58
151
0.75
198
0.26
172
0.25
113
0.52
138
0.38
96
0.76
162
0.53
117
GLC_STEREOtwo views0.47
127
0.51
187
0.40
157
0.38
144
0.37
161
0.37
136
0.28
150
0.64
165
0.29
113
0.62
181
0.53
160
0.55
125
0.28
111
0.30
173
0.49
99
0.48
136
0.66
207
0.41
113
0.65
131
0.41
156
0.70
186
0.60
161
0.23
152
0.30
141
0.47
116
0.36
84
0.84
186
0.53
117
rafts_anoytwo views0.41
94
0.51
187
0.35
131
0.29
101
0.30
127
0.33
118
0.22
121
0.59
124
0.25
83
0.51
105
0.50
147
0.48
98
0.23
88
0.17
67
0.57
111
0.46
119
0.51
114
0.50
179
0.58
112
0.34
105
0.50
104
0.43
102
0.19
103
0.28
128
0.50
131
0.47
127
0.52
86
0.53
117
TANstereotwo views0.55
152
0.41
106
0.35
131
0.40
153
0.39
169
0.45
168
0.21
115
0.52
89
0.30
122
0.54
124
0.37
108
0.38
65
0.38
182
0.41
212
0.84
194
0.73
226
0.66
207
0.78
272
1.10
193
0.89
270
0.62
159
0.54
151
0.93
285
0.32
154
0.34
75
0.45
117
0.99
218
0.53
117
XX-TBDtwo views0.55
152
0.41
106
0.35
131
0.40
153
0.39
169
0.45
168
0.21
115
0.52
89
0.30
122
0.54
124
0.37
108
0.38
65
0.38
182
0.41
212
0.84
194
0.73
226
0.66
207
0.78
272
1.10
193
0.89
270
0.62
159
0.54
151
0.93
285
0.32
154
0.34
75
0.45
117
0.99
218
0.53
117
NVstereo2Dtwo views0.55
152
0.47
151
0.40
157
0.52
192
0.48
199
0.66
226
0.64
234
0.60
130
0.38
183
0.48
89
0.61
184
0.53
117
0.30
123
0.63
268
1.53
271
0.61
194
0.58
157
0.55
209
0.53
89
0.41
156
0.50
104
0.38
76
0.54
255
0.43
205
0.64
181
0.48
132
0.56
94
0.53
117
test-3two views0.55
152
0.37
82
0.37
141
0.34
125
0.33
137
0.33
118
0.22
121
0.65
172
0.27
99
0.61
171
0.34
98
0.90
210
0.31
136
0.21
94
0.60
125
0.44
99
0.55
138
0.42
121
2.59
258
0.38
134
0.56
137
1.37
253
0.16
68
0.29
133
0.48
119
0.38
96
0.69
141
0.54
124
test_1two views0.55
152
0.37
82
0.37
141
0.34
125
0.33
137
0.33
118
0.22
121
0.66
176
0.27
99
0.62
181
0.34
98
0.90
210
0.31
136
0.21
94
0.61
130
0.44
99
0.55
138
0.42
121
2.58
257
0.38
134
0.56
137
1.38
255
0.16
68
0.29
133
0.48
119
0.38
96
0.69
141
0.54
124
DN-CSS_ROBtwo views0.52
142
0.43
118
0.46
187
0.41
158
0.40
174
0.34
125
0.22
121
0.69
193
0.34
158
0.59
161
0.79
228
0.66
158
0.47
207
0.24
124
0.63
139
0.40
79
0.58
157
0.43
126
1.74
224
0.38
134
0.63
162
0.38
76
0.31
192
0.47
221
0.53
141
0.43
107
0.66
135
0.54
124
TestStereotwo views0.45
120
0.51
187
0.38
150
0.42
162
0.30
127
0.44
163
0.26
143
0.71
202
0.28
106
0.76
249
0.32
89
0.64
154
0.32
145
0.24
124
0.47
89
0.35
58
0.54
129
0.33
68
0.78
163
0.38
134
0.63
162
0.42
95
0.24
160
0.30
141
0.53
141
0.43
107
0.75
159
0.55
127
Former-RAFT_DAM_RVCtwo views0.41
94
0.33
64
0.29
108
0.29
101
0.24
86
0.26
86
0.16
88
0.55
105
0.40
188
0.55
131
0.49
142
0.49
102
0.27
106
0.23
113
0.58
115
0.45
110
0.51
114
0.40
108
0.50
73
0.36
124
0.46
83
0.50
134
0.16
68
0.23
93
0.49
127
0.75
187
0.44
63
0.56
128
CASnettwo views0.40
90
0.52
196
0.23
88
0.27
93
0.27
108
0.30
107
0.14
73
0.62
144
0.29
113
0.61
171
0.44
128
0.64
154
0.28
111
0.23
113
0.55
105
0.36
64
0.45
75
0.31
59
0.73
151
0.27
76
0.63
162
0.39
82
0.21
128
0.24
102
0.42
102
0.32
71
0.61
115
0.56
128
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
IPLGRtwo views0.57
163
0.55
206
0.37
141
0.43
167
0.38
167
0.36
134
0.23
131
0.62
144
0.30
122
0.56
140
0.68
211
0.61
144
0.32
145
0.29
170
1.73
283
0.47
130
0.56
144
0.56
211
1.09
191
0.54
193
0.53
127
0.81
209
0.20
119
0.32
154
0.71
195
0.97
232
0.73
155
0.57
130
UNettwo views0.44
115
0.42
113
0.40
157
0.37
141
0.36
154
0.41
151
0.28
150
0.57
113
0.35
164
0.50
100
0.49
142
0.47
95
0.34
163
0.37
204
0.53
104
0.43
94
0.54
129
0.46
153
0.56
104
0.39
148
0.47
90
0.44
108
0.27
176
0.34
172
0.44
106
0.48
132
0.58
104
0.57
130
castereotwo views0.47
127
0.36
80
0.35
131
0.34
125
0.26
98
0.26
86
0.17
94
0.56
111
0.29
113
0.60
167
0.45
131
0.68
162
0.22
82
0.20
88
0.52
102
0.58
186
0.61
186
0.39
96
0.92
178
0.36
124
0.96
228
0.76
201
0.19
103
0.24
102
0.54
145
0.64
167
0.57
96
0.58
132
ddtwo views0.50
135
0.51
187
0.28
103
0.91
252
0.31
135
0.65
223
0.29
157
0.59
124
0.23
67
0.54
124
0.30
84
0.75
179
0.27
106
0.26
151
0.84
194
0.46
119
0.70
223
0.39
96
1.05
189
0.38
134
0.48
96
0.43
102
0.23
152
0.30
141
0.53
141
0.39
99
0.74
157
0.58
132
RALCasStereoNettwo views0.42
99
0.50
182
0.35
131
0.35
135
0.30
127
0.31
108
0.24
134
0.60
130
0.25
83
0.56
140
0.49
142
0.58
134
0.26
99
0.18
70
0.57
111
0.46
119
0.54
129
0.49
173
0.51
76
0.34
105
0.51
110
0.41
88
0.21
128
0.31
149
0.53
141
0.49
137
0.48
71
0.58
132
APVNettwo views0.56
159
0.47
151
0.38
150
0.46
175
0.50
204
0.57
203
0.53
206
0.60
130
0.42
200
0.46
80
0.65
198
0.50
108
0.30
123
0.36
200
0.74
173
0.71
221
0.71
229
0.64
237
0.95
183
0.53
187
0.57
147
0.77
203
0.34
201
0.46
218
0.59
165
0.46
125
0.82
177
0.58
132
DSFCAtwo views0.45
120
0.50
182
0.40
157
0.40
153
0.37
161
0.44
163
0.34
170
0.46
78
0.39
186
0.40
63
0.57
171
0.49
102
0.29
113
0.24
124
0.61
130
0.44
99
0.49
98
0.49
173
0.64
127
0.39
148
0.50
104
0.51
141
0.33
199
0.35
176
0.49
127
0.50
141
0.57
96
0.58
132
DeepPruner_ROBtwo views0.59
171
0.44
124
0.54
211
0.52
192
0.54
213
0.49
179
0.37
178
0.61
137
0.46
209
0.60
167
0.70
212
0.61
144
0.51
216
0.32
187
1.06
240
0.58
186
0.62
192
0.59
226
0.66
133
0.47
178
0.97
231
0.72
195
0.36
206
0.44
211
0.61
169
1.00
237
0.72
152
0.58
132
iResNetv2_ROBtwo views0.52
142
0.45
132
0.32
120
0.48
178
0.39
169
0.48
177
0.28
150
0.64
165
0.34
158
0.52
112
0.66
201
0.70
168
0.55
222
0.28
163
0.67
155
0.47
130
0.50
103
0.46
153
1.12
196
0.45
169
0.57
147
0.47
122
0.29
184
0.40
196
0.55
149
0.51
143
0.81
174
0.58
132
PDISCO_ROBtwo views0.48
131
0.40
102
0.39
152
0.38
144
0.34
146
0.39
143
0.28
150
0.50
85
0.35
164
0.37
60
0.52
156
0.49
102
0.35
170
0.31
180
0.63
139
0.58
186
0.54
129
0.68
251
0.59
113
0.44
167
0.62
159
0.67
183
0.24
160
0.34
172
0.54
145
0.53
147
0.85
188
0.58
132
raft_robusttwo views0.49
134
0.44
124
0.24
94
0.38
144
0.29
120
0.32
111
0.21
115
0.73
213
0.35
164
0.69
229
0.34
98
0.57
129
0.31
136
0.24
124
0.59
119
0.53
164
0.54
129
0.46
153
0.98
186
0.37
130
0.69
183
0.94
221
0.20
119
0.28
128
0.55
149
0.69
172
0.69
141
0.60
140
BEATNet_4xtwo views0.53
145
0.40
102
0.34
129
0.39
147
0.36
154
0.32
111
0.27
145
0.64
165
0.41
193
0.66
209
0.45
131
0.62
152
0.39
185
0.24
124
0.83
190
0.63
196
0.58
157
0.58
221
0.57
108
0.36
124
0.90
216
1.52
265
0.25
163
0.36
183
0.46
114
0.44
111
0.77
164
0.60
140
LoS_RVCtwo views0.42
99
0.45
132
0.43
174
0.19
51
0.25
88
0.24
81
0.16
88
0.44
69
0.28
106
0.51
105
0.48
137
0.42
78
0.31
136
0.22
100
0.60
125
0.45
110
0.46
80
0.41
113
0.71
147
0.30
88
0.67
177
0.51
141
0.19
103
0.32
154
0.61
169
0.44
111
0.58
104
0.61
142
tt_lltwo views0.42
99
0.45
132
0.43
174
0.19
51
0.25
88
0.24
81
0.16
88
0.44
69
0.28
106
0.51
105
0.48
137
0.42
78
0.31
136
0.22
100
0.60
125
0.45
110
0.46
80
0.41
113
0.71
147
0.30
88
0.67
177
0.51
141
0.19
103
0.32
154
0.61
169
0.44
111
0.58
104
0.61
142
MIPNettwo views0.51
138
0.51
187
0.33
123
0.32
117
0.30
127
0.37
136
0.25
139
0.62
144
0.24
77
0.50
100
0.52
156
0.61
144
0.41
191
0.30
173
1.01
236
0.51
154
0.59
171
0.50
179
0.76
161
0.47
178
0.44
72
0.85
212
0.20
119
0.26
119
0.66
184
0.98
233
0.71
151
0.61
142
iResNet_ROBtwo views0.50
135
0.49
167
0.42
169
0.42
162
0.30
127
0.42
157
0.32
166
0.60
130
0.33
153
0.52
112
0.59
174
0.47
95
0.56
224
0.25
140
0.81
185
0.46
119
0.57
153
0.49
173
1.19
200
0.36
124
0.48
96
0.36
70
0.25
163
0.37
188
0.57
154
0.54
150
0.75
159
0.61
142
AE-Stereotwo views0.54
150
0.48
164
0.44
182
0.50
183
0.35
150
0.36
134
0.28
150
0.55
105
0.29
113
0.64
194
0.31
87
0.89
209
0.31
136
0.24
124
0.55
105
0.65
209
0.68
215
0.52
193
0.87
173
0.53
187
0.72
189
0.81
209
0.21
128
0.47
221
0.79
222
0.69
172
0.94
206
0.62
146
DMCA-RVCcopylefttwo views0.44
115
0.37
82
0.35
131
0.33
123
0.37
161
0.32
111
0.41
188
0.46
78
0.52
216
0.43
68
0.48
137
0.68
162
0.33
151
0.29
170
0.65
148
0.46
119
0.47
90
0.44
131
0.49
71
0.38
134
0.49
100
0.48
128
0.29
184
0.32
154
0.38
92
0.37
92
0.57
96
0.62
146
DeepPrunerFtwo views1.22
252
0.49
167
0.39
152
0.58
205
2.86
315
0.49
179
0.55
212
0.52
89
0.58
230
0.43
68
0.67
208
0.43
83
0.32
145
0.42
222
1.64
277
0.75
228
0.58
157
0.46
153
0.93
179
0.46
174
0.61
157
0.53
149
0.40
218
0.35
176
15.32
338
0.82
204
0.65
129
0.62
146
DLCB_ROBtwo views0.53
145
0.50
182
0.48
194
0.41
158
0.45
189
0.43
160
0.39
184
0.55
105
0.45
205
0.57
144
0.61
184
0.70
168
0.52
217
0.41
212
0.60
125
0.47
130
0.57
153
0.48
165
0.52
81
0.43
166
0.55
132
0.47
122
0.38
213
0.42
202
0.96
253
0.79
198
0.70
147
0.62
146
PSMNet-ADLtwo views0.96
237
0.62
228
0.66
238
0.67
226
0.70
248
0.66
226
0.58
218
0.74
218
0.60
231
0.85
270
5.03
314
0.95
217
1.26
265
0.45
230
0.89
209
1.03
272
0.68
215
0.54
203
2.03
235
0.68
248
0.84
209
0.79
208
0.54
255
0.47
221
0.73
203
0.95
224
1.32
261
0.63
150
RASNettwo views0.42
99
0.45
132
0.43
174
0.33
123
0.33
137
0.37
136
0.27
145
0.58
117
0.34
158
0.47
83
0.43
125
0.49
102
0.33
151
0.25
140
0.41
76
0.41
83
0.48
95
0.39
96
0.47
66
0.30
88
0.49
100
0.40
85
0.19
103
0.44
211
0.40
99
0.46
125
0.75
159
0.63
150
sCroCo_RVCtwo views0.58
165
0.42
113
0.29
108
0.28
96
0.29
120
0.39
143
0.22
121
0.60
130
0.41
193
0.53
123
0.43
125
0.48
98
0.50
212
0.24
124
0.75
174
0.99
267
0.75
235
0.63
233
1.02
188
0.56
203
1.10
243
1.36
252
0.28
179
0.39
193
0.63
178
0.63
164
0.93
204
0.64
152
NLCA_NET_v2_RVCtwo views0.51
138
0.52
196
0.48
194
0.43
167
0.57
220
0.42
157
0.62
231
0.56
111
0.62
234
0.52
112
0.51
153
0.67
160
0.34
163
0.58
263
0.78
176
0.42
87
0.47
90
0.42
121
0.57
108
0.38
134
0.46
83
0.42
95
0.30
187
0.32
154
0.48
119
0.76
190
0.62
118
0.64
152
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
LMCR-Stereopermissivemany views0.50
135
0.46
144
0.33
123
0.32
117
0.33
137
0.42
157
0.24
134
0.57
113
0.37
178
0.55
131
0.46
135
0.65
157
0.40
188
0.26
151
0.69
160
0.49
143
0.62
192
0.49
173
1.11
195
0.57
208
0.66
173
0.64
173
0.25
163
0.32
154
0.48
119
0.49
137
0.63
121
0.65
154
zero-FEtwo views9.08
329
0.42
113
0.28
103
61.19
347
0.56
217
106.36
348
1.24
280
0.72
209
0.30
122
0.66
209
0.56
169
61.54
345
0.66
239
0.25
140
0.59
119
0.53
164
0.60
178
0.47
159
2.54
253
0.38
134
1.35
258
0.96
222
0.25
163
0.24
102
0.45
110
0.44
111
0.91
199
0.66
155
S2M2_Ltwo views0.40
90
0.42
113
0.41
166
0.24
78
0.27
108
0.35
131
0.22
121
0.51
87
0.24
77
0.61
171
0.23
58
0.43
83
0.21
78
0.31
180
0.59
119
0.49
143
0.55
138
0.36
85
0.53
89
0.34
105
0.55
132
0.38
76
0.28
179
0.27
122
0.42
102
0.43
107
0.63
121
0.66
155
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
MyStereo04two views0.68
187
0.52
196
0.57
217
0.44
172
0.37
161
0.35
131
0.26
143
0.68
186
0.45
205
0.62
181
0.45
131
0.68
162
0.34
163
0.25
140
1.00
233
0.68
215
0.56
144
0.53
197
3.39
274
0.56
203
0.92
217
0.64
173
0.27
176
0.41
199
0.77
217
0.92
219
0.96
211
0.66
155
UDGNettwo views0.67
182
0.66
235
0.42
169
1.35
278
1.02
274
1.21
274
0.91
263
0.60
130
0.41
193
0.52
112
0.60
177
0.56
127
0.23
88
1.19
296
0.66
149
0.45
110
0.56
144
0.51
186
0.73
151
0.53
187
0.64
169
0.67
183
0.79
274
0.29
133
0.72
198
0.55
153
0.63
121
0.66
155
DDF-Stereotwo views2.07
280
0.43
118
0.28
103
10.45
329
0.48
199
14.62
338
0.70
247
0.72
209
0.29
113
0.66
209
0.48
137
17.48
333
0.59
232
0.26
151
0.55
105
0.56
180
0.60
178
0.45
141
1.27
205
0.38
134
0.83
206
0.77
203
0.25
163
0.24
102
0.45
110
0.45
117
0.91
199
0.67
159
psm_uptwo views0.56
159
0.51
187
0.53
207
0.56
202
0.45
189
0.58
206
0.35
172
0.71
202
0.66
239
0.55
131
0.53
160
0.59
139
0.50
212
0.40
209
0.63
139
0.50
147
0.59
171
0.49
173
0.84
171
0.46
174
0.51
110
0.45
112
0.31
192
0.51
229
0.70
192
0.78
194
0.80
171
0.67
159
FCDSN-DCtwo views0.69
188
0.61
225
0.62
228
0.66
225
0.61
226
0.59
207
0.60
223
0.68
186
0.42
200
0.75
246
0.42
124
0.57
129
0.36
175
0.50
240
2.43
316
0.67
212
0.80
243
0.76
268
0.64
127
0.56
203
0.70
186
0.60
161
0.47
229
0.83
273
0.66
184
0.74
183
0.61
115
0.67
159
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
HSMtwo views0.54
150
0.49
167
0.47
191
0.48
178
0.47
196
0.41
151
0.37
178
0.71
202
0.37
178
0.61
171
0.65
198
0.59
139
0.48
210
0.31
180
0.70
165
0.48
136
0.64
200
0.47
159
0.75
158
0.48
180
0.63
162
0.49
129
0.26
172
0.42
202
0.62
174
0.72
180
0.87
195
0.67
159
PWCDC_ROBbinarytwo views0.67
182
0.35
77
0.39
152
0.29
101
0.43
186
0.34
125
0.36
176
0.43
67
1.25
282
0.27
48
0.72
218
0.44
86
2.38
288
0.57
260
1.11
246
0.76
229
0.56
144
0.56
211
0.64
127
0.55
198
0.63
162
2.08
282
0.46
228
0.40
196
0.36
86
0.63
164
0.51
75
0.67
159
LoStwo views0.55
152
0.44
124
0.29
108
0.36
140
0.37
161
0.40
149
0.20
114
1.37
289
0.31
140
0.86
271
0.78
227
0.68
162
0.37
179
0.24
124
0.58
115
0.72
222
0.59
171
0.40
108
0.75
158
0.35
122
1.03
235
0.65
175
0.21
128
0.24
102
0.79
222
0.64
167
0.64
125
0.68
164
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
GEStwo views0.59
171
0.52
196
0.37
141
0.39
147
0.40
174
0.53
193
0.37
178
0.59
124
0.40
188
0.56
140
0.60
177
0.50
108
0.30
123
0.41
212
0.98
229
0.63
196
0.67
213
0.55
209
2.28
242
0.56
203
0.70
186
0.56
156
0.31
192
0.42
202
0.48
119
0.48
132
0.65
129
0.68
164
trnettwo views0.44
115
0.51
187
0.40
157
0.34
125
0.26
98
0.27
91
0.14
73
0.62
144
0.30
122
0.60
167
0.36
102
0.73
175
0.33
151
0.24
124
0.56
108
0.57
181
0.58
157
0.34
72
0.52
81
0.31
93
0.57
147
0.42
95
0.17
83
0.30
141
0.54
145
0.48
132
0.65
129
0.69
166
CEStwo views0.46
125
0.35
77
0.30
112
0.27
93
0.27
108
0.29
101
0.12
56
1.05
272
0.27
99
0.54
124
0.66
201
0.53
117
0.25
96
0.23
113
0.62
135
0.65
209
0.58
157
0.37
90
0.54
95
0.34
105
0.84
209
0.53
149
0.23
152
0.23
93
0.56
153
0.44
111
0.57
96
0.69
166
CREStereo++_RVCtwo views0.43
112
0.42
113
0.39
152
0.30
109
0.33
137
0.27
91
0.19
107
0.57
113
0.31
140
0.58
156
0.36
102
0.58
134
0.56
224
0.23
113
0.48
96
0.50
147
0.61
186
0.34
72
0.52
81
0.30
88
0.56
137
0.42
95
0.16
68
0.29
133
0.49
127
0.44
111
0.79
170
0.69
166
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
CREStereotwo views0.44
115
0.51
187
0.40
157
0.34
125
0.26
98
0.28
98
0.15
79
0.61
137
0.30
122
0.58
156
0.36
102
0.72
172
0.33
151
0.24
124
0.59
119
0.59
189
0.59
171
0.34
72
0.52
81
0.31
93
0.59
155
0.42
95
0.18
95
0.30
141
0.54
145
0.48
132
0.64
125
0.69
166
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
AF-Nettwo views0.53
145
0.49
167
0.44
182
0.50
183
0.53
209
0.61
213
0.54
210
0.61
137
0.55
224
0.43
68
0.66
201
0.85
203
0.42
192
0.40
209
0.64
145
0.46
119
0.46
80
0.44
131
0.60
120
0.40
153
0.45
76
0.45
112
0.41
220
0.39
193
0.50
131
0.55
153
0.81
174
0.69
166
Nwc_Nettwo views0.53
145
0.49
167
0.44
182
0.50
183
0.53
209
0.61
213
0.54
210
0.61
137
0.55
224
0.43
68
0.66
201
0.85
203
0.42
192
0.40
209
0.64
145
0.46
119
0.46
80
0.44
131
0.60
120
0.40
153
0.45
76
0.45
112
0.41
220
0.39
193
0.50
131
0.55
153
0.81
174
0.69
166
FSDtwo views0.53
202
0.53
207
0.53
195
0.53
209
0.52
189
0.53
206
0.75
222
0.40
188
0.80
259
0.59
174
0.55
253
0.62
135
0.64
202
0.66
133
0.55
198
0.52
231
0.68
188
0.62
163
0.69
141
0.70
172
EGLCR-Stereotwo views0.47
127
0.49
167
0.41
166
0.29
101
0.30
127
0.44
163
0.14
73
0.57
113
0.26
93
0.57
144
0.27
72
0.58
134
0.23
88
0.21
94
0.36
62
0.47
130
0.53
127
0.45
141
0.75
158
0.32
97
0.69
183
0.93
220
0.19
103
0.24
102
0.48
119
0.49
137
1.30
259
0.70
172
Anonymous3two views0.79
216
0.59
218
0.42
169
0.37
141
0.42
183
0.57
203
0.50
202
0.80
237
0.64
236
0.68
221
0.49
142
1.48
251
0.54
220
0.31
180
1.53
271
1.42
308
0.88
256
0.82
277
1.45
211
0.69
251
1.31
255
1.30
249
0.40
218
0.40
196
0.74
205
0.86
207
1.03
227
0.71
174
CFNettwo views0.45
120
0.44
124
0.33
123
0.48
178
0.40
174
0.39
143
0.30
164
0.53
93
0.32
148
0.48
89
0.50
147
0.68
162
0.40
188
0.30
173
0.56
108
0.37
68
0.48
95
0.43
126
0.52
81
0.33
99
0.46
83
0.30
57
0.23
152
0.31
149
0.61
169
0.52
145
0.69
141
0.71
174
EKT-Stereotwo views0.75
201
0.64
231
0.54
211
0.59
208
0.47
196
0.60
209
0.73
248
0.71
202
0.29
113
0.63
187
0.66
201
0.73
175
0.30
123
0.26
151
0.86
200
1.22
294
0.68
215
0.76
268
1.46
212
0.60
220
1.75
273
1.74
275
0.21
128
0.32
154
0.93
246
0.81
201
1.06
228
0.72
176
ICVPtwo views0.58
165
0.49
167
0.67
241
0.50
183
0.48
199
0.52
189
0.36
176
0.60
130
0.45
205
0.61
171
0.58
173
0.61
144
0.56
224
0.30
173
0.67
155
0.64
202
0.58
157
0.51
186
0.72
150
0.51
184
0.58
151
0.74
197
0.59
262
0.47
221
0.60
168
0.75
187
0.74
157
0.72
176
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
MLCVtwo views0.70
191
0.49
167
0.53
207
0.73
235
0.50
204
0.65
223
0.43
191
0.81
242
0.41
193
0.71
235
0.88
240
1.01
223
0.81
247
0.28
163
0.92
215
0.43
94
0.65
204
0.52
193
2.47
252
0.45
169
0.55
132
0.72
195
0.39
217
0.54
235
0.69
189
0.80
199
0.83
184
0.72
176
sAnonymous2two views0.58
165
0.41
106
0.31
117
0.29
101
0.29
120
0.45
168
0.29
157
0.71
202
0.41
193
0.48
89
0.53
160
0.51
113
0.43
196
0.23
113
0.86
200
0.84
240
0.70
223
0.67
245
1.34
206
0.60
220
0.83
206
0.98
224
0.30
187
0.35
176
0.62
174
0.72
180
0.72
152
0.73
179
CroCo_RVCtwo views0.58
165
0.41
106
0.31
117
0.29
101
0.29
120
0.45
168
0.29
157
0.71
202
0.41
193
0.48
89
0.53
160
0.51
113
0.43
196
0.23
113
0.86
200
0.84
240
0.70
223
0.67
245
1.34
206
0.60
220
0.83
206
0.98
224
0.30
187
0.35
176
0.62
174
0.72
180
0.72
152
0.73
179
CFNet_pseudotwo views0.51
138
0.44
124
0.43
174
0.54
198
0.43
186
0.53
193
0.34
170
0.62
144
0.36
168
0.61
171
0.64
193
0.57
129
0.52
217
0.35
198
0.90
211
0.50
147
0.50
103
0.47
159
0.67
137
0.36
124
0.47
90
0.42
95
0.26
172
0.33
168
0.57
154
0.60
162
0.68
138
0.73
179
gcap-zeroshottwo views1.75
272
0.44
124
0.89
262
0.59
208
0.36
154
0.55
199
0.29
157
0.74
218
0.29
113
0.74
242
0.76
225
1.18
240
0.33
151
0.24
124
0.78
176
0.97
260
0.61
186
0.53
197
29.80
331
0.80
260
1.04
236
1.45
258
0.23
152
0.34
172
0.75
210
0.99
235
0.96
211
0.75
182
CFNet_RVCtwo views0.51
138
0.51
187
0.47
191
0.50
183
0.48
199
0.48
177
0.32
166
0.53
93
0.37
178
0.51
105
0.65
198
0.57
129
0.34
163
0.30
173
0.69
160
0.44
99
0.52
118
0.47
159
0.57
108
0.42
162
0.56
137
0.49
129
0.27
176
0.35
176
0.65
183
0.74
183
0.80
171
0.75
182
MSMDNettwo views0.73
195
0.52
196
0.48
194
0.35
135
0.34
146
0.45
168
0.33
169
0.69
193
0.30
122
0.63
187
0.60
177
0.71
170
0.35
170
0.23
113
0.78
176
1.05
274
0.63
197
0.50
179
2.88
265
0.81
264
1.59
265
1.80
277
0.23
152
0.29
133
0.74
205
0.89
214
0.85
188
0.76
184
CAStwo views0.38
84
0.45
132
0.25
96
0.29
101
0.29
120
0.23
76
0.13
60
0.41
60
0.27
99
0.41
64
0.54
166
0.35
53
0.35
170
0.21
94
0.52
102
0.38
71
0.50
103
0.34
72
0.52
81
0.26
73
0.43
66
0.41
88
0.19
103
0.23
93
0.51
134
0.52
145
0.62
118
0.77
185
FADNet-RVC-Resampletwo views0.57
163
0.52
196
0.42
169
0.46
175
0.39
169
0.41
151
0.40
186
0.72
209
0.42
200
0.68
221
0.51
153
1.04
229
0.43
196
0.43
225
0.96
226
0.48
136
0.56
144
0.61
231
0.85
172
0.55
198
0.52
120
0.63
169
0.34
201
0.60
245
0.58
158
0.71
177
0.55
92
0.77
185
RPtwo views0.58
165
0.57
216
0.72
246
0.62
216
0.56
217
0.57
203
0.64
234
0.63
158
0.61
232
0.42
66
0.81
233
0.78
191
0.53
219
0.43
225
0.68
158
0.48
136
0.53
127
0.44
131
0.64
127
0.45
169
0.51
110
0.54
151
0.37
211
0.44
211
0.62
174
0.59
159
0.83
184
0.77
185
coex_refinementtwo views0.45
120
0.43
118
0.33
123
0.35
135
0.35
150
0.44
163
0.22
121
0.55
105
0.50
213
0.50
100
0.60
177
0.54
119
0.27
106
0.28
163
0.58
115
0.45
110
0.50
103
0.44
131
0.54
95
0.33
99
0.45
76
0.39
82
0.28
179
0.31
149
0.52
138
0.53
147
0.67
136
0.78
188
DLNR_Zeroshot_testpermissivetwo views17.86
334
67.45
348
1.21
286
81.91
348
0.35
150
0.45
168
74.74
348
0.76
226
0.27
99
0.69
229
0.60
177
1.16
238
0.29
113
8.20
336
84.48
348
102.07
348
23.88
340
15.14
336
7.31
298
0.50
181
4.38
319
2.51
290
0.18
95
0.43
205
0.76
216
0.86
207
0.80
171
0.80
189
PS-NSSStwo views0.60
173
0.81
256
0.44
182
0.89
249
0.54
213
0.71
234
0.63
232
0.64
165
0.38
183
0.64
194
0.41
122
1.52
255
0.47
207
0.41
212
0.59
119
0.42
87
0.52
118
0.45
141
0.94
182
0.42
162
0.44
72
0.29
54
0.36
206
0.34
172
0.63
178
0.69
172
0.70
147
0.80
189
UDGtwo views1.35
257
2.24
300
0.81
254
2.58
292
2.45
306
2.48
295
2.57
298
0.76
226
0.86
257
0.77
251
1.08
256
1.51
253
0.56
224
2.59
306
1.06
240
0.69
216
1.89
299
0.80
276
2.31
243
0.97
276
1.24
251
0.98
224
1.43
300
0.62
248
0.74
205
0.81
201
0.95
208
0.81
191
FADNet-RVCtwo views0.58
165
0.50
182
0.37
141
0.51
189
0.42
183
0.39
143
0.56
214
0.68
186
0.36
168
0.64
194
0.50
147
1.13
237
0.45
202
0.34
192
0.91
212
0.53
164
0.54
129
0.45
141
1.20
202
0.51
184
0.54
130
0.52
146
0.33
199
0.51
229
0.57
154
0.75
187
0.64
125
0.81
191
AACVNettwo views0.55
152
0.47
151
0.40
157
0.58
205
0.61
226
0.53
193
0.37
178
0.61
137
0.40
188
0.59
161
0.64
193
0.58
134
0.33
151
0.36
200
0.69
160
0.54
172
0.58
157
0.54
203
0.69
144
0.52
186
0.54
130
0.52
146
0.36
206
0.44
211
0.59
165
0.69
172
0.82
177
0.83
193
SACVNettwo views0.62
174
0.53
202
0.51
204
0.55
201
0.57
220
0.52
189
0.60
223
0.69
193
0.56
226
0.67
218
0.54
166
0.59
139
0.37
179
0.41
212
0.71
169
0.60
191
0.64
200
0.57
216
0.95
183
0.64
239
0.67
177
0.78
206
0.36
206
0.47
221
0.75
210
0.77
193
0.84
186
0.84
194
DDUNettwo views1.38
258
2.18
298
0.79
252
2.67
295
2.43
305
2.57
296
2.52
297
0.80
237
0.84
256
0.63
187
0.94
245
1.57
258
0.45
202
2.65
310
0.94
221
0.78
234
1.99
301
0.75
265
2.31
243
0.91
272
1.16
246
0.97
223
2.71
308
0.56
238
0.72
198
0.71
177
0.97
214
0.85
195
NOSS_ROBtwo views0.76
205
0.84
265
0.50
200
0.72
233
0.61
226
0.75
241
0.52
205
0.80
237
0.54
220
0.70
232
0.62
189
0.62
152
0.86
250
0.62
266
1.14
249
1.10
280
0.78
238
0.69
254
0.73
151
0.60
220
0.88
212
0.67
183
0.50
240
0.71
257
0.86
239
0.95
224
1.38
267
0.85
195
UCFNet_RVCtwo views0.56
159
0.78
250
0.45
186
0.59
208
0.55
216
0.52
189
0.39
184
0.58
117
0.40
188
0.59
161
0.60
177
0.82
196
0.45
202
0.32
187
0.70
165
0.42
87
0.50
103
0.50
179
0.67
137
0.45
169
0.56
137
0.47
122
0.38
213
0.41
199
0.77
217
0.71
177
0.65
129
0.86
197
XPNet_ROBtwo views0.74
200
0.77
248
0.57
217
0.54
198
0.61
226
0.63
219
0.61
228
0.53
93
0.65
237
0.58
156
0.81
233
2.35
270
0.46
205
0.43
225
0.79
180
0.63
196
0.85
250
0.57
216
0.83
168
0.55
198
0.72
189
1.09
233
0.45
226
0.49
228
0.63
178
0.74
183
1.39
268
0.86
197
stereogantwo views0.67
182
0.67
237
0.62
228
0.68
229
0.73
251
0.75
241
0.64
234
0.70
199
0.57
227
0.51
105
0.64
193
1.08
231
0.62
233
0.44
228
0.83
190
0.55
174
0.56
144
0.51
186
0.91
177
0.59
215
0.59
155
0.69
188
0.47
229
0.46
218
0.59
165
0.67
171
1.16
241
0.87
199
iResNettwo views0.92
228
0.56
211
0.62
228
0.72
233
0.68
240
0.96
256
0.55
212
0.95
258
0.57
227
0.67
218
0.82
238
1.41
250
1.51
272
0.31
180
1.49
270
0.66
211
0.75
235
0.67
245
4.08
280
0.68
248
0.72
189
0.63
169
0.41
220
0.83
273
0.72
198
0.91
218
1.02
225
0.87
199
GANet-ADLtwo views0.70
191
0.59
218
0.52
205
0.60
211
0.57
220
0.61
213
0.46
195
0.68
186
0.52
216
0.65
199
0.67
208
0.76
187
0.43
196
0.39
206
1.08
243
0.79
237
0.68
215
0.52
193
1.84
229
0.64
239
0.66
173
0.86
214
0.42
223
0.43
205
0.70
192
0.87
210
0.97
214
0.89
201
RAFT-Testtwo views0.72
194
0.50
182
0.46
187
0.52
192
0.34
146
0.41
151
0.29
157
0.73
213
0.30
122
0.62
181
0.72
218
0.68
162
0.31
136
0.22
100
0.71
169
1.03
272
0.62
192
0.50
179
2.89
266
0.66
242
1.72
270
1.14
239
0.23
152
0.29
133
0.80
226
0.96
227
0.95
208
0.91
202
PMTNettwo views0.48
131
0.48
164
0.43
174
0.31
115
0.30
127
0.27
91
0.22
121
0.54
98
0.29
113
0.57
144
0.39
117
0.59
139
0.23
88
0.23
113
0.64
145
0.59
189
0.57
153
0.37
90
1.17
199
0.33
99
0.67
177
0.40
85
0.20
119
0.21
67
0.79
222
0.59
159
0.65
129
0.92
203
pcwnet_v2two views0.62
174
0.46
144
0.50
200
0.62
216
0.49
203
0.61
213
0.46
195
0.66
176
0.45
205
0.65
199
0.79
228
0.64
154
0.86
250
0.53
249
1.15
250
0.55
174
0.59
171
0.51
186
0.83
168
0.41
156
0.55
132
0.47
122
0.34
201
0.43
205
0.75
210
0.76
190
0.85
188
0.95
204
DAStwo views0.95
234
0.61
225
0.48
194
0.78
242
0.61
226
0.68
229
0.59
219
0.84
248
0.93
266
0.65
199
1.58
279
1.66
260
1.06
254
0.34
192
0.95
223
0.92
250
0.92
262
0.73
261
1.77
225
1.03
281
1.73
271
1.11
234
0.47
229
0.92
279
0.93
246
1.00
237
1.39
268
0.96
205
SepStereotwo views0.95
234
0.61
225
0.48
194
0.78
242
0.61
226
0.68
229
0.59
219
0.84
248
0.93
266
0.65
199
1.58
279
1.66
260
1.06
254
0.34
192
0.95
223
0.92
250
0.92
262
0.73
261
1.77
225
1.03
281
1.73
271
1.11
234
0.47
229
0.92
279
0.93
246
1.00
237
1.39
268
0.96
205
XQCtwo views1.03
243
0.90
268
0.71
245
0.91
252
0.92
266
0.92
255
0.86
259
1.06
275
0.90
263
0.84
268
1.11
262
1.03
225
1.30
269
0.71
277
2.04
294
0.95
255
0.87
252
0.67
245
1.64
222
0.78
258
1.00
233
1.67
272
0.62
265
0.73
261
1.09
271
1.47
283
1.26
255
0.97
207
NCC-stereotwo views0.67
182
0.63
229
0.59
220
0.64
220
0.65
234
0.63
219
0.69
245
0.67
179
0.74
246
0.43
68
0.81
233
0.82
196
0.70
241
0.47
233
0.82
188
0.53
164
0.58
157
0.64
237
0.80
165
0.54
193
0.56
137
0.60
161
0.53
251
0.45
216
0.75
210
0.96
227
0.92
202
0.98
208
Abc-Nettwo views0.67
182
0.63
229
0.59
220
0.64
220
0.65
234
0.63
219
0.69
245
0.67
179
0.74
246
0.43
68
0.81
233
0.82
196
0.70
241
0.47
233
0.82
188
0.53
164
0.58
157
0.64
237
0.80
165
0.54
193
0.56
137
0.60
161
0.53
251
0.45
216
0.75
210
0.96
227
0.92
202
0.98
208
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
STTStereotwo views0.53
145
0.56
211
0.54
211
0.44
172
0.52
208
0.43
160
0.59
219
0.52
89
0.46
209
0.47
83
0.55
168
0.71
170
0.42
192
0.56
255
0.87
206
0.44
99
0.49
98
0.51
186
0.54
95
0.37
130
0.51
110
0.40
85
0.32
197
0.35
176
0.52
138
0.66
170
0.68
138
0.99
210
GANetREF_RVCpermissivetwo views0.77
213
0.74
247
0.68
243
0.76
239
0.65
234
0.69
231
0.60
223
0.99
265
0.73
243
0.93
276
0.52
156
1.33
247
0.72
243
0.44
228
0.85
198
0.57
181
0.67
213
0.63
233
1.13
197
0.61
229
0.77
197
0.63
169
0.59
262
0.71
257
0.89
241
0.90
216
1.15
238
0.99
210
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
cross-rafttwo views0.73
195
0.56
211
0.46
187
0.43
167
0.33
137
0.40
149
0.27
145
0.73
213
0.33
153
0.65
199
0.60
177
0.74
178
0.30
123
0.23
113
0.76
175
0.96
258
0.63
197
0.48
165
2.91
267
0.59
215
1.81
276
1.31
250
0.22
142
0.32
154
0.82
230
0.94
223
0.93
204
1.01
212
CASStwo views0.79
216
0.55
206
0.53
207
0.65
223
0.54
213
0.59
207
0.53
206
0.78
234
0.52
216
0.71
235
0.75
224
0.67
160
0.47
207
0.28
163
0.83
190
0.67
212
0.98
268
0.56
211
1.60
220
0.58
211
2.74
291
1.44
256
0.38
213
0.35
176
0.84
236
0.81
201
0.90
198
1.02
213
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
ACV-stereotwo views8.39
327
1.01
279
0.97
267
1.29
276
0.73
251
1.48
285
0.95
268
0.88
254
1.10
277
1.07
287
1.33
271
1.06
230
23.12
329
0.52
246
4.00
324
3.78
326
1.05
273
0.79
274
168.94
347
1.91
316
3.64
312
1.44
256
0.72
269
0.74
264
0.74
205
0.90
216
1.43
275
1.03
214
HSM-Net_RVCpermissivetwo views0.75
201
0.53
202
0.60
225
0.77
240
0.62
232
0.61
213
0.37
178
0.76
226
0.49
212
0.74
242
1.71
285
1.32
246
0.80
246
0.36
200
0.72
172
0.55
174
0.64
200
0.53
197
0.78
163
0.53
187
0.67
177
0.89
218
0.43
224
0.64
251
0.94
249
1.09
251
1.07
229
1.04
215
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
HBP-ISPtwo views1.60
265
0.86
267
0.90
263
0.98
258
0.69
242
0.85
248
0.56
214
0.89
255
0.48
211
0.82
265
0.79
228
0.97
218
0.36
175
0.69
275
11.97
335
5.83
331
0.70
223
0.67
245
0.70
146
0.62
233
1.05
238
5.90
323
0.50
240
0.62
248
0.82
230
1.01
240
2.01
296
1.06
216
FADNettwo views0.65
178
0.55
206
0.41
166
0.53
195
0.42
183
0.49
179
0.65
239
0.74
218
0.42
200
0.66
209
0.64
193
0.81
194
0.50
212
0.36
200
1.17
252
0.51
154
0.51
114
0.53
197
1.61
221
0.53
187
0.69
183
0.59
157
0.35
205
0.41
199
0.72
198
0.88
212
0.78
169
1.06
216
Reg-Stereo(zero)two views0.78
214
0.47
151
0.56
215
0.39
147
0.28
113
0.41
151
0.35
172
0.75
222
0.36
168
0.62
181
6.09
321
0.78
191
0.32
145
0.27
160
0.41
76
0.63
196
0.58
157
0.45
141
1.51
213
0.42
162
0.65
170
0.62
167
0.21
128
0.32
154
0.55
149
0.78
194
1.26
255
1.09
218
HItwo views0.78
214
0.47
151
0.56
215
0.39
147
0.28
113
0.41
151
0.35
172
0.75
222
0.36
168
0.62
181
6.09
321
0.78
191
0.32
145
0.27
160
0.41
76
0.63
196
0.58
157
0.45
141
1.51
213
0.42
162
0.65
170
0.62
167
0.21
128
0.32
154
0.55
149
0.78
194
1.26
255
1.09
218
DCVSM-stereotwo views1.13
248
0.66
235
0.79
252
0.89
249
0.65
234
1.15
270
0.73
248
0.95
258
0.82
255
1.04
286
4.18
308
3.75
293
1.45
270
0.49
236
0.83
190
0.86
243
0.69
221
0.60
229
2.08
236
0.87
269
1.06
240
0.77
203
0.84
279
0.72
260
0.74
205
0.89
214
0.98
217
1.09
218
TRStereotwo views0.75
201
0.83
261
1.19
284
0.56
202
0.34
146
1.42
283
0.48
198
0.68
186
0.28
106
0.65
199
0.46
135
1.10
234
0.27
106
0.22
100
0.70
165
0.85
242
0.57
153
0.48
165
1.85
230
0.50
181
0.73
192
0.87
215
0.18
95
0.27
122
0.78
219
1.22
264
1.78
290
1.09
218
R-Stereo Traintwo views0.66
179
0.55
206
0.43
174
0.48
178
0.36
154
0.50
183
0.18
96
0.62
144
0.31
140
0.68
221
0.62
189
0.72
172
0.34
163
0.25
140
0.69
160
0.89
245
0.66
207
0.51
186
2.12
237
0.46
174
0.94
224
1.49
262
0.22
142
0.36
183
0.71
195
0.96
227
0.77
164
1.10
222
RAFT-Stereopermissivetwo views0.66
179
0.55
206
0.43
174
0.48
178
0.36
154
0.50
183
0.18
96
0.62
144
0.31
140
0.68
221
0.62
189
0.72
172
0.34
163
0.25
140
0.69
160
0.89
245
0.66
207
0.51
186
2.12
237
0.46
174
0.94
224
1.49
262
0.22
142
0.36
183
0.71
195
0.96
227
0.77
164
1.10
222
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
LALA_ROBtwo views0.86
224
0.97
275
0.67
241
0.63
218
0.69
242
0.83
247
0.67
242
0.70
199
0.80
251
0.68
221
1.10
259
2.61
273
0.58
230
0.51
242
1.11
246
0.67
212
0.86
251
0.72
258
0.89
175
0.67
246
0.80
201
1.00
227
0.49
236
0.59
243
0.73
203
0.92
219
1.16
241
1.10
222
HHtwo views0.84
220
0.34
67
0.99
269
0.42
162
0.36
154
0.51
186
0.42
189
0.69
193
0.34
158
0.65
199
0.38
111
1.03
225
0.26
99
0.28
163
0.66
149
1.37
302
0.61
186
0.53
197
2.39
248
0.60
220
3.55
310
1.64
269
0.25
163
0.33
168
0.83
232
1.05
247
1.09
232
1.12
225
HanStereotwo views0.84
220
0.34
67
0.99
269
0.42
162
0.36
154
0.51
186
0.42
189
0.69
193
0.34
158
0.65
199
0.38
111
1.03
225
0.26
99
0.28
163
0.66
149
1.37
302
0.61
186
0.53
197
2.39
248
0.60
220
3.55
310
1.64
269
0.25
163
0.33
168
0.83
232
1.05
247
1.09
232
1.12
225
GEStereo_RVCtwo views0.71
193
0.59
218
0.40
157
0.54
198
0.50
204
0.61
213
0.51
203
0.71
202
0.41
193
0.59
161
0.51
153
0.76
187
0.46
205
0.39
206
0.96
226
0.92
250
0.78
238
0.75
265
1.94
232
0.62
233
0.80
201
1.37
253
0.31
192
0.52
231
0.61
169
0.63
164
0.86
193
1.12
225
FADNet_RVCtwo views0.92
228
0.69
240
0.55
214
0.88
248
0.75
257
0.54
197
0.51
203
0.77
231
0.54
220
0.70
232
0.96
248
1.36
248
1.06
254
0.54
250
1.85
289
0.64
202
0.80
243
0.90
281
3.34
273
0.76
256
1.00
233
1.13
237
0.37
211
0.60
245
0.66
184
0.87
210
0.97
214
1.14
228
NCCL2two views0.69
188
0.73
246
0.66
238
0.57
204
0.56
217
0.51
186
0.45
193
0.70
199
0.57
227
0.68
221
0.71
213
0.66
158
0.48
210
0.39
206
0.93
217
0.72
222
0.65
204
0.57
216
0.76
161
0.57
208
0.74
194
0.88
216
0.49
236
0.60
245
0.98
255
0.95
224
0.85
188
1.16
229
EAI-Stereotwo views0.75
201
0.49
167
0.50
200
0.51
189
0.46
192
0.56
202
0.60
223
0.73
213
0.32
148
0.63
187
0.72
218
0.82
196
0.26
99
0.24
124
1.05
238
0.96
258
0.60
178
0.49
173
3.00
268
0.62
233
0.82
204
1.13
237
0.19
103
0.31
149
0.78
219
0.70
176
1.55
280
1.17
230
ETE_ROBtwo views0.87
225
0.90
268
0.58
219
0.67
226
0.69
242
0.85
248
0.60
223
0.66
176
0.89
262
0.64
194
1.09
257
2.63
274
0.54
220
0.54
250
1.00
233
0.72
222
0.91
260
0.63
233
0.99
187
0.66
242
0.88
212
1.08
232
0.50
240
0.59
243
0.78
219
0.92
219
1.48
278
1.17
230
RGCtwo views0.76
205
0.72
244
0.99
269
0.70
230
0.71
249
0.76
244
0.57
217
0.74
218
0.74
246
0.56
140
0.96
248
0.83
200
0.85
249
0.56
255
0.93
217
0.60
191
0.62
192
0.56
211
0.93
179
0.61
229
0.66
173
0.71
191
0.51
248
0.56
238
0.81
227
1.01
240
0.99
218
1.19
232
CC-Net-ROBtwo views0.96
237
1.18
286
0.70
244
1.56
285
1.06
276
1.63
289
1.20
279
0.79
235
0.61
232
0.81
262
0.56
169
3.07
282
0.57
228
0.85
286
0.68
158
0.44
99
0.71
229
0.63
233
1.40
210
0.57
208
0.58
151
0.43
102
1.91
304
0.46
218
0.83
232
0.83
205
0.77
164
1.20
233
ccs_robtwo views1.25
253
0.79
252
0.64
234
0.86
246
0.60
225
0.89
253
0.83
256
0.99
265
0.51
215
0.77
251
6.27
326
5.90
306
1.10
258
0.51
242
1.08
243
1.10
280
0.68
215
0.66
243
1.15
198
0.70
252
1.56
263
1.66
271
0.50
240
0.54
235
0.69
189
0.78
194
0.86
193
1.20
233
SHDtwo views0.97
239
0.56
211
0.73
247
0.75
236
0.69
242
0.66
226
0.61
228
0.99
265
0.94
269
0.77
251
1.00
251
0.94
213
1.29
267
0.54
250
2.21
304
0.98
263
0.95
265
0.70
255
2.01
234
0.80
260
1.12
244
1.71
273
0.47
229
0.77
269
0.91
243
1.01
240
0.91
199
1.22
235
RTSCtwo views0.73
195
0.49
167
0.46
187
0.47
177
0.51
207
0.55
199
0.56
214
0.67
179
0.68
240
0.54
124
0.79
228
0.57
129
0.57
228
0.41
212
1.92
291
0.77
231
0.96
267
0.58
221
1.36
209
0.56
203
0.85
211
1.11
234
0.31
192
0.53
234
0.58
158
0.65
169
0.95
208
1.26
236
AMNettwo views1.02
242
0.98
276
0.95
265
0.98
258
1.01
271
1.03
261
0.96
269
0.87
251
0.93
266
0.97
282
1.02
253
1.10
234
0.74
244
1.06
294
0.99
232
1.09
279
1.17
277
1.04
293
1.08
190
1.05
283
1.13
245
1.04
230
0.82
278
0.98
285
1.01
264
1.07
249
1.20
247
1.27
237
PA-Nettwo views0.64
177
0.67
237
0.66
238
0.50
183
0.66
239
0.50
183
0.64
234
0.65
172
0.73
243
0.54
124
0.52
156
0.58
134
0.58
230
0.59
265
0.93
217
0.57
181
0.46
80
0.54
203
0.61
124
0.54
193
0.49
100
0.66
178
0.36
206
0.52
231
0.64
181
1.24
265
0.64
125
1.32
238
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
DDVStwo views2.32
282
0.70
241
0.82
256
0.70
230
0.74
255
0.73
236
0.59
219
1.09
277
0.88
259
0.80
259
34.26
342
3.93
295
1.16
261
0.52
246
1.09
245
1.35
299
0.73
232
0.65
241
1.95
233
0.95
273
1.67
269
2.27
286
0.48
234
0.56
238
0.69
189
0.84
206
1.21
248
1.35
239
SFCPSMtwo views3.03
299
0.82
259
0.63
232
0.77
240
0.69
242
0.72
235
0.63
232
0.83
246
0.98
272
0.71
235
2.00
292
2.57
271
3.49
296
0.56
255
1.16
251
0.93
254
0.74
233
0.64
237
54.48
343
1.19
293
0.88
212
0.91
219
0.55
257
0.55
237
0.94
249
0.93
222
1.11
236
1.39
240
RTStwo views1.09
245
0.59
218
0.59
220
0.60
211
0.58
223
0.96
256
0.90
261
0.80
237
0.88
259
0.59
161
0.71
213
1.28
244
0.62
233
0.51
242
2.04
294
0.98
263
1.19
278
0.77
270
2.33
245
0.85
267
0.96
228
1.16
240
0.49
236
0.65
253
1.23
278
4.43
326
1.15
238
1.45
241
RTSAtwo views1.09
245
0.59
218
0.59
220
0.60
211
0.58
223
0.96
256
0.90
261
0.80
237
0.88
259
0.59
161
0.71
213
1.28
244
0.62
233
0.51
242
2.04
294
0.98
263
1.19
278
0.77
270
2.33
245
0.85
267
0.96
228
1.16
240
0.49
236
0.65
253
1.23
278
4.43
326
1.15
238
1.45
241
anonymitytwo views3.27
303
0.41
106
1.09
281
0.58
205
0.41
180
0.47
175
0.30
164
0.79
235
0.33
153
0.61
171
69.49
346
0.85
203
0.30
123
0.24
124
0.59
119
1.02
271
0.60
178
0.43
126
1.35
208
0.60
220
0.73
192
1.82
278
0.24
160
0.29
133
1.00
261
1.24
265
1.08
230
1.47
243
SGM-Foresttwo views0.73
195
0.71
243
0.40
157
1.13
265
0.64
233
0.74
240
0.45
193
0.68
186
0.39
186
0.61
171
0.44
128
1.16
238
1.06
254
0.49
236
0.86
200
0.61
194
0.55
138
0.46
153
0.68
139
0.44
167
0.61
157
0.49
129
0.45
226
0.44
211
0.90
242
0.86
207
1.95
294
1.47
243
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
IGEV-FEtwo views0.94
232
0.47
151
1.24
289
1.15
267
0.46
192
0.60
209
0.65
239
0.81
242
0.36
168
0.67
218
1.75
286
0.94
213
0.30
123
0.26
151
0.66
149
1.14
284
0.60
178
0.48
165
2.55
254
0.63
237
2.19
281
2.33
287
0.21
128
0.37
188
1.00
261
1.03
245
1.17
243
1.48
245
IGEV_Zeroshot_testtwo views0.95
234
0.47
151
1.24
289
1.15
267
0.46
192
0.60
209
0.65
239
0.81
242
0.36
168
0.66
209
1.86
290
0.94
213
0.30
123
0.26
151
0.66
149
1.14
284
0.60
178
0.48
165
2.56
255
0.63
237
2.23
283
2.36
288
0.21
128
0.37
188
1.00
261
1.03
245
1.17
243
1.48
245
FC-DCNNcopylefttwo views0.88
226
0.96
273
1.23
288
1.36
280
0.93
267
1.26
278
0.82
254
0.91
256
0.78
249
0.87
272
0.63
192
1.08
231
0.42
192
0.56
255
0.88
208
0.69
216
0.81
246
0.68
251
0.81
167
0.59
215
0.78
198
0.59
157
0.50
240
0.77
269
1.11
272
0.99
235
1.21
248
1.57
247
test-1two views0.84
220
0.34
67
0.50
200
0.37
141
0.40
174
0.60
209
0.37
178
0.73
213
0.38
183
0.68
221
0.71
213
1.08
231
0.40
188
0.25
140
0.79
180
0.91
249
0.63
197
0.58
221
2.22
241
0.58
211
1.17
247
3.78
307
0.22
142
0.36
183
0.81
227
1.15
258
1.10
235
1.59
248
MSKI-zero shottwo views0.84
220
0.49
167
0.43
174
0.41
158
0.35
150
0.46
174
0.32
166
0.76
226
0.30
122
0.65
199
0.92
244
0.83
200
0.32
145
0.22
100
0.62
135
1.08
277
0.64
200
0.47
159
3.14
272
0.61
229
2.23
283
1.58
267
0.20
119
0.38
191
0.96
253
1.47
283
1.24
253
1.60
249
MFMNet_retwo views1.51
261
1.18
286
1.12
283
1.29
276
1.16
282
1.63
289
1.32
282
1.30
285
1.63
296
1.14
292
1.38
273
2.64
275
1.63
276
0.90
290
2.27
309
1.35
299
1.58
290
1.32
313
3.69
275
1.24
296
2.10
279
1.26
248
1.16
290
1.24
302
1.11
272
1.02
244
1.59
282
1.60
249
CSANtwo views0.93
231
0.83
261
0.75
249
0.86
246
0.82
260
0.73
236
0.61
228
0.97
264
0.94
269
0.94
280
0.73
223
1.96
265
1.56
273
0.49
236
0.98
229
0.63
196
0.74
233
0.66
243
1.09
191
0.71
253
0.78
198
0.63
169
0.53
251
0.76
266
0.98
255
1.49
287
1.21
248
1.63
251
NaN_ROBtwo views0.73
195
0.59
218
0.61
227
0.64
220
0.78
259
0.53
193
0.48
198
0.87
251
0.63
235
0.73
241
0.61
184
1.96
265
0.62
233
0.45
230
0.84
194
0.55
174
0.56
144
0.54
203
0.73
151
0.55
198
0.52
120
0.51
141
0.38
213
0.64
251
0.83
232
1.11
254
0.94
206
1.64
252
Any-RAFTtwo views0.69
188
0.47
151
0.85
258
0.53
195
0.40
174
0.38
141
0.27
145
0.64
165
0.32
148
0.57
144
0.76
225
0.86
207
0.24
95
0.22
100
0.57
111
0.76
229
0.60
178
0.45
141
2.19
239
0.45
169
1.20
248
0.71
191
0.22
142
0.31
149
0.99
258
1.24
265
0.73
155
1.65
253
DPSNettwo views2.61
288
0.83
261
0.77
251
1.21
273
1.24
285
1.34
281
0.93
265
1.08
276
1.49
293
0.78
255
0.86
239
6.91
312
3.85
297
0.58
263
4.58
326
2.54
323
1.43
288
1.24
305
14.95
322
1.34
299
4.83
324
8.01
329
1.75
303
1.40
308
1.47
292
1.95
300
1.60
284
1.66
254
FBW_ROBtwo views1.34
256
1.42
292
1.08
280
2.01
291
1.42
292
1.37
282
1.63
287
0.99
265
0.70
241
0.72
238
1.02
253
2.05
268
0.91
252
1.47
301
1.24
255
0.60
191
0.88
256
0.65
241
6.08
293
0.59
215
1.06
240
0.81
209
1.48
301
1.12
296
0.99
258
1.20
261
0.99
218
1.66
254
MFN_U_SF_RVCtwo views1.68
270
1.06
281
0.88
261
1.25
274
1.01
271
1.53
286
2.07
292
1.38
290
1.17
279
1.51
312
2.95
301
2.00
267
1.57
274
2.05
304
2.38
314
0.98
263
0.87
252
0.82
277
6.78
297
1.11
288
2.21
282
2.38
289
0.65
266
1.11
295
1.23
278
1.33
277
1.28
258
1.69
256
GwcNet-ADLtwo views0.97
239
0.83
261
0.81
254
0.91
252
0.68
240
0.70
232
0.53
206
0.77
231
0.50
213
0.72
238
5.46
317
1.20
241
0.65
238
0.46
232
0.81
185
0.95
255
0.72
231
0.56
211
1.26
204
0.71
253
0.67
177
0.78
206
0.59
262
0.56
238
0.79
222
0.98
233
0.85
188
1.75
257
DGSMNettwo views2.66
291
0.96
273
1.36
298
1.03
260
0.99
270
1.12
269
1.05
272
1.36
288
0.94
269
2.15
327
13.54
338
1.71
262
1.85
278
0.93
291
2.50
317
3.85
328
5.34
320
1.61
320
5.07
284
1.68
313
7.04
329
8.02
330
0.96
288
1.19
301
1.01
264
1.33
277
1.40
272
1.88
258
FC-DCNN v2copylefttwo views0.94
232
0.98
276
1.28
294
1.47
284
0.95
269
1.33
280
0.82
254
1.05
272
0.80
251
0.87
272
0.66
201
1.11
236
0.67
240
0.56
255
0.91
212
0.69
216
0.81
246
0.68
251
0.83
168
0.59
215
0.78
198
0.59
157
0.50
240
0.78
271
1.25
283
1.09
251
1.35
264
1.89
259
SPS-STEREOcopylefttwo views1.93
277
1.27
290
1.21
286
1.60
287
1.34
290
1.44
284
1.17
277
1.66
301
1.36
289
1.38
306
3.67
306
3.02
281
1.29
267
1.05
293
1.85
289
1.83
318
1.58
290
1.37
315
8.86
306
1.34
299
3.07
301
1.47
260
1.27
296
1.37
305
1.42
291
1.28
271
2.02
297
1.89
259
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
XX-Stereotwo views9.49
330
0.38
90
0.36
137
0.63
218
0.28
113
0.54
197
0.28
150
0.69
193
0.28
106
0.69
229
6.24
325
1.00
220
0.29
113
0.23
113
0.70
165
1.08
277
0.60
178
0.52
193
1.58
218
0.53
187
0.76
196
0.65
175
0.18
95
0.26
119
233.61
349
0.88
212
1.01
224
1.90
261
LG-Stereo_Zeroshottwo views0.66
179
0.37
82
0.23
88
0.51
189
0.74
255
0.89
253
0.49
201
0.62
144
0.26
93
1.60
318
0.31
87
2.57
271
0.26
99
0.22
100
0.46
88
0.48
136
0.58
157
0.45
141
0.93
179
0.37
130
0.63
162
0.71
191
0.19
103
0.23
93
0.58
158
0.49
137
0.89
197
1.91
262
dadtwo views0.89
227
0.57
216
0.37
141
1.42
281
0.65
234
0.75
241
2.23
296
1.43
291
0.36
168
0.93
276
0.38
111
0.85
203
0.76
245
0.32
187
0.97
228
0.52
162
0.78
238
0.45
141
1.87
231
0.41
156
0.74
194
0.41
88
0.30
187
0.47
221
1.15
276
0.47
127
2.64
312
1.96
263
s12784htwo views0.62
174
0.68
239
0.47
191
0.65
223
0.44
188
0.34
125
0.24
134
0.61
137
0.31
140
0.60
167
0.44
128
0.81
194
0.55
222
0.25
140
0.62
135
0.50
147
0.62
192
0.38
94
0.74
157
0.36
124
1.26
252
0.47
122
0.18
95
0.30
141
0.70
192
0.74
183
1.39
268
2.07
264
ACVNet_1two views2.47
287
3.23
318
2.35
314
4.40
317
2.93
319
3.77
314
3.96
316
1.34
286
1.18
280
1.21
296
1.02
253
3.31
288
2.07
281
3.09
318
1.31
259
0.70
220
2.26
308
1.10
299
9.52
308
1.14
289
3.45
309
1.18
243
4.50
318
1.07
291
1.39
290
1.75
295
1.36
266
2.10
265
PVDtwo views1.47
259
1.04
280
1.44
299
1.10
263
1.09
280
1.19
272
1.07
273
1.91
311
2.05
305
0.79
258
1.49
277
1.54
256
1.91
280
0.89
289
2.26
308
1.35
299
1.39
285
1.09
298
2.41
251
1.14
289
1.51
262
1.98
280
0.79
274
1.08
293
1.49
294
1.82
296
1.67
285
2.10
265
PWC_ROBbinarytwo views1.18
250
0.70
241
1.06
277
0.60
211
0.71
249
0.70
232
0.98
270
0.83
246
1.55
295
0.76
249
1.40
274
1.00
220
2.46
290
0.57
260
2.17
302
0.99
267
1.15
276
0.90
281
2.37
247
0.95
273
1.63
267
2.05
281
0.44
225
0.98
285
0.81
227
0.80
199
1.24
253
2.15
267
AIO-Stereo-zeroshot1permissivetwo views5.67
316
0.56
211
1.25
291
0.75
236
0.69
242
1.17
271
0.81
253
0.82
245
0.80
251
0.81
262
4.78
311
1.00
220
0.37
179
0.27
160
1.13
248
1.54
311
0.70
223
0.60
229
124.50
346
0.54
193
1.43
260
2.64
292
0.22
142
0.36
183
0.91
243
1.13
256
1.13
237
2.18
268
S-Stereotwo views1.54
262
0.81
256
0.83
257
1.15
267
1.16
282
1.29
279
1.56
285
1.02
270
1.09
276
1.25
299
4.20
309
4.10
298
1.10
258
0.66
271
2.16
301
1.63
313
0.90
259
1.05
294
2.20
240
1.10
286
1.26
252
3.12
299
1.31
299
1.17
300
0.84
236
1.18
260
1.21
248
2.18
268
model_zeroshottwo views0.80
219
0.46
144
0.42
169
0.42
162
0.39
169
0.43
160
0.27
145
0.72
209
0.36
168
0.64
194
0.66
201
0.97
218
0.29
113
0.24
124
1.05
238
0.92
250
0.69
221
0.54
203
3.03
269
0.73
255
1.21
249
1.20
244
0.22
142
0.38
191
0.84
236
1.14
257
1.08
230
2.21
270
Ntrotwo views2.32
282
3.40
323
1.53
301
3.55
310
2.52
308
3.71
312
3.36
307
1.11
278
1.05
274
1.16
293
0.90
242
2.93
280
1.24
264
2.72
312
1.00
233
0.64
202
1.40
286
0.82
277
10.96
313
1.14
289
2.72
290
3.19
300
4.26
315
0.73
261
1.24
281
1.59
291
1.56
281
2.31
271
SQANettwo views1.90
276
2.70
305
1.03
274
3.09
302
2.17
300
3.29
301
2.70
300
0.95
258
0.65
237
1.00
284
0.71
213
2.69
276
1.10
258
2.30
305
0.78
176
0.55
174
1.02
270
0.72
258
9.92
310
0.68
248
2.11
280
1.25
246
3.28
309
0.58
242
0.98
255
1.31
274
1.33
262
2.34
272
ACVNet_2two views3.17
300
2.98
312
2.25
313
4.72
318
2.88
316
3.50
303
3.48
309
1.58
299
1.33
285
1.29
302
1.10
259
3.22
285
2.45
289
2.67
311
1.29
257
0.86
243
7.26
324
1.02
291
22.14
326
1.37
301
3.22
304
1.25
246
4.24
313
1.37
305
1.93
302
1.92
297
1.83
291
2.36
273
MonStereo1two views2.61
288
2.91
310
1.70
304
3.94
314
3.77
326
3.57
307
3.72
315
1.55
296
1.64
297
1.43
308
1.63
282
4.85
303
5.63
307
2.99
315
1.35
261
0.90
247
1.99
301
1.31
310
5.93
289
1.75
315
2.96
297
1.93
279
4.83
322
0.93
282
1.31
285
1.08
250
2.49
308
2.38
274
PSMNet_ROBtwo views2.71
292
3.39
322
1.92
309
2.87
299
2.04
298
4.01
317
3.50
311
1.46
292
1.41
290
1.59
317
3.34
302
3.52
289
4.97
301
4.50
325
1.61
276
0.95
255
1.87
298
1.06
295
8.62
303
1.63
311
2.32
285
1.51
264
5.43
329
1.37
305
1.98
306
1.94
299
1.91
293
2.39
275
AIO-Stereo-zeroshotpermissivetwo views1.21
251
0.49
167
1.28
294
0.75
236
0.41
180
1.04
263
0.67
242
0.77
231
0.52
216
0.78
255
5.67
320
1.03
225
0.35
170
0.26
151
0.86
200
1.39
306
0.68
215
0.70
255
2.61
259
0.64
239
2.89
295
2.21
284
0.19
103
0.43
205
1.03
267
1.15
258
1.35
264
2.41
276
MaskLacGwcNet_RVCtwo views8.29
325
0.65
232
1.07
279
0.94
257
0.83
261
0.81
246
1.27
281
0.85
250
0.73
243
0.93
276
6.13
323
180.62
347
2.17
282
1.33
300
1.22
254
1.01
269
0.93
264
1.06
295
6.32
296
0.79
259
3.32
308
3.77
306
0.55
257
0.76
266
0.95
251
1.34
279
1.19
246
2.42
277
ACVNet-4btwo views2.35
286
2.75
308
1.60
303
3.13
303
2.29
302
3.52
305
3.67
313
1.35
287
1.35
287
1.27
300
0.72
218
3.26
286
2.62
293
3.04
316
0.98
229
0.78
234
2.13
304
1.02
291
9.04
307
1.23
295
2.74
291
3.39
304
4.08
312
0.92
279
1.24
281
1.29
272
1.46
277
2.48
278
otakutwo views2.33
285
3.05
315
1.19
284
3.36
309
2.37
303
3.56
306
3.08
305
1.05
272
0.98
272
1.13
289
0.80
232
2.88
278
1.62
275
2.59
306
0.95
223
0.64
202
1.23
281
0.75
265
13.16
318
1.09
285
2.47
286
2.63
291
4.75
319
0.75
265
1.13
274
1.38
280
1.69
286
2.52
279
SAMSARAtwo views1.50
260
0.79
252
1.00
273
0.93
255
0.88
264
0.86
251
0.93
265
1.57
298
1.25
282
0.96
281
1.09
257
1.27
242
2.59
291
0.83
284
2.58
318
1.19
292
1.04
271
0.91
284
2.56
255
0.99
279
1.77
275
2.23
285
0.56
259
0.98
285
2.63
308
2.81
313
2.62
311
2.56
280
Deantwo views2.84
296
3.23
318
1.81
306
6.04
321
3.38
325
3.63
309
3.67
313
1.88
309
1.97
304
1.47
309
1.30
267
3.69
292
4.10
299
2.97
314
1.45
265
0.97
260
2.41
309
1.29
308
5.94
290
1.74
314
3.20
303
4.23
311
4.79
321
1.55
313
2.65
309
2.27
307
2.56
309
2.64
281
iRaft-Stereo_20wtwo views1.06
244
0.49
167
1.34
297
1.18
270
0.46
192
0.78
245
0.46
195
0.76
226
0.37
178
0.74
242
6.16
324
0.84
202
0.29
113
0.26
151
0.81
185
0.97
260
0.59
171
0.44
131
1.72
223
0.61
229
1.04
236
1.56
266
0.21
128
0.25
113
0.92
245
1.31
274
1.45
276
2.71
282
MADNet+two views1.96
278
1.18
286
1.26
292
1.45
282
1.28
286
1.10
267
2.21
294
1.88
309
1.41
290
1.33
304
1.32
269
2.29
269
2.23
283
1.25
299
4.58
326
1.87
319
2.55
311
1.13
302
2.73
261
1.63
311
3.69
313
3.33
302
1.26
292
2.09
327
1.93
302
1.47
283
1.59
282
2.77
283
MSC_U_SF_DS_RVCtwo views1.67
269
1.25
289
1.05
275
1.56
285
1.08
278
1.20
273
3.18
306
1.50
294
2.10
307
1.30
303
0.98
250
1.50
252
1.04
253
1.66
302
1.71
280
1.18
290
0.84
249
1.01
290
6.24
294
1.15
292
1.43
260
3.23
301
1.19
291
1.14
297
1.52
295
1.29
272
1.09
232
2.78
284
edge stereotwo views1.82
273
1.16
285
2.22
312
1.46
283
1.28
286
1.58
287
1.38
284
1.67
304
1.30
284
1.20
295
3.42
305
4.33
300
2.26
286
0.80
282
1.41
263
1.46
309
1.05
273
0.83
280
5.42
287
0.97
276
1.34
257
3.76
305
0.95
287
0.88
277
1.26
284
1.20
261
1.70
287
2.91
285
CBMV_ROBtwo views1.71
271
0.79
252
0.65
237
1.35
278
1.07
277
1.01
259
0.74
250
1.01
269
0.54
220
0.72
238
0.81
233
9.80
325
5.90
309
0.57
260
1.42
264
0.69
216
0.80
243
0.58
221
5.38
286
1.22
294
0.95
227
0.55
155
0.53
251
0.62
248
1.22
277
1.45
282
2.72
314
2.94
286
MFN_U_SF_DS_RVCtwo views1.33
255
0.90
268
0.63
232
1.27
275
0.90
265
1.21
274
2.21
294
1.27
280
1.18
280
1.00
284
0.91
243
1.80
264
1.16
261
1.07
295
1.48
269
0.77
231
0.70
223
0.58
221
2.75
263
0.67
246
1.39
259
2.93
296
0.85
281
0.73
261
1.47
292
1.68
293
1.33
262
2.96
287
RainbowNettwo views2.32
282
2.93
311
1.87
308
3.34
308
2.57
309
3.50
303
3.49
310
1.29
283
0.92
264
1.53
315
0.89
241
3.18
284
2.31
287
2.94
313
1.30
258
0.90
247
1.61
293
1.00
289
5.61
288
1.51
303
2.82
294
4.18
310
4.25
314
0.97
283
1.32
286
1.58
290
1.71
288
3.00
288
FAT-Stereotwo views1.57
264
0.78
250
1.44
299
1.10
263
1.32
289
1.05
264
0.87
260
1.28
282
0.86
257
1.21
296
5.46
317
3.07
282
1.28
266
0.66
271
1.73
283
1.34
296
0.89
258
0.94
287
1.83
228
1.08
284
2.02
278
3.90
308
0.71
268
0.98
285
0.86
239
1.21
263
1.42
274
3.03
289
pmcnntwo views1.66
268
0.80
255
0.52
205
1.19
271
1.01
271
1.21
274
0.93
265
0.96
263
0.54
220
0.74
242
2.66
299
3.98
297
5.06
302
0.31
180
1.65
279
1.40
307
1.20
280
0.91
284
3.99
278
0.95
273
4.45
320
1.02
229
0.90
282
0.90
278
1.07
269
1.01
240
2.43
305
3.03
289
SANettwo views1.61
266
0.91
271
1.10
282
1.04
261
1.05
275
1.25
277
0.77
251
1.76
307
1.81
300
0.77
251
1.24
263
6.63
310
5.08
303
0.83
284
1.56
273
0.77
231
1.24
282
0.90
281
1.58
218
0.82
265
1.05
238
1.00
227
0.90
282
1.27
303
1.32
286
1.93
298
1.88
292
3.10
291
LVEtwo views4.33
311
3.03
313
2.00
310
27.23
338
3.06
320
3.83
315
12.07
337
1.53
295
1.64
297
1.85
324
1.48
276
3.30
287
3.91
298
3.06
317
1.45
265
1.05
274
1.95
300
1.38
316
15.68
323
1.62
310
3.25
306
5.86
320
4.42
317
1.76
322
2.87
314
2.06
304
2.34
301
3.25
292
WAO-7two views2.72
294
1.83
296
2.89
323
7.39
323
1.73
297
1.76
292
1.82
289
2.07
312
2.65
315
2.21
328
5.39
316
4.58
302
5.72
308
1.23
298
2.07
298
1.27
295
1.69
294
1.22
304
7.70
300
1.51
303
1.64
268
3.07
298
0.84
279
1.65
318
1.83
301
2.48
310
1.97
295
3.27
293
notakertwo views5.52
314
5.55
333
3.76
329
13.97
333
5.34
331
5.44
329
7.16
325
2.36
316
2.68
317
2.06
326
1.80
288
12.90
332
23.86
330
3.98
322
2.04
294
1.73
315
3.45
318
2.12
326
17.08
324
2.15
319
6.10
328
5.87
321
6.15
333
2.12
328
1.79
299
2.08
305
2.31
300
3.29
294
STTRV1_RVCtwo views0.81
256
0.64
234
1.04
261
0.73
251
1.03
261
0.85
257
0.91
256
0.92
264
0.93
276
0.95
247
1.72
263
2.23
283
0.86
287
1.46
268
0.78
234
1.37
284
0.72
258
1.97
317
1.59
265
1.23
245
0.97
283
1.07
269
1.11
254
1.75
289
3.40
295
IMH-64-1two views2.92
297
2.70
305
2.36
315
3.23
304
2.71
311
3.70
310
4.05
317
1.66
301
2.48
311
1.13
289
1.26
265
3.60
290
6.29
311
3.59
319
2.28
310
1.15
286
2.20
305
1.31
310
6.02
291
1.52
305
3.03
299
5.48
317
4.83
322
1.40
308
2.83
312
2.02
302
2.34
301
3.64
296
IMH-64two views2.92
297
2.70
305
2.36
315
3.23
304
2.71
311
3.70
310
4.05
317
1.66
301
2.48
311
1.13
289
1.26
265
3.60
290
6.29
311
3.59
319
2.28
310
1.15
286
2.20
305
1.31
310
6.02
291
1.52
305
3.03
299
5.48
317
4.83
322
1.40
308
2.83
312
2.02
302
2.34
301
3.64
296
DispFullNettwo views4.17
308
3.20
317
4.34
331
2.72
296
2.46
307
2.92
298
2.70
300
2.79
326
1.90
303
4.51
337
6.62
328
8.91
321
4.83
300
2.59
306
2.00
293
8.18
334
3.24
316
1.98
323
24.96
328
2.93
329
3.99
315
3.36
303
1.71
302
1.15
298
1.36
289
1.32
276
2.36
304
3.65
298
ELAS_RVCcopylefttwo views3.22
301
2.01
297
1.85
307
2.66
294
2.07
299
5.08
325
2.06
291
2.41
318
1.89
302
1.74
322
4.78
311
8.00
317
8.02
316
0.74
279
2.38
314
0.81
238
1.75
296
1.14
303
3.97
277
1.27
297
4.64
323
7.61
327
1.26
292
1.74
321
6.58
330
3.21
319
3.39
319
3.80
299
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
AnyNet_C01two views2.06
279
1.08
283
1.06
277
1.14
266
1.08
278
1.01
259
2.69
299
1.69
305
2.66
316
1.21
296
1.67
283
2.90
279
2.60
292
0.95
292
3.65
322
4.02
329
2.09
303
2.21
329
3.08
270
1.56
308
3.30
307
2.89
295
1.26
292
1.15
298
1.80
300
1.43
281
1.51
279
3.90
300
MADNet++two views5.64
315
3.51
324
3.77
330
2.84
298
4.62
329
3.02
300
3.65
312
4.36
329
5.03
328
4.18
336
5.07
315
6.45
309
5.92
310
6.18
333
7.04
329
6.82
332
4.71
319
4.00
333
8.03
301
5.83
333
9.92
334
16.38
338
2.32
305
4.34
336
3.95
324
11.38
335
4.93
328
4.01
301
ITSA-stereotwo views1.12
247
0.72
244
0.59
220
1.20
272
0.84
262
0.64
222
0.64
234
0.95
258
0.78
249
0.84
268
2.54
297
1.39
249
1.23
263
0.81
283
1.20
253
1.01
269
0.83
248
0.67
245
1.56
217
0.62
233
1.08
242
1.46
259
0.56
259
0.71
257
0.95
251
1.27
270
0.99
218
4.08
302
ADCP+two views0.92
228
0.59
218
0.62
228
0.44
172
0.45
189
0.55
199
0.85
257
0.65
172
1.81
300
0.48
89
1.10
259
1.62
259
0.33
151
0.42
222
1.03
237
0.52
162
0.52
118
0.48
165
1.19
200
0.38
134
0.58
151
0.60
161
0.32
197
0.30
141
0.66
184
3.45
323
0.77
164
4.14
303
CBMVpermissivetwo views1.15
249
0.84
265
0.60
225
0.85
245
0.76
258
0.73
236
0.48
198
0.87
251
0.80
251
0.81
262
0.61
184
2.86
277
0.81
247
0.52
246
1.31
259
1.17
289
0.91
260
0.74
263
2.40
250
0.66
242
1.57
264
0.76
201
0.48
234
1.06
290
0.99
258
1.09
251
2.25
298
4.25
304
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
PWCKtwo views5.04
312
3.03
313
2.21
311
3.61
311
2.60
310
4.41
321
5.09
320
2.45
319
2.76
318
3.31
333
4.34
310
10.15
328
5.13
305
1.74
303
1.99
292
1.38
304
2.41
309
1.45
317
51.59
342
2.35
322
3.70
314
2.69
293
2.65
306
1.78
324
2.97
315
3.21
319
2.43
305
4.77
305
ELAScopylefttwo views3.38
305
2.19
299
1.79
305
2.99
300
2.37
303
3.32
302
2.09
293
2.60
321
2.85
320
1.28
301
4.85
313
8.61
319
8.02
316
0.76
281
2.90
319
0.81
238
1.80
297
1.10
299
4.19
281
1.10
286
4.53
321
7.86
328
1.26
292
1.63
316
7.08
331
4.79
329
3.66
324
4.87
306
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MeshStereopermissivetwo views3.62
306
1.54
294
1.05
275
2.64
293
1.72
296
2.05
294
1.15
276
2.40
317
1.41
290
0.90
275
6.48
327
9.56
323
7.42
314
0.49
236
11.75
333
1.94
320
0.87
252
0.74
263
8.79
304
0.80
260
8.36
330
8.07
331
0.73
271
1.07
291
3.39
318
2.15
306
5.22
330
4.99
307
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
WAO-6two views2.71
292
2.26
301
1.57
302
3.00
301
2.25
301
3.01
299
3.02
304
1.77
308
2.35
308
1.52
314
1.62
281
3.94
296
5.12
304
2.64
309
2.22
305
1.38
304
2.65
312
1.36
314
4.86
283
1.54
307
2.76
293
4.79
314
2.70
307
1.73
320
2.71
310
2.59
311
2.68
313
5.02
308
ktntwo views8.45
328
3.18
316
2.84
322
6.37
322
3.26
322
4.31
320
10.28
335
2.15
313
10.13
334
2.27
330
1.83
289
42.17
341
55.84
342
3.93
321
2.34
312
2.09
321
9.85
327
2.17
327
33.98
333
2.24
321
3.24
305
3.03
297
4.78
320
2.25
330
2.59
307
2.81
313
3.18
318
5.04
309
IMHtwo views3.24
302
2.76
309
2.37
317
3.26
306
2.74
313
3.73
313
4.10
319
1.72
306
2.58
314
1.17
294
1.24
263
3.92
294
10.58
318
6.80
334
1.57
275
1.11
282
2.25
307
1.30
309
6.28
295
1.56
308
2.97
298
4.14
309
4.90
325
1.45
312
3.01
316
2.36
308
2.47
307
5.19
310
G-Nettwo views1.86
274
1.00
278
1.28
294
0.89
249
0.93
267
1.10
267
0.77
251
1.63
300
2.07
306
0.99
283
2.89
300
7.30
316
1.67
277
0.55
253
1.45
265
1.75
316
1.04
271
0.93
286
2.87
264
2.72
327
1.89
277
1.47
260
0.80
276
1.02
289
1.06
268
1.71
294
2.82
315
5.60
311
WAO-8two views4.25
309
3.34
320
2.80
320
10.32
327
2.92
317
4.17
318
5.89
322
2.66
324
4.45
326
1.69
320
3.41
303
5.94
307
11.31
320
5.29
329
1.71
280
1.34
296
2.69
313
1.51
318
10.78
311
2.48
324
2.63
288
4.50
312
3.44
310
1.58
314
5.12
326
3.31
321
3.60
321
5.76
312
Venustwo views4.25
309
3.34
320
2.80
320
10.32
327
2.92
317
4.17
318
5.89
322
2.66
324
4.45
326
1.69
320
3.41
303
5.94
307
11.31
320
5.29
329
1.71
280
1.34
296
2.69
313
1.51
318
10.78
311
2.48
324
2.63
288
4.50
312
3.44
310
1.58
314
5.12
326
3.31
321
3.60
321
5.76
312
ADCStwo views1.88
275
1.06
281
0.98
268
0.93
255
1.10
281
1.09
266
1.14
274
1.27
280
2.49
313
0.89
274
1.36
272
1.51
253
2.92
295
0.86
287
3.30
321
2.26
322
1.46
289
1.26
307
3.10
271
1.29
298
2.48
287
2.88
294
0.80
276
1.10
294
1.33
288
4.48
328
1.41
273
6.08
314
SGM-ForestMtwo views2.61
288
4.20
327
0.93
264
2.78
297
1.37
291
3.57
307
2.93
303
2.59
320
1.51
294
0.70
232
1.32
269
7.25
314
5.36
306
0.47
233
0.89
209
0.53
164
0.79
242
0.54
203
7.58
299
0.60
220
0.82
204
0.47
122
0.51
248
0.80
272
4.97
325
3.66
324
7.05
333
6.30
315
TorneroNettwo views8.11
323
4.28
328
2.58
319
27.50
339
3.31
324
5.00
324
6.00
324
2.62
322
10.13
334
1.49
311
2.57
298
11.07
330
68.61
345
4.25
323
1.77
287
1.18
290
5.78
321
1.62
321
23.67
327
2.83
328
4.30
317
5.47
316
5.37
328
1.65
318
3.72
321
3.14
318
2.59
310
6.36
316
KSHMRtwo views8.16
324
4.16
326
2.96
324
25.39
337
3.92
327
5.08
325
5.53
321
2.62
322
2.40
310
2.23
329
2.26
294
4.37
301
77.17
346
5.23
328
2.24
306
1.71
314
2.79
315
1.98
323
31.04
332
2.02
318
4.59
322
5.35
315
7.54
336
1.89
326
3.30
317
2.91
315
3.01
317
6.51
317
LRCNet_RVCtwo views21.34
339
28.92
340
11.37
339
31.78
341
29.09
344
34.25
342
27.43
340
21.71
344
10.07
333
29.63
345
30.60
341
32.06
337
25.81
332
33.87
344
11.15
332
2.97
324
25.27
341
21.35
342
44.05
339
20.83
342
14.27
339
5.87
321
36.69
344
27.43
345
2.76
311
1.47
283
8.68
334
6.79
318
UNDER WATERtwo views7.55
321
4.74
330
3.06
325
10.46
330
5.92
333
6.35
332
8.05
328
4.32
328
3.69
325
1.97
325
2.14
293
10.53
329
62.60
344
4.83
326
2.25
307
1.59
312
12.22
335
2.08
325
9.67
309
3.97
330
5.27
326
6.65
324
8.86
339
2.65
333
3.82
322
5.62
330
3.62
323
7.03
319
HanzoNettwo views19.12
338
15.23
336
6.99
337
35.06
342
14.35
340
40.77
343
42.46
343
17.81
342
22.51
340
3.55
334
8.29
332
41.30
340
56.30
343
43.04
346
5.72
328
4.37
330
37.83
344
3.30
331
49.59
341
8.93
337
10.30
336
6.85
325
14.15
342
3.46
335
5.94
329
5.80
331
5.29
331
7.13
320
UNDER WATER-64two views6.11
319
5.20
331
3.13
326
12.20
331
5.77
332
6.55
333
8.53
331
4.74
333
3.45
324
2.30
331
2.36
295
12.04
331
12.47
322
5.08
327
3.02
320
1.81
317
12.11
334
2.17
327
8.81
305
4.17
332
5.75
327
7.27
326
8.74
338
2.61
332
3.86
323
8.63
332
4.32
327
7.86
321
TorneroNet-64two views6.02
317
4.60
329
2.53
318
15.58
334
3.29
323
4.87
323
7.75
326
2.23
314
10.02
332
1.42
307
1.31
268
7.26
315
29.23
335
4.36
324
2.09
299
1.21
293
8.22
325
1.70
322
17.35
325
2.62
326
4.31
318
5.68
319
5.20
327
1.76
322
3.58
320
3.76
325
2.29
299
8.34
322
MDST_ROBtwo views3.33
304
2.32
302
0.75
249
3.90
313
1.47
294
2.61
297
1.00
271
1.12
279
0.72
242
0.78
255
0.67
208
1.54
256
25.37
331
0.34
192
2.11
300
0.53
164
0.65
204
0.48
165
3.69
275
0.58
211
0.88
212
0.59
157
0.58
261
0.68
255
7.85
333
3.03
317
17.15
338
8.63
323
ADCReftwo views1.01
241
0.65
232
0.48
194
0.39
147
0.47
196
0.65
223
0.68
244
0.61
137
1.08
275
0.52
112
0.64
193
0.75
179
0.43
196
0.38
205
1.56
273
0.72
222
0.61
186
0.59
226
1.53
216
0.58
211
0.66
173
0.71
191
0.50
240
0.43
205
0.75
210
1.25
268
0.82
177
8.96
324
ADCMidtwo views1.56
263
0.92
272
0.99
269
0.70
230
0.86
263
1.05
264
1.37
283
1.29
283
1.77
299
0.75
246
1.75
286
1.27
242
1.48
271
0.69
275
2.18
303
1.07
276
0.98
268
0.79
274
2.74
262
0.80
260
1.31
255
1.74
275
1.06
289
0.70
256
1.01
264
1.53
289
1.02
225
10.33
325
AnonymousMtwo views0.79
216
0.34
67
0.20
61
0.24
78
0.22
72
0.21
58
0.15
79
0.58
117
0.21
59
0.57
144
0.39
117
0.45
90
0.15
50
0.19
77
0.56
108
0.54
172
0.54
129
0.40
108
0.53
89
0.30
88
0.65
170
0.54
151
0.20
119
0.22
81
0.30
55
0.39
99
1.31
260
11.04
326
ADCLtwo views1.27
254
0.82
259
0.64
234
0.60
211
0.53
209
0.73
236
0.91
263
0.75
222
2.78
319
0.68
221
1.01
252
0.86
207
0.50
212
0.50
240
1.27
256
0.64
202
0.66
207
0.57
216
1.20
202
0.60
220
0.98
232
0.88
216
0.50
240
0.47
221
1.60
297
1.50
288
0.88
196
11.30
327
PMLtwo views30.82
341
20.91
339
7.15
338
29.65
340
20.81
343
29.11
341
10.50
336
10.87
337
88.32
348
20.03
344
154.19
348
98.60
346
119.55
347
10.53
337
9.19
330
8.69
335
16.72
337
7.27
335
34.57
334
7.35
336
12.77
338
10.86
337
5.72
332
6.17
337
33.11
346
12.83
336
34.30
344
12.33
328
AnyNet_C32two views1.64
267
0.65
232
0.74
248
0.67
226
0.73
251
0.86
251
1.14
274
0.95
258
3.12
322
0.75
246
1.53
278
0.94
213
0.64
237
0.67
273
1.83
288
1.11
282
1.06
275
0.95
288
1.78
227
0.76
256
1.76
274
1.71
273
0.66
267
0.85
276
1.13
274
2.68
312
1.17
243
13.55
329
STStereotwo views5.29
313
2.47
303
5.20
333
5.20
319
2.80
314
4.72
322
3.42
308
6.23
335
6.52
329
1.51
312
7.61
331
9.53
322
14.86
326
0.63
268
4.09
325
0.64
202
0.87
252
0.62
232
36.67
335
1.02
280
1.23
250
1.05
231
0.78
273
1.63
316
3.46
319
2.43
309
3.53
320
14.15
330
LSM0two views8.30
326
1.08
283
0.95
265
1.66
288
1.42
292
1.59
288
1.96
290
2.27
315
2.36
309
1.66
319
3.94
307
4.10
298
6.30
313
0.63
268
62.38
347
74.74
347
1.69
294
1.06
295
12.18
316
2.23
320
4.96
325
9.29
333
0.92
284
1.29
304
1.95
304
2.97
316
3.66
324
14.83
331
ADCPNettwo views2.08
281
0.77
248
0.87
260
0.83
244
1.21
284
0.85
248
1.59
286
1.02
270
1.35
287
0.83
267
1.97
291
1.01
223
7.76
315
0.75
280
2.35
313
1.16
288
0.95
265
0.71
257
4.05
279
0.97
276
1.30
254
1.61
268
0.72
269
0.76
266
1.52
295
1.96
301
1.21
248
16.04
332
AVERAGE_ROBtwo views41.98
345
44.82
346
42.27
345
45.98
344
46.88
345
45.60
345
46.56
346
47.04
347
43.89
345
49.19
347
49.91
344
47.25
343
43.00
337
49.19
347
40.14
344
38.38
344
49.01
346
51.31
346
43.98
338
42.43
347
43.31
344
38.64
344
49.42
345
42.83
348
28.65
342
20.44
340
23.41
341
19.88
333
HaxPigtwo views41.43
344
43.85
345
40.81
344
44.90
343
47.49
346
44.66
344
46.30
345
46.31
346
45.63
346
49.00
346
49.30
343
47.24
342
43.73
338
42.64
345
40.44
345
39.13
345
48.37
345
51.07
345
43.33
337
42.25
346
42.88
343
36.52
343
50.75
346
43.02
349
27.54
341
19.97
339
20.68
339
20.75
334
JetBluetwo views6.09
318
3.85
325
3.31
328
5.99
320
4.13
328
6.22
331
7.94
327
3.42
327
2.89
321
1.47
309
1.46
275
8.10
318
1.90
279
5.39
331
11.86
334
3.22
325
3.30
317
2.99
330
5.32
285
2.40
323
9.74
333
10.03
336
4.93
326
2.18
329
7.39
332
17.16
337
3.72
326
24.15
335
JetRedtwo views7.85
322
5.29
332
6.07
335
3.75
312
5.00
330
6.95
334
10.20
334
4.64
332
3.42
323
2.92
332
2.39
296
6.71
311
2.25
285
7.15
335
10.26
331
7.34
333
8.59
326
7.11
334
4.82
282
4.08
331
10.76
337
9.27
332
7.85
337
3.34
334
10.96
334
24.25
341
11.90
335
24.57
336
SGM_RVCbinarytwo views2.81
295
1.46
293
0.85
258
1.76
289
1.28
286
1.68
291
1.19
278
1.56
297
1.14
278
0.82
265
1.70
284
7.09
313
2.67
294
0.42
222
0.92
215
0.57
181
0.75
235
0.57
216
11.20
315
0.66
242
0.94
224
0.46
117
0.51
248
0.84
275
1.97
305
1.64
292
5.04
329
26.13
337
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
SGM+DAISYtwo views3.81
307
1.38
291
1.26
292
1.80
290
1.47
294
1.93
293
1.71
288
1.47
293
1.33
285
1.34
305
6.67
329
9.59
324
12.99
323
1.20
297
1.73
283
1.47
310
1.42
287
1.24
305
11.11
314
1.37
301
3.07
301
2.13
283
1.27
296
1.42
311
1.69
298
1.26
269
2.90
316
26.50
338
MEDIAN_ROBtwo views44.95
346
47.36
347
44.12
346
48.52
345
49.78
347
48.21
346
49.25
347
49.72
348
46.35
347
52.53
348
53.59
345
50.59
344
45.49
339
49.36
348
43.27
346
41.36
346
51.85
347
54.40
347
47.03
340
45.93
348
45.78
345
40.06
345
52.67
347
45.67
350
31.00
343
26.54
343
25.33
342
27.95
339
DPSimNet_ROBtwo views18.93
337
32.01
341
5.97
334
12.40
332
11.35
339
6.13
330
28.07
341
15.03
341
35.64
344
3.96
335
78.33
347
18.15
334
35.00
336
5.44
332
12.19
336
10.36
336
13.57
336
3.64
332
87.52
345
6.87
335
14.36
340
9.97
334
4.40
316
7.14
338
5.17
328
9.85
333
5.93
332
32.56
340
DPSMNet_ROBtwo views12.40
332
5.97
335
17.46
341
4.21
316
7.87
335
5.15
327
8.18
329
4.56
330
11.65
337
4.54
339
8.87
334
5.17
305
22.69
328
13.00
339
14.98
338
14.62
339
6.90
323
15.82
338
14.07
321
12.05
338
9.09
332
21.75
340
5.68
331
11.54
340
11.87
336
31.03
345
12.99
337
33.06
341
DGTPSM_ROBtwo views12.12
331
5.96
334
17.45
340
4.20
315
7.86
334
5.15
327
8.18
329
4.56
330
11.64
336
4.52
338
8.72
333
5.01
304
17.08
327
12.98
338
14.91
337
14.58
338
6.85
322
15.76
337
12.78
317
12.05
338
9.07
331
21.74
339
5.67
330
11.54
340
11.84
335
31.02
344
12.98
336
33.06
341
BEATNet-Init1two views22.01
340
36.32
344
3.23
327
54.74
346
11.23
338
52.95
347
28.72
342
9.47
336
8.51
331
1.57
316
10.45
337
33.05
338
48.98
340
0.71
277
16.97
339
11.50
337
1.60
292
1.11
301
77.80
344
35.27
345
9.94
335
9.98
335
1.27
296
2.30
331
27.41
340
11.09
334
52.85
347
35.36
343
LE_ROBtwo views17.44
333
1.82
295
6.12
336
9.40
324
53.85
348
8.01
335
46.26
344
11.27
340
28.12
341
1.80
323
7.03
330
38.62
339
49.53
341
0.34
192
1.76
286
0.55
174
0.78
238
0.59
226
36.68
336
6.72
334
2.92
296
0.85
212
29.06
343
12.10
342
26.35
339
25.49
342
27.84
343
37.03
344
MANEtwo views7.31
320
2.64
304
4.48
332
3.30
307
3.10
321
3.94
316
2.83
302
5.37
334
6.88
330
1.11
288
5.64
319
8.81
320
11.02
319
0.67
273
3.83
323
3.83
327
1.32
283
18.03
339
8.61
302
0.84
266
4.22
316
1.16
240
0.74
272
1.79
325
13.65
337
18.61
338
22.89
340
38.18
345
DPSM_ROBtwo views18.32
335
16.26
337
21.94
342
9.42
325
8.75
336
13.61
336
9.11
332
10.90
338
15.09
338
8.45
340
8.95
335
10.12
326
13.19
324
16.42
340
19.79
340
19.11
340
18.35
338
20.45
340
13.82
319
14.88
340
26.56
341
27.45
341
6.49
334
14.39
343
31.57
344
38.83
346
36.85
345
43.86
346
DPSMtwo views18.32
335
16.26
337
21.94
342
9.42
325
8.75
336
13.61
336
9.11
332
10.90
338
15.09
338
8.45
340
8.95
335
10.12
326
13.19
324
16.42
340
19.79
340
19.11
340
18.35
338
20.45
340
13.82
319
14.88
340
26.56
341
27.45
341
6.49
334
14.39
343
31.57
344
38.83
346
36.85
345
43.86
346
CasAABBNettwo views36.73
342
32.73
343
44.18
347
18.81
335
17.45
341
27.29
340
18.12
338
21.69
343
30.40
342
17.52
342
18.08
339
20.27
335
26.53
333
32.96
342
38.28
343
37.42
342
36.82
342
41.12
344
27.47
330
29.86
343
53.56
347
55.70
346
12.93
340
28.91
346
63.44
348
78.07
348
73.93
348
88.05
348
FlowAnythingtwo views36.80
343
32.68
342
44.29
348
18.93
336
17.69
342
27.11
339
18.38
339
21.83
345
30.48
343
17.53
343
18.21
340
20.29
336
26.54
334
33.31
343
37.97
342
37.86
343
36.82
342
40.93
343
27.35
329
30.03
344
53.34
346
55.72
347
12.99
341
29.50
347
63.36
347
78.25
349
73.99
349
88.17
349
ASD4two views8.34
339