This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
ProNettwo views0.06
1
0.03
1
0.08
10
0.01
1
0.00
1
0.12
92
0.27
124
0.00
1
0.01
1
0.00
1
0.00
1
0.05
1
0.00
1
0.05
53
0.43
2
0.28
2
0.02
1
0.00
1
0.09
6
0.00
1
0.05
1
0.02
1
0.00
1
0.00
1
0.08
28
0.00
1
0.05
1
0.00
1
TDLMtwo views0.09
2
0.08
8
0.12
13
0.02
2
0.02
3
0.00
1
0.01
26
0.19
27
0.04
8
0.00
1
0.00
1
0.48
60
0.01
3
0.01
7
0.26
1
0.22
1
0.08
8
0.06
12
0.01
1
0.00
1
0.10
2
0.10
6
0.01
27
0.01
3
0.00
1
0.01
8
0.30
12
0.39
62
StereoVisiontwo views0.11
3
0.10
11
0.02
3
0.04
6
0.03
6
0.00
1
0.02
46
0.04
13
0.03
4
0.03
30
0.00
1
0.17
10
0.02
6
0.03
34
0.99
6
0.75
14
0.05
5
0.01
3
0.29
11
0.03
7
0.15
6
0.07
4
0.00
1
0.05
17
0.03
12
0.00
1
0.06
3
0.00
1
CroCo-Stereo Lap2two views0.14
4
0.09
9
0.03
5
0.05
8
0.05
14
0.00
1
0.00
1
0.03
8
0.05
14
0.24
51
0.00
1
0.08
5
0.02
6
0.01
7
1.28
11
1.00
28
0.03
2
0.02
6
0.05
2
0.04
9
0.31
13
0.34
13
0.00
1
0.03
9
0.03
12
0.00
1
0.05
1
0.00
1
AASNettwo views0.18
5
0.44
69
0.26
25
0.08
26
0.08
22
0.00
1
0.08
92
0.03
8
0.05
14
0.26
52
0.00
1
0.16
9
0.03
11
0.01
7
1.06
7
0.60
8
0.08
8
0.03
8
0.08
5
0.16
36
0.24
10
0.64
24
0.00
1
0.03
9
0.00
1
0.01
8
0.38
13
0.03
13
CroCo-Stereocopylefttwo views0.18
5
0.07
6
0.02
3
0.05
8
0.06
17
0.00
1
0.00
1
0.04
13
0.04
8
0.00
1
0.00
1
0.05
1
0.02
6
0.00
1
1.54
20
1.07
32
0.04
4
0.03
8
0.65
21
0.04
9
0.32
14
0.73
27
0.00
1
0.02
5
0.03
12
0.01
8
0.08
4
0.00
1
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.18
5
0.04
2
0.33
39
0.02
2
0.00
1
0.12
92
0.12
106
0.94
65
0.01
1
0.70
83
0.00
1
0.17
10
0.00
1
0.01
7
0.57
4
0.46
5
0.03
2
0.00
1
0.06
4
0.21
52
0.14
5
0.50
16
0.00
1
0.00
1
0.02
8
0.00
1
0.27
10
0.00
1
delettwo views0.19
8
0.07
6
0.25
23
0.06
15
0.04
11
0.02
55
0.02
46
0.01
2
0.04
8
0.34
59
0.00
1
0.10
6
0.03
11
0.02
20
1.36
13
0.46
5
0.16
24
0.05
10
0.13
7
0.05
12
0.13
4
0.18
8
0.00
1
0.04
14
0.00
1
0.01
8
1.41
31
0.02
11
CVANet_RVCtwo views0.21
9
0.15
15
0.61
90
0.42
109
0.06
17
0.06
76
0.01
26
1.53
85
0.05
14
0.08
36
0.04
51
0.62
81
0.04
16
0.03
34
0.46
3
0.32
3
0.14
18
0.09
17
0.05
2
0.01
3
0.19
7
0.07
4
0.00
1
0.03
9
0.00
1
0.01
8
0.55
15
0.08
28
iRaftStereo_RVCtwo views0.22
10
0.19
22
0.35
46
0.22
44
0.11
29
0.01
34
0.00
1
0.04
13
0.07
23
0.00
1
0.00
1
0.22
19
0.10
41
0.03
34
1.13
8
0.87
18
0.16
24
0.06
12
0.37
15
0.11
26
0.95
41
0.62
23
0.00
1
0.02
5
0.08
28
0.00
1
0.11
5
0.03
13
AEACVtwo views0.25
11
0.71
109
0.36
49
0.04
6
0.03
6
0.10
84
0.00
1
0.02
5
0.03
4
0.00
1
0.00
1
0.18
12
0.13
44
0.02
20
1.22
9
0.79
15
0.05
5
0.26
50
0.73
23
0.29
62
0.63
26
0.50
16
0.12
101
0.04
14
0.01
5
0.21
50
0.29
11
0.00
1
AANet_RVCtwo views0.25
11
0.05
5
0.29
31
0.06
15
0.19
48
0.00
1
0.23
122
0.03
8
0.17
61
0.35
63
0.01
41
0.07
4
0.04
16
0.01
7
1.37
14
0.48
7
0.10
11
0.06
12
0.43
16
0.17
37
0.10
2
0.25
10
0.03
62
0.05
17
0.02
8
0.06
25
1.15
25
0.89
82
anonymousdsptwo views0.27
13
0.09
9
0.36
49
0.24
53
0.05
14
0.09
82
0.00
1
0.03
8
0.05
14
0.00
1
0.28
80
0.19
14
0.15
50
0.00
1
1.24
10
0.84
17
0.12
15
0.10
20
0.29
11
0.18
39
0.42
17
1.05
40
0.02
45
0.05
17
0.01
5
0.01
8
1.54
35
0.00
1
DMCAtwo views0.27
13
0.37
61
0.20
18
0.17
36
0.09
25
0.02
55
0.01
26
0.02
5
0.04
8
0.59
78
0.00
1
0.34
45
0.05
22
0.01
7
1.81
25
0.88
20
0.31
47
0.12
24
0.22
8
0.10
23
0.38
16
0.23
9
0.00
1
0.03
9
0.03
12
0.06
25
1.19
26
0.15
43
GANettwo views0.29
15
0.56
89
0.39
58
0.27
60
0.11
29
0.88
145
0.14
111
0.27
35
0.06
18
0.02
27
0.28
80
1.85
123
0.04
16
0.03
34
0.62
5
0.39
4
0.37
60
0.14
32
0.24
10
0.01
3
0.20
8
0.05
3
0.06
83
0.02
5
0.06
22
0.01
8
0.48
14
0.16
45
MMNettwo views0.30
16
0.21
27
0.07
7
0.05
8
0.05
14
0.00
1
0.06
84
0.01
2
0.03
4
0.22
47
0.00
1
0.19
14
0.01
3
0.05
53
2.24
35
0.62
10
0.24
37
0.12
24
0.35
13
0.07
15
0.30
11
0.11
7
0.04
68
0.08
37
0.03
12
0.04
23
2.84
58
0.02
11
StereoIMtwo views0.33
17
0.21
27
0.36
49
0.06
15
0.13
32
0.01
34
0.03
62
0.06
16
0.06
18
1.25
117
0.00
1
0.20
17
0.02
6
0.02
20
1.52
18
1.15
42
0.12
15
0.24
45
1.27
39
0.10
23
0.71
29
0.90
34
0.00
1
0.07
27
0.17
55
0.15
42
0.13
6
0.04
17
MIF-Stereotwo views0.35
18
0.28
44
0.38
55
0.07
23
0.18
45
0.00
1
0.01
26
0.07
18
0.08
29
0.00
1
0.00
1
0.29
34
0.03
11
0.05
53
1.88
28
1.42
64
0.15
20
0.33
63
1.70
50
0.07
15
0.88
39
1.21
44
0.00
1
0.12
53
0.06
22
0.03
22
0.14
7
0.03
13
FINETtwo views0.37
19
0.14
14
0.45
69
0.18
37
0.08
22
0.02
55
0.01
26
0.34
38
0.17
61
0.01
22
0.30
84
0.56
76
0.19
61
0.02
20
2.46
51
1.20
47
0.26
42
0.09
17
1.10
33
0.14
29
0.72
30
0.31
11
0.04
68
0.14
63
0.03
12
0.10
35
0.84
21
0.05
22
HCRNettwo views0.41
20
0.36
58
0.34
43
0.30
74
0.12
31
0.00
1
0.05
74
0.02
5
0.02
3
1.46
130
0.00
1
0.18
12
0.05
22
0.00
1
2.70
58
0.67
12
0.22
32
0.06
12
0.22
8
0.11
26
0.30
11
0.59
21
0.02
45
0.01
3
0.01
5
0.01
8
3.21
77
0.03
13
RAFT + AFFtwo views0.41
20
0.04
2
0.01
2
0.22
44
0.02
3
0.04
68
0.00
1
0.03
8
0.03
4
0.00
1
0.00
1
0.28
31
0.02
6
0.01
7
4.88
158
0.92
23
0.35
53
0.02
6
2.33
67
0.03
7
0.65
27
0.50
16
0.01
27
0.12
53
0.15
53
0.10
35
0.24
8
0.01
8
GMStereopermissivetwo views0.44
22
0.93
131
0.07
7
0.25
55
0.03
6
0.00
1
0.00
1
0.14
23
0.07
23
0.00
1
0.00
1
0.30
36
0.01
3
0.01
7
1.87
27
0.90
21
0.26
42
0.17
35
2.60
78
0.08
18
1.17
53
0.33
12
0.00
1
0.05
17
0.08
28
0.02
19
2.57
50
0.04
17
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
UPFNettwo views0.44
22
0.29
47
0.59
84
0.21
40
0.26
75
0.01
34
0.02
46
0.08
20
0.08
29
0.39
66
0.00
1
0.27
28
0.03
11
0.24
137
3.08
78
0.92
23
0.14
18
0.12
24
0.57
18
0.31
65
0.36
15
0.39
15
0.01
27
0.12
53
0.02
8
0.01
8
3.44
87
0.05
22
test crocotwo views0.45
24
0.37
61
0.43
64
0.16
35
0.37
104
0.00
1
0.00
1
0.74
61
0.08
29
0.01
22
0.00
1
0.53
70
0.09
37
0.04
48
2.41
46
1.80
102
0.25
38
0.31
59
0.93
28
0.10
23
1.31
62
1.36
47
0.00
1
0.23
84
0.13
47
0.02
19
0.25
9
0.09
29
RYNettwo views0.45
24
0.04
2
0.00
1
0.02
2
0.03
6
0.00
1
0.00
1
0.01
2
0.04
8
0.07
33
0.00
1
0.05
1
0.12
43
0.00
1
4.77
152
0.60
8
0.10
11
1.00
143
0.35
13
0.01
3
0.21
9
0.04
2
0.00
1
0.02
5
0.08
28
3.06
130
1.39
30
0.13
41
MIF-Stereo (partial)two views0.47
26
0.36
58
0.44
67
0.07
23
0.18
45
0.01
34
0.00
1
0.07
18
0.11
41
0.01
22
0.01
41
0.38
50
0.09
37
0.03
34
2.00
29
1.58
78
0.22
32
0.50
88
0.75
26
0.06
14
1.09
48
0.94
36
0.00
1
0.19
78
0.08
28
0.26
54
2.83
57
0.39
62
raft+_RVCtwo views0.49
27
0.38
64
0.37
54
0.34
84
0.21
55
0.03
61
0.04
70
2.29
115
0.09
35
0.00
1
0.00
1
0.25
22
0.08
29
0.02
20
1.79
24
1.24
48
0.29
45
0.09
17
2.37
72
0.24
55
0.77
34
1.09
41
0.00
1
0.06
22
0.07
24
0.12
37
0.57
16
0.36
60
test_5two views0.54
28
0.60
95
0.22
20
0.02
2
0.02
3
0.11
86
0.01
26
2.77
144
0.04
8
0.00
1
1.10
125
0.44
55
0.45
95
0.00
1
1.47
16
1.13
39
0.08
8
0.10
20
1.01
31
0.04
9
0.43
18
1.34
46
0.00
1
0.05
17
0.07
24
0.00
1
2.98
63
0.01
8
MIM_Stereotwo views0.55
29
0.13
13
0.43
64
0.34
84
0.22
60
0.11
86
0.02
46
2.05
106
0.07
23
0.00
1
0.01
41
0.23
20
0.09
37
0.03
34
2.07
31
1.15
42
0.15
20
0.39
72
2.56
76
0.27
61
1.24
60
0.94
36
0.06
83
0.13
60
0.18
56
0.19
48
1.72
38
0.17
46
TestStereotwo views0.55
29
0.62
98
0.47
71
0.22
44
0.09
25
0.00
1
0.01
26
1.90
101
0.22
73
0.30
56
0.00
1
0.28
31
0.08
29
0.01
7
1.58
21
0.87
18
0.34
51
0.19
37
2.65
83
0.08
18
1.43
68
0.55
20
0.02
45
0.07
27
0.10
38
0.42
66
2.09
43
0.13
41
AFF-stereotwo views0.55
29
0.29
47
0.41
62
0.33
79
0.09
25
0.03
61
0.00
1
0.38
41
0.10
38
1.17
110
0.01
41
0.32
38
0.06
24
0.00
1
1.52
18
1.24
48
0.15
20
0.59
98
3.40
102
0.07
15
0.54
22
0.60
22
0.00
1
0.07
27
0.13
47
0.06
25
3.05
65
0.10
34
UNettwo views0.56
32
0.30
50
0.39
58
0.26
57
0.19
48
0.03
61
0.08
92
0.52
54
0.13
49
1.15
108
0.00
1
0.44
55
0.16
56
0.16
105
2.13
32
1.28
52
0.34
51
0.20
40
1.42
42
0.19
45
0.62
25
0.50
16
0.13
104
0.24
85
0.03
12
0.26
54
3.32
81
0.62
72
CFNettwo views0.57
33
0.46
75
0.64
97
0.43
110
0.34
100
0.04
68
0.00
1
0.58
56
0.09
35
0.66
81
0.05
54
0.64
82
0.07
26
0.05
53
2.25
36
0.65
11
0.35
53
0.06
12
0.73
23
0.34
67
0.85
38
0.73
27
0.00
1
0.08
37
0.45
78
0.16
44
3.22
78
1.51
101
HGLStereotwo views0.58
34
0.32
56
0.38
55
0.23
49
0.26
75
0.01
34
0.06
84
0.06
16
0.12
46
1.22
116
0.70
116
0.14
8
0.15
50
0.09
81
2.33
44
1.33
57
0.37
60
0.24
45
1.13
35
0.15
33
0.97
43
1.51
52
0.06
83
0.07
27
0.08
28
0.08
32
3.08
67
0.47
66
IERtwo views0.59
35
0.45
72
0.27
26
0.30
74
0.16
37
0.00
1
0.01
26
0.42
43
0.11
41
1.09
106
0.07
58
1.35
116
0.04
16
0.20
122
3.17
82
1.08
34
0.20
31
0.13
29
0.73
23
0.40
75
0.51
21
0.64
24
0.21
120
0.07
27
0.08
28
1.01
96
2.92
60
0.28
51
RAFT_CTSACEtwo views0.59
35
0.80
114
0.45
69
0.25
55
0.07
19
0.14
99
0.00
1
2.03
105
0.06
18
0.00
1
0.12
63
0.44
55
0.46
100
0.01
7
1.58
21
1.08
34
0.15
20
0.12
24
0.57
18
0.08
18
0.74
32
2.54
89
0.00
1
0.04
14
0.24
62
0.00
1
3.77
106
0.04
17
HITNettwo views0.59
35
0.16
20
0.10
11
0.06
15
0.07
19
0.01
34
0.02
46
1.76
90
0.82
121
0.11
39
0.00
1
0.68
86
0.28
73
0.11
92
2.51
54
1.02
29
0.25
38
0.13
29
0.63
20
0.24
55
1.43
68
1.56
57
0.01
27
0.12
53
0.02
8
0.16
44
3.32
81
0.42
65
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
test_4two views0.60
38
0.10
11
0.53
79
0.29
71
0.13
32
0.07
77
0.22
120
0.09
21
0.07
23
0.03
30
0.00
1
0.68
86
0.15
50
0.08
74
2.06
30
1.55
76
0.12
15
0.39
72
1.82
51
0.18
39
1.12
50
2.11
68
0.01
27
0.07
27
0.20
58
0.30
58
3.49
90
0.24
49
LL-Strereo2two views0.61
39
0.22
34
0.36
49
0.09
28
0.10
28
0.17
106
0.01
26
2.25
114
0.18
66
0.00
1
0.00
1
0.21
18
0.04
16
0.21
127
1.68
23
1.32
54
0.05
5
0.12
24
2.34
68
0.39
74
1.51
74
2.98
102
0.00
1
0.08
37
0.43
77
0.01
8
1.44
33
0.31
54
rafts_anoytwo views0.62
40
0.28
44
0.70
104
0.37
97
0.21
55
0.04
68
0.00
1
2.53
131
0.14
52
0.01
22
0.00
1
0.10
6
0.04
16
0.02
20
2.50
53
1.45
67
0.32
49
0.36
68
1.92
52
0.17
37
1.38
66
0.99
39
0.00
1
0.18
75
0.53
82
0.73
83
0.73
19
1.01
90
RASNettwo views0.63
41
0.18
21
0.57
80
0.41
108
0.28
80
0.10
84
0.05
74
0.94
65
0.14
52
1.07
105
0.09
61
0.48
60
0.34
81
0.02
20
1.28
11
1.47
69
0.35
53
0.21
41
0.99
29
0.02
6
1.15
52
1.53
53
0.10
94
0.34
126
0.22
61
0.30
58
3.55
92
0.73
75
RAFT+CT+SAtwo views0.64
42
0.82
118
0.25
23
0.15
34
0.03
6
0.00
1
0.00
1
2.49
127
0.08
29
0.08
36
0.00
1
0.74
93
0.39
91
0.01
7
1.39
15
1.38
62
0.11
13
0.15
33
2.23
59
0.18
39
0.84
37
2.50
84
0.01
27
0.06
22
0.11
42
0.01
8
3.34
83
0.04
17
RAFT-Stereo + iAFFtwo views0.65
43
0.29
47
0.60
86
0.37
97
0.27
77
0.03
61
0.02
46
0.96
67
0.11
41
1.34
122
0.00
1
0.28
31
0.08
29
0.01
7
1.83
26
1.32
54
0.26
42
0.11
22
3.40
102
0.24
55
0.79
35
0.89
33
0.00
1
0.19
78
0.38
70
0.22
51
3.31
80
0.15
43
DMCA-RVCcopylefttwo views0.65
43
0.42
66
0.43
64
0.31
76
0.58
122
0.15
103
0.44
131
0.29
37
1.57
158
1.31
120
0.35
88
0.55
73
0.13
44
0.11
92
2.54
55
1.10
37
0.51
73
0.46
82
0.84
27
0.36
71
0.76
33
0.83
29
0.19
116
0.14
63
0.11
42
0.06
25
2.59
53
0.52
68
ADLNettwo views0.67
45
0.96
135
0.10
11
0.21
40
0.23
62
0.08
79
0.01
26
1.26
75
0.09
35
0.32
57
0.06
55
2.28
131
0.08
29
0.18
115
3.28
93
1.03
30
0.35
53
0.11
22
0.54
17
0.18
39
0.54
22
1.10
42
0.00
1
0.03
9
0.88
101
0.68
78
3.16
73
0.28
51
anonymousdsp2two views0.70
46
0.27
42
0.28
28
0.23
49
0.07
19
0.02
55
0.02
46
1.36
78
0.08
29
0.02
27
0.59
107
0.29
34
0.16
56
0.08
74
1.51
17
1.55
76
0.25
38
0.32
61
3.52
105
0.55
104
1.55
77
3.00
105
0.02
45
0.07
27
0.13
47
0.15
42
2.70
54
0.01
8
RALCasStereoNettwo views0.70
46
0.30
50
0.84
115
0.37
97
0.28
80
0.05
72
0.12
106
2.12
111
0.13
49
1.03
102
0.04
51
0.50
63
0.15
50
0.03
34
2.37
45
1.67
90
0.23
35
0.24
45
1.26
38
0.14
29
1.21
55
2.03
65
0.01
27
0.11
52
0.34
67
1.39
102
0.78
20
1.25
95
ARAFTtwo views0.70
46
0.19
22
0.28
28
0.31
76
0.08
22
0.00
1
0.01
26
0.16
24
0.08
29
1.30
119
0.00
1
0.38
50
0.03
11
0.10
89
3.41
100
1.87
104
0.29
45
0.27
56
2.54
75
0.05
12
1.83
86
1.60
58
0.01
27
0.10
47
0.42
76
0.02
19
3.41
84
0.12
39
DSFCAtwo views0.70
46
0.43
67
0.51
77
0.29
71
0.58
122
0.04
68
0.59
136
0.22
31
0.54
98
0.49
74
0.56
103
0.33
41
0.08
29
0.04
48
2.86
65
1.28
52
0.67
90
0.73
114
1.00
30
0.44
89
1.01
47
1.14
43
0.21
120
0.24
85
0.54
83
0.82
87
2.81
56
0.47
66
CASnettwo views0.75
50
0.51
79
0.49
76
0.23
49
0.29
83
0.00
1
0.00
1
0.50
50
0.18
66
0.06
32
0.06
55
0.54
71
0.36
86
0.01
7
2.44
48
1.35
58
0.50
70
0.41
77
2.34
68
0.25
59
3.65
133
2.36
77
0.02
45
0.14
63
1.63
126
0.05
24
1.61
36
0.23
47
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
GLC_STEREOtwo views0.76
51
0.44
69
0.48
72
0.22
44
0.24
66
0.00
1
0.00
1
2.40
120
0.19
68
0.15
44
0.04
51
0.27
28
0.14
48
0.02
20
2.55
56
1.82
103
0.46
66
0.24
45
2.26
64
0.30
64
2.66
110
1.47
49
0.05
76
0.08
37
0.05
21
0.07
29
3.59
93
0.32
56
CAStwo views0.79
52
0.21
27
0.34
43
0.21
40
0.19
48
0.03
61
0.14
111
0.21
30
0.63
108
1.19
113
0.16
71
0.33
41
0.78
136
0.13
101
2.72
59
1.66
87
0.85
113
0.71
113
1.12
34
0.46
92
2.41
103
2.37
78
0.03
62
0.08
37
0.11
42
0.69
79
1.69
37
1.95
109
DISCOtwo views0.79
52
0.95
134
0.31
33
0.06
15
0.33
97
0.51
130
0.44
131
0.23
34
0.32
83
1.75
139
0.59
107
0.38
50
0.29
75
0.04
48
2.98
74
1.36
59
0.96
121
0.29
57
3.24
96
0.53
102
0.79
35
1.45
48
0.10
94
0.07
27
0.12
46
0.29
57
2.76
55
0.31
54
TestStereo1two views0.81
54
0.91
129
0.22
20
0.06
15
0.16
37
0.00
1
0.01
26
1.08
70
0.07
23
0.00
1
0.00
1
0.26
25
0.57
113
0.12
95
4.26
125
1.66
87
0.18
27
0.19
37
2.84
88
0.09
21
1.37
64
2.51
85
0.01
27
0.06
22
0.09
36
1.26
99
3.75
103
0.05
22
SA-5Ktwo views0.81
54
0.91
129
0.22
20
0.06
15
0.16
37
0.00
1
0.01
26
1.08
70
0.07
23
0.00
1
0.00
1
0.26
25
0.57
113
0.12
95
4.26
125
1.66
87
0.18
27
0.19
37
2.84
88
0.09
21
1.37
64
2.51
85
0.01
27
0.06
22
0.09
36
1.26
99
3.75
103
0.05
22
4D-IteraStereotwo views0.83
56
0.30
50
1.14
131
0.28
64
0.31
89
0.01
34
0.02
46
2.15
113
0.11
41
0.00
1
0.20
76
0.25
22
0.22
67
0.16
105
2.28
37
1.65
85
0.11
13
0.37
70
2.84
88
0.41
80
2.82
113
2.87
94
0.02
45
0.21
82
0.08
28
0.22
51
3.10
68
0.35
59
NVstereo2Dtwo views0.83
56
0.43
67
0.07
7
0.23
49
0.36
102
0.41
123
0.08
92
1.61
87
0.59
106
0.84
91
1.11
126
0.36
48
0.21
65
0.07
68
5.88
178
2.16
124
0.62
83
0.45
81
1.50
44
0.19
45
1.20
54
0.94
36
0.02
45
0.32
120
1.30
113
0.24
53
0.95
22
0.24
49
AACVNettwo views0.85
58
0.56
89
0.35
46
0.58
123
0.67
126
0.09
82
0.01
26
0.35
40
0.19
68
0.17
45
0.15
69
0.45
58
0.24
69
0.19
117
2.81
62
1.91
109
0.48
69
0.38
71
1.44
43
0.23
53
1.44
70
1.22
45
0.33
139
0.08
37
0.50
81
1.57
106
4.09
128
2.39
120
TESTrafttwo views0.86
59
0.88
127
0.32
34
0.05
8
0.16
37
0.00
1
0.00
1
1.51
84
0.06
18
0.69
82
0.00
1
0.33
41
0.64
121
0.20
122
4.51
138
1.67
90
0.18
27
0.16
34
2.63
81
0.25
59
1.10
49
2.24
74
0.07
87
0.08
37
0.10
38
1.62
108
3.71
99
0.04
17
IPLGR_Ctwo views0.86
59
0.20
25
0.61
90
0.28
64
0.21
55
0.00
1
0.22
120
0.18
25
0.47
91
0.07
33
0.12
63
1.18
110
0.08
29
0.20
122
4.59
142
1.50
72
0.65
88
0.26
50
2.00
55
0.19
45
2.34
98
2.95
99
0.05
76
0.27
101
0.60
89
0.07
29
3.82
109
0.11
36
raftrobusttwo views0.86
59
0.40
65
0.77
110
0.40
103
0.31
89
0.01
34
0.04
70
2.51
129
0.13
49
0.51
75
0.00
1
0.51
64
0.24
69
0.09
81
2.98
74
2.12
121
0.22
32
0.31
59
4.90
120
0.11
26
1.68
82
2.15
69
0.16
109
0.15
66
0.78
98
0.40
64
0.97
23
0.36
60
CFNet_pseudotwo views0.86
59
0.52
83
0.57
80
0.44
112
0.52
120
0.05
72
0.02
46
0.60
57
0.10
38
0.93
96
0.12
63
0.71
89
0.30
77
0.51
157
4.66
147
1.68
92
0.33
50
0.32
61
2.61
79
0.34
67
0.96
42
1.53
53
0.55
163
0.13
60
0.49
80
0.50
73
2.17
45
1.63
106
CFNet_RVCtwo views0.86
59
0.59
93
0.74
107
0.33
79
0.32
94
0.11
86
0.02
46
0.11
22
0.17
61
0.87
94
0.74
118
0.57
79
0.16
56
0.08
74
3.11
79
1.19
46
0.50
70
0.34
65
1.28
40
0.15
33
1.68
82
1.48
51
0.02
45
0.25
90
0.86
100
1.89
118
3.64
95
2.13
114
CIPLGtwo views0.87
64
0.19
22
0.67
102
0.27
60
0.21
55
0.00
1
0.20
116
0.19
27
0.50
96
0.07
33
0.12
63
1.16
109
0.08
29
0.21
127
4.78
153
1.50
72
0.68
94
0.22
42
1.92
52
0.18
39
2.28
93
2.98
102
0.04
68
0.27
101
0.66
93
0.09
33
3.80
107
0.12
39
ACREtwo views0.87
64
0.21
27
0.64
97
0.28
64
0.20
54
0.00
1
0.20
116
0.18
25
0.48
94
0.08
36
0.15
69
1.22
111
0.08
29
0.23
136
4.70
150
1.49
70
0.67
90
0.25
49
1.97
54
0.18
39
2.33
97
2.98
102
0.05
76
0.26
94
0.67
96
0.07
29
3.81
108
0.11
36
GMOStereotwo views0.91
66
0.15
15
0.61
90
0.34
84
0.25
68
0.12
92
0.05
74
2.40
120
0.15
54
0.00
1
0.18
72
0.51
64
0.45
95
0.02
20
2.30
38
1.97
112
0.53
74
0.70
108
2.24
60
0.41
80
1.67
78
3.92
123
0.01
27
0.15
66
1.33
115
0.13
38
3.95
116
0.09
29
error versiontwo views0.91
66
0.15
15
0.61
90
0.34
84
0.25
68
0.12
92
0.05
74
2.40
120
0.15
54
0.00
1
0.18
72
0.51
64
0.45
95
0.02
20
2.30
38
1.97
112
0.53
74
0.70
108
2.24
60
0.41
80
1.67
78
3.92
123
0.01
27
0.15
66
1.33
115
0.13
38
3.95
116
0.09
29
test-vtwo views0.91
66
0.15
15
0.61
90
0.34
84
0.25
68
0.12
92
0.05
74
2.40
120
0.15
54
0.00
1
0.18
72
0.51
64
0.45
95
0.02
20
2.30
38
1.97
112
0.53
74
0.70
108
2.24
60
0.41
80
1.67
78
3.92
123
0.01
27
0.15
66
1.33
115
0.13
38
3.95
116
0.09
29
test-2two views0.91
66
0.15
15
0.61
90
0.34
84
0.25
68
0.12
92
0.05
74
2.40
120
0.15
54
0.00
1
0.18
72
0.51
64
0.45
95
0.02
20
2.30
38
1.97
112
0.53
74
0.70
108
2.24
60
0.41
80
1.67
78
3.92
123
0.01
27
0.15
66
1.33
115
0.13
38
3.95
116
0.09
29
RALAANettwo views0.92
70
0.35
57
0.48
72
0.36
95
0.24
66
0.18
107
0.02
46
1.89
99
0.19
68
0.51
75
0.01
41
0.26
25
0.25
71
0.06
63
2.32
42
1.73
96
0.35
53
0.69
107
3.14
93
0.55
104
2.51
107
2.39
79
0.01
27
0.26
94
0.37
69
1.12
97
4.01
124
0.53
70
DLCB_ROBtwo views0.92
70
0.72
110
0.64
97
0.43
110
0.42
110
0.14
99
0.18
115
0.43
45
0.28
79
0.85
92
0.53
101
1.12
106
0.72
130
0.07
68
2.16
34
1.12
38
0.88
114
0.26
50
0.69
22
0.20
50
1.35
63
1.53
53
0.49
156
0.28
111
4.11
172
2.41
125
2.04
41
0.78
77
ddtwo views0.93
72
0.46
75
0.32
34
1.70
158
0.04
11
0.21
114
0.11
104
0.46
48
0.06
18
0.11
39
0.01
41
1.91
124
0.06
24
0.16
105
4.29
128
0.96
25
0.81
110
0.34
65
5.67
124
0.37
72
0.58
24
0.68
26
0.15
106
0.26
94
0.07
24
0.09
33
3.26
79
1.96
110
SAtwo views0.95
73
0.82
118
0.44
67
0.21
40
0.23
62
0.01
34
0.00
1
2.73
142
0.12
46
0.02
27
0.00
1
0.39
53
0.39
91
0.36
149
2.49
52
1.61
80
0.31
47
0.47
84
3.23
95
0.20
50
1.23
58
3.19
109
0.01
27
0.18
75
0.41
74
1.70
110
4.81
145
0.10
34
LMCR-Stereopermissivemany views0.97
74
0.53
85
0.59
84
0.28
64
0.25
68
0.07
77
0.02
46
1.39
79
0.28
79
0.34
59
0.12
63
0.74
93
0.15
50
0.12
95
3.20
83
1.88
107
1.07
130
0.36
68
5.87
129
1.71
156
2.10
92
2.39
79
0.02
45
0.33
124
0.35
68
0.38
62
1.44
33
0.34
58
HSMtwo views0.97
74
0.30
50
0.87
117
0.54
119
0.46
112
0.00
1
0.01
26
2.93
151
0.30
82
0.13
42
0.56
103
0.65
83
0.13
44
0.05
53
2.97
72
1.08
34
0.66
89
0.17
35
3.26
98
0.35
69
1.78
84
2.03
65
0.04
68
0.33
124
0.38
70
0.81
86
4.16
132
1.10
91
CREStereo++_RVCtwo views0.99
76
0.21
27
1.16
135
0.28
64
0.36
102
0.01
34
0.05
74
2.06
109
0.27
78
0.62
79
0.08
59
0.46
59
0.14
48
0.05
53
2.55
56
2.70
139
0.74
102
0.50
88
2.59
77
0.24
55
2.97
118
2.20
71
0.09
90
0.10
47
0.96
102
0.43
67
4.10
130
0.79
78
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
NLCA_NET_v2_RVCtwo views0.99
76
0.82
118
0.34
43
0.18
37
0.43
111
0.03
61
1.10
151
1.20
73
2.50
175
2.06
148
0.11
62
0.69
88
0.07
26
0.54
158
3.65
111
0.91
22
0.19
30
0.22
42
1.65
49
0.15
33
0.73
31
0.92
35
0.08
88
0.18
75
0.11
42
3.29
136
2.58
52
2.09
112
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
psm_uptwo views1.01
78
0.60
95
0.96
122
0.38
101
0.75
132
0.01
34
0.03
62
2.33
118
1.18
143
0.78
86
0.00
1
0.94
98
0.09
37
0.45
155
2.41
46
1.18
44
0.62
83
0.44
80
3.67
107
0.32
66
1.14
51
0.85
31
0.00
1
0.58
150
1.06
106
1.42
104
3.75
103
1.44
99
CREStereotwo views1.03
79
0.31
54
0.74
107
0.24
53
0.16
37
0.01
34
0.04
70
2.66
139
0.55
100
0.63
80
0.56
103
0.71
89
0.59
115
0.05
53
2.97
72
3.31
159
0.60
80
0.43
79
2.12
57
0.57
106
3.00
121
2.30
76
0.06
83
0.12
53
1.18
109
0.53
75
2.42
49
0.88
79
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
PDISCO_ROBtwo views1.03
79
0.55
87
0.06
6
0.67
127
0.28
80
0.00
1
0.21
118
0.71
59
0.49
95
1.28
118
0.99
124
0.25
22
0.32
78
0.19
117
3.02
77
2.03
118
0.69
95
1.42
164
2.26
64
0.58
107
2.32
95
3.22
111
0.14
105
0.27
101
1.36
119
0.37
61
3.84
112
0.23
47
STTStereotwo views1.06
81
0.85
124
0.57
80
0.36
95
0.29
83
0.08
79
0.64
139
0.43
45
1.56
157
1.40
128
0.26
79
1.95
126
0.07
26
0.29
143
4.26
125
1.06
31
0.25
38
0.23
44
1.16
36
0.14
29
1.46
72
0.84
30
0.12
101
0.10
47
0.07
24
1.81
115
3.51
91
4.84
143
iResNet_ROBtwo views1.07
82
0.65
103
0.30
32
0.45
114
0.30
87
0.01
34
0.02
46
3.10
158
0.12
46
1.34
122
0.00
1
0.66
84
0.35
82
0.04
48
4.37
132
1.65
85
0.54
78
0.49
86
5.83
128
0.29
62
1.30
61
0.87
32
0.20
118
0.26
94
0.16
54
0.84
89
3.74
100
1.12
92
LoS_RVCtwo views1.09
83
1.51
155
0.60
86
0.05
8
0.49
113
0.01
34
0.08
92
0.22
31
0.74
115
1.72
135
0.23
77
0.56
76
0.63
119
0.12
95
3.15
80
2.90
143
0.69
95
1.79
177
3.27
99
0.50
99
4.03
143
3.48
114
0.21
120
0.07
27
0.33
65
0.47
70
0.70
17
0.96
86
tt_lltwo views1.09
83
1.51
155
0.60
86
0.05
8
0.49
113
0.01
34
0.08
92
0.22
31
0.74
115
1.72
135
0.23
77
0.56
76
0.63
119
0.12
95
3.15
80
2.90
143
0.69
95
1.79
177
3.27
99
0.50
99
4.03
143
3.48
114
0.21
120
0.07
27
0.33
65
0.47
70
0.70
17
0.96
86
AF-Nettwo views1.11
85
0.51
79
0.87
117
0.34
84
0.78
134
0.89
147
1.87
164
2.40
120
1.15
141
0.48
72
0.68
114
3.66
140
0.16
56
0.27
141
2.44
48
0.98
26
0.35
53
0.01
3
1.60
46
0.40
75
0.50
19
2.58
90
0.05
76
0.08
37
0.66
93
0.45
68
3.47
88
2.34
118
Nwc_Nettwo views1.11
85
0.51
79
0.87
117
0.34
84
0.78
134
0.89
147
1.87
164
2.40
120
1.15
141
0.48
72
0.68
114
3.66
140
0.16
56
0.27
141
2.44
48
0.98
26
0.35
53
0.01
3
1.60
46
0.40
75
0.50
19
2.58
90
0.05
76
0.08
37
0.66
93
0.45
68
3.47
88
2.34
118
IPLGtwo views1.12
87
0.36
58
0.65
101
0.29
71
0.23
62
0.00
1
0.05
74
2.30
116
0.29
81
0.39
66
0.29
82
0.27
28
0.72
130
0.24
137
5.68
175
1.79
101
1.05
127
0.84
127
2.78
85
0.41
80
0.98
44
4.31
142
0.02
45
0.25
90
0.46
79
1.49
105
3.86
113
0.11
36
UCFNet_RVCtwo views1.13
88
2.65
178
0.57
80
0.57
121
0.74
131
0.19
111
0.01
26
0.28
36
0.22
73
0.95
97
0.39
90
2.41
134
0.89
147
0.06
63
2.99
76
1.18
44
0.50
70
0.49
86
2.19
58
0.44
89
1.50
73
1.54
56
1.06
182
0.19
78
1.43
121
1.73
112
1.86
40
3.39
132
APVNettwo views1.14
89
1.04
139
0.20
18
0.33
79
0.37
104
0.21
114
0.36
128
0.34
38
0.39
87
0.95
97
0.44
97
0.71
89
0.15
50
0.15
104
3.51
103
2.84
142
1.63
154
0.93
137
4.54
117
0.69
113
1.89
88
4.06
133
0.02
45
0.53
146
0.10
38
0.38
62
3.20
76
0.95
84
CEStwo views1.20
90
0.24
38
0.35
46
0.13
32
0.18
45
0.05
72
0.08
92
5.35
195
0.78
119
0.43
71
0.31
85
0.83
97
0.86
146
0.16
105
3.20
83
3.22
156
1.12
134
1.06
147
1.51
45
1.05
129
4.23
147
3.19
109
0.08
88
0.09
46
0.19
57
0.34
60
1.07
24
2.23
117
raft_robusttwo views1.21
91
0.70
107
0.61
90
0.27
60
0.19
48
0.00
1
0.00
1
3.05
155
0.22
73
1.18
111
0.03
50
0.34
45
0.69
126
0.07
68
2.94
71
1.76
99
0.57
79
0.63
104
4.95
121
0.19
45
2.98
120
4.81
150
0.01
27
0.19
78
0.97
103
1.39
102
2.87
59
0.98
89
Sa-1000two views1.25
92
0.27
42
0.51
77
0.28
64
0.23
62
0.00
1
0.00
1
2.78
145
0.10
38
0.01
22
0.01
41
0.34
45
0.50
107
0.59
166
4.62
145
1.70
95
0.69
95
0.83
126
4.47
115
0.43
86
1.38
66
4.54
146
0.01
27
0.24
85
2.01
135
1.81
115
5.02
152
0.39
62
EGLCR-Stereotwo views1.26
93
0.21
27
1.76
163
0.07
23
0.25
68
0.08
79
0.02
46
0.49
49
0.55
100
0.11
39
0.45
99
0.58
80
0.67
124
0.03
34
2.32
42
2.67
138
0.93
118
1.20
157
4.21
113
0.19
45
4.10
146
4.78
149
0.05
76
0.13
60
0.64
92
0.67
77
6.56
171
0.32
56
iResNetv2_ROBtwo views1.26
93
0.75
112
0.32
34
1.29
150
0.33
97
0.02
55
0.02
46
3.19
162
0.20
71
2.00
147
0.29
82
2.24
129
0.41
93
0.06
63
3.64
110
1.45
67
0.75
103
0.13
29
5.77
126
0.43
86
2.86
114
1.71
60
0.16
109
0.37
131
0.38
70
0.47
70
4.08
127
0.72
74
PMTNettwo views1.28
95
0.58
92
0.96
122
0.28
64
0.22
60
0.01
34
0.16
113
0.50
50
0.57
104
0.72
85
0.35
88
0.54
71
0.48
104
0.09
81
3.27
92
3.32
160
0.72
101
0.39
72
6.17
130
0.35
69
3.67
135
2.41
83
0.09
90
0.12
53
3.12
163
1.00
95
1.23
27
3.32
130
RPtwo views1.29
96
1.06
142
2.32
174
0.84
133
1.16
143
0.39
122
1.53
158
1.89
99
1.68
161
0.29
55
2.21
144
2.25
130
0.13
44
0.40
152
3.31
96
1.07
32
0.61
81
0.05
10
1.61
48
0.40
75
0.65
27
3.05
106
0.11
99
0.29
113
0.29
63
0.92
91
4.24
133
2.04
111
ICVPtwo views1.32
97
0.22
34
1.47
152
0.40
103
0.35
101
0.44
124
0.10
99
1.27
76
0.65
110
1.74
138
1.26
128
0.66
84
1.37
164
0.24
137
2.88
66
2.65
136
1.33
145
0.99
142
2.36
71
0.91
125
2.59
108
4.11
134
0.10
94
0.36
129
0.57
86
2.21
122
2.92
60
1.59
103
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
BEATNet_4xtwo views1.40
98
0.54
86
0.27
26
0.13
32
0.27
77
0.01
34
0.10
99
1.80
93
1.74
164
0.41
70
0.53
101
0.82
96
0.59
115
0.54
158
4.30
129
2.92
146
1.87
159
1.84
181
1.39
41
0.71
115
4.68
155
6.21
194
0.02
45
0.81
157
0.21
60
0.40
64
3.69
96
0.96
86
SACVNettwo views1.43
99
0.80
114
0.85
116
0.58
123
1.31
152
0.63
137
0.62
138
2.60
136
0.52
97
1.33
121
0.02
49
0.74
93
0.32
78
0.34
148
2.78
61
2.11
120
1.38
147
0.39
72
4.62
118
0.70
114
2.37
100
3.83
121
0.05
76
0.42
136
1.29
112
1.64
109
3.74
100
2.62
123
GEStwo views1.43
99
0.28
44
0.41
62
0.57
121
0.37
104
0.27
119
0.07
89
2.06
109
0.93
130
1.20
115
0.58
106
0.39
53
0.23
68
0.02
20
4.91
159
2.49
132
0.91
115
0.66
106
9.59
165
1.37
145
2.97
118
2.53
88
0.16
109
0.41
133
0.20
58
0.17
47
2.57
50
2.20
116
DN-CSS_ROBtwo views1.45
101
0.52
83
1.11
129
0.81
131
0.69
128
0.00
1
0.03
62
2.86
150
0.35
84
1.50
132
3.76
167
0.73
92
0.36
86
0.07
68
2.89
67
1.44
65
1.08
131
0.79
118
8.61
150
0.23
53
3.25
128
1.97
63
0.02
45
0.66
152
0.10
38
0.52
74
3.12
72
1.56
102
iinet-ftwo views1.47
102
1.20
148
0.32
34
0.82
132
0.13
32
0.14
99
0.10
99
0.42
43
0.21
72
1.93
143
4.19
170
0.19
14
0.21
65
0.08
74
5.12
165
2.54
134
0.23
35
0.30
58
7.71
142
1.00
127
1.95
90
4.30
141
0.21
120
0.17
73
1.25
110
0.16
44
4.11
131
0.62
72
MIPNettwo views1.49
103
0.69
106
0.74
107
0.32
78
0.51
115
0.00
1
0.03
62
1.79
92
0.38
85
2.13
151
0.97
121
0.31
37
0.76
134
0.22
134
5.02
163
1.92
110
1.31
141
0.86
128
3.68
108
1.25
141
1.21
55
4.62
147
0.03
62
0.50
142
1.90
133
4.87
161
3.90
115
0.30
53
test-3two views1.53
104
1.03
138
1.25
139
0.40
103
0.31
89
0.11
86
0.06
84
2.79
147
0.17
61
0.35
63
0.44
97
4.06
145
0.35
82
0.03
34
2.84
63
1.63
83
0.37
60
0.57
96
8.86
155
0.46
92
3.20
125
5.38
164
0.02
45
0.27
101
0.61
91
0.95
92
3.95
116
0.88
79
test_1two views1.53
104
1.05
140
1.24
138
0.40
103
0.31
89
0.11
86
0.06
84
2.78
145
0.17
61
0.32
57
0.42
95
4.06
145
0.36
86
0.03
34
2.84
63
1.62
82
0.37
60
0.57
96
8.88
156
0.46
92
3.22
127
5.38
164
0.02
45
0.27
101
0.60
89
0.95
92
3.95
116
0.90
83
AnonymousMtwo views1.53
104
0.20
25
0.39
58
0.05
8
0.04
11
0.25
118
0.01
26
2.74
143
0.57
104
0.35
63
1.45
130
0.55
73
0.53
110
0.22
134
2.76
60
2.91
145
0.98
124
1.05
144
2.00
55
1.32
144
3.73
136
3.49
116
0.20
118
0.28
111
0.13
47
0.28
56
5.87
164
9.03
171
sAnonymous2two views1.54
107
0.26
39
0.15
15
0.10
30
0.17
42
0.48
127
0.00
1
1.87
97
0.97
132
0.22
47
0.41
91
1.12
106
0.82
139
0.08
74
4.07
120
3.86
170
1.31
141
1.19
155
7.54
139
0.72
116
4.00
139
4.87
154
0.03
62
0.29
113
0.14
51
2.16
120
2.37
47
2.45
121
CroCo_RVCtwo views1.54
107
0.26
39
0.15
15
0.10
30
0.17
42
0.48
127
0.00
1
1.87
97
0.97
132
0.22
47
0.41
91
1.12
106
0.82
139
0.08
74
4.07
120
3.86
170
1.31
141
1.19
155
7.54
139
0.72
116
4.00
139
4.87
154
0.03
62
0.29
113
0.14
51
2.16
120
2.37
47
2.45
121
PS-NSSStwo views1.54
107
3.12
185
0.33
39
3.03
174
0.83
137
1.73
164
0.70
140
0.39
42
0.15
54
0.39
66
0.00
1
11.06
179
1.04
154
0.41
154
2.13
32
0.79
15
0.47
68
0.26
50
4.17
112
0.14
29
0.90
40
0.37
14
2.44
193
0.06
22
0.99
104
0.74
84
3.17
74
1.82
107
test_3two views1.56
110
1.14
145
1.14
131
0.44
112
0.32
94
0.11
86
0.07
89
2.84
149
0.16
60
0.39
66
0.43
96
4.16
148
0.36
86
0.03
34
2.91
68
1.52
75
0.41
64
0.59
98
8.96
159
0.46
92
3.12
124
5.36
163
0.02
45
0.25
90
0.85
99
1.20
98
3.83
111
0.95
84
TANstereotwo views1.57
111
1.38
150
0.48
72
0.26
57
0.29
83
0.52
132
0.05
74
0.51
52
0.47
91
0.27
53
0.62
112
0.32
38
0.20
62
1.08
185
3.59
105
2.81
140
0.79
106
1.63
172
8.83
153
3.01
189
3.50
130
2.89
95
3.03
200
0.10
47
0.04
19
0.69
79
4.96
150
0.05
22
XX-TBDtwo views1.57
111
1.38
150
0.48
72
0.26
57
0.29
83
0.52
132
0.05
74
0.51
52
0.47
91
0.27
53
0.62
112
0.32
38
0.20
62
1.08
185
3.59
105
2.81
140
0.79
106
1.63
172
8.83
153
3.01
189
3.50
130
2.89
95
3.03
200
0.10
47
0.04
19
0.69
79
4.96
150
0.05
22
DeepPruner_ROBtwo views1.57
111
0.37
61
0.71
105
0.50
117
0.55
121
0.37
121
1.60
161
1.74
89
0.84
123
1.37
125
2.40
146
0.49
62
0.51
108
0.10
89
5.38
169
2.16
124
1.10
132
1.08
148
2.28
66
0.40
75
4.83
159
3.42
112
0.66
171
0.34
126
0.57
86
5.04
163
3.07
66
0.53
70
FCDSN-DCtwo views1.58
114
0.84
122
2.05
169
1.66
157
1.43
156
1.08
154
0.99
145
0.72
60
0.44
90
1.18
111
0.31
85
1.45
119
0.49
106
0.07
68
6.05
184
1.96
111
2.13
163
1.97
184
1.16
36
0.44
89
2.39
102
2.62
92
0.49
156
3.18
189
1.72
128
3.24
135
1.34
29
1.27
96
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
FADNet-RVC-Resampletwo views1.60
115
0.67
105
0.97
124
0.50
117
0.64
125
0.18
107
1.05
147
1.27
76
0.83
122
0.96
99
0.97
121
5.23
159
0.42
94
1.02
180
4.81
156
1.68
92
1.05
127
1.96
183
3.78
109
1.06
130
1.52
75
2.28
75
0.21
120
1.35
169
0.55
84
3.16
133
2.13
44
2.92
125
PA-Nettwo views1.61
116
0.81
117
1.43
150
0.27
60
1.99
172
0.12
92
0.34
127
0.19
27
1.90
167
0.85
92
0.41
91
0.24
21
0.20
62
0.78
173
4.61
144
1.44
65
0.17
26
0.26
50
1.08
32
0.53
102
1.44
70
3.18
108
0.65
169
0.44
139
0.99
104
7.71
184
1.78
39
9.78
176
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
FADNet-RVCtwo views1.64
117
0.31
54
0.64
97
0.33
79
1.19
146
0.01
34
2.53
175
0.57
55
0.22
73
1.03
102
0.32
87
6.04
166
0.29
75
0.32
146
4.47
136
1.90
108
0.62
83
0.78
117
6.45
134
1.80
161
1.85
87
2.02
64
0.19
116
0.52
145
1.78
130
1.74
113
3.10
68
3.15
126
IPLGRtwo views1.73
118
0.63
102
0.67
102
0.35
93
0.40
108
0.00
1
0.03
62
1.41
80
0.26
77
2.36
152
2.42
148
0.33
41
0.80
138
0.17
111
6.12
185
1.87
104
1.22
138
1.28
158
5.37
123
1.72
158
2.44
104
4.20
137
0.02
45
0.56
149
2.66
153
4.85
160
3.82
109
0.77
76
pcwnet_v2two views1.73
118
0.62
98
0.78
111
0.73
129
1.15
142
0.59
135
0.23
122
1.77
91
0.68
112
3.36
178
1.85
142
1.23
112
1.01
152
1.61
196
5.43
171
2.08
119
0.92
117
0.62
102
4.07
111
0.37
72
1.82
85
2.39
79
1.01
179
0.41
133
1.32
114
2.11
119
3.98
122
4.53
139
sCroCo_RVCtwo views1.75
120
0.23
37
0.32
34
0.06
15
0.17
42
0.15
103
0.01
26
0.81
63
1.74
164
1.93
143
0.47
100
1.08
102
0.82
139
0.09
81
3.32
97
4.94
192
2.31
167
1.73
174
5.18
122
2.00
170
5.82
175
5.83
179
0.10
94
0.26
94
0.59
88
1.60
107
4.43
136
1.17
94
NCC-stereotwo views1.86
121
1.63
158
1.33
144
0.95
141
1.22
148
0.80
140
2.29
171
2.62
137
2.93
178
0.34
59
2.87
158
2.16
127
1.17
156
0.21
127
3.63
107
1.13
39
0.63
86
0.96
140
2.79
86
0.75
118
0.98
44
2.96
100
0.36
143
0.32
120
2.31
142
4.50
153
3.69
96
4.78
140
Abc-Nettwo views1.86
121
1.63
158
1.33
144
0.95
141
1.22
148
0.80
140
2.29
171
2.62
137
2.93
178
0.34
59
2.87
158
2.16
127
1.17
156
0.21
127
3.63
107
1.13
39
0.63
86
0.96
140
2.79
86
0.75
118
0.98
44
2.96
100
0.36
143
0.32
120
2.31
142
4.50
153
3.69
96
4.78
140
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
LoStwo views1.87
123
0.22
34
0.38
55
0.22
44
0.14
35
0.02
55
0.06
84
15.85
221
0.90
128
3.42
181
0.71
117
0.95
100
0.83
144
0.21
127
3.22
88
3.63
167
1.18
136
0.90
132
2.95
91
0.64
110
5.08
166
3.80
120
0.22
128
0.17
73
2.26
139
0.82
87
1.23
27
0.52
68
stereogantwo views1.89
124
2.00
167
1.17
136
1.47
153
2.05
174
1.72
163
0.87
144
1.84
95
1.11
139
1.36
124
1.51
132
5.81
163
0.48
104
0.32
146
3.87
116
1.69
94
0.80
108
0.39
72
3.96
110
0.78
120
1.23
58
4.02
130
0.26
131
0.51
143
0.30
64
1.30
101
6.30
168
3.84
133
FADNettwo views1.92
125
0.44
69
0.60
86
0.54
119
1.05
140
0.00
1
2.95
179
0.78
62
0.38
85
0.81
89
0.61
111
2.40
132
0.47
103
0.65
167
5.57
172
1.73
96
0.69
95
1.08
148
8.93
158
1.61
154
2.36
99
2.52
87
0.09
90
0.36
129
2.54
150
3.77
144
3.43
86
5.46
147
s12784htwo views2.07
126
2.29
173
2.24
170
1.60
156
0.69
128
0.05
72
0.03
62
2.13
112
0.55
100
1.19
113
0.13
68
1.61
122
0.68
125
0.04
48
3.20
83
3.09
152
0.78
105
0.41
77
3.50
104
0.43
86
5.42
172
2.92
98
0.11
99
0.12
53
2.64
152
1.70
110
6.64
172
11.65
181
NCCL2two views2.12
127
2.27
172
1.29
141
1.28
149
1.85
169
0.18
107
0.77
143
1.24
74
1.25
146
1.62
134
2.71
154
1.06
101
0.51
108
0.31
144
4.40
134
2.33
129
1.57
150
0.62
102
2.35
70
0.68
112
2.68
111
4.29
140
1.52
188
1.06
161
4.65
179
4.17
148
4.04
126
6.58
158
R-Stereo Traintwo views2.16
128
1.08
143
1.57
158
0.84
133
0.19
48
0.01
34
0.01
26
2.05
106
1.01
135
1.37
125
2.45
150
1.50
120
0.46
100
0.21
127
3.23
89
4.53
177
1.62
152
1.05
144
7.07
137
1.09
132
4.86
160
5.93
186
0.04
68
0.31
117
2.48
146
4.63
155
3.10
68
5.74
149
RAFT-Stereopermissivetwo views2.16
128
1.08
143
1.57
158
0.84
133
0.19
48
0.01
34
0.01
26
2.05
106
1.01
135
1.37
125
2.45
150
1.50
120
0.46
100
0.21
127
3.23
89
4.53
177
1.62
152
1.05
144
7.07
137
1.09
132
4.86
160
5.93
186
0.04
68
0.31
117
2.48
146
4.63
155
3.10
68
5.74
149
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
Anonymoustwo views2.21
130
0.21
27
0.12
13
0.08
26
0.25
68
0.14
99
0.00
1
3.06
156
1.34
150
1.47
131
0.01
41
1.31
114
1.20
158
0.16
105
4.37
132
5.51
203
2.59
171
1.75
176
12.10
181
2.04
171
5.82
175
5.62
175
0.09
90
1.05
160
1.45
123
1.75
114
4.59
143
1.60
104
GANet-ADLtwo views2.26
131
0.51
79
1.82
166
0.99
143
0.99
139
1.45
159
0.29
125
2.00
103
1.01
135
3.12
171
3.40
161
1.38
117
0.33
80
0.03
34
5.34
167
3.89
172
2.23
164
0.79
118
7.70
141
1.85
164
3.10
122
4.63
148
0.18
115
0.43
138
1.38
120
3.47
139
4.81
145
3.97
134
MSMDNettwo views2.28
132
0.62
98
1.27
140
0.37
97
0.30
87
0.19
111
0.07
89
3.15
160
0.68
112
1.01
101
0.97
121
1.10
105
2.40
168
0.17
111
3.93
117
5.26
199
1.11
133
0.55
93
10.21
170
2.94
187
6.12
179
5.76
178
0.31
136
0.26
94
2.47
145
4.23
149
3.01
64
3.18
127
GEStereo_RVCtwo views2.30
133
0.85
124
0.97
124
1.05
144
0.71
130
1.61
161
1.09
150
2.72
141
0.56
103
0.78
86
0.41
91
2.40
132
0.28
73
0.06
63
4.81
156
4.48
176
1.79
156
2.17
186
8.91
157
1.90
167
3.58
132
7.25
206
0.52
158
0.92
158
0.41
74
0.85
90
4.47
138
6.48
155
cross-rafttwo views2.33
134
0.70
107
1.33
144
0.40
103
0.61
124
0.19
111
0.08
92
3.13
159
0.71
114
0.78
86
1.62
137
1.09
104
0.70
129
0.17
111
3.66
112
4.78
185
0.99
125
0.55
93
10.72
173
1.52
151
6.33
182
5.61
174
0.30
134
0.24
85
2.56
151
4.68
158
4.44
137
5.06
144
RAFT-Testtwo views2.40
135
0.62
98
1.45
151
1.07
145
0.41
109
0.21
114
0.21
118
3.19
162
0.77
117
1.05
104
3.09
160
0.94
98
0.92
149
0.17
111
3.47
102
5.18
197
0.97
123
0.56
95
10.36
171
1.38
146
6.37
183
5.29
159
0.38
145
0.25
90
2.80
158
4.66
157
4.56
141
4.51
137
GANetREF_RVCpermissivetwo views2.43
136
1.69
161
0.81
113
2.04
167
1.16
143
1.02
151
0.10
99
4.72
188
1.44
154
3.62
186
0.06
55
10.03
177
0.69
126
0.09
81
3.63
107
1.36
59
1.06
129
0.94
138
6.44
133
0.46
92
2.32
95
1.74
61
0.17
113
1.35
169
3.41
166
3.75
142
6.55
170
4.82
142
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
RGCtwo views2.44
137
1.98
166
4.87
194
1.54
154
1.65
161
1.74
165
1.05
147
2.02
104
1.43
153
0.88
95
4.42
176
2.52
136
2.42
169
0.58
163
4.33
130
1.63
83
0.91
115
0.48
85
4.28
114
1.08
131
1.94
89
4.01
129
0.15
106
0.72
155
2.19
138
5.22
168
4.90
149
6.96
159
MLCVtwo views2.45
138
0.61
97
0.81
113
2.48
171
1.21
147
0.95
149
0.50
135
3.57
175
0.61
107
3.75
190
4.26
174
5.13
155
3.34
173
0.06
63
4.63
146
1.78
100
1.32
144
0.86
128
10.05
169
1.09
132
2.30
94
3.92
123
0.29
133
2.16
181
1.87
131
3.06
130
4.01
124
1.40
98
UDGNettwo views2.51
139
1.01
136
0.33
39
10.93
204
5.26
194
8.50
202
3.54
184
1.72
88
0.15
54
0.23
50
0.08
59
0.52
69
0.10
41
10.25
222
3.55
104
1.25
50
0.46
66
0.46
82
2.73
84
0.59
108
2.44
104
4.14
136
2.94
197
0.15
66
1.72
128
0.77
85
2.94
62
1.13
93
EKT-Stereotwo views2.55
140
0.72
110
1.73
162
0.49
116
0.32
94
0.51
130
1.72
162
3.38
169
1.00
134
1.96
146
2.80
155
1.33
115
0.76
134
0.10
89
4.55
140
5.93
208
1.26
139
3.18
200
8.70
151
2.73
182
6.75
190
5.86
180
0.10
94
0.26
94
3.99
169
1.81
115
5.40
158
1.62
105
Any-RAFTtwo views2.56
141
0.56
89
3.45
185
0.34
84
0.51
115
0.01
34
0.04
70
2.96
153
0.64
109
0.51
75
3.99
169
3.76
142
0.35
82
0.16
105
2.92
69
3.82
169
0.81
110
0.80
122
8.30
148
0.51
101
5.45
173
3.87
122
0.44
154
0.16
72
4.84
181
7.87
185
3.19
75
8.70
167
RTSCtwo views2.56
141
0.89
128
1.50
154
0.47
115
0.76
133
0.87
144
2.29
171
1.56
86
1.91
168
2.12
149
2.86
157
1.23
112
0.97
151
1.03
182
7.27
192
3.36
162
4.68
196
1.74
175
7.73
143
1.11
135
3.95
138
5.39
166
0.21
120
1.11
164
0.40
73
0.95
92
4.56
141
8.26
166
DeepPrunerFtwo views2.66
143
1.67
160
0.33
39
3.58
180
9.30
209
1.76
166
3.48
183
0.68
58
3.29
181
0.71
84
1.59
135
0.37
49
0.27
72
0.13
101
5.94
179
3.42
165
1.03
126
0.54
92
4.47
115
0.65
111
2.02
91
2.06
67
0.56
164
0.31
117
15.21
214
3.30
137
3.74
100
1.47
100
CASStwo views2.68
144
1.05
140
1.93
168
2.07
168
0.98
138
0.45
126
2.15
169
2.82
148
1.03
138
1.83
141
3.58
164
1.38
117
0.53
110
0.02
20
4.01
118
3.03
151
4.89
198
1.34
160
9.14
160
1.47
148
7.05
197
6.20
193
0.03
62
0.27
101
2.76
156
2.80
129
4.30
134
5.36
145
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
EAI-Stereotwo views2.70
145
0.83
121
2.70
179
0.89
138
1.47
158
0.83
143
1.46
157
3.07
157
1.18
143
0.21
46
3.82
168
3.19
138
0.72
130
0.09
81
5.24
166
4.82
187
0.83
112
0.91
134
9.83
168
1.25
141
4.49
152
5.29
159
0.39
146
0.80
156
1.87
131
3.19
134
7.10
179
6.43
154
NOSS_ROBtwo views2.78
146
3.78
192
0.39
58
2.02
166
1.58
159
2.36
172
0.00
1
2.66
139
1.54
156
3.63
187
1.79
140
2.55
137
3.51
174
0.83
176
5.82
177
5.57
204
2.69
172
1.83
180
2.63
81
0.91
125
4.62
153
4.13
135
0.42
150
2.58
185
2.29
140
4.46
152
7.67
184
2.88
124
SGM-Foresttwo views2.81
147
2.03
168
0.36
49
6.32
192
1.79
167
2.66
173
0.02
46
1.42
81
0.77
117
2.52
155
0.96
120
6.57
167
5.74
182
0.31
144
4.36
131
2.94
148
0.61
81
0.33
63
3.08
92
0.47
97
2.46
106
2.73
93
0.84
177
0.45
140
3.66
167
3.74
141
11.30
199
7.44
162
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
PWCDC_ROBbinarytwo views2.82
148
0.49
77
0.17
17
0.38
101
0.79
136
0.03
61
0.10
99
1.16
72
8.93
208
0.14
43
2.49
152
0.55
73
31.02
226
0.57
160
5.58
173
3.32
160
1.73
155
0.91
134
2.53
74
0.88
123
2.92
115
7.18
204
0.15
106
0.53
146
0.55
84
0.69
79
1.43
32
0.88
79
HSM-Net_RVCpermissivetwo views2.86
149
1.24
149
1.50
154
2.55
172
1.72
163
0.57
134
0.17
114
3.55
174
1.14
140
3.50
185
6.32
193
7.94
169
2.93
170
0.05
53
3.38
99
2.12
121
1.28
140
0.26
50
3.24
96
1.24
140
3.66
134
3.76
119
0.61
166
2.64
186
4.43
177
6.27
176
5.76
163
5.47
148
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
HHtwo views2.94
150
0.45
72
4.88
195
0.58
123
0.51
115
0.73
138
1.38
155
3.25
165
0.84
123
2.85
165
0.60
109
5.15
156
0.82
139
0.19
117
3.29
94
6.00
210
0.67
90
0.89
130
9.52
163
1.83
162
7.59
204
5.88
182
0.41
147
0.27
101
3.12
163
5.47
171
5.66
160
6.52
156
HanStereotwo views2.94
150
0.45
72
4.88
195
0.58
123
0.51
115
0.73
138
1.38
155
3.25
165
0.84
123
2.85
165
0.60
109
5.15
156
0.82
139
0.19
117
3.29
94
6.00
210
0.67
90
0.89
130
9.52
163
1.83
162
7.59
204
5.88
182
0.41
147
0.27
101
3.12
163
5.47
171
5.66
160
6.52
156
ADCReftwo views2.96
152
2.78
181
1.02
126
0.70
128
2.21
176
1.96
168
2.42
174
0.96
67
6.10
196
1.94
145
1.15
127
1.08
102
0.74
133
1.32
190
6.01
181
3.38
163
1.34
146
1.15
152
8.41
149
2.09
173
2.59
108
3.60
117
1.88
190
0.71
153
2.81
159
8.00
187
3.42
85
10.24
177
test-1two views2.99
153
0.26
39
1.52
156
0.33
79
0.21
55
0.22
117
0.38
129
3.16
161
0.85
127
3.36
178
4.21
172
5.45
160
0.78
136
0.20
122
4.02
119
4.67
183
1.40
148
1.31
159
10.46
172
1.58
152
5.30
171
7.01
203
0.04
68
0.34
126
2.98
161
6.37
177
5.39
157
8.95
170
NaN_ROBtwo views3.01
154
1.16
147
1.13
130
0.86
137
3.03
181
0.59
135
0.75
141
3.25
165
2.58
176
0.98
100
1.32
129
21.10
198
0.59
115
1.15
188
4.15
122
1.58
78
0.80
108
0.70
108
2.38
73
1.30
143
1.52
75
2.15
69
0.46
155
1.07
163
2.50
148
6.25
175
4.54
140
13.27
184
XPNet_ROBtwo views3.02
155
2.54
176
1.33
144
0.73
129
1.45
157
1.04
153
0.61
137
0.83
64
1.45
155
1.16
109
3.44
163
26.85
204
0.35
82
0.40
152
3.24
91
2.22
127
3.28
179
0.79
118
3.20
94
1.19
137
2.94
117
5.51
170
0.76
175
0.46
141
0.72
97
2.37
123
9.22
189
3.37
131
PSMNet-ADLtwo views3.15
156
0.80
114
1.49
153
1.54
154
1.63
160
0.88
145
0.30
126
2.50
128
1.91
168
4.43
202
8.13
207
4.06
145
6.80
186
0.07
68
4.23
124
5.16
196
1.83
158
0.91
134
11.85
180
1.86
165
4.02
142
4.02
130
0.70
173
0.51
143
1.61
125
4.33
151
8.01
186
1.36
97
Anonymous3two views3.16
157
0.55
87
0.79
112
0.09
28
1.10
141
0.50
129
0.03
62
3.52
173
1.26
147
1.12
107
0.84
119
10.62
178
1.31
162
0.36
149
7.37
193
6.90
217
3.59
181
3.15
199
10.88
175
2.20
175
6.83
193
9.50
222
0.31
136
0.37
131
1.43
121
3.45
138
5.32
156
1.91
108
MSKI-zero shottwo views3.19
158
0.59
93
1.39
148
0.19
39
0.37
104
0.18
107
0.03
62
3.19
162
0.96
131
0.82
90
4.84
179
3.83
143
0.60
118
0.03
34
3.33
98
5.29
200
1.15
135
0.81
124
11.77
179
1.76
159
6.55
187
5.98
189
0.22
128
0.32
120
4.41
176
12.05
207
7.79
185
7.75
164
GwcNet-ADLtwo views3.21
159
2.99
184
3.34
183
3.11
175
2.07
175
0.82
142
0.12
106
2.95
152
0.67
111
3.84
195
7.51
201
7.80
168
1.22
159
0.20
122
3.79
115
4.73
184
2.11
162
0.73
114
7.81
146
2.53
179
3.21
126
3.69
118
0.22
128
1.53
172
2.17
137
4.84
159
4.00
123
8.77
169
TRStereotwo views3.24
160
2.66
180
7.45
210
0.35
93
0.14
35
7.79
198
0.13
110
3.04
154
0.42
89
2.75
160
1.46
131
5.69
162
0.65
122
0.09
81
3.75
113
4.23
175
0.70
100
0.63
104
6.77
135
1.21
138
4.05
145
4.81
150
0.12
101
0.24
85
2.72
154
6.73
180
12.83
201
6.09
152
ADCP+two views3.47
161
2.05
169
2.64
178
1.31
151
1.93
170
1.19
157
3.99
185
1.07
69
9.83
211
1.78
140
5.75
187
8.79
173
0.37
90
0.90
177
5.04
164
2.20
126
0.44
65
0.90
132
5.82
127
0.88
123
2.38
101
3.43
113
0.33
139
0.41
133
3.03
162
12.72
210
3.59
93
10.90
178
XX-Stereotwo views3.48
162
0.50
78
1.80
164
1.21
148
0.27
77
0.34
120
0.44
131
1.47
82
0.41
88
2.51
154
6.92
197
4.97
153
1.06
155
0.12
95
3.21
86
5.22
198
0.96
121
0.80
122
6.95
136
0.80
121
4.33
150
4.04
132
0.21
120
0.27
101
26.57
228
3.75
142
5.08
153
9.77
174
IGEV_Zeroshot_testtwo views3.61
163
0.78
113
7.78
213
6.84
193
0.33
97
2.04
169
1.78
163
3.97
180
0.92
129
2.12
149
6.05
191
4.60
151
1.01
152
0.08
74
3.44
101
5.73
205
0.76
104
0.61
100
9.25
161
1.49
149
7.12
199
6.47
197
0.31
136
0.27
101
5.02
185
5.44
170
5.95
165
7.38
161
anonymitytwo views3.65
164
0.66
104
5.99
206
1.34
152
0.51
115
0.44
124
0.11
104
3.79
179
0.79
120
2.66
158
18.15
235
3.83
143
0.89
147
0.26
140
3.21
86
5.09
195
0.93
118
0.53
90
7.76
145
1.11
135
4.31
149
5.87
181
0.28
132
0.42
136
4.98
184
9.60
200
5.40
158
9.75
173
HBP-ISPtwo views3.70
165
3.49
188
4.13
190
4.77
186
2.41
177
3.60
183
0.12
106
4.11
181
1.26
147
3.39
180
4.22
173
4.64
152
0.54
112
1.76
197
8.63
210
8.11
225
1.56
149
1.34
160
2.61
79
1.51
150
5.14
168
6.84
200
0.56
164
1.55
173
2.53
149
5.06
164
10.57
195
5.37
146
FC-DCNNcopylefttwo views3.82
166
4.38
196
5.67
204
9.61
202
4.14
188
8.01
200
3.26
181
4.21
182
1.69
162
2.95
167
1.54
134
5.87
165
2.09
167
0.13
101
4.40
134
2.15
123
2.54
170
1.11
150
3.38
101
0.82
122
3.11
123
2.20
71
0.65
169
3.29
191
6.33
194
4.91
162
6.98
176
7.80
165
ADCLtwo views3.91
167
3.61
190
2.28
172
1.76
160
1.76
166
3.09
177
4.16
186
1.98
102
13.71
218
2.81
163
5.14
182
2.47
135
0.65
122
1.10
187
5.38
169
2.55
135
2.02
160
2.20
187
6.41
132
2.08
172
4.87
162
4.20
137
1.40
186
1.06
161
6.69
195
6.60
178
4.33
135
11.16
180
FADNet_RVCtwo views3.95
168
2.06
170
1.30
142
3.33
178
3.36
184
0.99
150
2.06
168
2.30
116
1.39
152
1.72
135
4.72
178
9.29
174
5.82
184
1.76
197
8.23
207
3.12
154
2.98
175
4.27
206
16.83
188
3.30
193
4.99
165
5.51
170
0.63
168
1.39
171
1.45
123
3.14
132
4.86
147
5.92
151
LALA_ROBtwo views4.04
169
4.73
199
1.42
149
1.16
147
1.93
170
2.17
171
1.04
146
1.80
93
2.48
174
2.74
159
5.87
188
33.34
211
0.69
126
0.78
173
6.02
182
2.33
129
3.21
178
1.82
179
3.66
106
1.88
166
3.40
129
4.99
156
0.34
141
1.03
159
1.91
134
3.61
140
8.50
188
6.20
153
dadtwo views4.05
170
0.87
126
0.28
28
10.24
203
1.70
162
1.03
152
12.23
211
12.58
216
0.11
41
3.46
184
0.00
1
1.93
125
3.59
175
0.19
117
4.92
160
1.26
51
1.60
151
0.53
90
14.05
184
0.63
109
2.73
112
1.88
62
0.16
109
0.71
153
5.78
189
0.19
48
17.00
213
9.60
172
DAStwo views4.09
171
0.94
132
1.15
133
1.82
162
1.27
150
1.15
155
1.11
152
3.48
171
4.23
188
3.34
176
6.52
194
12.55
184
5.36
179
0.05
53
4.66
147
4.57
179
4.02
190
2.27
189
9.63
166
5.33
203
5.93
177
5.39
166
0.52
158
4.30
201
4.09
170
5.06
164
7.48
180
4.17
135
SepStereotwo views4.09
171
0.94
132
1.15
133
1.82
162
1.27
150
1.15
155
1.11
152
3.48
171
4.23
188
3.34
176
6.52
194
12.55
184
5.36
179
0.05
53
4.66
147
4.57
179
4.02
190
2.27
189
9.63
166
5.33
203
5.93
177
5.39
166
0.52
158
4.30
201
4.09
170
5.06
164
7.48
180
4.17
135
iResNettwo views4.14
173
0.84
122
0.71
105
2.34
170
2.59
178
4.58
186
1.07
149
4.67
186
1.21
145
3.72
189
3.61
165
12.28
183
16.06
205
0.03
34
6.64
189
3.14
155
2.35
168
1.89
182
16.43
187
2.53
179
3.76
137
2.90
97
0.17
113
3.88
197
1.66
127
4.23
149
5.19
154
3.23
128
iRaft-Stereo_20wtwo views4.18
174
1.14
145
8.05
215
7.32
195
1.81
168
3.33
181
1.55
159
3.45
170
1.28
149
3.63
187
7.12
198
3.54
139
1.33
163
0.11
92
4.16
123
4.85
188
0.93
118
0.61
100
9.28
162
1.22
139
5.08
166
5.56
173
0.43
151
0.53
146
3.85
168
8.64
193
11.20
198
12.91
183
SHDtwo views4.34
175
1.02
137
2.50
176
1.71
159
1.33
153
1.46
160
2.01
166
4.90
189
4.30
191
2.63
156
4.99
181
4.39
150
9.41
195
0.58
163
8.20
205
4.81
186
4.43
194
2.44
194
13.01
183
2.95
188
5.61
174
6.88
201
0.30
134
3.26
190
4.11
172
5.16
167
3.88
114
10.98
179
CSANtwo views4.46
176
2.36
175
1.57
158
3.12
176
3.32
183
1.64
162
0.76
142
4.59
185
4.37
192
3.80
192
2.84
156
17.58
195
10.47
198
0.96
179
4.80
155
1.75
98
2.06
161
1.16
153
5.69
125
2.34
177
2.93
116
2.40
82
0.43
151
2.56
184
4.64
178
11.45
206
7.53
183
13.44
186
ETE_ROBtwo views4.62
177
4.04
194
1.52
156
1.14
146
2.02
173
2.70
174
1.28
154
1.50
83
4.25
190
1.89
142
5.88
189
37.95
218
0.84
145
1.42
194
4.94
161
2.66
137
3.81
187
0.95
139
4.84
119
1.63
155
4.01
141
5.32
162
0.67
172
1.14
165
2.03
136
3.84
145
15.25
210
7.23
160
ccs_robtwo views4.75
178
1.46
152
2.39
175
1.96
165
0.68
127
3.13
178
1.58
160
4.94
191
1.36
151
4.31
201
15.82
230
28.46
205
8.43
190
0.38
151
5.65
174
5.42
201
2.23
164
1.60
171
6.31
131
1.98
169
6.14
180
5.97
188
0.35
142
2.33
182
1.28
111
2.40
124
4.09
128
7.49
163
XQCtwo views4.76
179
3.14
186
1.63
161
3.31
177
3.69
186
3.46
182
2.94
178
6.02
198
3.05
180
2.64
157
5.51
184
5.67
161
7.46
188
1.41
192
8.02
199
4.65
182
3.59
181
1.49
167
10.75
174
2.91
183
4.96
164
6.67
198
0.41
147
1.91
176
7.13
199
10.47
205
11.17
197
4.51
137
CC-Net-ROBtwo views5.26
180
8.36
208
1.81
165
22.68
213
6.07
200
15.19
210
7.74
204
0.45
47
0.84
123
1.53
133
0.00
1
23.78
201
3.00
171
3.15
204
2.92
69
0.74
13
2.29
166
1.51
168
11.50
178
0.48
98
1.21
55
1.47
49
9.41
218
0.22
83
2.30
141
2.51
127
2.25
46
8.72
168
SFCPSMtwo views5.40
181
2.86
182
1.19
137
1.84
164
1.39
154
1.34
158
0.49
134
2.34
119
4.85
195
3.12
171
8.16
208
15.40
190
22.08
213
1.04
183
5.77
176
4.60
181
2.35
168
1.58
170
22.71
206
7.33
211
4.45
151
4.53
144
0.62
167
1.97
179
4.29
174
4.05
147
5.75
162
9.77
174
CBMVpermissivetwo views5.52
182
3.65
191
1.32
143
3.46
179
2.86
180
2.04
169
0.41
130
3.64
176
2.63
177
4.09
197
2.36
145
14.13
188
3.70
177
0.57
160
7.16
191
6.19
213
4.26
192
2.36
193
8.76
152
1.44
147
6.43
184
4.53
144
0.54
162
5.62
209
4.85
182
6.08
174
19.41
216
26.62
219
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
RTStwo views5.53
183
1.46
152
0.94
120
0.90
139
1.73
164
4.08
184
4.63
190
2.53
131
3.41
183
2.79
161
1.70
138
8.18
170
1.27
160
0.72
169
7.83
196
4.87
189
7.37
210
2.34
191
18.33
191
2.92
184
4.78
156
5.88
182
1.04
180
1.31
167
6.74
196
22.88
234
6.66
173
22.00
208
RTSAtwo views5.53
183
1.46
152
0.94
120
0.90
139
1.73
164
4.08
184
4.63
190
2.53
131
3.41
183
2.79
161
1.70
138
8.18
170
1.27
160
0.72
169
7.83
196
4.87
189
7.37
210
2.34
191
18.33
191
2.92
184
4.78
156
5.88
182
1.04
180
1.31
167
6.74
196
22.88
234
6.66
173
22.00
208
AnyNet_C32two views5.68
185
1.96
164
2.91
180
1.78
161
2.71
179
3.17
179
5.76
195
4.31
183
12.56
213
3.07
169
7.17
199
4.22
149
1.70
165
2.19
199
8.22
206
5.98
209
5.69
202
4.43
209
12.45
182
2.93
186
9.72
217
8.57
217
1.84
189
3.46
194
6.24
193
9.82
202
6.26
167
14.21
187
CBMV_ROBtwo views6.09
186
2.65
178
2.29
173
8.35
199
5.74
196
5.08
187
2.76
177
5.03
192
2.35
172
3.78
191
4.70
177
21.22
199
13.56
203
0.09
81
6.04
183
3.70
168
2.84
173
1.39
162
11.35
176
8.80
218
4.92
163
3.11
107
0.43
151
2.10
180
7.06
198
10.12
203
12.96
202
11.93
182
ADCPNettwo views6.67
187
1.97
165
3.86
189
2.75
173
6.19
201
3.07
176
7.60
203
5.21
194
8.03
204
3.82
193
7.92
203
5.17
158
13.78
204
2.98
203
8.10
202
6.12
212
4.35
193
2.04
185
18.50
194
4.74
200
7.04
196
7.43
207
2.98
199
1.91
176
8.96
203
14.04
215
7.02
178
14.47
189
AMNettwo views6.77
188
3.87
193
2.62
177
4.00
183
5.86
197
6.75
193
3.31
182
2.51
129
2.47
173
3.44
182
6.68
196
9.34
175
2.05
166
7.44
216
4.79
154
9.81
232
13.48
222
7.65
225
7.95
147
7.83
213
11.47
223
7.62
211
2.74
196
4.18
198
5.52
188
8.25
190
13.24
203
17.97
197
ADCMidtwo views6.83
189
4.46
197
4.95
197
2.16
169
4.31
190
5.71
190
7.29
200
8.83
203
12.78
215
3.11
170
8.10
206
9.83
176
9.65
196
2.84
200
8.51
209
5.42
201
4.68
196
2.83
196
18.87
198
3.22
191
7.09
198
7.70
212
5.37
211
2.33
182
5.12
186
8.71
194
5.21
155
15.24
191
PWC_ROBbinarytwo views7.15
190
1.85
162
5.57
202
0.85
136
1.17
145
1.95
167
4.77
192
2.56
134
17.27
228
3.83
194
7.66
202
4.97
153
39.20
233
0.81
175
8.35
208
4.96
193
6.51
205
4.27
206
15.99
186
4.39
196
7.48
203
7.59
210
0.53
161
4.79
206
2.74
155
2.63
128
7.01
177
23.26
212
FAT-Stereotwo views7.20
191
2.13
171
8.68
217
7.00
194
11.87
214
5.95
191
3.19
180
7.26
200
3.52
185
5.84
210
13.06
219
18.26
196
8.49
191
1.41
192
8.81
213
6.34
214
3.65
184
4.07
205
15.49
185
6.21
206
6.75
190
6.94
202
0.74
174
4.80
207
2.92
160
7.26
181
7.50
182
16.30
193
MFN_U_SF_DS_RVCtwo views7.30
192
3.59
189
1.09
128
9.20
200
3.71
187
7.69
197
7.51
202
10.81
209
8.52
206
4.93
208
4.20
171
16.73
193
9.30
193
5.45
214
8.09
201
3.29
158
1.80
157
1.13
151
18.77
195
2.10
174
6.48
186
7.49
208
3.17
204
1.74
174
12.06
210
14.29
216
9.71
193
14.36
188
FBW_ROBtwo views7.98
193
9.24
209
5.57
202
20.21
212
8.25
207
12.08
206
8.09
205
4.92
190
1.58
159
3.30
175
5.15
183
13.88
187
3.03
172
7.45
217
6.23
186
1.49
70
2.89
174
0.79
118
33.18
218
1.93
168
5.24
169
4.40
143
9.43
219
8.29
222
4.88
183
7.69
183
4.88
148
21.40
206
pmcnntwo views8.05
194
2.96
183
2.25
171
6.23
190
5.03
192
6.98
194
4.33
188
4.70
187
2.02
171
4.19
198
9.20
214
19.11
197
20.39
212
0.73
171
7.05
190
6.73
215
6.29
204
4.51
210
22.54
205
4.66
199
9.62
215
5.08
158
4.46
208
4.23
199
5.99
190
5.22
168
17.26
214
25.55
218
MaskLacGwcNet_RVCtwo views8.48
195
1.51
155
5.87
205
4.30
185
3.26
182
2.82
175
6.81
198
3.68
177
3.59
186
4.81
206
10.18
216
66.20
247
11.63
199
7.70
218
5.97
180
5.06
194
4.49
195
5.33
215
18.36
193
2.64
181
7.91
206
8.42
216
0.92
178
3.39
193
4.34
175
8.02
188
6.20
166
15.61
192
S-Stereotwo views9.11
196
1.88
163
3.41
184
7.93
198
7.92
205
12.47
207
19.24
218
5.20
193
6.26
198
6.18
214
20.72
239
29.27
206
7.13
187
0.65
167
9.55
217
7.50
223
3.80
186
5.87
219
17.77
189
6.30
207
6.21
181
7.52
209
12.23
223
6.88
216
2.77
157
6.68
179
6.74
175
18.03
198
STTRV1_RVCtwo views9.47
197
2.31
174
1.06
127
5.61
189
1.39
154
5.42
189
2.59
176
3.68
177
3.77
187
4.47
204
4.40
175
16.44
192
20.14
211
1.02
180
9.83
219
3.26
157
18.06
229
0.81
124
51.87
241
11.45
224
18.05
241
6.27
195
4.52
209
4.23
199
6.12
191
7.90
186
11.99
200
28.90
223
ADCStwo views9.93
198
5.64
201
4.82
193
3.95
182
6.05
199
6.17
192
5.70
194
9.47
205
15.68
220
4.19
198
7.98
204
12.91
186
17.41
206
3.94
210
10.52
223
11.68
235
10.14
215
7.14
224
24.46
210
8.67
217
13.95
233
13.00
238
2.94
197
6.15
213
9.75
206
17.65
224
10.70
196
17.41
194
SGM_RVCbinarytwo views10.08
199
10.50
211
3.60
187
16.68
207
8.80
208
14.87
209
7.11
199
9.19
204
6.25
197
4.06
196
7.33
200
24.89
202
18.29
208
0.57
160
4.57
141
1.98
116
3.30
180
1.17
154
20.75
201
2.20
175
4.80
158
2.23
73
2.29
192
3.65
195
17.68
219
13.31
213
33.30
231
28.67
221
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
MDST_ROBtwo views10.13
200
16.70
218
3.04
181
29.06
217
9.34
210
20.66
216
5.02
193
5.90
197
1.98
170
3.16
173
2.70
153
11.22
180
28.15
220
0.18
115
6.30
187
1.37
61
1.21
137
0.34
65
7.74
144
1.01
128
4.67
154
3.95
128
1.92
191
1.94
178
26.55
227
19.78
227
37.02
236
22.50
211
SANettwo views10.32
201
4.15
195
6.27
207
5.51
187
5.49
195
8.58
203
2.27
170
15.41
220
13.03
217
2.83
164
9.09
212
60.35
243
25.50
217
2.93
202
8.06
200
3.02
150
7.05
206
3.86
204
11.43
177
3.25
192
5.27
170
5.02
157
2.60
195
7.27
220
11.08
208
12.57
209
13.36
204
23.31
213
MFN_U_SF_RVCtwo views10.34
202
6.17
205
3.69
188
9.55
201
5.13
193
12.52
208
10.34
208
12.25
212
7.05
200
12.23
229
14.31
224
22.82
200
13.03
201
8.82
219
11.37
228
4.87
189
3.83
189
3.31
201
39.34
226
5.97
205
8.56
213
8.81
218
1.45
187
6.40
215
9.49
205
8.57
192
9.56
192
19.71
202
G-Nettwo views10.87
203
4.96
200
9.71
218
3.77
181
4.24
189
7.37
196
2.01
166
10.08
207
15.80
222
4.95
209
15.59
228
48.52
232
9.05
192
0.58
163
8.11
204
8.67
227
5.49
200
4.42
208
23.80
208
15.66
228
8.01
208
8.23
215
3.06
203
5.14
208
6.15
192
13.92
214
22.56
218
23.75
214
MSC_U_SF_DS_RVCtwo views10.98
204
10.59
212
6.33
208
17.49
208
6.29
202
7.85
199
10.69
209
18.03
226
23.43
235
11.13
224
4.86
180
14.66
189
5.81
183
9.65
221
9.78
218
5.91
207
3.18
177
5.17
213
39.06
225
7.03
210
7.92
207
9.81
224
7.04
212
7.22
219
14.77
213
8.85
195
6.40
169
17.43
195
edge stereotwo views11.35
205
6.83
206
10.52
220
14.06
205
12.00
215
16.55
212
12.81
212
12.42
214
7.44
202
6.06
212
15.12
227
38.81
220
17.75
207
1.25
189
7.59
195
7.29
221
5.73
203
3.11
198
25.18
211
4.53
197
6.71
189
8.01
214
4.16
206
3.71
196
8.94
202
7.65
182
13.41
205
28.72
222
DGSMNettwo views11.51
206
4.52
198
7.92
214
5.60
188
4.80
191
7.02
195
6.11
196
7.51
201
4.47
193
11.25
227
31.10
245
17.12
194
7.95
189
4.11
211
10.43
221
14.27
239
16.27
226
9.03
230
40.42
228
11.09
223
20.12
245
22.06
247
4.60
210
6.88
216
5.15
187
9.40
197
8.22
187
13.42
185
SGM-ForestMtwo views11.60
207
15.35
216
4.54
191
19.02
210
8.08
206
18.74
215
10.83
210
12.03
210
7.24
201
3.01
168
6.09
192
36.06
216
23.95
214
0.75
172
4.47
136
1.51
74
3.60
183
0.75
116
20.06
200
1.60
153
4.23
147
1.65
59
1.36
185
3.34
192
25.09
225
20.48
229
34.27
234
25.03
216
AnyNet_C01two views12.12
208
6.13
204
5.39
199
6.24
191
6.03
198
5.20
188
9.20
206
12.30
213
16.87
225
5.85
211
9.03
211
26.16
203
18.91
209
4.53
213
11.14
227
12.98
237
16.27
226
15.82
242
34.24
219
10.36
221
16.44
237
13.34
240
7.06
213
6.93
218
11.61
209
9.46
198
9.77
194
19.91
203
PVDtwo views12.14
209
5.88
202
8.51
216
7.70
197
6.65
203
10.05
204
6.16
197
21.11
231
19.74
231
3.44
182
8.69
210
16.07
191
27.50
219
2.86
201
8.93
214
7.52
224
11.20
219
6.11
221
24.24
209
6.83
209
11.08
219
11.21
233
1.11
183
5.71
210
15.30
215
21.90
232
17.71
215
34.49
229
DDUNettwo views12.41
210
19.68
220
3.23
182
36.37
224
24.08
222
34.35
227
31.95
225
1.86
96
1.63
160
1.44
129
3.43
162
12.02
182
3.65
176
83.75
237
4.54
139
2.28
128
8.10
213
3.39
202
18.01
190
4.26
195
6.60
188
4.81
150
16.44
226
0.64
151
1.08
107
0.61
76
4.68
144
2.12
113
UDGtwo views12.63
211
20.60
222
3.50
186
36.40
225
28.77
225
31.44
222
39.49
229
2.59
135
1.77
166
2.37
153
6.03
190
11.55
181
3.79
178
74.28
234
5.35
168
2.47
131
8.42
214
2.92
197
18.81
196
4.63
198
7.35
202
4.85
153
12.22
222
1.18
166
1.15
108
2.47
126
4.49
139
2.18
115
MeshStereopermissivetwo views13.21
212
10.28
210
5.53
201
24.29
216
14.71
216
17.26
213
7.30
201
12.03
210
7.47
203
4.66
205
9.13
213
38.56
219
29.80
222
0.45
155
9.43
216
7.37
222
3.76
185
2.44
194
18.85
197
2.41
178
12.93
230
7.18
204
1.21
184
5.79
211
22.04
223
16.38
220
33.15
229
32.34
227
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
DPSNettwo views14.25
213
3.23
187
1.83
167
7.63
196
7.22
204
10.44
205
4.19
187
5.68
196
8.64
207
4.20
200
3.75
166
72.37
252
26.68
218
4.43
212
10.42
220
10.25
234
10.56
216
8.02
226
58.50
249
8.44
216
11.36
221
8.93
219
16.95
227
10.34
227
18.62
220
15.80
219
14.33
208
21.91
207
MFMNet_retwo views16.26
214
13.95
214
7.70
212
24.27
215
9.34
210
33.99
226
17.43
214
12.42
214
19.62
230
10.23
223
13.58
222
39.02
221
13.47
202
1.40
191
10.73
224
10.12
233
29.43
245
12.22
233
31.31
214
10.07
220
17.19
238
9.15
220
8.44
216
9.02
224
8.97
204
5.68
173
24.08
220
36.04
231
SQANettwo views17.87
215
31.68
228
5.41
200
57.78
230
33.35
226
57.44
231
39.25
228
4.37
184
1.73
163
4.89
207
1.53
133
30.38
207
5.54
181
56.25
230
3.78
114
1.32
54
5.20
199
1.48
166
29.72
212
1.71
156
6.45
185
5.45
169
54.26
236
1.90
175
4.80
180
8.48
191
9.52
191
18.82
201
STStereotwo views19.12
216
25.20
224
16.96
233
40.13
227
26.93
224
32.21
224
21.77
221
19.35
229
16.49
224
7.75
217
17.60
232
46.83
230
36.96
231
1.06
184
8.10
202
2.99
149
3.81
187
1.57
169
31.85
215
5.18
202
6.77
192
5.31
161
3.04
202
9.71
226
29.57
229
23.01
236
40.22
238
35.81
230
ELAS_RVCcopylefttwo views19.26
217
19.85
221
14.31
226
33.92
221
22.40
219
33.39
225
19.24
218
15.07
218
10.89
212
8.20
218
17.30
231
54.84
240
32.79
228
3.23
206
8.72
211
3.46
166
11.25
220
6.19
223
19.97
199
7.86
214
12.63
228
12.02
236
9.45
220
10.70
228
30.22
231
22.17
233
41.23
242
38.75
235
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
SAMSARAtwo views19.29
218
2.55
177
5.07
198
4.09
184
3.44
185
3.26
180
4.38
189
15.32
219
9.58
209
4.44
203
5.63
185
8.73
172
24.82
215
3.30
208
10.45
222
6.81
216
5.49
200
3.46
203
21.26
202
4.77
201
17.96
240
24.74
253
0.82
176
4.77
205
80.12
259
91.25
259
77.91
260
76.45
259
MADNet+two views19.30
219
7.92
207
15.32
229
17.51
209
11.42
213
8.09
201
18.41
216
28.03
240
17.21
227
12.46
230
12.08
217
33.63
213
30.37
224
9.62
220
18.64
240
14.89
240
25.78
239
10.10
232
40.05
227
16.50
230
17.34
239
12.76
237
9.48
221
18.60
238
35.02
239
20.22
228
21.19
217
38.41
233
ELAScopylefttwo views19.48
220
22.90
223
14.50
227
35.26
223
24.25
223
31.48
223
19.80
220
16.72
224
15.91
223
7.71
216
15.62
229
48.88
233
30.47
225
3.20
205
9.19
215
3.39
164
10.97
217
5.79
218
21.49
203
6.53
208
11.69
224
11.90
235
9.30
217
9.63
225
32.86
233
24.17
237
41.19
241
41.31
238
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MANEtwo views19.83
221
17.14
219
15.43
230
34.46
222
23.74
221
25.27
219
17.85
215
19.50
230
17.04
226
6.13
213
12.40
218
41.03
222
35.23
230
3.36
209
7.87
198
8.98
228
7.09
207
29.77
251
21.81
204
3.71
194
9.51
214
5.54
172
2.50
194
8.83
223
34.12
236
27.95
242
51.25
250
47.85
244
SPS-STEREOcopylefttwo views20.13
222
14.92
215
11.88
222
19.84
211
20.39
217
18.24
214
9.27
207
16.06
223
19.74
231
19.91
238
20.06
238
33.66
214
37.68
232
7.23
215
13.17
233
16.66
243
26.75
241
16.01
243
32.30
216
23.65
239
30.25
252
22.84
250
13.67
224
13.47
235
16.56
217
15.26
218
29.55
227
24.45
215
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
SGM+DAISYtwo views20.91
223
16.10
217
12.43
223
22.81
214
21.80
218
24.45
218
18.63
217
17.89
225
12.77
214
18.42
237
19.55
237
30.39
208
40.48
234
11.67
223
12.56
231
15.10
241
25.73
238
12.69
236
34.93
221
21.56
237
26.12
249
22.15
248
21.16
228
12.73
232
17.44
218
13.30
212
33.35
232
28.26
220
otakutwo views21.36
224
42.67
234
7.67
211
62.47
236
41.26
233
63.18
241
49.95
230
6.15
199
4.57
194
10.22
222
1.83
141
32.26
209
9.33
194
65.85
232
4.60
143
1.61
80
7.10
208
1.41
163
36.88
223
7.74
212
7.03
195
5.98
189
54.87
237
2.69
187
8.31
200
9.47
199
13.48
206
18.26
199
LE_ROBtwo views22.46
225
10.87
213
12.67
224
32.44
219
37.93
230
31.36
221
33.43
226
23.22
232
21.14
234
6.73
215
17.81
234
52.15
238
50.94
248
1.56
195
6.43
188
2.92
146
3.14
176
1.46
165
30.14
213
8.43
215
7.23
200
4.28
139
7.08
214
25.69
243
34.50
238
36.15
250
53.30
252
53.30
248
LSM0two views22.48
226
6.09
203
4.65
192
14.89
206
10.39
212
16.43
211
13.29
213
23.38
233
15.69
221
14.75
233
18.69
236
35.79
215
33.70
229
0.93
178
73.52
257
85.94
258
13.36
221
5.62
217
55.67
246
16.83
231
21.95
246
18.82
244
4.28
207
8.01
221
16.44
216
16.43
221
28.65
224
32.66
228
Ntrotwo views22.77
227
41.10
231
9.75
219
63.11
238
42.85
234
62.03
239
56.57
233
8.43
202
6.55
199
12.02
228
2.06
143
33.43
212
6.53
185
75.01
235
4.99
162
1.38
62
7.98
212
2.25
188
37.75
224
9.51
219
6.94
194
6.04
191
55.49
238
3.02
188
10.71
207
14.77
217
13.49
207
21.09
205
DLNR_Zeroshot_testpermissivetwo views22.90
228
78.82
260
7.01
209
99.97
260
0.31
89
0.15
103
98.85
260
3.30
168
0.54
98
3.17
174
2.43
149
5.81
163
0.93
150
21.74
225
96.26
261
100.00
265
24.75
236
22.56
246
22.80
207
1.79
160
8.42
212
6.44
196
0.04
68
0.30
116
2.39
144
4.03
146
2.05
42
3.31
129
BEATNet-Init1two views23.62
229
27.86
225
13.22
225
44.78
228
23.54
220
38.58
228
23.96
222
18.57
227
18.15
229
9.17
219
13.26
220
47.63
231
48.00
243
3.29
207
12.31
229
9.22
229
7.35
209
5.48
216
48.70
236
19.34
233
12.33
227
11.24
234
7.11
215
11.28
229
33.76
235
21.63
230
60.52
257
47.50
243
DispFullNettwo views26.27
230
39.81
230
17.89
234
52.75
229
38.74
231
45.03
230
55.21
232
13.74
217
12.89
216
13.75
231
9.88
215
43.75
226
32.46
227
86.51
238
11.01
225
13.68
238
29.48
246
16.23
244
51.78
240
14.64
226
13.87
232
10.46
227
14.59
225
6.22
214
8.62
201
8.03
189
16.08
211
32.10
226
ACVNet-4btwo views26.61
231
42.01
232
11.61
221
69.47
247
47.43
237
69.50
249
76.65
248
10.80
208
9.82
210
15.00
235
1.59
135
58.27
241
9.88
197
93.43
245
4.75
151
1.87
104
13.94
223
5.15
212
32.30
216
13.54
225
7.25
201
5.67
177
58.95
242
4.34
203
12.13
211
9.30
196
15.06
209
18.72
200
ACVNet_1two views26.74
232
42.56
233
14.81
228
66.86
243
48.56
239
65.11
246
82.56
253
15.95
222
8.17
205
11.16
225
5.65
186
32.31
210
25.19
216
93.82
246
7.38
194
2.02
117
15.91
225
6.16
222
34.50
220
10.98
222
8.17
210
6.10
192
59.12
243
5.79
211
19.06
221
9.75
201
9.37
190
15.02
190
WAO-7two views27.19
233
31.49
227
25.61
242
33.41
220
34.55
229
21.90
217
27.96
223
47.14
250
47.22
249
29.27
243
38.50
248
41.69
224
40.59
237
12.37
224
31.37
247
17.44
244
15.34
224
8.53
227
46.18
232
20.63
236
9.79
218
10.78
229
3.30
205
33.50
248
22.38
224
21.79
231
23.87
219
37.39
232
RainbowNettwo views27.62
234
45.59
235
16.83
232
69.42
246
46.28
235
68.08
248
69.73
242
9.87
206
3.31
182
17.67
236
2.40
146
45.29
227
28.15
220
91.67
241
11.05
226
3.10
153
10.99
218
5.02
211
43.52
231
16.90
232
8.37
211
6.69
199
58.54
241
4.55
204
13.10
212
12.31
208
16.72
212
20.53
204
PSMNet_ROBtwo views31.36
235
48.75
241
16.32
231
64.48
240
46.97
236
60.77
235
61.30
234
19.02
228
20.70
233
27.57
242
24.90
242
41.43
223
42.18
238
83.15
236
13.95
234
4.06
173
17.90
228
5.94
220
42.51
230
15.37
227
11.21
220
9.54
223
57.95
240
14.27
236
29.64
230
19.74
226
29.38
226
17.81
196
ACVNet_2two views32.06
236
47.10
237
20.06
236
67.26
245
49.84
244
64.97
244
85.15
256
28.04
241
14.34
219
14.44
232
8.02
205
51.06
237
30.19
223
92.01
244
8.75
212
2.50
133
19.20
230
5.27
214
50.34
237
16.10
229
8.16
209
5.63
176
57.79
239
13.22
234
36.40
240
13.10
211
24.92
221
31.82
225
JetBluetwo views32.19
237
30.24
226
35.83
251
39.74
226
34.14
227
43.67
229
35.54
227
29.41
244
45.70
247
14.86
234
8.65
209
79.62
257
19.51
210
25.38
226
15.92
239
16.55
242
38.70
251
25.92
250
35.72
222
25.05
242
29.56
251
23.18
251
32.21
230
26.78
244
30.47
232
28.96
243
48.44
248
49.33
245
IMH-64-1two views33.95
238
47.85
238
23.39
238
61.17
232
49.33
242
61.76
237
67.81
237
27.05
235
35.73
237
10.03
220
14.78
225
45.47
228
40.48
234
93.88
247
14.40
235
7.26
219
20.70
231
8.75
228
47.06
233
20.52
234
11.86
225
10.05
225
59.37
245
11.73
230
41.46
243
17.26
222
27.54
222
39.89
236
IMH-64two views33.95
238
47.85
238
23.39
238
61.17
232
49.33
242
61.76
237
67.81
237
27.05
235
35.73
237
10.03
220
14.78
225
45.47
228
40.48
234
93.88
247
14.40
235
7.26
219
20.70
231
8.75
228
47.06
233
20.52
234
11.86
225
10.05
225
59.37
245
11.73
230
41.46
243
17.26
222
27.54
222
39.89
236
IMHtwo views35.14
240
49.00
242
23.80
240
61.52
234
49.14
241
63.04
240
67.99
239
27.86
239
38.05
241
11.18
226
14.22
223
49.01
234
53.30
251
93.93
249
14.60
238
7.08
218
21.66
233
9.65
231
47.64
235
22.22
238
11.39
222
9.32
221
59.41
247
12.98
233
40.95
242
19.12
225
29.12
225
41.73
239
WAO-6two views36.54
241
46.81
236
19.38
235
60.03
231
52.14
245
58.04
232
63.77
235
27.20
237
42.09
242
33.11
247
17.67
233
42.19
225
50.09
247
89.85
239
29.06
245
18.00
246
22.89
234
12.66
235
41.03
229
25.00
241
19.25
242
17.73
242
34.12
231
17.43
237
42.37
245
25.35
238
36.73
235
42.55
240
PWCKtwo views38.25
242
63.47
250
23.98
241
73.60
253
41.23
232
60.98
236
51.31
231
54.00
251
35.86
239
26.51
241
39.23
249
62.00
246
46.09
240
26.43
227
14.46
237
9.53
231
30.80
247
12.71
237
83.96
259
28.46
246
23.42
247
13.60
241
47.98
235
30.51
247
34.48
237
27.91
241
31.53
228
38.61
234
TorneroNet-64two views38.80
243
50.14
243
23.16
237
63.45
239
47.59
238
63.57
242
68.85
240
27.44
238
44.99
245
21.03
239
13.47
221
69.75
251
56.51
252
94.74
251
18.85
242
8.54
226
26.03
240
15.59
241
53.93
245
25.94
243
12.81
229
10.53
228
61.35
248
21.98
239
33.37
234
26.73
240
33.93
233
53.30
248
LVEtwo views39.30
244
48.25
240
30.12
245
73.97
254
64.66
250
64.57
243
77.85
249
28.17
242
23.72
236
37.91
249
35.79
246
37.41
217
49.58
244
95.15
257
12.46
230
5.89
206
24.18
235
12.87
238
53.55
243
26.04
244
13.99
234
13.05
239
69.20
254
25.62
242
43.97
247
29.71
245
40.99
240
22.41
210
TorneroNettwo views39.82
245
53.94
245
26.20
243
66.81
242
49.07
240
65.07
245
70.90
244
26.31
234
46.32
248
24.07
240
20.96
240
67.36
250
52.11
250
94.83
253
18.77
241
9.35
230
24.89
237
16.30
245
53.07
242
24.04
240
13.64
231
11.04
232
61.85
249
22.68
241
36.84
241
25.85
239
42.63
243
50.33
246
SPstereotwo views42.72
246
33.54
229
31.83
247
31.00
218
34.43
228
30.75
220
28.20
224
59.10
253
44.02
244
29.97
244
59.48
253
49.02
235
63.04
256
44.63
229
40.17
250
54.80
256
47.68
254
33.56
253
57.43
248
41.63
253
43.54
256
37.71
256
27.86
229
44.58
253
42.50
246
39.59
251
57.37
254
45.91
241
Deantwo views42.92
247
51.28
244
31.30
246
76.75
255
64.32
249
79.06
258
83.43
255
42.61
246
43.67
243
35.18
248
22.58
241
60.75
244
56.83
253
94.89
254
13.15
232
4.20
174
27.88
242
12.35
234
63.72
252
28.96
247
9.62
215
7.74
213
59.21
244
22.07
240
48.58
250
35.91
249
53.04
251
29.88
224
WAO-8two views44.25
248
56.07
247
34.81
249
70.40
249
61.11
246
71.92
252
71.92
245
43.60
247
48.93
250
32.20
245
26.30
243
67.35
248
49.97
245
91.99
242
26.69
243
19.01
249
29.42
243
13.46
239
51.63
238
37.17
250
16.32
235
10.83
230
44.60
233
27.68
245
53.45
254
35.23
247
47.57
246
55.24
251
Venustwo views44.25
248
56.07
247
34.81
249
70.38
248
61.11
246
71.92
252
71.92
245
43.60
247
48.93
250
32.20
245
26.30
243
67.35
248
49.97
245
91.99
242
26.69
243
19.01
249
29.42
243
13.46
239
51.63
238
37.17
250
16.32
235
10.83
230
44.60
233
27.68
245
53.45
254
35.23
247
47.57
246
55.24
251
notakertwo views49.83
250
63.78
251
33.18
248
70.81
250
66.40
251
70.73
251
78.98
251
45.33
249
64.15
254
43.75
252
59.49
254
60.26
242
51.62
249
93.99
250
46.45
252
31.86
251
34.38
249
24.64
248
65.77
254
41.22
252
24.40
248
24.26
252
68.58
253
39.92
251
26.43
226
29.62
244
38.96
237
46.51
242
UNDER WATERtwo views52.38
251
65.77
253
42.25
252
77.68
256
67.77
252
74.59
255
85.69
258
61.52
255
50.72
252
41.81
251
48.33
250
74.09
254
57.87
254
94.82
252
34.80
249
18.86
248
33.89
248
24.15
247
57.03
247
29.54
248
19.73
243
18.75
243
69.48
255
49.19
256
52.93
253
49.45
253
44.09
244
69.45
258
ktntwo views52.79
252
63.82
252
30.11
244
66.93
244
72.48
257
66.28
247
78.41
250
39.02
245
71.70
256
45.89
254
67.47
256
52.57
239
45.22
239
95.33
258
48.59
253
35.19
252
41.05
253
31.49
252
60.62
250
36.06
249
32.70
254
35.82
255
63.06
250
38.69
249
45.38
249
41.08
252
57.93
255
62.41
254
UNDER WATER-64two views53.24
253
62.47
249
43.72
254
79.20
257
70.94
255
76.00
256
87.61
259
65.70
256
45.62
246
52.26
255
61.76
255
72.47
253
58.44
255
94.91
256
30.75
246
17.95
245
34.62
250
25.80
249
53.84
244
26.41
245
19.77
244
21.35
246
75.52
258
44.10
252
50.84
252
55.27
255
40.93
239
69.21
257
KSHMRtwo views56.45
254
73.76
257
53.18
256
81.77
258
70.47
254
77.94
257
83.01
254
67.07
258
54.37
253
56.94
256
54.51
252
61.36
245
46.54
241
94.90
255
59.43
255
44.62
254
39.11
252
36.00
254
64.69
253
47.55
254
28.73
250
19.90
245
65.78
252
55.97
258
49.71
251
33.30
246
50.13
249
53.27
247
DPSimNet_ROBtwo views58.77
255
55.98
246
59.21
257
62.88
237
73.92
258
60.20
234
64.84
236
28.34
243
91.63
260
80.59
258
52.65
251
74.49
255
47.24
242
90.64
240
55.91
254
45.99
255
54.62
256
42.30
255
68.03
255
59.25
257
51.18
258
59.54
258
44.54
232
45.19
254
44.85
248
61.56
256
56.15
253
55.05
250
LRCNet_RVCtwo views60.25
256
73.90
259
44.96
255
94.13
259
95.20
260
91.02
260
85.32
257
54.56
252
36.51
240
98.66
260
73.01
257
91.80
262
67.46
258
96.60
260
33.95
248
18.60
247
69.32
258
51.86
257
94.53
260
64.28
258
31.29
253
22.24
249
94.67
260
54.29
257
19.85
222
10.16
204
33.16
230
25.34
217
HanzoNettwo views60.55
257
68.65
254
42.85
253
71.08
251
71.43
256
71.96
254
79.15
252
59.75
254
75.19
257
45.14
253
74.83
258
74.50
256
63.75
257
96.51
259
43.02
251
39.58
253
52.48
255
47.20
256
75.57
256
51.40
255
44.83
257
44.21
257
72.81
256
39.33
250
54.31
256
50.20
254
60.45
256
64.70
256
JetRedtwo views62.68
258
71.30
255
68.71
258
66.70
241
63.10
248
69.94
250
74.63
247
66.20
257
66.87
255
41.55
250
36.99
247
80.77
259
12.41
200
62.44
231
66.90
256
66.45
257
65.00
257
75.57
260
62.84
251
53.56
256
77.95
259
72.78
259
73.29
257
48.99
255
55.75
257
62.99
257
66.04
258
62.58
255
MADNet++two views76.54
259
72.15
256
83.11
261
61.53
235
81.21
259
58.42
233
69.47
241
68.24
259
78.58
258
85.63
259
92.37
260
80.60
258
85.04
259
36.71
228
81.19
259
89.82
260
88.15
260
69.64
258
82.54
258
91.39
260
92.32
261
93.48
262
65.75
251
90.26
260
59.09
258
74.29
258
74.25
259
61.32
253
ASD4two views81.96
260
73.83
258
78.52
259
73.50
252
68.47
253
82.76
259
70.15
243
72.27
260
81.46
259
64.14
257
76.80
259
49.38
236
95.53
260
68.81
233
77.80
258
87.45
259
86.82
259
89.90
261
81.43
257
90.17
259
88.82
260
88.65
261
81.37
259
86.17
259
99.17
264
99.86
263
99.79
264
99.90
263
PMLtwo views96.14
261
100.00
264
82.26
260
100.00
261
100.00
262
100.00
264
99.16
263
100.00
265
98.98
262
100.00
263
95.95
261
99.91
266
100.00
265
98.52
261
94.87
260
92.63
261
90.73
261
73.63
259
100.00
264
98.25
262
92.56
262
85.93
260
97.80
261
98.67
262
96.15
263
99.98
264
100.00
265
99.92
264
MEDIAN_ROBtwo views97.56
262
99.08
261
98.39
262
100.00
261
99.99
261
100.00
264
100.00
264
99.49
263
98.31
261
100.00
263
99.95
264
97.97
263
96.05
261
99.97
262
99.41
262
98.43
262
98.53
262
98.66
262
99.88
263
97.95
261
93.38
263
96.45
264
100.00
263
97.23
261
86.96
260
92.33
260
89.80
261
95.90
261
AVERAGE_ROBtwo views98.95
263
100.00
264
99.79
264
100.00
261
100.00
262
100.00
264
100.00
264
100.00
265
100.00
264
100.00
263
100.00
266
100.00
267
100.00
265
100.00
263
99.77
264
99.85
264
100.00
266
100.00
266
100.00
264
100.00
265
98.12
265
99.51
265
100.00
263
100.00
264
93.43
262
93.75
261
94.35
263
93.16
260
HaxPigtwo views98.97
264
100.00
264
98.94
263
100.00
261
100.00
262
99.99
263
100.00
264
99.99
264
99.97
263
100.00
263
99.99
265
100.00
267
99.95
264
100.00
263
99.56
263
99.43
263
99.97
265
99.57
263
100.00
264
100.00
265
97.25
264
96.32
263
99.99
262
99.98
263
89.17
261
99.51
262
94.19
262
98.51
262
DGTPSM_ROBtwo views99.52
265
99.77
262
100.00
265
100.00
261
100.00
262
100.00
264
100.00
264
99.17
261
100.00
264
99.31
261
99.64
263
91.36
260
99.13
262
100.00
263
99.94
265
100.00
265
99.82
263
99.99
264
99.53
261
99.99
263
99.80
267
99.66
266
100.00
263
100.00
264
100.00
265
100.00
265
100.00
265
100.00
265
DPSMNet_ROBtwo views99.53
266
99.78
263
100.00
265
100.00
261
100.00
262
100.00
264
100.00
264
99.17
261
100.00
264
99.31
261
99.63
262
91.42
261
99.14
263
100.00
263
99.94
265
100.00
265
99.82
263
99.99
264
99.62
262
99.99
263
99.79
266
99.66
266
100.00
263
100.00
264
100.00
265
100.00
265
100.00
265
100.00
265
DPSM_ROBtwo views99.92
267
100.00
264
100.00
265
100.00
261
100.00
262
98.97
261
98.99
261
100.00
265
100.00
264
100.00
263
100.00
266
99.90
264
100.00
265
100.00
263
100.00
267
100.00
265
100.00
266
100.00
266
100.00
264
100.00
265
100.00
268
100.00
268
100.00
263
100.00
264
100.00
265
100.00
265
100.00
265
100.00
265
DPSMtwo views99.92
267
100.00
264
100.00
265
100.00
261
100.00
262
98.97
261
98.99
261
100.00
265
100.00
264
100.00
263
100.00
266
99.90
264
100.00
265
100.00
263
100.00
267
100.00
265
100.00
266
100.00
266
100.00
264
100.00
265
100.00
268
100.00
268
100.00
263
100.00
264
100.00
265
100.00
265
100.00
265
100.00
265
CasAABBNettwo views100.00
269
100.00
264
100.00
265
100.00
261
100.00
262
100.00
264
100.00
264
100.00
265
100.00
264
100.00
263
100.00
266
100.00
267
100.00
265
100.00
263
100.00
267
100.00
265
100.00
266
100.00
266
100.00
264
100.00
265
100.00
268
100.00
268
100.00
263
100.00
264
100.00
265
100.00
265
100.00
265
100.00
265
FADEtwo views11.90
236
35.81
255
34.34
254
47.51
245