This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CroCo-Stereocopylefttwo views0.13
1
0.09
1
0.08
1
0.07
1
0.04
2
0.06
1
0.04
1
0.14
3
0.05
1
0.10
2
0.03
1
0.13
2
0.06
1
0.04
1
0.24
4
0.26
4
0.20
1
0.18
2
0.20
2
0.11
1
0.24
4
0.15
2
0.05
1
0.06
1
0.22
3
0.20
2
0.23
4
0.15
2
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
CroCo-Stereo Lap2two views0.14
2
0.10
2
0.08
1
0.08
2
0.08
5
0.08
2
0.05
2
0.12
1
0.06
2
0.22
9
0.07
2
0.16
3
0.07
3
0.04
1
0.20
1
0.26
4
0.22
2
0.19
4
0.26
6
0.11
1
0.28
8
0.16
3
0.06
2
0.08
2
0.22
3
0.23
7
0.20
2
0.16
3
StereoVisiontwo views0.18
5
0.13
3
0.11
4
0.09
3
0.14
10
0.16
6
0.08
5
0.17
5
0.17
8
0.15
4
0.15
3
0.16
3
0.10
4
0.06
4
0.25
6
0.26
4
0.27
5
0.22
6
0.22
3
0.16
5
0.23
3
0.17
4
0.06
2
0.13
6
0.28
11
0.29
14
0.38
13
0.28
13
ProNettwo views0.14
2
0.13
3
0.14
5
0.11
5
0.07
3
0.14
5
0.12
14
0.13
2
0.06
2
0.08
1
0.24
19
0.09
1
0.06
1
0.07
5
0.22
3
0.21
2
0.22
2
0.18
2
0.19
1
0.14
4
0.20
1
0.11
1
0.12
9
0.11
4
0.16
1
0.13
1
0.17
1
0.12
1
RAFTtwo views0.17
4
0.13
3
0.10
3
0.16
10
0.07
3
0.21
16
0.05
2
0.25
8
0.12
5
0.14
3
0.15
3
0.16
3
0.10
4
0.05
3
0.21
2
0.20
1
0.23
4
0.15
1
0.28
7
0.13
3
0.21
2
0.17
4
0.07
4
0.10
3
0.26
6
0.24
8
0.33
9
0.23
7
StereoIMtwo views0.26
10
0.20
6
0.16
9
0.10
4
0.10
6
0.10
3
0.08
5
0.24
7
0.14
6
0.36
18
0.16
6
0.36
20
0.12
7
0.08
6
0.33
15
0.35
19
0.39
21
0.35
34
0.53
40
0.20
10
0.40
20
0.26
16
0.13
15
0.15
7
0.39
39
0.39
43
0.40
16
0.49
51
anonymousdsptwo views0.25
9
0.23
7
0.19
15
0.16
10
0.14
10
0.18
11
0.10
9
0.37
16
0.19
15
0.32
16
0.22
16
0.32
12
0.12
7
0.14
19
0.29
9
0.32
16
0.32
8
0.28
11
0.39
18
0.22
13
0.46
39
0.31
23
0.12
9
0.15
7
0.26
6
0.20
2
0.52
30
0.20
6
RYNettwo views0.27
12
0.23
7
0.18
13
0.15
7
0.17
17
0.19
13
0.13
16
0.25
8
0.31
78
0.17
6
0.20
12
0.19
7
0.14
9
0.13
16
0.80
114
0.28
7
0.27
5
0.41
55
0.28
7
0.19
8
0.27
5
0.21
8
0.29
113
0.18
14
0.27
9
0.76
125
0.34
10
0.23
7
delettwo views0.24
7
0.25
9
0.22
30
0.24
26
0.20
24
0.28
40
0.16
34
0.21
6
0.18
10
0.23
10
0.26
23
0.26
9
0.15
11
0.25
81
0.32
14
0.28
7
0.31
7
0.27
9
0.24
4
0.24
20
0.31
10
0.20
7
0.16
24
0.19
15
0.28
11
0.25
9
0.32
8
0.31
15
RAFT + AFFtwo views0.27
12
0.26
10
0.17
12
0.21
19
0.13
7
0.19
13
0.13
16
0.41
19
0.18
10
0.44
33
0.19
9
0.42
31
0.14
9
0.09
7
0.86
131
0.29
10
0.41
24
0.20
5
0.55
47
0.23
16
0.47
46
0.21
8
0.12
9
0.15
7
0.28
11
0.20
2
0.21
3
0.17
4
MIF-Stereotwo views0.28
14
0.27
11
0.15
7
0.15
7
0.13
7
0.17
9
0.09
7
0.35
14
0.19
15
0.49
54
0.21
13
0.41
29
0.18
19
0.14
19
0.40
25
0.39
31
0.42
26
0.34
26
0.56
52
0.25
23
0.43
26
0.24
13
0.13
15
0.19
15
0.31
20
0.41
48
0.30
7
0.37
24
iRaftStereo_RVCtwo views0.26
10
0.27
11
0.16
9
0.13
6
0.14
10
0.18
11
0.09
7
0.44
25
0.14
6
0.36
18
0.36
45
0.32
12
0.16
14
0.13
16
0.29
9
0.29
10
0.38
19
0.28
11
0.34
14
0.22
13
0.41
21
0.38
36
0.12
9
0.17
11
0.27
9
0.29
14
0.42
17
0.27
12
AANet_RVCtwo views0.28
14
0.27
11
0.23
35
0.19
15
0.28
55
0.16
6
0.16
34
0.29
11
0.30
63
0.20
8
0.27
25
0.24
8
0.21
25
0.19
32
0.45
37
0.36
24
0.33
11
0.34
26
0.29
9
0.29
36
0.27
5
0.27
17
0.22
78
0.21
20
0.34
27
0.33
26
0.42
17
0.52
56
4D-IteraStereotwo views0.40
41
0.28
14
0.33
64
0.35
77
0.24
37
0.24
26
0.15
27
0.63
96
0.28
50
0.61
113
0.39
58
0.51
62
0.22
28
0.22
47
0.48
40
0.43
47
0.49
51
0.43
67
0.66
74
0.34
53
0.63
109
0.70
127
0.14
18
0.22
26
0.39
39
0.47
68
0.63
64
0.39
29
LL-Strereo2two views0.34
29
0.29
15
0.21
22
0.24
26
0.19
22
0.17
9
0.13
16
0.63
96
0.26
39
0.58
100
0.23
17
0.44
38
0.22
28
0.14
19
0.41
31
0.41
36
0.47
44
0.35
34
0.73
90
0.31
45
0.47
46
0.36
31
0.21
69
0.20
18
0.32
23
0.34
30
0.51
26
0.35
22
MMNettwo views0.29
17
0.29
15
0.22
30
0.26
35
0.26
43
0.26
31
0.18
40
0.33
13
0.23
23
0.24
11
0.28
27
0.35
16
0.15
11
0.32
118
0.39
23
0.31
14
0.36
15
0.34
26
0.41
20
0.27
30
0.32
11
0.21
8
0.17
36
0.23
37
0.32
23
0.30
16
0.46
21
0.32
17
GANettwo views0.32
24
0.29
15
0.27
46
0.34
69
0.33
77
0.38
82
0.29
97
0.44
25
0.24
31
0.35
17
0.30
29
0.46
43
0.22
28
0.21
41
0.31
13
0.32
16
0.40
22
0.43
67
0.33
12
0.22
13
0.33
13
0.29
20
0.22
78
0.24
45
0.31
20
0.27
11
0.42
17
0.34
21
TDLMtwo views0.24
7
0.29
15
0.22
30
0.22
22
0.27
51
0.23
22
0.18
40
0.26
10
0.19
15
0.18
7
0.38
52
0.29
11
0.21
25
0.15
22
0.24
4
0.28
7
0.32
8
0.28
11
0.25
5
0.21
12
0.28
8
0.19
6
0.16
24
0.21
20
0.24
5
0.20
2
0.28
6
0.25
9
AEACVtwo views0.19
6
0.31
19
0.14
5
0.17
13
0.13
7
0.12
4
0.07
4
0.15
4
0.07
4
0.16
5
0.15
3
0.18
6
0.11
6
0.11
10
0.25
6
0.25
3
0.32
8
0.23
7
0.35
15
0.18
6
0.27
5
0.22
11
0.11
8
0.11
4
0.20
2
0.22
6
0.25
5
0.18
5
DMCAtwo views0.32
24
0.31
19
0.30
54
0.24
26
0.25
39
0.27
34
0.22
64
0.36
15
0.33
91
0.31
14
0.40
61
0.40
25
0.23
31
0.25
81
0.41
31
0.37
26
0.40
22
0.39
46
0.36
16
0.28
32
0.41
21
0.27
17
0.25
96
0.25
53
0.31
20
0.35
31
0.39
14
0.37
24
Former-RAFT_DAM_RVCtwo views0.41
44
0.33
21
0.29
50
0.29
46
0.24
37
0.26
31
0.16
34
0.55
54
0.40
120
0.55
83
0.49
82
0.49
52
0.27
48
0.23
57
0.58
55
0.45
62
0.51
65
0.40
51
0.50
30
0.36
64
0.46
39
0.50
82
0.16
24
0.23
37
0.49
67
0.75
122
0.44
20
0.56
70
test_4two views0.34
29
0.33
21
0.27
46
0.21
19
0.18
20
0.16
6
0.11
11
0.59
71
0.26
39
0.58
100
0.25
21
0.50
58
0.20
24
0.19
32
0.33
15
0.40
33
0.45
31
0.34
26
0.41
20
0.29
36
0.45
34
0.41
45
0.16
24
0.24
45
0.38
36
0.40
47
0.59
54
0.42
40
raftrobusttwo views0.43
61
0.33
21
0.36
75
0.28
41
0.28
55
0.27
34
0.18
40
0.64
103
0.25
36
0.63
126
0.53
100
0.51
62
0.25
39
0.22
47
0.63
74
0.48
85
0.51
65
0.41
55
0.96
121
0.38
72
0.53
77
0.46
67
0.20
61
0.24
45
0.57
88
0.54
88
0.54
35
0.52
56
HHtwo views0.84
157
0.34
24
0.99
198
0.42
101
0.36
93
0.51
124
0.42
126
0.69
132
0.34
96
0.65
137
0.38
52
1.03
161
0.26
42
0.28
97
0.66
84
1.37
229
0.61
127
0.53
130
2.39
179
0.60
152
3.55
236
1.64
199
0.25
96
0.33
101
0.83
161
1.05
176
1.09
164
1.12
157
HanStereotwo views0.84
157
0.34
24
0.99
198
0.42
101
0.36
93
0.51
124
0.42
126
0.69
132
0.34
96
0.65
137
0.38
52
1.03
161
0.26
42
0.28
97
0.66
84
1.37
229
0.61
127
0.53
130
2.39
179
0.60
152
3.55
236
1.64
199
0.25
96
0.33
101
0.83
161
1.05
176
1.09
164
1.12
157
AASNettwo views0.28
14
0.34
24
0.22
30
0.25
31
0.26
43
0.34
67
0.25
79
0.32
12
0.17
8
0.29
13
0.36
45
0.26
9
0.18
19
0.24
68
0.36
19
0.31
14
0.34
13
0.32
18
0.32
10
0.28
32
0.35
16
0.28
19
0.17
36
0.22
26
0.30
16
0.28
13
0.35
12
0.25
9
AnonymousMtwo views0.79
154
0.34
24
0.20
18
0.24
26
0.22
27
0.21
16
0.15
27
0.58
64
0.21
20
0.57
94
0.39
58
0.45
42
0.15
11
0.19
32
0.56
49
0.54
111
0.54
79
0.40
51
0.53
40
0.30
40
0.65
116
0.54
92
0.20
61
0.22
26
0.30
16
0.39
43
1.31
187
11.04
250
test-1two views0.84
157
0.34
24
0.50
136
0.37
82
0.40
113
0.60
145
0.37
115
0.73
149
0.38
115
0.68
156
0.71
148
1.08
165
0.40
119
0.25
81
0.79
112
0.91
180
0.63
136
0.58
153
2.22
172
0.58
144
1.17
179
3.78
232
0.22
78
0.36
115
0.81
156
1.15
183
1.10
167
1.59
178
raft+_RVCtwo views0.35
32
0.34
24
0.26
44
0.25
31
0.23
31
0.25
29
0.18
40
0.54
48
0.26
39
0.52
66
0.43
66
0.46
43
0.23
31
0.18
29
0.42
35
0.38
28
0.43
27
0.34
26
0.61
66
0.26
28
0.43
26
0.38
36
0.13
15
0.20
18
0.39
39
0.39
43
0.58
47
0.42
40
AFF-stereotwo views0.30
19
0.34
24
0.26
44
0.18
14
0.17
17
0.33
60
0.11
11
0.50
38
0.23
23
0.46
38
0.28
27
0.40
25
0.16
14
0.12
14
0.27
8
0.35
19
0.37
17
0.25
8
0.57
56
0.23
16
0.38
18
0.25
14
0.17
36
0.17
11
0.37
32
0.37
36
0.48
23
0.32
17
UPFNettwo views0.38
35
0.34
24
0.34
68
0.32
61
0.33
77
0.39
84
0.29
97
0.47
35
0.33
91
0.43
26
0.41
63
0.40
25
0.30
62
0.34
123
0.61
67
0.40
33
0.46
35
0.41
55
0.52
34
0.35
62
0.35
16
0.34
27
0.25
96
0.27
62
0.38
36
0.35
31
0.55
36
0.37
24
CEStwo views0.46
71
0.35
32
0.30
54
0.27
39
0.27
51
0.29
43
0.12
14
1.05
199
0.27
43
0.54
77
0.66
138
0.53
66
0.25
39
0.23
57
0.62
71
0.65
142
0.58
105
0.37
40
0.54
45
0.34
53
0.84
150
0.53
90
0.23
86
0.23
37
0.56
87
0.44
54
0.57
40
0.69
105
PWCDC_ROBbinarytwo views0.67
127
0.35
32
0.39
91
0.29
46
0.43
123
0.34
67
0.36
113
0.43
23
1.25
207
0.27
12
0.72
153
0.44
38
2.38
215
0.57
186
1.11
174
0.76
162
0.56
92
0.56
143
0.64
68
0.55
131
0.63
109
2.08
211
0.46
158
0.40
125
0.36
31
0.63
99
0.51
26
0.67
99
IERtwo views0.41
44
0.37
34
0.31
58
0.30
53
0.28
55
0.35
72
0.24
74
0.47
35
0.28
50
0.44
33
0.59
114
0.77
131
0.29
53
0.35
129
0.63
74
0.42
40
0.47
44
0.42
62
0.44
24
0.34
53
0.42
25
0.36
31
0.28
110
0.26
59
0.40
43
0.47
68
0.52
30
0.52
56
RAFT_CTSACEtwo views0.30
19
0.37
34
0.15
7
0.15
7
0.15
13
0.25
29
0.18
40
0.53
44
0.20
18
0.55
83
0.18
8
0.44
38
0.29
53
0.16
25
0.29
9
0.30
12
0.37
17
0.27
9
0.37
17
0.18
6
0.38
18
0.45
62
0.10
7
0.17
11
0.30
16
0.31
19
0.60
55
0.26
11
test-3two views0.55
97
0.37
34
0.37
79
0.34
69
0.33
77
0.33
60
0.22
64
0.65
110
0.27
43
0.61
113
0.34
41
0.90
149
0.31
74
0.21
41
0.60
62
0.44
52
0.55
87
0.42
62
2.59
187
0.38
72
0.56
86
1.37
186
0.16
24
0.29
70
0.48
60
0.38
40
0.69
81
0.54
66
test_1two views0.55
97
0.37
34
0.37
79
0.34
69
0.33
77
0.33
60
0.22
64
0.66
114
0.27
43
0.62
122
0.34
41
0.90
149
0.31
74
0.21
41
0.61
67
0.44
52
0.55
87
0.42
62
2.58
186
0.38
72
0.56
86
1.38
188
0.16
24
0.29
70
0.48
60
0.38
40
0.69
81
0.54
66
DMCA-RVCcopylefttwo views0.44
64
0.37
34
0.35
70
0.33
67
0.37
100
0.32
53
0.41
125
0.46
33
0.52
148
0.43
26
0.48
78
0.68
112
0.33
87
0.29
103
0.65
83
0.46
69
0.47
44
0.44
72
0.49
29
0.38
72
0.49
55
0.48
77
0.29
113
0.32
89
0.38
36
0.37
36
0.57
40
0.62
87
HITNettwo views0.38
35
0.37
34
0.28
48
0.34
69
0.29
60
0.26
31
0.19
51
0.58
64
0.32
86
0.57
94
0.45
72
0.55
73
0.30
62
0.22
47
0.51
43
0.35
19
0.44
28
0.39
46
0.41
20
0.29
36
0.41
21
0.38
36
0.20
61
0.25
53
0.39
39
0.37
36
0.70
85
0.52
56
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
test_3two views0.56
104
0.38
40
0.36
75
0.34
69
0.33
77
0.33
60
0.21
59
0.68
124
0.29
57
0.65
137
0.33
39
0.92
151
0.35
104
0.21
41
0.60
62
0.44
52
0.56
92
0.45
81
2.68
188
0.39
84
0.55
82
1.35
184
0.15
20
0.32
89
0.51
73
0.47
68
0.67
77
0.50
53
XX-Stereotwo views9.49
256
0.38
40
0.36
75
0.63
153
0.28
55
0.54
134
0.28
90
0.69
132
0.28
50
0.69
164
6.24
251
1.00
157
0.29
53
0.23
57
0.70
99
1.08
205
0.60
122
0.52
126
1.58
150
0.53
121
0.76
140
0.65
113
0.18
41
0.26
59
233.61
274
0.88
144
1.01
157
1.90
190
HCRNettwo views0.32
24
0.38
40
0.20
18
0.39
88
0.17
17
0.29
43
0.18
40
0.40
18
0.18
10
0.80
192
0.40
61
0.49
52
0.18
19
0.22
47
0.38
22
0.30
12
0.38
19
0.29
15
0.40
19
0.19
8
0.33
13
0.23
12
0.19
49
0.16
10
0.26
6
0.31
19
0.51
26
0.31
15
ARAFTtwo views0.34
29
0.38
40
0.23
35
0.26
35
0.21
26
0.27
34
0.14
23
0.44
25
0.24
31
0.50
55
0.30
29
0.41
29
0.16
14
0.15
22
0.67
89
0.42
40
0.50
56
0.47
94
0.51
32
0.23
16
0.53
77
0.32
24
0.16
24
0.19
15
0.43
47
0.30
16
0.52
30
0.37
24
FINETtwo views0.40
41
0.38
40
0.39
91
0.43
105
0.30
67
0.34
67
0.35
111
0.44
25
0.36
105
0.47
41
0.32
33
0.47
46
0.30
62
0.28
97
0.66
84
0.50
94
0.48
48
0.36
37
0.60
62
0.33
50
0.46
39
0.37
35
0.30
116
0.30
78
0.43
47
0.35
31
0.56
38
0.42
40
test_5two views0.29
17
0.39
45
0.16
9
0.22
22
0.15
13
0.21
16
0.13
16
0.54
48
0.20
18
0.38
22
0.19
9
0.44
38
0.34
97
0.10
8
0.43
36
0.38
28
0.33
11
0.32
18
0.33
12
0.20
10
0.32
11
0.35
29
0.09
5
0.21
20
0.28
11
0.30
16
0.51
26
0.32
17
GMOStereotwo views0.42
49
0.39
45
0.21
22
0.30
53
0.26
43
0.29
43
0.19
51
0.67
117
0.30
63
0.66
147
0.32
33
0.54
68
0.33
87
0.20
36
0.40
25
0.46
69
0.50
56
0.44
72
0.68
78
0.34
53
0.51
61
0.66
116
0.16
24
0.22
26
0.58
92
0.45
59
0.82
114
0.41
35
error versiontwo views0.42
49
0.39
45
0.21
22
0.30
53
0.26
43
0.29
43
0.19
51
0.67
117
0.30
63
0.66
147
0.32
33
0.54
68
0.33
87
0.20
36
0.40
25
0.46
69
0.50
56
0.44
72
0.68
78
0.34
53
0.51
61
0.66
116
0.16
24
0.22
26
0.58
92
0.45
59
0.82
114
0.41
35
test-vtwo views0.42
49
0.39
45
0.21
22
0.30
53
0.26
43
0.29
43
0.19
51
0.67
117
0.30
63
0.66
147
0.32
33
0.54
68
0.33
87
0.20
36
0.40
25
0.46
69
0.50
56
0.44
72
0.68
78
0.34
53
0.51
61
0.66
116
0.16
24
0.22
26
0.58
92
0.45
59
0.82
114
0.41
35
test-2two views0.42
49
0.39
45
0.21
22
0.30
53
0.26
43
0.29
43
0.19
51
0.67
117
0.30
63
0.66
147
0.32
33
0.54
68
0.33
87
0.20
36
0.40
25
0.46
69
0.50
56
0.44
72
0.68
78
0.34
53
0.51
61
0.66
116
0.16
24
0.22
26
0.58
92
0.45
59
0.82
114
0.41
35
MIM_Stereotwo views0.32
24
0.40
50
0.25
41
0.28
41
0.20
24
0.27
34
0.14
23
0.45
31
0.18
10
0.48
46
0.25
21
0.42
31
0.18
19
0.16
25
0.36
19
0.42
40
0.44
28
0.36
37
0.47
26
0.28
32
0.47
46
0.36
31
0.12
9
0.23
37
0.29
15
0.27
11
0.47
22
0.33
20
BEATNet_4xtwo views0.53
90
0.40
50
0.34
68
0.39
88
0.36
93
0.32
53
0.27
85
0.64
103
0.41
124
0.66
147
0.45
72
0.62
101
0.39
116
0.24
68
0.83
122
0.63
132
0.58
105
0.58
153
0.57
56
0.36
64
0.90
157
1.52
195
0.25
96
0.36
115
0.46
55
0.44
54
0.77
101
0.60
81
CVANet_RVCtwo views0.31
22
0.40
50
0.30
54
0.40
92
0.29
60
0.37
77
0.23
71
0.41
19
0.23
23
0.31
14
0.49
82
0.37
22
0.26
42
0.19
32
0.29
9
0.33
18
0.34
13
0.32
18
0.32
10
0.25
23
0.34
15
0.25
14
0.18
41
0.25
53
0.30
16
0.25
9
0.34
10
0.30
14
PDISCO_ROBtwo views0.48
76
0.40
50
0.39
91
0.38
85
0.34
86
0.39
84
0.28
90
0.50
38
0.35
101
0.37
20
0.52
96
0.49
52
0.35
104
0.31
112
0.63
74
0.58
123
0.54
79
0.68
179
0.59
61
0.44
101
0.62
106
0.67
121
0.24
93
0.34
105
0.54
83
0.53
86
0.85
125
0.58
74
anonymitytwo views3.27
231
0.41
54
1.09
210
0.58
141
0.41
118
0.47
113
0.30
103
0.79
167
0.33
91
0.61
113
69.49
272
0.85
142
0.30
62
0.24
68
0.59
58
1.02
199
0.60
122
0.43
67
1.35
143
0.60
152
0.73
136
1.82
208
0.24
93
0.29
70
1.00
188
1.24
189
1.08
163
1.47
174
TANstereotwo views0.55
97
0.41
54
0.35
70
0.40
92
0.39
109
0.45
106
0.21
59
0.52
40
0.30
63
0.54
77
0.37
50
0.38
23
0.38
114
0.41
143
0.84
125
0.73
159
0.66
146
0.78
199
1.10
129
0.89
197
0.62
106
0.54
92
0.93
210
0.32
89
0.34
27
0.45
59
0.99
151
0.53
60
XX-TBDtwo views0.55
97
0.41
54
0.35
70
0.40
92
0.39
109
0.45
106
0.21
59
0.52
40
0.30
63
0.54
77
0.37
50
0.38
23
0.38
114
0.41
143
0.84
125
0.73
159
0.66
146
0.78
199
1.10
129
0.89
197
0.62
106
0.54
92
0.93
210
0.32
89
0.34
27
0.45
59
0.99
151
0.53
60
sAnonymous2two views0.58
110
0.41
54
0.31
58
0.29
46
0.29
60
0.45
106
0.29
97
0.71
141
0.41
124
0.48
46
0.53
100
0.51
62
0.43
128
0.23
57
0.86
131
0.84
173
0.70
159
0.67
174
1.34
141
0.60
152
0.83
148
0.98
157
0.30
116
0.35
108
0.62
107
0.72
114
0.72
90
0.73
116
CroCo_RVCtwo views0.58
110
0.41
54
0.31
58
0.29
46
0.29
60
0.45
106
0.29
97
0.71
141
0.41
124
0.48
46
0.53
100
0.51
62
0.43
128
0.23
57
0.86
131
0.84
173
0.70
159
0.67
174
1.34
141
0.60
152
0.83
148
0.98
157
0.30
116
0.35
108
0.62
107
0.72
114
0.72
90
0.73
116
RALAANettwo views0.41
44
0.41
54
0.37
79
0.28
41
0.28
55
0.33
60
0.24
74
0.54
48
0.27
43
0.48
46
0.48
78
0.43
36
0.25
39
0.20
36
0.57
51
0.41
36
0.49
51
0.50
112
0.71
86
0.40
89
0.52
71
0.46
67
0.21
69
0.29
70
0.46
55
0.45
59
0.70
85
0.47
48
RAFT-Stereo + iAFFtwo views0.35
32
0.41
54
0.32
61
0.24
26
0.19
22
0.28
40
0.13
16
0.58
64
0.24
31
0.46
38
0.35
44
0.49
52
0.19
23
0.15
22
0.34
18
0.35
19
0.41
24
0.28
11
0.65
72
0.28
32
0.44
31
0.33
25
0.19
49
0.22
26
0.51
73
0.37
36
0.58
47
0.44
44
CREStereo++_RVCtwo views0.43
61
0.42
61
0.39
91
0.30
53
0.33
77
0.27
34
0.19
51
0.57
60
0.31
78
0.58
100
0.36
45
0.58
83
0.56
157
0.23
57
0.48
40
0.50
94
0.61
127
0.34
26
0.52
34
0.30
40
0.56
86
0.42
49
0.16
24
0.29
70
0.49
67
0.44
54
0.79
107
0.69
105
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
sCroCo_RVCtwo views0.58
110
0.42
61
0.29
50
0.28
41
0.29
60
0.39
84
0.22
64
0.60
76
0.41
124
0.53
76
0.43
66
0.48
49
0.50
144
0.24
68
0.75
107
0.99
196
0.75
169
0.63
163
1.02
124
0.56
135
1.10
175
1.36
185
0.28
110
0.39
122
0.63
111
0.63
99
0.93
138
0.64
94
UNettwo views0.44
64
0.42
61
0.40
96
0.37
82
0.36
93
0.41
92
0.28
90
0.57
60
0.35
101
0.50
55
0.49
82
0.47
46
0.34
97
0.37
135
0.53
46
0.43
47
0.54
79
0.46
88
0.56
52
0.39
84
0.47
46
0.44
59
0.27
107
0.34
105
0.44
49
0.48
73
0.58
47
0.57
72
test crocotwo views0.31
22
0.43
64
0.20
18
0.20
18
0.16
15
0.20
15
0.10
9
0.41
19
0.18
10
0.48
46
0.19
9
0.34
15
0.17
17
0.10
8
0.41
31
0.44
52
0.45
31
0.40
51
0.55
47
0.24
20
0.41
21
0.34
27
0.14
18
0.21
20
0.32
23
0.33
26
0.39
14
0.48
50
iinet-ftwo views0.52
87
0.43
64
0.36
75
0.34
69
0.25
39
0.47
113
0.25
79
0.43
23
0.27
43
0.52
66
0.94
179
0.61
93
0.44
133
0.25
81
1.06
169
0.57
119
0.52
69
0.39
46
1.51
148
0.50
115
0.58
98
0.75
135
0.26
103
0.25
53
0.52
77
0.38
40
0.76
100
0.53
60
HGLStereotwo views0.43
61
0.43
64
0.37
79
0.34
69
0.37
100
0.39
84
0.23
71
0.48
37
0.31
78
0.47
41
0.72
153
0.42
31
0.29
53
0.32
118
0.51
43
0.49
91
0.55
87
0.50
112
0.55
47
0.39
84
0.51
61
0.43
54
0.22
78
0.33
101
0.51
73
0.51
82
0.57
40
0.45
46
DN-CSS_ROBtwo views0.52
87
0.43
64
0.46
123
0.41
97
0.40
113
0.34
67
0.22
64
0.69
132
0.34
96
0.59
105
0.79
162
0.66
107
0.47
139
0.24
68
0.63
74
0.40
33
0.58
105
0.43
67
1.74
156
0.38
72
0.63
109
0.38
36
0.31
121
0.47
151
0.53
79
0.43
51
0.66
76
0.54
66
MIF-Stereo (partial)two views0.30
19
0.44
68
0.18
13
0.16
10
0.16
15
0.21
16
0.11
11
0.37
16
0.22
21
0.37
20
0.24
19
0.32
12
0.17
17
0.13
16
0.39
23
0.45
62
0.46
35
0.38
44
0.42
23
0.25
23
0.43
26
0.35
29
0.18
41
0.21
20
0.35
30
0.32
23
0.50
25
0.44
44
LoStwo views0.55
97
0.44
68
0.29
50
0.36
81
0.37
100
0.40
90
0.20
58
1.37
214
0.31
78
0.86
200
0.78
161
0.68
112
0.37
112
0.24
68
0.58
55
0.72
155
0.59
115
0.40
51
0.75
97
0.35
62
1.03
170
0.65
113
0.21
69
0.24
45
0.79
151
0.64
102
0.64
67
0.68
103
raft_robusttwo views0.49
79
0.44
68
0.24
39
0.38
85
0.29
60
0.32
53
0.21
59
0.73
149
0.35
101
0.69
164
0.34
41
0.57
78
0.31
74
0.24
68
0.59
58
0.53
105
0.54
79
0.46
88
0.98
122
0.37
69
0.69
127
0.94
155
0.20
61
0.28
66
0.55
85
0.69
106
0.69
81
0.60
81
CFNet_pseudotwo views0.51
83
0.44
68
0.43
110
0.54
134
0.43
123
0.53
130
0.34
109
0.62
90
0.36
105
0.61
113
0.64
130
0.57
78
0.52
150
0.35
129
0.90
142
0.50
94
0.50
56
0.47
94
0.67
76
0.36
64
0.47
46
0.42
49
0.26
103
0.33
101
0.57
88
0.60
98
0.68
78
0.73
116
CFNettwo views0.45
67
0.44
68
0.33
64
0.48
116
0.40
113
0.39
84
0.30
103
0.53
44
0.32
86
0.48
46
0.50
87
0.68
112
0.40
119
0.30
105
0.56
49
0.37
26
0.48
48
0.43
67
0.52
34
0.33
50
0.46
39
0.30
22
0.23
86
0.31
85
0.61
102
0.52
84
0.69
81
0.71
111
DeepPruner_ROBtwo views0.59
116
0.44
68
0.54
146
0.52
129
0.54
147
0.49
117
0.37
115
0.61
83
0.46
140
0.60
111
0.70
147
0.61
93
0.51
148
0.32
118
1.06
169
0.58
123
0.62
131
0.59
158
0.66
74
0.47
112
0.97
166
0.72
131
0.36
136
0.44
141
0.61
102
1.00
167
0.72
90
0.58
74
DISCOtwo views0.45
67
0.44
68
0.29
50
0.40
92
0.38
106
0.49
117
0.43
128
0.45
31
0.43
135
0.50
55
0.57
110
0.40
25
0.29
53
0.30
105
0.61
67
0.43
47
0.55
87
0.46
88
0.69
83
0.41
92
0.48
51
0.43
54
0.26
103
0.32
89
0.47
57
0.50
80
0.62
61
0.50
53
LoS_RVCtwo views0.42
49
0.45
75
0.43
110
0.19
15
0.25
39
0.24
26
0.16
34
0.44
25
0.28
50
0.51
59
0.48
78
0.42
31
0.31
74
0.22
47
0.60
62
0.45
62
0.46
35
0.41
55
0.71
86
0.30
40
0.67
121
0.51
83
0.19
49
0.32
89
0.61
102
0.44
54
0.58
47
0.61
83
tt_lltwo views0.42
49
0.45
75
0.43
110
0.19
15
0.25
39
0.24
26
0.16
34
0.44
25
0.28
50
0.51
59
0.48
78
0.42
31
0.31
74
0.22
47
0.60
62
0.45
62
0.46
35
0.41
55
0.71
86
0.30
40
0.67
121
0.51
83
0.19
49
0.32
89
0.61
102
0.44
54
0.58
47
0.61
83
CAStwo views0.38
35
0.45
75
0.25
41
0.29
46
0.29
60
0.23
22
0.13
16
0.41
19
0.27
43
0.41
24
0.54
106
0.35
16
0.35
104
0.21
41
0.52
45
0.38
28
0.50
56
0.34
26
0.52
34
0.26
28
0.43
26
0.41
45
0.19
49
0.23
37
0.51
73
0.52
84
0.62
61
0.77
122
IPLGtwo views0.47
73
0.45
75
0.32
61
0.28
41
0.27
51
0.32
53
0.21
59
0.63
96
0.22
21
0.51
59
0.38
52
0.56
75
0.29
53
0.31
112
1.64
202
0.44
52
0.56
92
0.48
99
0.56
52
0.41
92
0.45
34
0.75
135
0.18
41
0.28
66
0.45
53
0.59
95
0.65
71
0.51
55
RASNettwo views0.42
49
0.45
75
0.43
110
0.33
67
0.33
77
0.37
77
0.27
85
0.58
64
0.34
96
0.47
41
0.43
66
0.49
52
0.33
87
0.25
81
0.41
31
0.41
36
0.48
48
0.39
46
0.47
26
0.30
40
0.49
55
0.40
42
0.19
49
0.44
141
0.40
43
0.46
66
0.75
97
0.63
92
iResNetv2_ROBtwo views0.52
87
0.45
75
0.32
61
0.48
116
0.39
109
0.48
115
0.28
90
0.64
103
0.34
96
0.52
66
0.66
138
0.70
117
0.55
155
0.28
97
0.67
89
0.47
80
0.50
56
0.46
88
1.12
132
0.45
103
0.57
95
0.47
71
0.29
113
0.40
125
0.55
85
0.51
82
0.81
111
0.58
74
anonymousdsp2two views0.38
35
0.46
81
0.30
54
0.25
31
0.23
31
0.32
53
0.18
40
0.58
64
0.23
23
0.47
41
0.38
52
0.48
49
0.23
31
0.18
29
0.40
25
0.39
31
0.44
28
0.33
24
0.88
112
0.31
45
0.48
51
0.52
87
0.17
36
0.23
37
0.41
45
0.33
26
0.61
58
0.42
40
TESTrafttwo views0.37
34
0.46
81
0.21
22
0.21
19
0.23
31
0.21
16
0.16
34
0.54
48
0.31
78
0.51
59
0.23
17
0.36
20
0.36
108
0.11
10
0.85
129
0.48
85
0.45
31
0.32
18
0.48
28
0.24
20
0.46
39
0.65
113
0.12
9
0.23
37
0.37
32
0.43
51
0.57
40
0.39
29
RAFT+CT+SAtwo views0.32
24
0.46
81
0.20
18
0.26
35
0.18
20
0.22
21
0.15
27
0.58
64
0.23
23
0.52
66
0.17
7
0.46
43
0.33
87
0.12
14
0.33
15
0.43
47
0.36
15
0.30
16
0.45
25
0.23
16
0.45
34
0.49
78
0.09
5
0.22
26
0.32
23
0.31
19
0.53
34
0.35
22
LMCR-Stereopermissivemany views0.50
80
0.46
81
0.33
64
0.32
61
0.33
77
0.42
96
0.24
74
0.57
60
0.37
111
0.55
83
0.46
76
0.65
106
0.40
119
0.26
91
0.69
94
0.49
91
0.62
131
0.49
106
1.11
131
0.57
140
0.66
117
0.64
111
0.25
96
0.32
89
0.48
60
0.49
77
0.63
64
0.65
96
pcwnet_v2two views0.62
119
0.46
81
0.50
136
0.62
151
0.49
138
0.61
148
0.46
132
0.66
114
0.45
136
0.65
137
0.79
162
0.64
103
0.86
180
0.53
177
1.15
178
0.55
113
0.59
115
0.51
119
0.83
107
0.41
92
0.55
82
0.47
71
0.34
131
0.43
136
0.75
140
0.76
125
0.85
125
0.95
140
IGEV_Zeroshot_testtwo views0.95
169
0.47
86
1.24
218
1.15
198
0.46
129
0.60
145
0.65
172
0.81
174
0.36
105
0.66
147
1.86
221
0.94
152
0.30
62
0.26
91
0.66
84
1.14
213
0.60
122
0.48
99
2.56
184
0.63
168
2.23
211
2.36
214
0.21
69
0.37
119
1.00
188
1.03
175
1.17
174
1.48
176
Any-RAFTtwo views0.69
133
0.47
86
0.85
189
0.53
132
0.40
113
0.38
82
0.27
85
0.64
103
0.32
86
0.57
94
0.76
160
0.86
146
0.24
38
0.22
47
0.57
51
0.76
162
0.60
122
0.45
81
2.19
170
0.45
103
1.20
181
0.71
128
0.22
78
0.31
85
0.99
185
1.24
189
0.73
93
1.65
183
Sa-1000two views0.48
76
0.47
86
0.21
22
0.26
35
0.26
43
0.31
50
0.15
27
0.65
110
0.36
105
0.63
126
0.33
39
0.50
58
0.26
42
0.30
105
0.94
151
0.49
91
0.59
115
0.45
81
0.90
114
0.32
48
0.52
71
0.75
135
0.17
36
0.27
62
0.72
130
0.53
86
1.00
156
0.49
51
SAtwo views0.42
49
0.47
86
0.21
22
0.25
31
0.23
31
0.31
50
0.13
16
0.64
103
0.32
86
0.61
113
0.26
23
0.54
68
0.21
25
0.16
25
0.63
74
0.47
80
0.52
69
0.41
55
0.60
62
0.29
36
0.46
39
0.61
106
0.15
20
0.27
62
0.45
53
0.58
94
0.96
146
0.47
48
CIPLGtwo views0.42
49
0.47
86
0.24
39
0.32
61
0.22
27
0.32
53
0.19
51
0.63
96
0.24
31
0.55
83
0.50
87
0.60
92
0.30
62
0.41
143
0.93
147
0.44
52
0.52
69
0.37
40
0.56
52
0.38
72
0.56
86
0.45
62
0.19
49
0.24
45
0.44
49
0.31
19
0.57
40
0.38
28
IPLGR_Ctwo views0.42
49
0.47
86
0.23
35
0.31
59
0.22
27
0.32
53
0.18
40
0.63
96
0.23
23
0.55
83
0.50
87
0.61
93
0.31
74
0.41
143
0.87
136
0.45
62
0.52
69
0.37
40
0.55
47
0.38
72
0.56
86
0.46
67
0.19
49
0.24
45
0.44
49
0.33
26
0.58
47
0.40
34
ACREtwo views0.42
49
0.47
86
0.22
30
0.32
61
0.22
27
0.33
60
0.18
40
0.63
96
0.23
23
0.55
83
0.50
87
0.61
93
0.30
62
0.41
143
0.91
143
0.45
62
0.52
69
0.36
37
0.55
47
0.38
72
0.57
95
0.44
59
0.19
49
0.23
37
0.44
49
0.32
23
0.58
47
0.39
29
AACVNettwo views0.55
97
0.47
86
0.40
96
0.58
141
0.61
159
0.53
130
0.37
115
0.61
83
0.40
120
0.59
105
0.64
130
0.58
83
0.33
87
0.36
131
0.69
94
0.54
111
0.58
105
0.54
136
0.69
83
0.52
120
0.54
80
0.52
87
0.36
136
0.44
141
0.59
98
0.69
106
0.82
114
0.83
129
APVNettwo views0.56
104
0.47
86
0.38
88
0.46
112
0.50
139
0.57
139
0.53
142
0.60
76
0.42
131
0.46
38
0.65
135
0.50
58
0.30
62
0.36
131
0.74
106
0.71
154
0.71
164
0.64
167
0.95
119
0.53
121
0.57
95
0.77
139
0.34
131
0.46
148
0.59
98
0.46
66
0.82
114
0.58
74
NVstereo2Dtwo views0.55
97
0.47
86
0.40
96
0.52
129
0.48
135
0.66
160
0.64
168
0.60
76
0.38
115
0.48
46
0.61
122
0.53
66
0.30
62
0.63
194
1.53
196
0.61
130
0.58
105
0.55
141
0.53
40
0.41
92
0.50
58
0.38
36
0.54
183
0.43
136
0.64
114
0.48
73
0.56
38
0.53
60
AE-Stereotwo views0.54
95
0.48
96
0.44
118
0.50
121
0.35
90
0.36
75
0.28
90
0.55
54
0.29
57
0.64
132
0.31
32
0.89
148
0.31
74
0.24
68
0.55
47
0.65
142
0.68
154
0.52
126
0.87
111
0.53
121
0.72
133
0.81
143
0.21
69
0.47
151
0.79
151
0.69
106
0.94
141
0.62
87
GMStereopermissivetwo views0.41
44
0.48
96
0.25
41
0.32
61
0.32
76
0.37
77
0.28
90
0.59
71
0.30
63
0.45
35
0.36
45
0.61
93
0.31
74
0.24
68
0.45
37
0.41
36
0.54
79
0.35
34
0.73
90
0.39
84
0.51
61
0.33
25
0.23
86
0.28
66
0.48
60
0.36
34
0.68
78
0.41
35
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
PMTNettwo views0.48
76
0.48
96
0.43
110
0.31
59
0.30
67
0.27
34
0.22
64
0.54
48
0.29
57
0.57
94
0.39
58
0.59
88
0.23
31
0.23
57
0.64
80
0.59
125
0.57
101
0.37
40
1.17
135
0.33
50
0.67
121
0.40
42
0.20
61
0.21
20
0.79
151
0.59
95
0.65
71
0.92
139
MSKI-zero shottwo views0.84
157
0.49
99
0.43
110
0.41
97
0.35
90
0.46
112
0.32
105
0.76
159
0.30
63
0.65
137
0.92
178
0.83
139
0.32
83
0.22
47
0.62
71
1.08
205
0.64
139
0.47
94
3.14
199
0.61
161
2.23
211
1.58
197
0.20
61
0.38
121
0.96
180
1.47
206
1.24
182
1.60
179
EGLCR-Stereotwo views0.47
73
0.49
99
0.41
104
0.29
46
0.30
67
0.44
102
0.14
23
0.57
60
0.26
39
0.57
94
0.27
25
0.58
83
0.23
31
0.21
41
0.36
19
0.47
80
0.53
77
0.45
81
0.75
97
0.32
48
0.69
127
0.93
154
0.19
49
0.24
45
0.48
60
0.49
77
1.30
186
0.70
110
TestStereo1two views0.38
35
0.49
99
0.19
15
0.22
22
0.23
31
0.23
22
0.15
27
0.55
54
0.30
63
0.52
66
0.21
13
0.35
16
0.39
116
0.11
10
0.80
114
0.50
94
0.46
35
0.32
18
0.53
40
0.25
23
0.52
71
0.67
121
0.15
20
0.22
26
0.37
32
0.42
49
0.60
55
0.39
29
SA-5Ktwo views0.38
35
0.49
99
0.19
15
0.22
22
0.23
31
0.23
22
0.15
27
0.55
54
0.30
63
0.52
66
0.21
13
0.35
16
0.39
116
0.11
10
0.80
114
0.50
94
0.46
35
0.32
18
0.53
40
0.25
23
0.52
71
0.67
121
0.15
20
0.22
26
0.37
32
0.42
49
0.60
55
0.39
29
iRaft-Stereo_20wtwo views1.06
179
0.49
99
1.34
222
1.18
200
0.46
129
0.78
178
0.46
132
0.76
159
0.37
111
0.74
177
6.16
250
0.84
141
0.29
53
0.26
91
0.81
117
0.97
190
0.59
115
0.44
72
1.72
155
0.61
161
1.04
171
1.56
196
0.21
69
0.25
53
0.92
173
1.31
197
1.45
200
2.71
206
ICVPtwo views0.58
110
0.49
99
0.67
173
0.50
121
0.48
135
0.52
127
0.36
113
0.60
76
0.45
136
0.61
113
0.58
113
0.61
93
0.56
157
0.30
105
0.67
89
0.64
136
0.58
105
0.51
119
0.72
89
0.51
118
0.58
98
0.74
133
0.59
189
0.47
151
0.60
101
0.75
122
0.74
95
0.72
113
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
EAI-Stereotwo views0.75
147
0.49
99
0.50
136
0.51
127
0.46
129
0.56
138
0.60
157
0.73
149
0.32
86
0.63
126
0.72
153
0.82
135
0.26
42
0.24
68
1.05
168
0.96
188
0.60
122
0.49
106
3.00
196
0.62
165
0.82
146
1.13
170
0.19
49
0.31
85
0.78
148
0.70
110
1.55
204
1.17
162
AF-Nettwo views0.53
90
0.49
99
0.44
118
0.50
121
0.53
144
0.61
148
0.54
145
0.61
83
0.55
155
0.43
26
0.66
138
0.85
142
0.42
123
0.40
140
0.64
80
0.46
69
0.46
35
0.44
72
0.60
62
0.40
89
0.45
34
0.45
62
0.41
150
0.39
122
0.50
70
0.55
90
0.81
111
0.69
105
Nwc_Nettwo views0.53
90
0.49
99
0.44
118
0.50
121
0.53
144
0.61
148
0.54
145
0.61
83
0.55
155
0.43
26
0.66
138
0.85
142
0.42
123
0.40
140
0.64
80
0.46
69
0.46
35
0.44
72
0.60
62
0.40
89
0.45
34
0.45
62
0.41
150
0.39
122
0.50
70
0.55
90
0.81
111
0.69
105
RTSCtwo views0.73
141
0.49
99
0.46
123
0.47
114
0.51
142
0.55
136
0.56
149
0.67
117
0.68
171
0.54
77
0.79
162
0.57
78
0.57
161
0.41
143
1.92
216
0.77
164
0.96
200
0.58
153
1.36
144
0.56
135
0.85
152
1.11
167
0.31
121
0.53
163
0.58
92
0.65
103
0.95
143
1.26
168
DeepPrunerFtwo views1.22
184
0.49
99
0.39
91
0.58
141
2.86
242
0.49
117
0.55
147
0.52
40
0.58
161
0.43
26
0.67
143
0.43
36
0.32
83
0.42
153
1.64
202
0.75
161
0.58
105
0.46
88
0.93
116
0.46
108
0.61
104
0.53
90
0.40
148
0.35
108
15.32
262
0.82
137
0.65
71
0.62
87
MLCVtwo views0.70
136
0.49
99
0.53
143
0.73
169
0.50
139
0.65
157
0.43
128
0.81
174
0.41
124
0.71
170
0.88
174
1.01
159
0.81
177
0.28
97
0.92
145
0.43
47
0.65
143
0.52
126
2.47
183
0.45
103
0.55
82
0.72
131
0.39
147
0.54
164
0.69
122
0.80
132
0.83
121
0.72
113
HSMtwo views0.54
95
0.49
99
0.47
127
0.48
116
0.47
132
0.41
92
0.37
115
0.71
141
0.37
111
0.61
113
0.65
135
0.59
88
0.48
142
0.31
112
0.70
99
0.48
85
0.64
139
0.47
94
0.75
97
0.48
114
0.63
109
0.49
78
0.26
103
0.42
132
0.62
107
0.72
114
0.87
132
0.67
99
iResNet_ROBtwo views0.50
80
0.49
99
0.42
106
0.42
101
0.30
67
0.42
96
0.32
105
0.60
76
0.33
91
0.52
66
0.59
114
0.47
46
0.56
157
0.25
81
0.81
117
0.46
69
0.57
101
0.49
106
1.19
136
0.36
64
0.48
51
0.36
31
0.25
96
0.37
119
0.57
88
0.54
88
0.75
97
0.61
83
RAFT-Testtwo views0.72
140
0.50
113
0.46
123
0.52
129
0.34
86
0.41
92
0.29
97
0.73
149
0.30
63
0.62
122
0.72
153
0.68
112
0.31
74
0.22
47
0.71
103
1.03
200
0.62
131
0.50
112
2.89
194
0.66
172
1.72
199
1.14
172
0.23
86
0.29
70
0.80
155
0.96
157
0.95
143
0.91
138
RALCasStereoNettwo views0.42
49
0.50
113
0.35
70
0.35
77
0.30
67
0.31
50
0.24
74
0.60
76
0.25
36
0.56
90
0.49
82
0.58
83
0.26
42
0.18
29
0.57
51
0.46
69
0.54
79
0.49
106
0.51
32
0.34
53
0.51
61
0.41
45
0.21
69
0.31
85
0.53
79
0.49
77
0.48
23
0.58
74
DSFCAtwo views0.45
67
0.50
113
0.40
96
0.40
92
0.37
100
0.44
102
0.34
109
0.46
33
0.39
118
0.40
23
0.57
110
0.49
52
0.29
53
0.24
68
0.61
67
0.44
52
0.49
51
0.49
106
0.64
68
0.39
84
0.50
58
0.51
83
0.33
129
0.35
108
0.49
67
0.50
80
0.57
40
0.58
74
FADNet-RVCtwo views0.58
110
0.50
113
0.37
79
0.51
127
0.42
120
0.39
84
0.56
149
0.68
124
0.36
105
0.64
132
0.50
87
1.13
170
0.45
134
0.34
123
0.91
143
0.53
105
0.54
79
0.45
81
1.20
138
0.51
118
0.54
80
0.52
87
0.33
129
0.51
159
0.57
88
0.75
122
0.64
67
0.81
127
DLCB_ROBtwo views0.53
90
0.50
113
0.48
130
0.41
97
0.45
126
0.43
100
0.39
121
0.55
54
0.45
136
0.57
94
0.61
122
0.70
117
0.52
150
0.41
143
0.60
62
0.47
80
0.57
101
0.48
99
0.52
34
0.43
100
0.55
82
0.47
71
0.38
143
0.42
132
0.96
180
0.79
131
0.70
85
0.62
87
ddtwo views0.50
80
0.51
118
0.28
48
0.91
183
0.31
75
0.65
157
0.29
97
0.59
71
0.23
23
0.54
77
0.30
29
0.75
126
0.27
48
0.26
91
0.84
125
0.46
69
0.70
159
0.39
46
1.05
125
0.38
72
0.48
51
0.43
54
0.23
86
0.30
78
0.53
79
0.39
43
0.74
95
0.58
74
GLC_STEREOtwo views0.47
73
0.51
118
0.40
96
0.38
85
0.37
100
0.37
77
0.28
90
0.64
103
0.29
57
0.62
122
0.53
100
0.55
73
0.28
51
0.30
105
0.49
42
0.48
85
0.66
146
0.41
55
0.65
72
0.41
92
0.70
130
0.60
101
0.23
86
0.30
78
0.47
57
0.36
34
0.84
123
0.53
60
MIPNettwo views0.51
83
0.51
118
0.33
64
0.32
61
0.30
67
0.37
77
0.25
79
0.62
90
0.24
31
0.50
55
0.52
96
0.61
93
0.41
122
0.30
105
1.01
166
0.51
101
0.59
115
0.50
112
0.76
100
0.47
112
0.44
31
0.85
146
0.20
61
0.26
59
0.66
117
0.98
163
0.71
89
0.61
83
rafts_anoytwo views0.41
44
0.51
118
0.35
70
0.29
46
0.30
67
0.33
60
0.22
64
0.59
71
0.25
36
0.51
59
0.50
87
0.48
49
0.23
31
0.17
28
0.57
51
0.46
69
0.51
65
0.50
112
0.58
60
0.34
53
0.50
58
0.43
54
0.19
49
0.28
66
0.50
70
0.47
68
0.52
30
0.53
60
TestStereotwo views0.45
67
0.51
118
0.38
88
0.42
101
0.30
67
0.44
102
0.26
83
0.71
141
0.28
50
0.76
183
0.32
33
0.64
103
0.32
83
0.24
68
0.47
39
0.35
19
0.54
79
0.33
24
0.78
102
0.38
72
0.63
109
0.42
49
0.24
93
0.30
78
0.53
79
0.43
51
0.75
97
0.55
69
psm_uptwo views0.56
104
0.51
118
0.53
143
0.56
138
0.45
126
0.58
142
0.35
111
0.71
141
0.66
170
0.55
83
0.53
100
0.59
88
0.50
144
0.40
140
0.63
74
0.50
94
0.59
115
0.49
106
0.84
109
0.46
108
0.51
61
0.45
62
0.31
121
0.51
159
0.70
124
0.78
129
0.80
108
0.67
99
CREStereotwo views0.44
64
0.51
118
0.40
96
0.34
69
0.26
43
0.28
40
0.15
27
0.61
83
0.30
63
0.58
100
0.36
45
0.72
121
0.33
87
0.24
68
0.59
58
0.59
125
0.59
115
0.34
26
0.52
34
0.31
45
0.59
102
0.42
49
0.18
41
0.30
78
0.54
83
0.48
73
0.64
67
0.69
105
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
CFNet_RVCtwo views0.51
83
0.51
118
0.47
127
0.50
121
0.48
135
0.48
115
0.32
105
0.53
44
0.37
111
0.51
59
0.65
135
0.57
78
0.34
97
0.30
105
0.69
94
0.44
52
0.52
69
0.47
94
0.57
56
0.42
98
0.56
86
0.49
78
0.27
107
0.35
108
0.65
116
0.74
118
0.80
108
0.75
120
MyStereo04two views0.68
132
0.52
126
0.57
150
0.44
109
0.37
100
0.35
72
0.26
83
0.68
124
0.45
136
0.62
122
0.45
72
0.68
112
0.34
97
0.25
81
1.00
163
0.68
149
0.56
92
0.53
130
3.39
202
0.56
135
0.92
158
0.64
111
0.27
107
0.41
128
0.77
146
0.92
149
0.96
146
0.66
97
CASnettwo views0.40
41
0.52
126
0.23
35
0.27
39
0.27
51
0.30
49
0.14
23
0.62
90
0.29
57
0.61
113
0.44
69
0.64
103
0.28
51
0.23
57
0.55
47
0.36
24
0.45
31
0.31
17
0.73
90
0.27
30
0.63
109
0.39
41
0.21
69
0.24
45
0.42
46
0.32
23
0.61
58
0.56
70
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
Anonymoustwo views0.66
124
0.52
126
0.38
88
0.35
77
0.36
93
0.42
96
0.25
79
0.74
154
0.47
142
0.45
35
0.45
72
0.56
75
0.51
148
0.23
57
0.88
138
1.09
207
0.78
172
0.69
181
1.84
161
0.64
169
1.19
180
1.21
177
0.32
126
0.42
132
0.66
117
0.73
117
0.93
138
0.74
119
GEStwo views0.59
116
0.52
126
0.37
79
0.39
88
0.40
113
0.53
130
0.37
115
0.59
71
0.40
120
0.56
90
0.60
116
0.50
58
0.30
62
0.41
143
0.98
159
0.63
132
0.67
152
0.55
141
2.28
173
0.56
135
0.70
130
0.56
97
0.31
121
0.42
132
0.48
60
0.48
73
0.65
71
0.68
103
FADNet-RVC-Resampletwo views0.57
108
0.52
126
0.42
106
0.46
112
0.39
109
0.41
92
0.40
123
0.72
148
0.42
131
0.68
156
0.51
93
1.04
164
0.43
128
0.43
156
0.96
156
0.48
85
0.56
92
0.61
161
0.85
110
0.55
131
0.52
71
0.63
107
0.34
131
0.60
173
0.58
92
0.71
111
0.55
36
0.77
122
MSMDNettwo views0.73
141
0.52
126
0.48
130
0.35
77
0.34
86
0.45
106
0.33
108
0.69
132
0.30
63
0.63
126
0.60
116
0.71
119
0.35
104
0.23
57
0.78
109
1.05
202
0.63
136
0.50
112
2.88
193
0.81
192
1.59
195
1.80
207
0.23
86
0.29
70
0.74
137
0.89
146
0.85
125
0.76
121
NLCA_NET_v2_RVCtwo views0.51
83
0.52
126
0.48
130
0.43
105
0.57
153
0.42
96
0.62
165
0.56
59
0.62
165
0.52
66
0.51
93
0.67
110
0.34
97
0.58
189
0.78
109
0.42
40
0.47
44
0.42
62
0.57
56
0.38
72
0.46
39
0.42
49
0.30
116
0.32
89
0.48
60
0.76
125
0.62
61
0.64
94
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
SACVNettwo views0.62
119
0.53
133
0.51
140
0.55
137
0.57
153
0.52
127
0.60
157
0.69
132
0.56
157
0.67
154
0.54
106
0.59
88
0.37
112
0.41
143
0.71
103
0.60
127
0.64
139
0.57
148
0.95
119
0.64
169
0.67
121
0.78
140
0.36
136
0.47
151
0.75
140
0.77
128
0.84
123
0.84
130
ADLNettwo views0.46
71
0.53
133
0.37
79
0.41
97
0.41
118
0.44
102
0.40
123
0.54
48
0.35
101
0.45
35
0.53
100
0.76
128
0.36
108
0.62
192
0.58
55
0.42
40
0.49
51
0.42
62
0.50
30
0.37
69
0.43
26
0.44
59
0.34
131
0.25
53
0.47
57
0.55
90
0.57
40
0.45
46
HSM-Net_RVCpermissivetwo views0.75
147
0.53
133
0.60
157
0.77
172
0.62
165
0.61
148
0.37
115
0.76
159
0.49
144
0.74
177
1.71
217
1.32
178
0.80
176
0.36
131
0.72
105
0.55
113
0.64
139
0.53
130
0.78
102
0.53
121
0.67
121
0.89
152
0.43
154
0.64
179
0.94
177
1.09
179
1.07
162
1.04
150
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
MyStereotwo views0.70
136
0.55
136
0.69
176
0.47
114
0.38
106
0.35
72
0.27
85
0.68
124
0.49
144
0.64
132
0.57
110
0.66
107
0.42
123
0.26
91
1.12
176
0.65
142
0.58
105
0.53
130
3.20
200
0.57
140
0.92
158
0.74
133
0.28
110
0.41
128
0.88
169
0.99
165
0.99
151
0.62
87
CASStwo views0.79
154
0.55
136
0.53
143
0.65
158
0.54
147
0.59
143
0.53
142
0.78
166
0.52
148
0.71
170
0.75
159
0.67
110
0.47
139
0.28
97
0.83
122
0.67
146
0.98
201
0.56
143
1.60
152
0.58
144
2.74
219
1.44
189
0.38
143
0.35
108
0.84
165
0.81
134
0.90
134
1.02
149
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
IPLGRtwo views0.57
108
0.55
136
0.37
79
0.43
105
0.38
106
0.36
75
0.23
71
0.62
90
0.30
63
0.56
90
0.68
146
0.61
93
0.32
83
0.29
103
1.73
208
0.47
80
0.56
92
0.56
143
1.09
127
0.54
127
0.53
77
0.81
143
0.20
61
0.32
89
0.71
127
0.97
162
0.73
93
0.57
72
FADNettwo views0.65
123
0.55
136
0.41
104
0.53
132
0.42
120
0.49
117
0.65
172
0.74
154
0.42
131
0.66
147
0.64
130
0.81
133
0.50
144
0.36
131
1.17
180
0.51
101
0.51
65
0.53
130
1.61
153
0.53
121
0.69
127
0.59
98
0.35
135
0.41
128
0.72
130
0.88
144
0.78
106
1.06
151
R-Stereo Traintwo views0.66
124
0.55
136
0.43
110
0.48
116
0.36
93
0.50
121
0.18
40
0.62
90
0.31
78
0.68
156
0.62
126
0.72
121
0.34
97
0.25
81
0.69
94
0.89
177
0.66
146
0.51
119
2.12
168
0.46
108
0.94
160
1.49
192
0.22
78
0.36
115
0.71
127
0.96
157
0.77
101
1.10
154
RAFT-Stereopermissivetwo views0.66
124
0.55
136
0.43
110
0.48
116
0.36
93
0.50
121
0.18
40
0.62
90
0.31
78
0.68
156
0.62
126
0.72
121
0.34
97
0.25
81
0.69
94
0.89
177
0.66
146
0.51
119
2.12
168
0.46
108
0.94
160
1.49
192
0.22
78
0.36
115
0.71
127
0.96
157
0.77
101
1.10
154
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
cross-rafttwo views0.73
141
0.56
142
0.46
123
0.43
105
0.33
77
0.40
90
0.27
85
0.73
149
0.33
91
0.65
137
0.60
116
0.74
125
0.30
62
0.23
57
0.76
108
0.96
188
0.63
136
0.48
99
2.91
195
0.59
148
1.81
205
1.31
183
0.22
78
0.32
89
0.82
159
0.94
153
0.93
138
1.01
148
STTStereotwo views0.53
90
0.56
142
0.54
146
0.44
109
0.52
143
0.43
100
0.59
154
0.52
40
0.46
140
0.47
41
0.55
108
0.71
119
0.42
123
0.56
182
0.87
136
0.44
52
0.49
51
0.51
119
0.54
45
0.37
69
0.51
61
0.40
42
0.32
126
0.35
108
0.52
77
0.66
104
0.68
78
0.99
146
SHDtwo views0.97
174
0.56
142
0.73
180
0.75
170
0.69
174
0.66
160
0.61
162
0.99
192
0.94
195
0.77
185
1.00
185
0.94
152
1.29
195
0.54
178
2.21
229
0.98
192
0.95
198
0.70
183
2.01
166
0.80
189
1.12
176
1.71
203
0.47
159
0.77
194
0.91
172
1.01
170
0.91
135
1.22
167
iResNettwo views0.92
165
0.56
142
0.62
160
0.72
167
0.68
172
0.96
188
0.55
147
0.95
187
0.57
158
0.67
154
0.82
172
1.41
181
1.51
199
0.31
112
1.49
195
0.66
145
0.75
169
0.67
174
4.08
209
0.68
178
0.72
133
0.63
107
0.41
150
0.83
197
0.72
130
0.91
148
1.02
158
0.87
135
dadtwo views0.89
164
0.57
146
0.37
79
1.42
209
0.65
167
0.75
174
2.23
222
1.43
216
0.36
105
0.93
204
0.38
52
0.85
142
0.76
175
0.32
118
0.97
158
0.52
103
0.78
172
0.45
81
1.87
164
0.41
92
0.74
138
0.41
45
0.30
116
0.47
151
1.15
201
0.47
68
2.64
235
1.96
191
RPtwo views0.58
110
0.57
146
0.72
179
0.62
151
0.56
151
0.57
139
0.64
168
0.63
96
0.61
163
0.42
25
0.81
167
0.78
132
0.53
152
0.43
156
0.68
92
0.48
85
0.53
77
0.44
72
0.64
68
0.45
103
0.51
61
0.54
92
0.37
141
0.44
141
0.62
107
0.59
95
0.83
121
0.77
122
GANet-ADLtwo views0.70
136
0.59
148
0.52
141
0.60
146
0.57
153
0.61
148
0.46
132
0.68
124
0.52
148
0.65
137
0.67
143
0.76
128
0.43
128
0.39
137
1.08
172
0.79
170
0.68
154
0.52
126
1.84
161
0.64
169
0.66
117
0.86
148
0.42
153
0.43
136
0.70
124
0.87
142
0.97
148
0.89
137
GEStereo_RVCtwo views0.71
139
0.59
148
0.40
96
0.54
134
0.50
139
0.61
148
0.51
139
0.71
141
0.41
124
0.59
105
0.51
93
0.76
128
0.46
137
0.39
137
0.96
156
0.92
181
0.78
172
0.75
192
1.94
165
0.62
165
0.80
144
1.37
186
0.31
121
0.52
161
0.61
102
0.63
99
0.86
130
1.12
157
Anonymous3two views0.79
154
0.59
148
0.42
106
0.37
82
0.42
120
0.57
139
0.50
138
0.80
169
0.64
167
0.68
156
0.49
82
1.48
182
0.54
153
0.31
112
1.53
196
1.42
234
0.88
189
0.82
203
1.45
146
0.69
181
1.31
187
1.30
182
0.40
148
0.40
125
0.74
137
0.86
139
1.03
160
0.71
111
RTStwo views1.09
180
0.59
148
0.59
153
0.60
146
0.58
156
0.96
188
0.90
188
0.80
169
0.88
186
0.59
105
0.71
148
1.28
176
0.62
165
0.51
172
2.04
219
0.98
192
1.19
210
0.77
197
2.33
176
0.85
195
0.96
164
1.16
173
0.49
165
0.65
181
1.23
203
4.43
250
1.15
169
1.45
172
RTSAtwo views1.09
180
0.59
148
0.59
153
0.60
146
0.58
156
0.96
188
0.90
188
0.80
169
0.88
186
0.59
105
0.71
148
1.28
176
0.62
165
0.51
172
2.04
219
0.98
192
1.19
210
0.77
197
2.33
176
0.85
195
0.96
164
1.16
173
0.49
165
0.65
181
1.23
203
4.43
250
1.15
169
1.45
172
ADCP+two views0.92
165
0.59
148
0.62
160
0.44
109
0.45
126
0.55
136
0.85
184
0.65
110
1.81
224
0.48
46
1.10
193
1.62
190
0.33
87
0.42
153
1.03
167
0.52
103
0.52
69
0.48
99
1.19
136
0.38
72
0.58
98
0.60
101
0.32
126
0.30
78
0.66
117
3.45
247
0.77
101
4.14
226
NaN_ROBtwo views0.73
141
0.59
148
0.61
159
0.64
155
0.78
187
0.53
130
0.48
135
0.87
181
0.63
166
0.73
176
0.61
122
1.96
196
0.62
165
0.45
161
0.84
125
0.55
113
0.56
92
0.54
136
0.73
90
0.55
131
0.52
71
0.51
83
0.38
143
0.64
179
0.83
161
1.11
181
0.94
141
1.64
182
DAStwo views0.95
169
0.61
155
0.48
130
0.78
174
0.61
159
0.68
163
0.59
154
0.84
178
0.93
192
0.65
137
1.58
212
1.66
191
1.06
184
0.34
123
0.95
153
0.92
181
0.92
195
0.73
188
1.77
157
1.03
207
1.73
200
1.11
167
0.47
159
0.92
203
0.93
174
1.00
167
1.39
193
0.96
141
SepStereotwo views0.95
169
0.61
155
0.48
130
0.78
174
0.61
159
0.68
163
0.59
154
0.84
178
0.93
192
0.65
137
1.58
212
1.66
191
1.06
184
0.34
123
0.95
153
0.92
181
0.92
195
0.73
188
1.77
157
1.03
207
1.73
200
1.11
167
0.47
159
0.92
203
0.93
174
1.00
167
1.39
193
0.96
141
FCDSN-DCtwo views0.69
133
0.61
155
0.62
160
0.66
160
0.61
159
0.59
143
0.60
157
0.68
124
0.42
131
0.75
180
0.42
65
0.57
78
0.36
108
0.50
170
2.43
241
0.67
146
0.80
178
0.76
195
0.64
68
0.56
135
0.70
130
0.60
101
0.47
159
0.83
197
0.66
117
0.74
118
0.61
58
0.67
99
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
PSMNet-ADLtwo views0.96
172
0.62
158
0.66
170
0.67
161
0.70
179
0.66
160
0.58
153
0.74
154
0.60
162
0.85
199
5.03
243
0.95
155
1.26
193
0.45
161
0.89
140
1.03
200
0.68
154
0.54
136
2.03
167
0.68
178
0.84
150
0.79
142
0.54
183
0.47
151
0.73
135
0.95
154
1.32
188
0.63
92
NCC-stereotwo views0.67
127
0.63
159
0.59
153
0.64
155
0.65
167
0.63
154
0.69
176
0.67
117
0.74
177
0.43
26
0.81
167
0.82
135
0.70
171
0.47
164
0.82
120
0.53
105
0.58
105
0.64
167
0.80
104
0.54
127
0.56
86
0.60
101
0.53
179
0.45
146
0.75
140
0.96
157
0.92
136
0.98
144
Abc-Nettwo views0.67
127
0.63
159
0.59
153
0.64
155
0.65
167
0.63
154
0.69
176
0.67
117
0.74
177
0.43
26
0.81
167
0.82
135
0.70
171
0.47
164
0.82
120
0.53
105
0.58
105
0.64
167
0.80
104
0.54
127
0.56
86
0.60
101
0.53
179
0.45
146
0.75
140
0.96
157
0.92
136
0.98
144
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
EKT-Stereotwo views0.75
147
0.64
161
0.54
146
0.59
144
0.47
132
0.60
145
0.73
178
0.71
141
0.29
57
0.63
126
0.66
138
0.73
124
0.30
62
0.26
91
0.86
131
1.22
222
0.68
154
0.76
195
1.46
147
0.60
152
1.75
202
1.74
205
0.21
69
0.32
89
0.93
174
0.81
134
1.06
161
0.72
113
MaskLacGwcNet_RVCtwo views8.29
253
0.65
162
1.07
208
0.94
188
0.83
189
0.81
179
1.27
206
0.85
180
0.73
174
0.93
204
6.13
249
180.62
274
2.17
209
1.33
225
1.22
181
1.01
198
0.93
197
1.06
221
6.32
224
0.79
188
3.32
234
3.77
231
0.55
185
0.76
191
0.95
179
1.34
202
1.19
176
2.42
201
ADCReftwo views1.01
176
0.65
162
0.48
130
0.39
88
0.47
132
0.65
157
0.68
175
0.61
83
1.08
201
0.52
66
0.64
130
0.75
126
0.43
128
0.38
136
1.56
198
0.72
155
0.61
127
0.59
158
1.53
149
0.58
144
0.66
117
0.71
128
0.50
169
0.43
136
0.75
140
1.25
192
0.82
114
8.96
248
AnyNet_C32two views1.64
199
0.65
162
0.74
181
0.67
161
0.73
182
0.86
184
1.14
200
0.95
187
3.12
247
0.75
180
1.53
211
0.94
152
0.64
169
0.67
199
1.83
213
1.11
211
1.06
207
0.95
214
1.78
159
0.76
185
1.76
203
1.71
203
0.66
194
0.85
200
1.13
199
2.68
235
1.17
174
13.55
253
UDGNettwo views0.67
127
0.66
165
0.42
106
1.35
206
1.02
200
1.21
203
0.91
190
0.60
76
0.41
124
0.52
66
0.60
116
0.56
75
0.23
31
1.19
221
0.66
84
0.45
62
0.56
92
0.51
119
0.73
90
0.53
121
0.64
115
0.67
121
0.79
200
0.29
70
0.72
130
0.55
90
0.63
64
0.66
97
stereogantwo views0.67
127
0.67
166
0.62
160
0.68
164
0.73
182
0.75
174
0.64
168
0.70
138
0.57
158
0.51
59
0.64
130
1.08
165
0.62
165
0.44
159
0.83
122
0.55
113
0.56
92
0.51
119
0.91
115
0.59
148
0.59
102
0.69
126
0.47
159
0.46
148
0.59
98
0.67
105
1.16
172
0.87
135
PA-Nettwo views0.64
122
0.67
166
0.66
170
0.50
121
0.66
171
0.50
121
0.64
168
0.65
110
0.73
174
0.54
77
0.52
96
0.58
83
0.58
163
0.59
191
0.93
147
0.57
119
0.46
35
0.54
136
0.61
66
0.54
127
0.49
55
0.66
116
0.36
136
0.52
161
0.64
114
1.24
189
0.64
67
1.32
170
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
s12784htwo views0.62
119
0.68
168
0.47
127
0.65
158
0.44
125
0.34
67
0.24
74
0.61
83
0.31
78
0.60
111
0.44
69
0.81
133
0.55
155
0.25
81
0.62
71
0.50
94
0.62
131
0.38
44
0.74
96
0.36
64
1.26
184
0.47
71
0.18
41
0.30
78
0.70
124
0.74
118
1.39
193
2.07
192
FADNet_RVCtwo views0.92
165
0.69
169
0.55
149
0.88
180
0.75
185
0.54
134
0.51
139
0.77
164
0.54
151
0.70
167
0.96
182
1.36
180
1.06
184
0.54
178
1.85
214
0.64
136
0.80
178
0.90
207
3.34
201
0.76
185
1.00
168
1.13
170
0.37
141
0.60
173
0.66
117
0.87
142
0.97
148
1.14
160
PWC_ROBbinarytwo views1.18
183
0.70
170
1.06
206
0.60
146
0.71
180
0.70
166
0.98
196
0.83
176
1.55
220
0.76
183
1.40
207
1.00
157
2.46
217
0.57
186
2.17
227
0.99
196
1.15
208
0.90
207
2.37
178
0.95
200
1.63
197
2.05
210
0.44
155
0.98
208
0.81
156
0.80
132
1.24
182
2.15
195
SGM-Foresttwo views0.73
141
0.71
171
0.40
96
1.13
196
0.64
166
0.74
173
0.45
130
0.68
124
0.39
118
0.61
113
0.44
69
1.16
171
1.06
184
0.49
167
0.86
131
0.61
130
0.55
87
0.46
88
0.68
78
0.44
101
0.61
104
0.49
78
0.45
156
0.44
141
0.90
171
0.86
139
1.95
218
1.47
174
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
RGCtwo views0.76
151
0.72
172
0.99
198
0.70
165
0.71
180
0.76
177
0.57
152
0.74
154
0.74
177
0.56
90
0.96
182
0.83
139
0.85
179
0.56
182
0.93
147
0.60
127
0.62
131
0.56
143
0.93
116
0.61
161
0.66
117
0.71
128
0.51
176
0.56
167
0.81
156
1.01
170
0.99
151
1.19
164
NCCL2two views0.69
133
0.73
173
0.66
170
0.57
140
0.56
151
0.51
124
0.45
130
0.70
138
0.57
158
0.68
156
0.71
148
0.66
107
0.48
142
0.39
137
0.93
147
0.72
155
0.65
143
0.57
148
0.76
100
0.57
140
0.74
138
0.88
150
0.49
165
0.60
173
0.98
182
0.95
154
0.85
125
1.16
161
GANetREF_RVCpermissivetwo views0.77
153
0.74
174
0.68
175
0.76
171
0.65
167
0.69
165
0.60
157
0.99
192
0.73
174
0.93
204
0.52
96
1.33
179
0.72
173
0.44
159
0.85
129
0.57
119
0.67
152
0.63
163
1.13
133
0.61
161
0.77
141
0.63
107
0.59
189
0.71
185
0.89
170
0.90
147
1.15
169
0.99
146
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
ADCPNettwo views2.08
211
0.77
175
0.87
191
0.83
176
1.21
210
0.85
181
1.59
211
1.02
197
1.35
212
0.83
197
1.97
222
1.01
159
7.76
241
0.75
206
2.35
238
1.16
216
0.95
198
0.71
184
4.05
208
0.97
202
1.30
186
1.61
198
0.72
196
0.76
191
1.52
218
1.96
224
1.21
178
16.04
256
XPNet_ROBtwo views0.74
146
0.77
175
0.57
150
0.54
134
0.61
159
0.63
154
0.61
162
0.53
44
0.65
168
0.58
100
0.81
167
2.35
201
0.46
137
0.43
156
0.79
112
0.63
132
0.85
183
0.57
148
0.83
107
0.55
131
0.72
133
1.09
166
0.45
156
0.49
158
0.63
111
0.74
118
1.39
193
0.86
133
FAT-Stereotwo views1.57
196
0.78
177
1.44
224
1.10
194
1.32
215
1.05
195
0.87
187
1.28
207
0.86
184
1.21
222
5.46
246
3.07
212
1.28
194
0.66
197
1.73
208
1.34
224
0.89
191
0.94
213
1.83
160
1.08
210
2.02
207
3.90
233
0.71
195
0.98
208
0.86
167
1.21
187
1.42
199
3.03
213
UCFNet_RVCtwo views0.56
104
0.78
177
0.45
122
0.59
144
0.55
150
0.52
127
0.39
121
0.58
64
0.40
120
0.59
105
0.60
116
0.82
135
0.45
134
0.32
118
0.70
99
0.42
40
0.50
56
0.50
112
0.67
76
0.45
103
0.56
86
0.47
71
0.38
143
0.41
128
0.77
146
0.71
111
0.65
71
0.86
133
SAMSARAtwo views1.50
192
0.79
179
1.00
202
0.93
186
0.88
191
0.86
184
0.93
192
1.57
222
1.25
207
0.96
209
1.09
191
1.27
174
2.59
218
0.83
209
2.58
243
1.19
220
1.04
204
0.91
210
2.56
184
0.99
205
1.77
204
2.23
213
0.56
187
0.98
208
2.63
232
2.81
236
2.62
234
2.56
204
ccs_robtwo views1.25
185
0.79
179
0.64
166
0.86
178
0.60
158
0.89
186
0.83
183
0.99
192
0.51
147
0.77
185
6.27
252
5.90
233
1.10
188
0.51
172
1.08
172
1.10
209
0.68
154
0.66
172
1.15
134
0.70
182
1.56
193
1.66
201
0.50
169
0.54
164
0.69
122
0.78
129
0.86
130
1.20
165
CBMV_ROBtwo views1.71
203
0.79
179
0.65
169
1.35
206
1.07
203
1.01
191
0.74
179
1.01
196
0.54
151
0.72
173
0.81
167
9.80
253
5.90
235
0.57
186
1.42
189
0.69
150
0.80
178
0.58
153
5.38
215
1.22
220
0.95
163
0.55
96
0.53
179
0.62
176
1.22
202
1.45
205
2.72
237
2.94
210
pmcnntwo views1.66
200
0.80
182
0.52
141
1.19
201
1.01
197
1.21
203
0.93
192
0.96
190
0.54
151
0.74
177
2.66
229
3.98
225
5.06
229
0.31
112
1.65
204
1.40
233
1.20
212
0.91
210
3.99
207
0.95
200
4.45
245
1.02
162
0.90
207
0.90
202
1.07
194
1.01
170
2.43
229
3.03
213
S-Stereotwo views1.54
194
0.81
183
0.83
188
1.15
198
1.16
208
1.29
208
1.56
210
1.02
197
1.09
202
1.25
225
4.20
238
4.10
226
1.10
188
0.66
197
2.16
226
1.63
238
0.90
192
1.05
220
2.20
171
1.10
212
1.26
184
3.12
224
1.31
224
1.17
223
0.84
165
1.18
184
1.21
178
2.18
196
STTRV1_RVCtwo views0.81
183
0.64
166
1.04
192
0.73
182
1.03
193
0.85
184
0.91
185
0.92
190
0.93
204
0.95
181
1.72
194
2.23
210
0.86
212
1.46
193
0.78
167
1.37
216
0.72
185
1.97
241
1.59
195
1.23
178
0.97
206
1.07
194
1.11
181
1.75
213
3.40
219
PS-NSSStwo views0.60
118
0.81
183
0.44
118
0.89
181
0.54
147
0.71
168
0.63
166
0.64
103
0.38
115
0.64
132
0.41
63
1.52
186
0.47
139
0.41
143
0.59
58
0.42
40
0.52
69
0.45
81
0.94
118
0.42
98
0.44
31
0.29
20
0.36
136
0.34
105
0.63
111
0.69
106
0.70
85
0.80
125
SFCPSMtwo views3.03
227
0.82
186
0.63
164
0.77
172
0.69
174
0.72
169
0.63
166
0.83
176
0.98
198
0.71
170
2.00
223
2.57
202
3.49
223
0.56
182
1.16
179
0.93
184
0.74
167
0.64
167
54.48
271
1.19
219
0.88
153
0.91
153
0.55
185
0.55
166
0.94
177
0.93
152
1.11
168
1.39
171
ADCLtwo views1.27
186
0.82
186
0.64
166
0.60
146
0.53
144
0.73
170
0.91
190
0.75
158
2.78
244
0.68
156
1.01
186
0.86
146
0.50
144
0.50
170
1.27
183
0.64
136
0.66
146
0.57
148
1.20
138
0.60
152
0.98
167
0.88
150
0.50
169
0.47
151
1.60
220
1.50
211
0.88
133
11.30
251
GwcNet-ADLtwo views0.97
174
0.83
188
0.81
186
0.91
183
0.68
172
0.70
166
0.53
142
0.77
164
0.50
146
0.72
173
5.46
246
1.20
173
0.65
170
0.46
163
0.81
117
0.95
185
0.72
166
0.56
143
1.26
140
0.71
183
0.67
121
0.78
140
0.59
189
0.56
167
0.79
151
0.98
163
0.85
125
1.75
187
TRStereotwo views0.75
147
0.83
188
1.19
213
0.56
138
0.34
86
1.42
211
0.48
135
0.68
124
0.28
50
0.65
137
0.46
76
1.10
168
0.27
48
0.22
47
0.70
99
0.85
175
0.57
101
0.48
99
1.85
163
0.50
115
0.73
136
0.87
149
0.18
41
0.27
62
0.78
148
1.22
188
1.78
214
1.09
153
DPSNettwo views2.61
217
0.83
188
0.77
184
1.21
202
1.24
211
1.34
209
0.93
192
1.08
202
1.49
218
0.78
189
0.86
173
6.91
239
3.85
224
0.58
189
4.58
251
2.54
248
1.43
220
1.24
231
14.95
250
1.34
225
4.83
249
8.01
255
1.75
228
1.40
231
1.47
215
1.95
223
1.60
208
1.66
184
CSANtwo views0.93
168
0.83
188
0.75
182
0.86
178
0.82
188
0.73
170
0.61
162
0.97
191
0.94
195
0.94
208
0.73
158
1.96
196
1.56
200
0.49
167
0.98
159
0.63
132
0.74
167
0.66
172
1.09
127
0.71
183
0.78
142
0.63
107
0.53
179
0.76
191
0.98
182
1.49
210
1.21
178
1.63
181
NOSS_ROBtwo views0.76
151
0.84
192
0.50
136
0.72
167
0.61
159
0.75
174
0.52
141
0.80
169
0.54
151
0.70
167
0.62
126
0.62
101
0.86
180
0.62
192
1.14
177
1.10
209
0.78
172
0.69
181
0.73
90
0.60
152
0.88
153
0.67
121
0.50
169
0.71
185
0.86
167
0.95
154
1.38
192
0.85
131
CBMVpermissivetwo views1.15
182
0.84
192
0.60
157
0.85
177
0.76
186
0.73
170
0.48
135
0.87
181
0.80
181
0.81
193
0.61
122
2.86
207
0.81
177
0.52
176
1.31
186
1.17
217
0.91
193
0.74
190
2.40
181
0.66
172
1.57
194
0.76
138
0.48
164
1.06
213
0.99
185
1.09
179
2.25
222
4.25
227
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
HBP-ISPtwo views1.60
197
0.86
194
0.90
193
0.98
189
0.69
174
0.85
181
0.56
149
0.89
184
0.48
143
0.82
195
0.79
162
0.97
156
0.36
108
0.69
201
11.97
260
5.83
256
0.70
159
0.67
174
0.70
85
0.62
165
1.05
172
5.90
248
0.50
169
0.62
176
0.82
159
1.01
170
2.01
220
1.06
151
MFN_U_SF_DS_RVCtwo views1.33
187
0.90
195
0.63
164
1.27
204
0.90
192
1.21
203
2.21
220
1.27
205
1.18
205
1.00
212
0.91
177
1.80
195
1.16
191
1.07
220
1.48
194
0.77
164
0.70
159
0.58
153
2.75
191
0.67
176
1.39
190
2.93
221
0.85
206
0.73
187
1.47
215
1.68
216
1.33
189
2.96
211
XQCtwo views1.03
178
0.90
195
0.71
178
0.91
183
0.92
193
0.92
187
0.86
186
1.06
201
0.90
189
0.84
198
1.11
196
1.03
161
1.30
197
0.71
203
2.04
219
0.95
185
0.87
185
0.67
174
1.64
154
0.78
187
1.00
168
1.67
202
0.62
192
0.73
187
1.09
196
1.47
206
1.26
184
0.97
143
ETE_ROBtwo views0.87
162
0.90
195
0.58
152
0.67
161
0.69
174
0.85
181
0.60
157
0.66
114
0.89
188
0.64
132
1.09
191
2.63
204
0.54
153
0.54
178
1.00
163
0.72
155
0.91
193
0.63
163
0.99
123
0.66
172
0.88
153
1.08
165
0.50
169
0.59
171
0.78
148
0.92
149
1.48
202
1.17
162
SANettwo views1.61
198
0.91
198
1.10
211
1.04
192
1.05
201
1.25
206
0.77
180
1.76
231
1.81
224
0.77
185
1.24
197
6.63
237
5.08
230
0.83
209
1.56
198
0.77
164
1.24
214
0.90
207
1.58
150
0.82
193
1.05
172
1.00
160
0.90
207
1.27
226
1.32
209
1.93
221
1.88
216
3.10
215
ADCMidtwo views1.56
195
0.92
199
0.99
198
0.70
165
0.86
190
1.05
195
1.37
208
1.29
208
1.77
223
0.75
180
1.75
218
1.27
174
1.48
198
0.69
201
2.18
228
1.07
204
0.98
201
0.79
201
2.74
190
0.80
189
1.31
187
1.74
205
1.06
214
0.70
184
1.01
190
1.53
212
1.02
158
10.33
249
DGSMNettwo views2.66
219
0.96
200
1.36
223
1.03
191
0.99
196
1.12
200
1.05
198
1.36
213
0.94
195
2.15
252
13.54
264
1.71
193
1.85
205
0.93
216
2.50
242
3.85
252
5.34
252
1.61
245
5.07
213
1.68
239
7.04
255
8.02
256
0.96
213
1.19
224
1.01
190
1.33
200
1.40
197
1.88
188
FC-DCNNcopylefttwo views0.88
163
0.96
200
1.23
217
1.36
208
0.93
194
1.26
207
0.82
182
0.91
185
0.78
180
0.87
201
0.63
129
1.08
165
0.42
123
0.56
182
0.88
138
0.69
150
0.81
181
0.68
179
0.81
106
0.59
148
0.78
142
0.59
98
0.50
169
0.77
194
1.11
197
0.99
165
1.21
178
1.57
177
LALA_ROBtwo views0.86
161
0.97
202
0.67
173
0.63
153
0.69
174
0.83
180
0.67
174
0.70
138
0.80
181
0.68
156
1.10
193
2.61
203
0.58
163
0.51
172
1.11
174
0.67
146
0.86
184
0.72
185
0.89
113
0.67
176
0.80
144
1.00
160
0.49
165
0.59
171
0.73
135
0.92
149
1.16
172
1.10
154
AMNettwo views1.02
177
0.98
203
0.95
195
0.98
189
1.01
197
1.03
193
0.96
195
0.87
181
0.93
192
0.97
210
1.02
187
1.10
168
0.74
174
1.06
219
0.99
162
1.09
207
1.17
209
1.04
219
1.08
126
1.05
209
1.13
177
1.04
163
0.82
204
0.98
208
1.01
190
1.07
178
1.20
177
1.27
169
G-Nettwo views1.86
205
1.00
204
1.28
221
0.89
181
0.93
194
1.10
198
0.77
180
1.63
224
2.07
231
0.99
211
2.89
230
7.30
244
1.67
204
0.55
181
1.45
190
1.75
241
1.04
204
0.93
212
2.87
192
2.72
251
1.89
206
1.47
190
0.80
202
1.02
212
1.06
193
1.71
217
2.82
238
5.60
234
PVDtwo views1.47
191
1.04
205
1.44
224
1.10
194
1.09
206
1.19
201
1.07
199
1.91
235
2.05
229
0.79
191
1.49
210
1.54
187
1.91
207
0.89
214
2.26
233
1.35
227
1.39
217
1.09
224
2.41
182
1.14
215
1.51
192
1.98
209
0.79
200
1.08
216
1.49
217
1.82
219
1.67
209
2.10
193
MFN_U_SF_RVCtwo views1.68
202
1.06
206
0.88
192
1.25
203
1.01
197
1.53
213
2.07
218
1.38
215
1.17
204
1.51
237
2.95
231
2.00
198
1.57
201
2.05
230
2.38
239
0.98
192
0.87
185
0.82
203
6.78
225
1.11
214
2.21
210
2.38
215
0.65
193
1.11
218
1.23
203
1.33
200
1.28
185
1.69
186
ADCStwo views1.88
206
1.06
206
0.98
197
0.93
186
1.10
207
1.09
197
1.14
200
1.27
205
2.49
238
0.89
202
1.36
205
1.51
184
2.92
222
0.86
212
3.30
246
2.26
247
1.46
221
1.26
233
3.10
198
1.29
224
2.48
215
2.88
219
0.80
202
1.10
217
1.33
211
4.48
252
1.41
198
6.08
237
AnyNet_C01two views2.06
210
1.08
208
1.06
206
1.14
197
1.08
204
1.01
191
2.69
225
1.69
229
2.66
241
1.21
222
1.67
215
2.90
209
2.60
219
0.95
217
3.65
248
4.02
253
2.09
234
2.21
254
3.08
197
1.56
234
3.30
233
2.89
220
1.26
217
1.15
221
1.80
223
1.43
204
1.51
203
3.90
224
LSM0two views8.30
254
1.08
208
0.95
195
1.66
215
1.42
218
1.59
215
1.96
216
2.27
239
2.36
234
1.66
243
3.94
237
4.10
226
6.30
239
0.63
194
62.38
273
74.74
273
1.69
226
1.06
221
12.18
244
2.23
244
4.96
250
9.29
259
0.92
209
1.29
227
1.95
227
2.97
239
3.66
248
14.83
255
edge stereotwo views1.82
204
1.16
210
2.22
236
1.46
211
1.28
212
1.58
214
1.38
209
1.67
228
1.30
209
1.20
221
3.42
235
4.33
228
2.26
213
0.80
208
1.41
188
1.46
235
1.05
206
0.83
206
5.42
216
0.97
202
1.34
189
3.76
230
0.95
212
0.88
201
1.26
208
1.20
185
1.70
211
2.91
209
MADNet+two views1.96
209
1.18
211
1.26
219
1.45
210
1.28
212
1.10
198
2.21
220
1.88
233
1.41
215
1.33
230
1.32
203
2.29
200
2.23
210
1.25
224
4.58
251
1.87
244
2.55
243
1.13
228
2.73
189
1.63
237
3.69
238
3.33
227
1.26
217
2.09
250
1.93
225
1.47
206
1.59
206
2.77
207
CC-Net-ROBtwo views0.96
172
1.18
211
0.70
177
1.56
212
1.06
202
1.63
216
1.20
205
0.79
167
0.61
163
0.81
193
0.56
109
3.07
212
0.57
161
0.85
211
0.68
92
0.44
52
0.71
164
0.63
163
1.40
145
0.57
140
0.58
98
0.43
54
1.91
229
0.46
148
0.83
161
0.83
138
0.77
101
1.20
165
MFMNet_retwo views1.51
193
1.18
211
1.12
212
1.29
205
1.16
208
1.63
216
1.32
207
1.30
210
1.63
221
1.14
218
1.38
206
2.64
205
1.63
203
0.90
215
2.27
234
1.35
227
1.58
222
1.32
238
3.69
204
1.24
222
2.10
208
1.26
181
1.16
215
1.24
225
1.11
197
1.02
174
1.59
206
1.60
179
MSC_U_SF_DS_RVCtwo views1.67
201
1.25
214
1.05
204
1.56
212
1.08
204
1.20
202
3.18
232
1.50
219
2.10
232
1.30
229
0.98
184
1.50
183
1.04
183
1.66
227
1.71
205
1.18
218
0.84
182
1.01
216
6.24
222
1.15
218
1.43
191
3.23
226
1.19
216
1.14
220
1.52
218
1.29
195
1.09
164
2.78
208
SPS-STEREOcopylefttwo views1.93
208
1.27
215
1.21
215
1.60
214
1.34
216
1.44
212
1.17
203
1.66
225
1.36
214
1.38
232
3.67
236
3.02
211
1.29
195
1.05
218
1.85
214
1.83
243
1.58
222
1.37
240
8.86
234
1.34
225
3.07
227
1.47
190
1.27
221
1.37
228
1.42
214
1.28
194
2.02
221
1.89
189
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
SGM+DAISYtwo views3.81
236
1.38
216
1.26
219
1.80
218
1.47
220
1.93
221
1.71
213
1.47
218
1.33
210
1.34
231
6.67
255
9.59
252
12.99
250
1.20
222
1.73
208
1.47
236
1.42
219
1.24
231
11.11
242
1.37
227
3.07
227
2.13
212
1.27
221
1.42
234
1.69
221
1.26
193
2.90
239
26.50
262
FBW_ROBtwo views1.34
188
1.42
217
1.08
209
2.01
219
1.42
218
1.37
210
1.63
212
0.99
192
0.70
172
0.72
173
1.02
187
2.05
199
0.91
182
1.47
226
1.24
182
0.60
127
0.88
189
0.65
171
6.08
221
0.59
148
1.06
174
0.81
143
1.48
226
1.12
219
0.99
185
1.20
185
0.99
151
1.66
184
SGM_RVCbinarytwo views2.81
223
1.46
218
0.85
189
1.76
216
1.28
212
1.68
218
1.19
204
1.56
221
1.14
203
0.82
195
1.70
216
7.09
240
2.67
221
0.42
153
0.92
145
0.57
119
0.75
169
0.57
148
11.20
243
0.66
172
0.94
160
0.46
67
0.51
176
0.84
199
1.97
228
1.64
215
5.04
253
26.13
261
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
MeshStereopermissivetwo views3.62
235
1.54
219
1.05
204
2.64
221
1.72
223
2.05
222
1.15
202
2.40
242
1.41
215
0.90
203
6.48
253
9.56
251
7.42
240
0.49
167
11.75
258
1.94
245
0.87
185
0.74
190
8.79
232
0.80
189
8.36
256
8.07
257
0.73
197
1.07
214
3.39
242
2.15
229
5.22
254
4.99
230
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
SPstereotwo views3.56
234
1.74
220
3.18
251
1.78
217
1.64
222
1.86
220
1.73
214
2.36
240
2.05
229
1.84
248
4.83
241
7.23
241
9.01
244
1.81
229
3.54
247
5.52
255
2.43
242
2.86
255
3.65
203
3.54
254
5.29
252
7.52
252
1.95
230
2.10
251
2.52
230
3.11
241
3.20
242
7.77
244
LE_ROBtwo views17.44
259
1.82
221
6.12
261
9.40
251
53.85
274
8.01
262
46.26
270
11.27
265
28.12
266
1.80
247
7.03
256
38.62
267
49.53
268
0.34
123
1.76
211
0.55
113
0.78
172
0.59
158
36.68
264
6.72
259
2.92
223
0.85
146
29.06
269
12.10
266
26.35
263
25.49
266
27.84
267
37.03
268
WAO-7two views2.72
222
1.83
222
2.89
247
7.39
250
1.73
224
1.76
219
1.82
215
2.07
236
2.65
240
2.21
253
5.39
245
4.58
230
5.72
234
1.23
223
2.07
223
1.27
223
1.69
226
1.22
230
7.70
228
1.51
229
1.64
198
3.07
223
0.84
205
1.65
241
1.83
224
2.48
233
1.97
219
3.27
217
ELAS_RVCcopylefttwo views3.22
229
2.01
223
1.85
231
2.66
222
2.07
226
5.08
252
2.06
217
2.41
243
1.89
226
1.74
246
4.78
240
8.00
245
8.02
242
0.74
205
2.38
239
0.81
171
1.75
228
1.14
229
3.97
206
1.27
223
4.64
248
7.61
253
1.26
217
1.74
244
6.58
254
3.21
243
3.39
243
3.80
223
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
DDUNettwo views1.38
190
2.18
224
0.79
185
2.67
223
2.43
232
2.57
224
2.52
223
0.80
169
0.84
183
0.63
126
0.94
179
1.57
189
0.45
134
2.65
236
0.94
151
0.78
167
1.99
233
0.75
192
2.31
174
0.91
199
1.16
178
0.97
156
2.71
234
0.56
167
0.72
130
0.71
111
0.97
148
0.85
131
ELAScopylefttwo views3.38
233
2.19
225
1.79
229
2.99
228
2.37
230
3.32
230
2.09
219
2.60
246
2.85
245
1.28
227
4.85
242
8.61
247
8.02
242
0.76
207
2.90
244
0.81
171
1.80
229
1.10
225
4.19
210
1.10
212
4.53
246
7.86
254
1.26
217
1.63
239
7.08
255
4.79
253
3.66
248
4.87
229
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
UDGtwo views1.35
189
2.24
226
0.81
186
2.58
220
2.45
233
2.48
223
2.57
224
0.76
159
0.86
184
0.77
185
1.08
190
1.51
184
0.56
157
2.59
232
1.06
169
0.69
150
1.89
231
0.80
202
2.31
174
0.97
202
1.24
183
0.98
157
1.43
225
0.62
176
0.74
137
0.81
134
0.95
143
0.81
127
WAO-6two views2.71
220
2.26
227
1.57
227
3.00
229
2.25
228
3.01
227
3.02
230
1.77
232
2.35
233
1.52
239
1.62
214
3.94
224
5.12
231
2.64
235
2.22
230
1.38
231
2.65
244
1.36
239
4.86
212
1.54
233
2.76
221
4.79
239
2.70
233
1.73
243
2.71
234
2.59
234
2.68
236
5.02
231
MDST_ROBtwo views3.33
232
2.32
228
0.75
182
3.90
241
1.47
220
2.61
225
1.00
197
1.12
204
0.72
173
0.78
189
0.67
143
1.54
187
25.37
257
0.34
123
2.11
225
0.53
105
0.65
143
0.48
99
3.69
204
0.58
144
0.88
153
0.59
98
0.58
188
0.68
183
7.85
257
3.03
240
17.15
262
8.63
247
STStereotwo views5.29
242
2.47
229
5.20
258
5.20
246
2.80
241
4.72
249
3.42
234
6.23
260
6.52
254
1.51
237
7.61
257
9.53
250
14.86
253
0.63
194
4.09
250
0.64
136
0.87
185
0.62
162
36.67
263
1.02
206
1.23
182
1.05
164
0.78
199
1.63
239
3.46
243
2.43
232
3.53
244
14.15
254
MANEtwo views7.31
248
2.64
230
4.48
257
3.30
235
3.10
248
3.94
243
2.83
228
5.37
259
6.88
255
1.11
214
5.64
248
8.81
248
11.02
246
0.67
199
3.83
249
3.83
251
1.32
215
18.03
265
8.61
230
0.84
194
4.22
241
1.16
173
0.74
198
1.79
248
13.65
261
18.61
262
22.89
264
38.18
269
IMH-64-1two views2.92
225
2.70
231
2.36
239
3.23
232
2.71
238
3.70
237
4.05
242
1.66
225
2.48
236
1.13
215
1.26
199
3.60
220
6.29
237
3.59
244
2.28
235
1.15
214
2.20
236
1.31
236
6.02
219
1.52
231
3.03
225
5.48
242
4.83
248
1.40
231
2.83
236
2.02
225
2.34
225
3.64
220
IMH-64two views2.92
225
2.70
231
2.36
239
3.23
232
2.71
238
3.70
237
4.05
242
1.66
225
2.48
236
1.13
215
1.26
199
3.60
220
6.29
237
3.59
244
2.28
235
1.15
214
2.20
236
1.31
236
6.02
219
1.52
231
3.03
225
5.48
242
4.83
248
1.40
231
2.83
236
2.02
225
2.34
225
3.64
220
SQANettwo views1.90
207
2.70
231
1.03
203
3.09
230
2.17
227
3.29
229
2.70
226
0.95
187
0.65
168
1.00
212
0.71
148
2.69
206
1.10
188
2.30
231
0.78
109
0.55
113
1.02
203
0.72
185
9.92
238
0.68
178
2.11
209
1.25
179
3.28
235
0.58
170
0.98
182
1.31
197
1.33
189
2.34
198
ACVNet-4btwo views2.35
215
2.75
234
1.60
228
3.13
231
2.29
229
3.52
233
3.67
239
1.35
212
1.35
212
1.27
226
0.72
153
3.26
216
2.62
220
3.04
241
0.98
159
0.78
167
2.13
235
1.02
217
9.04
235
1.23
221
2.74
219
3.39
229
4.08
238
0.92
203
1.24
206
1.29
195
1.46
201
2.48
202
IMHtwo views3.24
230
2.76
235
2.37
241
3.26
234
2.74
240
3.73
240
4.10
244
1.72
230
2.58
239
1.17
220
1.24
197
3.92
223
10.58
245
6.80
259
1.57
200
1.11
211
2.25
238
1.30
235
6.28
223
1.56
234
2.97
224
4.14
234
4.90
250
1.45
235
3.01
240
2.36
231
2.47
231
5.19
233
RainbowNettwo views2.32
212
2.93
236
1.87
232
3.34
236
2.57
236
3.50
231
3.49
236
1.29
208
0.92
190
1.53
240
0.89
175
3.18
214
2.31
214
2.94
239
1.30
185
0.90
179
1.61
225
1.00
215
5.61
217
1.51
229
2.82
222
4.18
235
4.25
240
0.97
206
1.32
209
1.58
213
1.71
212
3.00
212
ACVNet_2two views3.17
228
2.98
237
2.25
237
4.72
245
2.88
243
3.50
231
3.48
235
1.58
223
1.33
210
1.29
228
1.10
193
3.22
215
2.45
216
2.67
237
1.29
184
0.86
176
7.26
256
1.02
217
22.14
254
1.37
227
3.22
230
1.25
179
4.24
239
1.37
228
1.93
225
1.92
220
1.83
215
2.36
199
LVEtwo views4.33
240
3.03
238
2.00
234
27.23
265
3.06
247
3.83
242
12.07
262
1.53
220
1.64
222
1.85
249
1.48
209
3.30
217
3.91
225
3.06
242
1.45
190
1.05
202
1.95
232
1.38
241
15.68
251
1.62
236
3.25
232
5.86
245
4.42
243
1.76
245
2.87
238
2.06
227
2.34
225
3.25
216
PWCKtwo views5.04
241
3.03
238
2.21
235
3.61
239
2.60
237
4.41
248
5.09
245
2.45
244
2.76
243
3.31
258
4.34
239
10.15
256
5.13
232
1.74
228
1.99
217
1.38
231
2.41
240
1.45
242
51.59
270
2.35
246
3.70
239
2.69
218
2.65
232
1.78
247
2.97
239
3.21
243
2.43
229
4.77
228
otakutwo views2.33
214
3.05
240
1.19
213
3.36
237
2.37
230
3.56
234
3.08
231
1.05
199
0.98
198
1.13
215
0.80
166
2.88
208
1.62
202
2.59
232
0.95
153
0.64
136
1.23
213
0.75
192
13.16
246
1.09
211
2.47
214
2.63
217
4.75
245
0.75
190
1.13
199
1.38
203
1.69
210
2.52
203
ktntwo views8.45
255
3.18
241
2.84
246
6.37
249
3.26
249
4.31
247
10.28
260
2.15
237
10.13
259
2.27
255
1.83
220
42.17
269
55.84
269
3.93
246
2.34
237
2.09
246
9.85
259
2.17
252
33.98
261
2.24
245
3.24
231
3.03
222
4.78
246
2.25
254
2.59
231
2.81
236
3.18
241
5.04
232
DispFullNettwo views4.17
237
3.20
242
4.34
256
2.72
224
2.46
234
2.92
226
2.70
226
2.79
251
1.90
227
4.51
262
6.62
254
8.91
249
4.83
227
2.59
232
2.00
218
8.18
259
3.24
248
1.98
248
24.96
256
2.93
253
3.99
240
3.36
228
1.71
227
1.15
221
1.36
212
1.32
199
2.36
228
3.65
222
Deantwo views2.84
224
3.23
243
1.81
230
6.04
248
3.38
252
3.63
236
3.67
239
1.88
233
1.97
228
1.47
234
1.30
201
3.69
222
4.10
226
2.97
240
1.45
190
0.97
190
2.41
240
1.29
234
5.94
218
1.74
240
3.20
229
4.23
236
4.79
247
1.55
236
2.65
233
2.27
230
2.56
232
2.64
205
ACVNet_1two views2.47
216
3.23
243
2.35
238
4.40
244
2.93
246
3.77
241
3.96
241
1.34
211
1.18
205
1.21
222
1.02
187
3.31
218
2.07
208
3.09
243
1.31
186
0.70
153
2.26
239
1.10
225
9.52
236
1.14
215
3.45
235
1.18
176
4.50
244
1.07
214
1.39
213
1.75
218
1.36
191
2.10
193
WAO-8two views4.25
238
3.34
245
2.80
244
10.32
254
2.92
244
4.17
245
5.89
247
2.66
249
4.45
251
1.69
244
3.41
233
5.94
234
11.31
247
5.29
254
1.71
205
1.34
224
2.69
245
1.51
243
10.78
239
2.48
248
2.63
216
4.50
237
3.44
236
1.58
237
5.12
250
3.31
245
3.60
245
5.76
235
Venustwo views4.25
238
3.34
245
2.80
244
10.32
254
2.92
244
4.17
245
5.89
247
2.66
249
4.45
251
1.69
244
3.41
233
5.94
234
11.31
247
5.29
254
1.71
205
1.34
224
2.69
245
1.51
243
10.78
239
2.48
248
2.63
216
4.50
237
3.44
236
1.58
237
5.12
250
3.31
245
3.60
245
5.76
235
PSMNet_ROBtwo views2.71
220
3.39
247
1.92
233
2.87
227
2.04
225
4.01
244
3.50
237
1.46
217
1.41
215
1.59
242
3.34
232
3.52
219
4.97
228
4.50
250
1.61
201
0.95
185
1.87
230
1.06
221
8.62
231
1.63
237
2.32
213
1.51
194
5.43
254
1.37
228
1.98
229
1.94
222
1.91
217
2.39
200
Ntrotwo views2.32
212
3.40
248
1.53
226
3.55
238
2.52
235
3.71
239
3.36
233
1.11
203
1.05
200
1.16
219
0.90
176
2.93
210
1.24
192
2.72
238
1.00
163
0.64
136
1.40
218
0.82
203
10.96
241
1.14
215
2.72
218
3.19
225
4.26
241
0.73
187
1.24
206
1.59
214
1.56
205
2.31
197
MADNet++two views5.64
244
3.51
249
3.77
255
2.84
226
4.62
255
3.02
228
3.65
238
4.36
254
5.03
253
4.18
261
5.07
244
6.45
236
5.92
236
6.18
258
7.04
254
6.82
257
4.71
251
4.00
259
8.03
229
5.83
258
9.92
260
16.38
264
2.32
231
4.34
260
3.95
248
11.38
259
4.93
252
4.01
225
JetBluetwo views6.09
246
3.85
250
3.31
253
5.99
247
4.13
254
6.22
258
7.94
252
3.42
252
2.89
246
1.47
234
1.46
208
8.10
246
1.90
206
5.39
256
11.86
259
3.22
250
3.30
249
2.99
256
5.32
214
2.40
247
9.74
259
10.03
262
4.93
251
2.18
253
7.39
256
17.16
261
3.72
250
24.15
259
KSHMRtwo views8.16
252
4.16
251
2.96
248
25.39
264
3.92
253
5.08
252
5.53
246
2.62
247
2.40
235
2.23
254
2.26
225
4.37
229
77.17
273
5.23
253
2.24
231
1.71
239
2.79
247
1.98
248
31.04
260
2.02
242
4.59
247
5.35
240
7.54
261
1.89
249
3.30
241
2.91
238
3.01
240
6.51
240
SGM-ForestMtwo views2.61
217
4.20
252
0.93
194
2.78
225
1.37
217
3.57
235
2.93
229
2.59
245
1.51
219
0.70
167
1.32
203
7.25
242
5.36
233
0.47
164
0.89
140
0.53
105
0.79
177
0.54
136
7.58
227
0.60
152
0.82
146
0.47
71
0.51
176
0.80
196
4.97
249
3.66
248
7.05
257
6.30
238
TorneroNettwo views8.11
251
4.28
253
2.58
243
27.50
266
3.31
251
5.00
251
6.00
249
2.62
247
10.13
259
1.49
236
2.57
228
11.07
258
68.61
272
4.25
248
1.77
212
1.18
218
5.78
253
1.62
246
23.67
255
2.83
252
4.30
242
5.47
241
5.37
253
1.65
241
3.72
245
3.14
242
2.59
233
6.36
239
TorneroNet-64two views6.02
245
4.60
254
2.53
242
15.58
260
3.29
250
4.87
250
7.75
251
2.23
238
10.02
257
1.42
233
1.31
202
7.26
243
29.23
262
4.36
249
2.09
224
1.21
221
8.22
257
1.70
247
17.35
253
2.62
250
4.31
243
5.68
244
5.20
252
1.76
245
3.58
244
3.76
249
2.29
223
8.34
246
UNDER WATERtwo views7.55
249
4.74
255
3.06
249
10.46
256
5.92
259
6.35
259
8.05
253
4.32
253
3.69
250
1.97
250
2.14
224
10.53
257
62.60
271
4.83
251
2.25
232
1.59
237
12.22
261
2.08
250
9.67
237
3.97
255
5.27
251
6.65
249
8.86
264
2.65
257
3.82
246
5.62
254
3.62
247
7.03
242
UNDER WATER-64two views6.11
247
5.20
256
3.13
250
12.20
257
5.77
258
6.55
260
8.53
256
4.74
258
3.45
249
2.30
256
2.36
226
12.04
259
12.47
249
5.08
252
3.02
245
1.81
242
12.11
260
2.17
252
8.81
233
4.17
257
5.75
253
7.27
251
8.74
263
2.61
256
3.86
247
8.63
256
4.32
251
7.86
245
JetRedtwo views7.85
250
5.29
257
6.07
260
3.75
240
5.00
256
6.95
261
10.20
259
4.64
257
3.42
248
2.92
257
2.39
227
6.71
238
2.25
212
7.15
260
10.26
256
7.34
258
8.59
258
7.11
260
4.82
211
4.08
256
10.76
263
9.27
258
7.85
262
3.34
258
10.96
258
24.25
265
11.90
259
24.57
260
notakertwo views5.52
243
5.55
258
3.76
254
13.97
259
5.34
257
5.44
256
7.16
250
2.36
240
2.68
242
2.06
251
1.80
219
12.90
260
23.86
256
3.98
247
2.04
219
1.73
240
3.45
250
2.12
251
17.08
252
2.15
243
6.10
254
5.87
246
6.15
258
2.12
252
1.79
222
2.08
228
2.31
224
3.29
218
DGTPSM_ROBtwo views12.12
257
5.96
259
17.45
265
4.20
242
7.86
260
5.15
254
8.18
254
4.56
255
11.64
261
4.52
263
8.72
259
5.01
231
17.08
254
12.98
263
14.91
262
14.58
263
6.85
254
15.76
263
12.78
245
12.05
263
9.07
257
21.74
265
5.67
255
11.54
264
11.84
259
31.02
268
12.98
260
33.06
265
DPSMNet_ROBtwo views12.40
258
5.97
260
17.46
266
4.21
243
7.87
261
5.15
254
8.18
254
4.56
255
11.65
262
4.54
264
8.87
260
5.17
232
22.69
255
13.00
264
14.98
263
14.62
264
6.90
255
15.82
264
14.07
249
12.05
263
9.09
258
21.75
266
5.68
256
11.54
264
11.87
260
31.03
269
12.99
261
33.06
265
HanzoNettwo views19.12
264
15.23
261
6.99
262
35.06
269
14.35
266
40.77
270
42.46
269
17.81
267
22.51
265
3.55
259
8.29
258
41.30
268
56.30
270
43.04
272
5.72
253
4.37
254
37.83
271
3.30
257
49.59
269
8.93
262
10.30
262
6.85
250
14.15
268
3.46
259
5.94
253
5.80
255
5.29
255
7.13
243
DPSM_ROBtwo views18.32
261
16.26
262
21.94
267
9.42
252
8.75
262
13.61
263
9.11
257
10.90
263
15.09
263
8.45
265
8.95
261
10.12
254
13.19
251
16.42
265
19.79
265
19.11
265
18.35
264
20.45
266
13.82
247
14.88
265
26.56
267
27.45
267
6.49
259
14.39
267
31.57
268
38.83
270
36.85
269
43.86
270
DPSMtwo views18.32
261
16.26
262
21.94
267
9.42
252
8.75
262
13.61
263
9.11
257
10.90
263
15.09
263
8.45
265
8.95
261
10.12
254
13.19
251
16.42
265
19.79
265
19.11
265
18.35
264
20.45
266
13.82
247
14.88
265
26.56
267
27.45
267
6.49
259
14.39
267
31.57
268
38.83
270
36.85
269
43.86
270
PMLtwo views30.82
267
20.91
264
7.15
263
29.65
267
20.81
269
29.11
268
10.50
261
10.87
262
88.32
274
20.03
270
154.19
274
98.60
273
119.55
274
10.53
262
9.19
255
8.69
260
16.72
263
7.27
261
34.57
262
7.35
261
12.77
264
10.86
263
5.72
257
6.17
261
33.11
270
12.83
260
34.30
268
12.33
252
LRCNet_RVCtwo views21.34
265
28.92
265
11.37
264
31.78
268
29.09
270
34.25
269
27.43
266
21.71
269
10.07
258
29.63
271
30.60
268
32.06
265
25.81
258
33.87
270
11.15
257
2.97
249
25.27
267
21.35
268
44.05
267
20.83
267
14.27
265
5.87
246
36.69
270
27.43
269
2.76
235
1.47
206
8.68
258
6.79
241
DPSimNet_ROBtwo views18.93
263
32.01
266
5.97
259
12.40
258
11.35
265
6.13
257
28.07
267
15.03
266
35.64
270
3.96
260
78.33
273
18.15
261
35.00
263
5.44
257
12.19
261
10.36
261
13.57
262
3.64
258
87.52
273
6.87
260
14.36
266
9.97
260
4.40
242
7.14
262
5.17
252
9.85
257
5.93
256
32.56
264
MyStereo03two views36.84
270
32.71
267
44.18
272
18.90
262
17.61
268
27.36
266
18.30
264
21.92
270
30.41
268
17.08
267
18.01
265
20.35
263
26.56
260
33.03
268
39.51
268
38.47
269
36.86
269
41.18
270
27.56
258
29.89
269
53.52
272
55.42
272
13.00
266
28.90
270
63.34
271
78.17
273
74.06
273
88.27
273
MyStereo02two views36.18
268
32.71
267
44.18
272
18.90
262
0.00
1
27.36
266
18.30
264
21.92
270
30.41
268
17.08
267
18.01
265
20.35
263
26.56
260
33.03
268
39.51
268
38.47
269
36.86
269
41.18
270
27.56
258
29.89
269
53.52
272
55.42
272
13.00
266
28.90
270
63.34
271
78.17
273
74.06
273
88.27
273
CasAABBNettwo views36.73
269
32.73
269
44.18
272
18.81
261
17.45
267
27.29
265
18.12
263
21.69
268
30.40
267
17.52
269
18.08
267
20.27
262
26.53
259
32.96
267
38.28
267
37.42
267
36.82
268
41.12
269
27.47
257
29.86
268
53.56
274
55.70
274
12.93
265
28.91
272
63.44
273
78.07
272
73.93
272
88.05
272
BEATNet-Init1two views22.01
266
36.32
270
3.23
252
54.74
273
11.23
264
52.95
274
28.72
268
9.47
261
8.51
256
1.57
241
10.45
263
33.05
266
48.98
267
0.71
203
16.97
264
11.50
262
1.60
224
1.11
227
77.80
272
35.27
271
9.94
261
9.98
261
1.27
221
2.30
255
27.41
264
11.09
258
52.85
271
35.36
267
HaxPigtwo views41.43
271
43.85
271
40.81
269
44.90
270
47.49
272
44.66
271
46.30
271
46.31
272
45.63
272
49.00
272
49.30
269
47.24
270
43.73
265
42.64
271
40.44
271
39.13
271
48.37
272
51.07
272
43.33
265
42.25
272
42.88
269
36.52
269
50.75
272
43.02
274
27.54
265
19.97
263
20.68
263
20.75
258
AVERAGE_ROBtwo views41.98
272
44.82
272
42.27
270
45.98
271
46.88
271
45.60
272
46.56
272
47.04
273
43.89
271
49.19
273
49.91
270
47.25
271
43.00
264
49.19
273
40.14
270
38.38
268
49.01
273
51.31
273
43.98
266
42.43
273
43.31
270
38.64
270
49.42
271
42.83
273
28.65
266
20.44
264
23.41
265
19.88
257
MEDIAN_ROBtwo views44.95
273
47.36
273
44.12
271
48.52
272
49.78
273
48.21
273
49.25
273
49.72
274
46.35
273
52.53
274
53.59
271
50.59
272
45.49
266
49.36
274
43.27
272
41.36
272
51.85
274
54.40
274
47.03
268
45.93
274
45.78
271
40.06
271
52.67
273
45.67
275
31.00
267
26.54
267
25.33
266
27.95
263
DLNR_Zeroshot_testpermissivetwo views17.86
260
67.45
274
1.21
215
81.91
274
0.35
90
0.45
106
74.74
274
0.76
159
0.27
43
0.69
164
0.60
116
1.16
171
0.29
53
8.20
261
84.48
274
102.07
274
23.88
266
15.14
262
7.31
226
0.50
115
4.38
244
2.51
216
0.18
41
0.43
136
0.76
145
0.86
139
0.80
108
0.80
125
ASD4two views8.34
263