This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
DLNR_Zeroshot_testpermissivetwo views20.09
421
36.28
429
38.04
426
169.85
438
61.80
434
0.23
5
0.20
1
13.88
421
0.37
31
0.44
42
0.66
74
0.43
55
0.21
5
0.62
139
0.28
43
5.46
419
0.10
9
0.15
42
0.11
15
72.60
437
0.11
9
EGLCR-Stereotwo views0.25
2
0.16
8
0.33
20
0.34
11
0.20
20
0.35
78
0.20
1
0.52
19
0.36
21
0.28
4
0.27
4
0.41
43
0.18
1
0.45
30
0.26
25
0.14
32
0.10
9
0.16
60
0.14
72
0.13
20
0.11
9
XX-Stereotwo views0.37
80
0.17
19
0.45
130
0.55
322
0.36
277
0.38
98
0.20
1
0.60
46
0.30
3
0.46
46
1.30
303
0.73
196
0.26
17
0.56
79
0.26
25
0.16
110
0.11
57
0.17
85
0.16
123
0.14
45
0.10
3
IIG-Stereotwo views0.43
143
0.21
101
0.44
119
0.50
285
0.25
112
0.44
126
0.21
4
0.71
128
0.76
150
0.83
213
0.95
190
0.83
228
0.43
123
0.90
272
0.35
111
0.15
79
0.12
98
0.19
155
0.14
72
0.15
77
0.11
9
ROB_FTStereotwo views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.25
15
0.21
4
0.59
37
0.36
21
0.63
90
0.73
89
0.58
109
0.38
92
0.57
89
0.35
111
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
SST-Stereotwo views0.40
120
0.19
49
0.45
130
0.42
169
0.25
112
0.25
15
0.21
4
0.66
81
0.47
59
1.08
321
0.79
122
0.72
187
0.43
123
0.77
227
0.35
111
0.16
110
0.11
57
0.20
179
0.16
123
0.19
191
0.15
106
CRE-IMPtwo views0.36
65
0.23
145
0.49
182
0.42
169
0.24
86
0.41
115
0.21
4
0.57
31
0.41
42
0.65
106
0.72
85
0.53
87
0.37
89
0.61
133
0.38
147
0.17
143
0.11
57
0.19
155
0.15
94
0.21
222
0.18
176
MSKI-zero shottwo views0.32
28
0.17
19
0.34
26
0.39
85
0.21
29
0.32
63
0.22
8
0.61
52
0.43
48
0.52
59
0.64
68
0.61
132
0.20
4
0.74
213
0.25
9
0.14
32
0.10
9
0.14
16
0.10
10
0.12
8
0.12
33
Any-RAFTtwo views0.35
47
0.16
8
0.30
11
0.34
11
0.21
29
0.52
149
0.22
8
0.88
191
0.73
137
0.53
62
0.73
89
0.64
146
0.28
32
0.46
37
0.24
6
0.15
79
0.10
9
0.13
9
0.10
10
0.13
20
0.12
33
test-3two views0.34
35
0.16
8
0.43
109
0.39
85
0.21
29
0.43
122
0.22
8
0.63
61
0.78
163
0.71
141
0.45
21
0.64
146
0.27
23
0.43
24
0.31
66
0.12
4
0.09
2
0.17
85
0.13
50
0.12
8
0.10
3
Patchmatch Stereo++two views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.24
7
0.22
8
0.59
37
0.36
21
0.63
90
0.73
89
0.58
109
0.38
92
0.58
106
0.36
127
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
HUI-Stereotwo views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.24
7
0.22
8
0.60
46
0.36
21
0.63
90
0.73
89
0.58
109
0.38
92
0.50
52
0.35
111
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
DeepStereo_RVCtwo views0.36
65
0.21
101
0.47
156
0.40
108
0.24
86
0.26
17
0.22
8
0.60
46
0.38
35
0.69
129
0.67
78
0.57
101
0.51
161
0.56
79
0.39
153
0.16
110
0.12
98
0.18
119
0.15
94
0.19
191
0.18
176
iRAFTtwo views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.24
7
0.22
8
0.59
37
0.36
21
0.63
90
0.73
89
0.58
109
0.38
92
0.58
106
0.36
127
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
CREStereo++_RVCtwo views0.32
28
0.15
3
0.23
1
0.31
6
0.24
86
0.27
25
0.22
8
0.46
8
0.88
211
0.46
46
0.80
124
0.30
5
0.26
17
0.36
5
0.33
86
0.13
12
0.09
2
0.13
9
0.51
374
0.13
20
0.09
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
Gwc-CoAtRStwo views0.34
35
0.17
19
0.44
119
0.39
85
0.23
69
0.34
73
0.22
8
0.70
123
0.75
144
0.60
77
0.59
59
0.58
109
0.29
42
0.45
30
0.26
25
0.14
32
0.11
57
0.14
16
0.12
29
0.12
8
0.12
33
PMTNettwo views0.32
28
0.16
8
0.24
3
0.29
2
0.18
7
0.45
131
0.22
8
0.56
28
0.63
98
0.46
46
0.54
46
0.39
38
0.34
75
0.48
49
0.24
6
0.75
381
0.10
9
0.12
2
0.08
1
0.12
8
0.11
9
MIF-Stereo (partial)two views0.31
26
0.18
34
0.37
44
0.41
132
0.31
241
0.28
32
0.23
18
0.47
9
0.42
46
0.31
8
0.63
65
0.36
31
0.35
77
0.57
89
0.31
66
0.17
143
0.13
152
0.19
155
0.17
163
0.18
157
0.14
87
RAFT-Testtwo views0.34
35
0.18
34
0.37
44
0.38
66
0.23
69
0.50
142
0.23
18
0.69
109
0.40
39
0.60
77
0.85
152
0.61
132
0.28
32
0.46
37
0.27
33
0.14
32
0.11
57
0.14
16
0.11
15
0.13
20
0.12
33
test_1two views0.34
35
0.16
8
0.43
109
0.39
85
0.21
29
0.43
122
0.23
18
0.63
61
0.78
163
0.68
124
0.45
21
0.64
146
0.27
23
0.43
24
0.31
66
0.12
4
0.09
2
0.17
85
0.13
50
0.12
8
0.10
3
PFNet+two views0.40
120
0.19
49
0.49
182
0.39
85
0.25
112
0.28
32
0.23
18
0.64
71
0.70
121
0.85
221
0.79
122
0.64
146
0.35
77
0.72
202
0.34
96
0.19
200
0.14
178
0.23
244
0.20
231
0.16
108
0.20
224
TANstereotwo views0.30
24
0.15
3
0.31
13
0.30
4
0.17
3
0.55
164
0.23
18
0.44
6
0.55
77
0.59
73
0.68
80
0.37
33
0.26
17
0.35
4
0.27
33
0.15
79
0.16
229
0.12
2
0.10
10
0.13
20
0.14
87
CFNet-RSSMtwo views0.34
35
0.17
19
0.45
130
0.39
85
0.22
42
0.35
78
0.23
18
0.73
139
0.84
186
0.65
106
0.54
46
0.57
101
0.28
32
0.46
37
0.26
25
0.13
12
0.10
9
0.14
16
0.12
29
0.13
20
0.11
9
MIM_Stereotwo views0.38
94
0.17
19
0.53
212
0.37
45
0.24
86
0.27
25
0.24
24
0.70
123
0.54
73
0.72
152
1.00
216
0.63
139
0.29
42
0.64
156
0.38
147
0.13
12
0.14
178
0.17
85
0.16
123
0.14
45
0.11
9
CASnettwo views0.30
24
0.20
70
0.33
20
0.41
132
0.16
2
0.26
17
0.24
24
0.52
19
0.53
69
0.52
59
0.54
46
0.39
38
0.24
10
0.40
16
0.26
25
0.14
32
0.10
9
0.22
230
0.18
185
0.18
157
0.11
9
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
LL-Strereo2two views0.35
47
0.24
180
0.48
172
0.41
132
0.26
148
0.35
78
0.24
24
0.67
91
0.44
52
0.54
64
0.51
38
0.66
161
0.25
11
0.66
168
0.30
59
0.14
32
0.12
98
0.23
244
0.20
231
0.18
157
0.13
58
iRaft-Stereo_20wtwo views0.39
108
0.19
49
0.57
229
0.37
45
0.27
172
0.31
53
0.24
24
1.44
357
0.29
2
0.69
129
0.53
44
0.60
128
0.42
116
0.83
247
0.27
33
0.14
32
0.11
57
0.14
16
0.13
50
0.15
77
0.13
58
Pruner-Stereotwo views0.38
94
0.20
70
0.45
130
0.40
108
0.25
112
0.22
4
0.24
24
0.67
91
0.55
77
0.89
245
0.76
101
0.68
167
0.29
42
0.62
139
0.35
111
0.18
171
0.12
98
0.20
179
0.17
163
0.17
139
0.18
176
RAFT-RH_RVCtwo views0.56
252
0.17
19
0.41
81
0.37
45
0.23
69
0.57
183
0.24
24
0.60
46
0.70
121
1.19
334
3.94
400
0.56
96
0.38
92
0.65
163
0.36
127
0.13
12
0.11
57
0.20
179
0.14
72
0.12
8
0.13
58
XX-TBDtwo views0.32
28
0.53
340
0.26
7
0.51
297
0.20
20
0.37
86
0.24
24
0.40
3
0.73
137
0.54
64
0.69
81
0.31
8
0.25
11
0.32
3
0.27
33
0.16
110
0.10
9
0.12
2
0.09
6
0.13
20
0.11
9
IGEV_Zeroshot_testtwo views0.34
35
0.18
34
0.67
271
0.39
85
0.28
191
0.30
43
0.25
31
0.74
141
0.31
5
0.62
83
0.57
54
0.54
91
0.25
11
0.53
66
0.27
33
0.14
32
0.10
9
0.15
42
0.14
72
0.14
45
0.12
33
Selective-IGEVtwo views0.24
1
0.18
34
0.35
29
0.35
29
0.19
9
0.27
25
0.25
31
0.55
27
0.23
1
0.27
2
0.25
2
0.34
21
0.19
2
0.58
106
0.22
1
0.12
4
0.10
9
0.14
16
0.11
15
0.12
8
0.10
3
OMP-Stereotwo views0.42
137
0.22
128
0.46
146
0.52
308
0.24
86
0.36
84
0.25
31
0.71
128
0.78
163
0.77
177
0.64
68
0.89
250
0.39
104
0.91
279
0.35
111
0.15
79
0.12
98
0.20
179
0.15
94
0.15
77
0.12
33
raftrobusttwo views0.34
35
0.19
49
0.36
34
0.41
132
0.27
172
0.30
43
0.25
31
0.71
128
0.63
98
0.58
71
0.55
51
0.45
61
0.46
138
0.51
56
0.29
54
0.16
110
0.12
98
0.14
16
0.12
29
0.12
8
0.13
58
RALAANettwo views0.38
94
0.23
145
0.48
172
0.42
169
0.29
214
0.35
78
0.25
31
0.86
180
0.64
105
0.67
118
0.65
70
0.60
128
0.29
42
0.60
126
0.34
96
0.15
79
0.12
98
0.17
85
0.15
94
0.21
222
0.13
58
CREStereotwo views0.28
8
0.15
3
0.24
3
0.27
1
0.17
3
0.37
86
0.25
31
0.51
16
0.72
132
0.42
37
0.51
38
0.32
10
0.26
17
0.38
12
0.25
9
0.16
110
0.11
57
0.12
2
0.08
1
0.12
8
0.11
9
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
MC-Stereotwo views0.28
8
0.17
19
0.32
17
0.38
66
0.20
20
0.26
17
0.26
37
0.49
13
0.37
31
0.37
17
0.61
63
0.41
43
0.31
57
0.55
71
0.25
9
0.13
12
0.09
2
0.14
16
0.12
29
0.12
8
0.11
9
GLC_STEREOtwo views0.29
12
0.19
49
0.27
8
0.44
202
0.19
9
0.31
53
0.26
37
0.47
9
0.43
48
0.37
17
0.47
29
0.41
43
0.23
7
0.50
52
0.34
96
0.14
32
0.18
254
0.19
155
0.16
123
0.16
108
0.13
58
NRIStereotwo views0.36
65
0.20
70
0.45
130
0.41
132
0.23
69
0.34
73
0.26
37
0.65
72
0.55
77
0.64
99
0.63
65
0.56
96
0.37
89
0.65
163
0.37
139
0.15
79
0.11
57
0.18
119
0.15
94
0.17
139
0.14
87
ASMatchtwo views0.48
182
0.19
49
0.45
130
0.39
85
0.28
191
0.37
86
0.26
37
0.74
141
0.68
116
0.76
172
2.34
369
0.61
132
0.52
163
0.62
139
0.37
139
0.14
32
0.12
98
0.17
85
0.15
94
0.14
45
0.21
237
RAFT_R40two views0.40
120
0.19
49
0.44
119
0.43
187
0.25
112
0.23
5
0.26
37
0.67
91
0.67
115
0.98
286
0.78
113
0.72
187
0.43
123
0.76
220
0.35
111
0.16
110
0.11
57
0.20
179
0.16
123
0.18
157
0.14
87
RAFT-345two views0.40
120
0.18
34
0.40
77
0.38
66
0.22
42
0.33
67
0.26
37
0.61
52
0.51
63
0.74
165
1.79
354
0.45
61
0.33
69
0.66
168
0.36
127
0.14
32
0.11
57
0.18
119
0.14
72
0.13
20
0.13
58
StereoIMtwo views0.26
3
0.18
34
0.36
34
0.36
37
0.26
148
0.27
25
0.27
43
0.43
5
0.35
16
0.27
2
0.26
3
0.41
43
0.28
32
0.40
16
0.28
43
0.16
110
0.14
178
0.16
60
0.13
50
0.14
45
0.12
33
4D-IteraStereotwo views0.33
34
0.18
34
0.40
77
0.40
108
0.24
86
0.32
63
0.27
43
0.58
35
0.72
132
0.65
106
0.54
46
0.42
49
0.23
7
0.45
30
0.28
43
0.14
32
0.09
2
0.19
155
0.16
123
0.16
108
0.11
9
CEStwo views0.28
8
0.14
2
0.23
1
0.30
4
0.70
370
0.37
86
0.27
43
0.48
11
0.46
56
0.34
14
0.48
30
0.27
2
0.22
6
0.39
14
0.23
4
0.13
12
0.11
57
0.12
2
0.08
1
0.13
20
0.17
162
Selective-RAFTtwo views0.35
47
0.23
145
0.51
201
0.44
202
0.21
29
0.64
222
0.27
43
0.59
37
0.63
98
0.40
31
0.38
18
0.55
94
0.40
109
0.57
89
0.35
111
0.13
12
0.11
57
0.14
16
0.12
29
0.16
108
0.13
58
IPLGtwo views0.39
108
0.20
70
0.59
234
0.40
108
0.24
86
0.54
159
0.27
43
0.75
147
0.63
98
0.84
220
0.81
131
0.32
10
0.32
61
0.60
126
0.45
188
0.13
12
0.11
57
0.16
60
0.13
50
0.13
20
0.12
33
DIP-Stereotwo views0.39
108
0.21
101
0.50
194
0.41
132
0.28
191
0.62
207
0.27
43
0.77
155
0.40
39
0.64
99
0.86
155
0.52
83
0.33
69
0.66
168
0.42
165
0.15
79
0.13
152
0.17
85
0.14
72
0.15
77
0.15
106
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
DN-CSS_ROBtwo views0.43
143
0.26
212
0.62
244
0.40
108
0.29
214
0.44
126
0.27
43
0.77
155
0.75
144
0.72
152
1.09
255
0.48
73
0.43
123
0.69
189
0.37
139
0.15
79
0.12
98
0.21
218
0.19
209
0.18
157
0.16
145
MIF-Stereotwo views0.27
5
0.17
19
0.37
44
0.40
108
0.27
172
0.30
43
0.28
50
0.39
2
0.31
5
0.29
6
0.46
24
0.27
2
0.25
11
0.47
44
0.34
96
0.17
143
0.13
152
0.13
9
0.12
29
0.14
45
0.12
33
AEACVtwo views0.27
5
0.17
19
0.31
13
0.34
11
0.45
329
0.26
17
0.28
50
0.37
1
0.32
7
0.30
7
0.46
24
0.31
8
0.37
89
0.36
5
0.24
6
0.14
32
0.10
9
0.15
42
0.12
29
0.13
20
0.11
9
HBP-ISPtwo views0.59
270
0.45
318
0.43
109
0.45
223
0.33
262
0.70
240
0.28
50
1.11
268
1.00
270
0.83
213
1.18
282
0.65
156
0.68
248
0.88
265
0.52
223
0.35
343
0.38
362
0.47
358
0.41
359
0.38
329
0.31
306
MIPNettwo views0.37
80
0.21
101
0.59
234
0.39
85
0.25
112
0.50
142
0.28
50
0.77
155
0.70
121
0.65
106
0.60
60
0.40
41
0.49
148
0.44
29
0.37
139
0.14
32
0.11
57
0.16
60
0.13
50
0.14
45
0.13
58
RAFT-IKPtwo views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.24
7
0.28
50
0.59
37
0.36
21
0.63
90
0.73
89
0.57
101
0.38
92
0.58
106
0.36
127
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
111two views0.40
120
0.17
19
0.41
81
0.34
11
0.19
9
0.52
149
0.28
50
0.74
141
1.16
319
0.50
54
0.91
175
0.63
139
0.48
145
0.61
133
0.35
111
0.14
32
0.10
9
0.14
16
0.12
29
0.13
20
0.13
58
CBMV_ROBtwo views0.59
270
0.37
286
0.38
53
0.39
85
0.28
191
0.74
250
0.28
50
1.00
228
0.98
258
0.94
269
1.25
295
0.81
226
0.78
287
0.87
262
0.50
208
0.36
346
0.37
360
0.43
350
0.40
354
0.33
308
0.30
300
MyStereo8two views0.40
120
0.20
70
0.54
215
0.41
132
0.29
214
0.53
155
0.29
57
0.65
72
0.49
61
0.71
141
0.98
209
0.58
109
0.43
123
0.50
52
0.51
216
0.15
79
0.12
98
0.16
60
0.14
72
0.19
191
0.19
204
11t1two views0.36
65
0.21
101
0.42
100
0.35
29
0.22
42
0.62
207
0.29
57
0.69
109
0.43
48
0.60
77
0.53
44
0.53
87
0.48
145
0.56
79
0.40
158
0.18
171
0.14
178
0.16
60
0.13
50
0.17
139
0.17
162
GMStereo_Zeroshotpermissivetwo views0.49
198
0.44
314
0.74
294
0.49
271
0.27
172
0.56
179
0.29
57
0.73
139
0.76
150
0.86
226
0.94
183
0.91
256
0.36
86
0.74
213
0.43
170
0.26
287
0.14
178
0.26
283
0.15
94
0.36
323
0.18
176
LoStwo views0.29
12
0.15
3
0.30
11
0.29
2
0.18
7
0.33
67
0.29
57
0.51
16
0.72
132
0.34
14
0.52
42
0.41
43
0.28
32
0.47
44
0.28
43
0.15
79
0.11
57
0.13
9
0.09
6
0.11
1
0.11
9
knoymoustwo views0.36
65
0.20
70
0.31
13
0.31
6
0.22
42
0.36
84
0.29
57
0.61
52
0.64
105
0.67
118
0.70
83
0.60
128
0.40
109
0.58
106
0.34
96
0.17
143
0.11
57
0.20
179
0.11
15
0.17
139
0.18
176
IPLGRtwo views0.39
108
0.21
101
0.63
252
0.39
85
0.22
42
0.49
141
0.29
57
0.76
152
0.74
142
0.78
180
0.77
105
0.44
60
0.42
116
0.47
44
0.38
147
0.13
12
0.12
98
0.16
60
0.14
72
0.15
77
0.13
58
LCNettwo views0.41
131
0.20
70
0.32
17
0.44
202
0.24
86
0.47
135
0.29
57
0.67
91
0.53
69
0.72
152
1.03
231
0.66
161
0.60
202
0.58
106
0.34
96
0.14
32
0.10
9
0.19
155
0.19
209
0.21
222
0.36
325
CroCo-Stereocopylefttwo views0.26
3
0.22
128
0.36
34
0.48
256
0.22
42
0.20
1
0.29
57
0.51
16
0.44
52
0.28
4
0.23
1
0.42
49
0.26
17
0.29
1
0.26
25
0.15
79
0.13
152
0.13
9
0.11
15
0.16
108
0.12
33
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
iRaftStereo_RVCtwo views0.32
28
0.19
49
0.37
44
0.39
85
0.22
42
0.31
53
0.29
57
0.68
100
0.51
63
0.49
51
0.66
74
0.37
33
0.23
7
0.45
30
0.33
86
0.14
32
0.10
9
0.18
119
0.17
163
0.15
77
0.12
33
s12784htwo views0.36
65
0.15
3
0.24
3
0.34
11
0.15
1
0.77
256
0.29
57
0.80
166
0.83
183
0.56
68
0.57
54
0.43
55
0.40
109
0.57
89
0.33
86
0.12
4
0.10
9
0.14
16
0.09
6
0.14
45
0.09
1
HCRNettwo views0.44
149
0.34
274
0.41
81
0.53
313
0.26
148
0.53
155
0.29
57
0.83
171
0.63
98
0.71
141
0.81
131
0.77
214
0.50
158
0.66
168
0.36
127
0.24
267
0.16
229
0.24
258
0.20
231
0.21
222
0.18
176
RAFT-Stereo + iAFFtwo views0.36
65
0.17
19
0.41
81
0.35
29
0.19
9
0.33
67
0.29
57
0.65
72
0.73
137
0.68
124
1.01
219
0.56
96
0.40
109
0.42
21
0.30
59
0.11
1
0.09
2
0.15
42
0.14
72
0.13
20
0.10
3
iResNet_ROBtwo views0.52
227
0.21
101
0.53
212
0.37
45
0.21
29
0.61
200
0.29
57
1.51
366
1.32
344
0.90
252
1.02
227
0.80
224
0.62
212
0.76
220
0.43
170
0.16
110
0.12
98
0.13
9
0.09
6
0.15
77
0.18
176
Former-RAFT_DAM_RVCtwo views0.34
35
0.27
226
0.45
130
0.36
37
0.25
112
0.48
137
0.30
70
0.58
35
0.90
223
0.42
37
0.36
17
0.30
5
0.29
42
0.49
50
0.30
59
0.16
110
0.14
178
0.18
119
0.15
94
0.18
157
0.15
106
test crocotwo views0.31
26
0.20
70
0.50
194
0.39
85
0.29
214
0.27
25
0.30
70
0.44
6
0.35
16
0.31
8
0.66
74
0.30
5
0.31
57
0.65
163
0.31
66
0.17
143
0.13
152
0.20
179
0.15
94
0.17
139
0.12
33
PCWNet_CMDtwo views0.48
182
0.24
180
0.52
206
0.39
85
0.27
172
0.63
216
0.30
70
0.95
214
0.96
251
0.86
226
1.07
248
0.79
216
0.44
131
0.57
89
0.43
170
0.17
143
0.12
98
0.21
218
0.16
123
0.24
257
0.19
204
riskmintwo views0.38
94
0.20
70
0.39
70
0.32
8
0.23
69
0.53
155
0.30
70
0.63
61
0.80
171
0.49
51
0.56
53
0.73
196
0.58
192
0.55
71
0.36
127
0.17
143
0.11
57
0.19
155
0.13
50
0.19
191
0.20
224
DCANet-4two views0.36
65
0.20
70
0.48
172
0.34
11
0.19
9
0.29
36
0.30
70
0.66
81
0.92
233
0.69
129
0.78
113
0.40
41
0.47
141
0.45
30
0.34
96
0.14
32
0.10
9
0.14
16
0.11
15
0.11
1
0.13
58
ffftwo views0.37
80
0.16
8
0.41
81
0.34
11
0.19
9
0.29
36
0.30
70
0.69
109
1.06
298
0.69
129
0.78
113
0.42
49
0.63
218
0.46
37
0.34
96
0.14
32
0.10
9
0.14
16
0.11
15
0.11
1
0.13
58
ADStereo(finetuned)two views0.37
80
0.16
8
0.49
182
0.34
11
0.19
9
0.30
43
0.30
70
0.68
100
0.91
228
0.70
135
0.77
105
0.43
55
0.69
252
0.45
30
0.33
86
0.14
32
0.10
9
0.14
16
0.11
15
0.13
20
0.12
33
TRStereotwo views0.37
80
0.27
226
0.59
234
0.47
251
0.41
307
0.29
36
0.30
70
0.84
174
0.59
84
0.52
59
0.41
19
0.52
83
0.26
17
0.73
207
0.27
33
0.17
143
0.12
98
0.19
155
0.19
209
0.13
20
0.11
9
iGMRVCtwo views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.24
7
0.30
70
0.59
37
0.36
21
0.63
90
0.73
89
0.58
109
0.38
92
0.58
106
0.36
127
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
CFNet_pseudotwo views0.46
165
0.24
180
0.52
206
0.37
45
0.27
172
0.58
185
0.30
70
0.86
180
0.88
211
0.82
201
1.03
231
0.75
202
0.47
141
0.58
106
0.44
182
0.17
143
0.12
98
0.24
258
0.16
123
0.24
257
0.19
204
DCANettwo views0.36
65
0.16
8
0.41
81
0.34
11
0.19
9
0.30
43
0.30
70
0.68
100
0.91
228
0.70
135
0.77
105
0.43
55
0.57
185
0.45
30
0.34
96
0.14
32
0.10
9
0.14
16
0.11
15
0.13
20
0.12
33
csctwo views0.37
80
0.16
8
0.41
81
0.34
11
0.19
9
0.29
36
0.30
70
0.69
109
1.06
298
0.69
129
0.78
113
0.42
49
0.63
218
0.46
37
0.34
96
0.14
32
0.10
9
0.14
16
0.11
15
0.11
1
0.13
58
cscssctwo views0.37
80
0.16
8
0.41
81
0.34
11
0.19
9
0.29
36
0.30
70
0.69
109
1.06
298
0.69
129
0.78
113
0.42
49
0.63
218
0.46
37
0.34
96
0.14
32
0.10
9
0.14
16
0.11
15
0.11
1
0.13
58
EAI-Stereotwo views0.34
35
0.19
49
0.44
119
0.39
85
0.21
29
0.31
53
0.30
70
1.15
282
0.30
3
0.49
51
0.75
99
0.36
31
0.28
32
0.62
139
0.27
33
0.14
32
0.11
57
0.14
16
0.13
50
0.13
20
0.12
33
MSMDNettwo views0.48
182
0.24
180
0.52
206
0.39
85
0.27
172
0.63
216
0.30
70
0.96
216
0.96
251
0.86
226
1.07
248
0.79
216
0.44
131
0.57
89
0.43
170
0.17
143
0.12
98
0.20
179
0.16
123
0.23
247
0.19
204
HITNettwo views0.41
131
0.26
212
0.45
130
0.33
10
0.17
3
0.63
216
0.30
70
0.93
204
0.64
105
0.71
141
0.82
134
0.64
146
0.52
163
0.59
120
0.43
170
0.14
32
0.10
9
0.15
42
0.13
50
0.19
191
0.12
33
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
EKT-Stereotwo views0.35
47
0.23
145
0.39
70
0.43
187
0.29
214
0.38
98
0.31
86
0.69
109
0.64
105
0.45
44
0.63
65
0.49
77
0.27
23
0.56
79
0.33
86
0.18
171
0.14
178
0.18
119
0.15
94
0.16
108
0.16
145
HHtwo views0.35
47
0.20
70
0.47
156
0.40
108
0.25
112
0.33
67
0.31
86
0.76
152
0.38
35
0.43
39
0.57
54
0.79
216
0.44
131
0.71
197
0.25
9
0.15
79
0.11
57
0.15
42
0.14
72
0.14
45
0.12
33
HanStereotwo views0.35
47
0.20
70
0.47
156
0.40
108
0.25
112
0.33
67
0.31
86
0.76
152
0.38
35
0.43
39
0.57
54
0.79
216
0.44
131
0.71
197
0.25
9
0.15
79
0.11
57
0.15
42
0.14
72
0.14
45
0.12
33
anonymousdsp2two views0.35
47
0.20
70
0.43
109
0.37
45
0.24
86
0.48
137
0.31
86
0.86
180
0.65
110
0.55
66
0.50
33
0.50
78
0.34
75
0.56
79
0.31
66
0.14
32
0.10
9
0.14
16
0.10
10
0.16
108
0.14
87
CroCo-Stereo Lap2two views0.28
8
0.24
180
0.39
70
0.50
285
0.29
214
0.20
1
0.31
86
0.49
13
0.38
35
0.24
1
0.27
4
0.46
67
0.31
57
0.39
14
0.30
59
0.14
32
0.15
202
0.16
60
0.13
50
0.16
108
0.15
106
DisPMtwo views0.39
108
0.19
49
0.44
119
0.41
132
0.27
172
0.24
7
0.31
86
0.65
72
0.57
82
0.87
233
0.87
159
0.60
128
0.32
61
0.76
220
0.32
74
0.18
171
0.12
98
0.19
155
0.17
163
0.15
77
0.20
224
AAGNettwo views1.43
373
0.20
70
0.48
172
0.44
202
0.25
112
0.29
36
0.31
86
0.65
72
0.68
116
0.97
282
0.86
155
0.67
166
0.62
212
0.64
156
20.63
419
0.16
110
0.11
57
0.19
155
0.15
94
0.19
191
0.12
33
NF-Stereotwo views0.38
94
0.20
70
0.45
130
0.41
132
0.25
112
0.26
17
0.31
86
0.69
109
0.70
121
0.65
106
0.77
105
0.57
101
0.30
53
0.67
178
0.35
111
0.18
171
0.12
98
0.20
179
0.16
123
0.16
108
0.27
280
OCTAStereotwo views0.38
94
0.20
70
0.46
146
0.41
132
0.25
112
0.26
17
0.31
86
0.69
109
0.70
121
0.65
106
0.77
105
0.58
109
0.30
53
0.67
178
0.35
111
0.18
171
0.12
98
0.20
179
0.16
123
0.16
108
0.27
280
PSM-adaLosstwo views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.24
7
0.31
86
0.59
37
0.36
21
0.63
90
0.73
89
0.58
109
0.38
92
0.56
79
0.35
111
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
ROB_FTStereo_v2two views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.24
7
0.31
86
0.59
37
0.36
21
0.63
90
0.73
89
0.57
101
0.38
92
0.57
89
0.36
127
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
RE-Stereotwo views0.38
94
0.20
70
0.46
146
0.41
132
0.25
112
0.26
17
0.31
86
0.69
109
0.70
121
0.65
106
0.77
105
0.58
109
0.30
53
0.67
178
0.35
111
0.18
171
0.12
98
0.20
179
0.16
123
0.16
108
0.27
280
TVStereotwo views0.38
94
0.20
70
0.46
146
0.41
132
0.25
112
0.26
17
0.31
86
0.69
109
0.70
121
0.65
106
0.77
105
0.58
109
0.30
53
0.67
178
0.35
111
0.18
171
0.12
98
0.20
179
0.16
123
0.16
108
0.27
280
sCroCo_RVCtwo views0.35
47
0.28
240
0.69
280
0.51
297
0.39
295
0.41
115
0.31
86
0.49
13
0.45
55
0.31
8
0.48
30
0.38
37
0.32
61
0.46
37
0.32
74
0.21
235
0.22
289
0.19
155
0.19
209
0.21
222
0.20
224
AFF-stereotwo views0.38
94
0.19
49
0.39
70
0.37
45
0.21
29
0.27
25
0.31
86
0.65
72
0.66
113
0.64
99
1.13
266
0.76
208
0.39
104
0.55
71
0.33
86
0.11
1
0.09
2
0.16
60
0.16
123
0.13
20
0.11
9
ccs_robtwo views0.46
165
0.24
180
0.52
206
0.37
45
0.27
172
0.58
185
0.31
86
0.86
180
0.88
211
0.82
201
1.02
227
0.75
202
0.47
141
0.58
106
0.44
182
0.17
143
0.12
98
0.24
258
0.16
123
0.24
257
0.19
204
rrrtwo views0.29
12
0.22
128
0.41
81
0.35
29
0.27
172
0.37
86
0.32
102
0.52
19
0.42
46
0.38
21
0.30
6
0.35
26
0.27
23
0.51
56
0.22
1
0.15
79
0.12
98
0.16
60
0.13
50
0.13
20
0.14
87
xtwo views0.39
108
0.24
180
0.41
81
0.34
11
0.23
69
0.52
149
0.32
102
0.86
180
0.52
66
0.57
70
0.70
83
0.59
123
0.50
158
0.49
50
0.46
198
0.17
143
0.15
202
0.17
85
0.15
94
0.17
139
0.16
145
PFNettwo views0.42
137
0.18
34
0.58
233
0.43
187
0.24
86
0.43
122
0.32
102
0.74
141
0.78
163
1.00
294
0.74
98
0.68
167
0.39
104
0.72
202
0.37
139
0.16
110
0.10
9
0.20
179
0.15
94
0.16
108
0.13
58
test_xeample3two views0.29
12
0.21
101
0.41
81
0.35
29
0.26
148
0.35
78
0.32
102
0.56
28
0.36
21
0.43
39
0.32
9
0.34
21
0.28
32
0.54
69
0.23
4
0.14
32
0.11
57
0.16
60
0.12
29
0.14
45
0.13
58
FENettwo views0.42
137
0.22
128
0.38
53
0.39
85
0.24
86
0.55
164
0.32
102
0.79
162
0.70
121
0.71
141
0.72
85
0.63
139
0.57
185
0.62
139
0.44
182
0.19
200
0.13
152
0.19
155
0.17
163
0.18
157
0.19
204
R-Stereo Traintwo views0.39
108
0.18
34
0.42
100
0.42
169
0.26
148
0.40
102
0.32
102
0.72
132
0.34
9
0.89
245
1.28
299
0.57
101
0.35
77
0.42
21
0.32
74
0.15
79
0.12
98
0.14
16
0.12
29
0.14
45
0.13
58
RAFT-Stereopermissivetwo views0.39
108
0.18
34
0.42
100
0.42
169
0.26
148
0.40
102
0.32
102
0.72
132
0.34
9
0.89
245
1.28
299
0.57
101
0.35
77
0.42
21
0.32
74
0.15
79
0.12
98
0.14
16
0.12
29
0.14
45
0.13
58
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
CFNettwo views0.51
218
0.29
248
0.46
146
0.41
132
0.27
172
0.70
240
0.32
102
1.13
273
1.00
270
0.72
152
1.07
248
0.85
234
0.60
202
0.76
220
0.52
223
0.19
200
0.14
178
0.23
244
0.23
274
0.21
222
0.16
145
AdaStereotwo views0.50
211
0.32
261
0.47
156
0.48
256
0.25
112
0.67
234
0.32
102
1.17
290
0.88
211
0.75
167
0.99
214
0.75
202
0.49
148
0.67
178
0.46
198
0.27
294
0.12
98
0.28
302
0.18
185
0.23
247
0.18
176
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
CFNet_ucstwo views0.50
211
0.24
180
0.55
220
0.38
66
0.31
241
0.58
185
0.33
111
0.98
223
0.93
238
0.88
241
1.19
286
0.80
224
0.49
148
0.63
149
0.43
170
0.21
235
0.15
202
0.26
283
0.18
185
0.26
269
0.22
250
SDNRtwo views0.86
324
0.37
286
1.47
372
0.40
108
0.38
290
3.38
401
0.33
111
0.90
197
0.98
258
0.99
289
2.09
366
0.59
123
0.71
266
1.29
341
0.70
264
0.51
368
0.56
383
0.36
335
0.26
306
0.43
342
0.46
358
raft_robusttwo views0.41
131
0.23
145
0.36
34
0.42
169
0.21
29
0.40
102
0.33
111
0.79
162
0.98
258
0.79
182
0.87
159
0.39
38
0.33
69
0.84
252
0.29
54
0.13
12
0.12
98
0.16
60
0.17
163
0.15
77
0.12
33
CIPLGtwo views0.41
131
0.21
101
0.63
252
0.45
223
0.33
262
0.52
149
0.33
111
0.65
72
0.60
86
0.82
201
0.96
194
0.46
67
0.32
61
0.55
71
0.44
182
0.16
110
0.12
98
0.15
42
0.14
72
0.13
20
0.14
87
ACREtwo views0.40
120
0.21
101
0.65
262
0.45
223
0.33
262
0.51
146
0.33
111
0.66
81
0.63
98
0.80
184
0.92
179
0.45
61
0.32
61
0.52
61
0.45
188
0.16
110
0.12
98
0.15
42
0.14
72
0.13
20
0.14
87
rafts_anoytwo views0.37
80
0.21
101
0.36
34
0.41
132
0.26
148
0.30
43
0.33
111
0.67
91
0.90
223
0.58
71
0.66
74
0.45
61
0.33
69
0.47
44
0.39
153
0.16
110
0.11
57
0.21
218
0.23
274
0.17
139
0.14
87
MLCVtwo views0.47
175
0.24
180
0.61
241
0.37
45
0.17
3
0.61
200
0.33
111
0.80
166
0.87
207
0.94
269
1.13
266
0.72
187
0.43
123
0.89
270
0.51
216
0.13
12
0.10
9
0.13
9
0.11
15
0.14
45
0.12
33
SMFormertwo views0.51
218
0.23
145
0.62
244
0.34
11
0.20
20
0.62
207
0.34
118
1.21
301
1.02
277
0.81
192
1.01
219
0.71
177
0.65
234
0.84
252
0.55
233
0.19
200
0.15
202
0.18
119
0.16
123
0.18
157
0.18
176
ttatwo views0.51
218
0.23
145
0.62
244
0.34
11
0.20
20
0.62
207
0.34
118
1.21
301
1.02
277
0.81
192
1.01
219
0.71
177
0.65
234
0.84
252
0.55
233
0.19
200
0.15
202
0.18
119
0.16
123
0.15
77
0.14
87
qqq1two views0.49
198
0.23
145
0.62
244
0.34
11
0.20
20
0.62
207
0.34
118
1.21
301
1.02
277
0.81
192
1.01
219
0.71
177
0.65
234
0.84
252
0.34
96
0.19
200
0.15
202
0.14
16
0.12
29
0.15
77
0.14
87
fff1two views0.49
198
0.23
145
0.62
244
0.34
11
0.20
20
0.62
207
0.34
118
1.21
301
1.02
277
0.81
192
1.01
219
0.71
177
0.65
234
0.84
252
0.34
96
0.19
200
0.15
202
0.14
16
0.12
29
0.15
77
0.14
87
LoS_RVCtwo views0.27
5
0.16
8
0.27
8
0.32
8
0.30
224
0.44
126
0.34
118
0.41
4
0.33
8
0.31
8
0.51
38
0.29
4
0.32
61
0.36
5
0.28
43
0.11
1
0.10
9
0.11
1
0.08
1
0.11
1
0.19
204
CASStwo views0.45
159
0.27
226
0.42
100
0.48
256
0.22
42
0.61
200
0.34
118
0.97
220
0.62
88
0.71
141
0.85
152
0.61
132
0.55
179
0.57
89
0.41
161
0.29
306
0.16
229
0.22
230
0.18
185
0.22
238
0.28
287
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
RCA-Stereotwo views0.35
47
0.17
19
0.34
26
0.38
66
0.22
42
0.31
53
0.34
118
0.68
100
1.24
332
0.45
44
0.65
70
0.47
69
0.43
123
0.38
12
0.27
33
0.13
12
0.10
9
0.14
16
0.11
15
0.11
1
0.11
9
BUStwo views0.45
159
0.25
198
0.43
109
0.45
223
0.28
191
0.70
240
0.34
118
0.94
208
0.76
150
0.75
167
0.80
124
0.65
156
0.49
148
0.64
156
0.51
216
0.20
221
0.14
178
0.22
230
0.19
209
0.18
157
0.18
176
NINENettwo views0.50
211
0.29
248
0.51
201
0.45
223
0.32
253
0.70
240
0.34
118
1.10
263
0.88
211
0.80
184
0.94
183
0.65
156
0.49
148
0.73
207
0.51
216
0.22
253
0.20
276
0.25
269
0.18
185
0.22
238
0.21
237
Sa-1000two views0.48
182
0.24
180
0.41
81
0.45
223
0.25
112
0.59
194
0.34
118
0.81
169
0.93
238
0.82
201
1.50
334
0.53
87
0.45
135
0.92
282
0.30
59
0.15
79
0.12
98
0.21
218
0.19
209
0.15
77
0.13
58
test_4two views0.36
65
0.18
34
0.31
13
0.44
202
0.25
112
0.20
1
0.34
118
0.56
28
0.41
42
0.59
73
1.45
330
0.43
55
0.25
11
0.63
149
0.28
43
0.12
4
0.10
9
0.17
85
0.19
209
0.15
77
0.11
9
UDGNettwo views0.48
182
0.77
364
0.50
194
0.48
256
0.31
241
0.41
115
0.34
118
0.70
123
0.92
233
0.65
106
0.60
60
0.58
109
0.43
123
0.63
149
0.41
161
0.32
327
0.15
202
0.66
375
0.19
209
0.36
323
0.21
237
IPLGR_Ctwo views0.40
120
0.21
101
0.64
257
0.45
223
0.33
262
0.52
149
0.34
118
0.66
81
0.62
88
0.82
201
0.92
179
0.45
61
0.32
61
0.52
61
0.46
198
0.17
143
0.12
98
0.15
42
0.14
72
0.13
20
0.14
87
HHNettwo views0.41
131
0.17
19
0.41
81
0.34
11
0.37
282
0.33
67
0.34
118
0.69
109
0.75
144
0.86
226
1.30
303
0.52
83
0.32
61
0.52
61
0.35
111
0.15
79
0.11
57
0.19
155
0.15
94
0.15
77
0.24
263
DEmStereotwo views0.48
182
0.17
19
0.50
194
0.38
66
0.25
112
0.59
194
0.34
118
0.63
61
0.74
142
0.89
245
1.66
345
0.58
109
1.06
338
0.60
126
0.42
165
0.14
32
0.11
57
0.16
60
0.16
123
0.14
45
0.15
106
DMCAtwo views0.45
159
0.26
212
0.50
194
0.38
66
0.28
191
0.51
146
0.34
118
0.93
204
0.68
116
0.75
167
0.83
139
0.79
216
0.53
166
0.51
56
0.54
229
0.21
235
0.16
229
0.21
218
0.16
123
0.19
191
0.21
237
FADNet_RVCtwo views0.55
241
0.37
286
1.17
347
0.44
202
0.31
241
0.56
179
0.34
118
1.06
253
0.88
211
0.67
118
0.90
173
0.61
132
0.65
234
0.93
287
0.70
264
0.21
235
0.18
254
0.26
283
0.23
274
0.31
298
0.28
287
AE-Stereotwo views0.34
35
0.21
101
0.42
100
0.48
256
0.31
241
0.48
137
0.35
135
0.61
52
0.62
88
0.32
12
0.55
51
0.52
83
0.27
23
0.47
44
0.29
54
0.13
12
0.13
152
0.18
119
0.16
123
0.15
77
0.12
33
mmmtwo views0.44
149
0.27
226
0.46
146
0.38
66
0.24
86
0.61
200
0.35
135
0.94
208
0.53
69
0.72
152
1.05
239
0.63
139
0.50
158
0.57
89
0.45
188
0.18
171
0.15
202
0.23
244
0.20
231
0.20
204
0.18
176
ff7two views0.29
12
0.21
101
0.38
53
0.36
37
0.26
148
0.31
53
0.35
135
0.62
56
0.34
9
0.38
21
0.33
10
0.32
10
0.29
42
0.58
106
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
IGEVStereo-DCAtwo views0.29
12
0.22
128
0.38
53
0.35
29
0.27
172
0.37
86
0.35
135
0.62
56
0.34
9
0.38
21
0.30
6
0.35
26
0.27
23
0.51
56
0.22
1
0.15
79
0.12
98
0.16
60
0.12
29
0.13
20
0.15
106
fffftwo views0.29
12
0.21
101
0.38
53
0.36
37
0.26
148
0.31
53
0.35
135
0.62
56
0.34
9
0.38
21
0.33
10
0.32
10
0.29
42
0.58
106
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
11ttwo views0.29
12
0.21
101
0.38
53
0.36
37
0.26
148
0.31
53
0.35
135
0.62
56
0.34
9
0.38
21
0.33
10
0.32
10
0.29
42
0.58
106
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
anonymousdsptwo views0.29
12
0.21
101
0.38
53
0.37
45
0.25
112
0.30
43
0.35
135
0.63
61
0.35
16
0.39
29
0.33
10
0.33
18
0.28
32
0.59
120
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
anonymousatwo views0.49
198
0.20
70
0.42
100
0.38
66
0.23
69
0.91
291
0.35
135
0.75
147
0.62
88
0.85
221
1.54
338
1.06
291
0.66
239
0.51
56
0.43
170
0.16
110
0.13
152
0.19
155
0.21
248
0.16
108
0.14
87
ccc-4two views0.29
12
0.21
101
0.38
53
0.36
37
0.26
148
0.31
53
0.35
135
0.62
56
0.34
9
0.38
21
0.33
10
0.32
10
0.29
42
0.58
106
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
IERtwo views0.46
165
0.23
145
0.50
194
0.38
66
0.28
191
0.69
238
0.35
135
0.80
166
0.66
113
0.83
213
0.94
183
0.75
202
0.77
282
0.60
126
0.42
165
0.17
143
0.14
178
0.17
85
0.17
163
0.17
139
0.15
106
IGEV-Stereopermissivetwo views0.29
12
0.21
101
0.38
53
0.37
45
0.25
112
0.30
43
0.35
135
0.63
61
0.35
16
0.39
29
0.33
10
0.33
18
0.28
32
0.59
120
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
GANet-ADLtwo views0.42
137
0.25
198
0.45
130
0.43
187
0.29
214
0.54
159
0.35
135
0.89
193
0.86
198
0.63
90
0.72
85
0.68
167
0.42
116
0.52
61
0.41
161
0.21
235
0.14
178
0.15
42
0.13
50
0.18
157
0.19
204
PSM-softLosstwo views0.38
94
0.20
70
0.48
172
0.41
132
0.26
148
0.30
43
0.35
135
0.69
109
0.46
56
0.62
83
0.82
134
0.59
123
0.33
69
0.70
192
0.39
153
0.19
200
0.12
98
0.20
179
0.18
185
0.16
108
0.22
250
KMStereotwo views0.38
94
0.20
70
0.48
172
0.41
132
0.26
148
0.30
43
0.35
135
0.69
109
0.46
56
0.62
83
0.82
134
0.59
123
0.33
69
0.70
192
0.39
153
0.19
200
0.12
98
0.20
179
0.18
185
0.16
108
0.22
250
cross-rafttwo views0.34
35
0.20
70
0.37
44
0.44
202
0.23
69
0.32
63
0.35
135
0.74
141
0.40
39
0.60
77
0.77
105
0.57
101
0.27
23
0.43
24
0.28
43
0.12
4
0.10
9
0.15
42
0.13
50
0.15
77
0.11
9
pcwnet_v2two views0.58
263
0.28
240
0.84
311
0.45
223
0.35
275
0.61
200
0.35
135
1.27
326
1.21
327
0.99
289
1.27
297
0.72
187
0.58
192
0.67
178
0.48
205
0.27
294
0.21
283
0.24
258
0.23
274
0.29
284
0.29
293
BEATNet_4xtwo views0.46
165
0.32
261
0.56
226
0.37
45
0.19
9
0.63
216
0.35
135
1.01
235
0.72
132
0.77
177
0.83
139
0.70
173
0.59
198
0.68
186
0.53
226
0.16
110
0.12
98
0.16
60
0.14
72
0.24
257
0.16
145
iResNetv2_ROBtwo views0.52
227
0.27
226
0.69
280
0.38
66
0.25
112
0.62
207
0.35
135
1.17
290
1.01
274
0.99
289
1.06
245
0.88
246
0.67
242
0.66
168
0.39
153
0.19
200
0.13
152
0.15
42
0.11
15
0.18
157
0.16
145
CoDeXtwo views0.47
175
0.20
70
0.49
182
0.42
169
0.25
112
0.75
253
0.36
153
1.27
326
0.80
171
0.82
201
0.96
194
0.62
138
0.57
185
0.60
126
0.36
127
0.17
143
0.12
98
0.17
85
0.15
94
0.16
108
0.14
87
qqqtwo views0.40
120
0.26
212
0.44
119
0.36
37
0.22
42
0.46
133
0.36
153
0.85
177
0.54
73
0.56
68
0.69
81
0.65
156
0.53
166
0.55
71
0.45
188
0.17
143
0.16
229
0.20
179
0.19
209
0.18
157
0.17
162
SAtwo views0.44
149
0.25
198
0.46
146
0.46
242
0.24
86
0.43
122
0.36
153
0.75
147
0.96
251
0.59
73
1.03
231
0.48
73
0.52
163
0.94
294
0.32
74
0.16
110
0.12
98
0.21
218
0.19
209
0.15
77
0.13
58
dadtwo views0.58
263
0.50
328
0.64
257
0.43
187
0.30
224
0.59
194
0.36
153
0.78
160
1.25
336
1.01
299
1.17
280
1.15
312
0.53
166
0.68
186
0.50
208
0.35
343
0.23
299
0.37
339
0.21
248
0.29
284
0.20
224
test_3two views0.36
65
0.19
49
0.44
119
0.44
202
0.23
69
0.48
137
0.36
153
0.66
81
0.82
178
0.64
99
0.45
21
0.68
167
0.25
11
0.41
19
0.31
66
0.12
4
0.10
9
0.18
119
0.16
123
0.15
77
0.11
9
test-1two views0.36
65
0.19
49
0.71
287
0.46
242
0.26
148
0.44
126
0.36
153
0.60
46
0.59
84
0.48
50
0.67
78
0.53
87
0.36
86
0.40
16
0.29
54
0.14
32
0.11
57
0.16
60
0.14
72
0.15
77
0.16
145
LMCR-Stereopermissivemany views0.53
230
0.30
254
0.53
212
0.58
332
0.30
224
0.83
281
0.36
153
1.19
295
0.76
150
0.88
241
1.04
235
0.56
96
0.62
212
0.82
240
0.67
257
0.19
200
0.15
202
0.19
155
0.14
72
0.23
247
0.17
162
GEStwo views0.44
149
0.23
145
0.57
229
0.40
108
0.30
224
0.59
194
0.36
153
0.96
216
0.68
116
0.74
165
0.83
139
0.47
69
0.48
145
0.67
178
0.43
170
0.22
253
0.16
229
0.17
85
0.16
123
0.18
157
0.23
257
xxxxtwo views1.01
341
0.22
128
0.43
109
0.36
37
0.21
29
0.82
279
0.36
153
1.32
335
0.88
211
0.71
141
0.94
183
0.97
267
0.63
218
0.64
156
10.58
410
0.20
221
0.16
229
0.18
119
0.17
163
0.19
191
0.19
204
GMStereopermissivetwo views0.39
108
0.37
286
0.54
215
0.40
108
0.26
148
0.42
120
0.36
153
0.59
37
1.04
286
0.55
66
0.51
38
0.37
33
0.35
77
0.54
69
0.41
161
0.19
200
0.13
152
0.16
60
0.17
163
0.24
257
0.18
176
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
GANet-RSSMtwo views0.47
175
0.21
101
0.37
44
0.38
66
0.25
112
0.58
185
0.36
153
1.07
254
0.78
163
0.68
124
1.01
219
0.86
236
0.67
242
0.62
139
0.44
182
0.21
235
0.15
202
0.18
119
0.18
185
0.18
157
0.17
162
UCFNet_RVCtwo views0.49
198
0.26
212
0.35
29
0.39
85
0.26
148
0.64
222
0.36
153
1.15
282
0.84
186
0.67
118
0.88
166
0.88
246
0.59
198
0.58
106
0.45
188
0.24
267
0.17
243
0.27
295
0.27
311
0.25
265
0.23
257
DualNettwo views0.47
175
0.26
212
0.49
182
0.37
45
0.25
112
0.55
164
0.37
165
0.68
100
1.04
286
0.73
159
0.96
194
0.71
177
0.53
166
0.57
89
0.88
302
0.16
110
0.10
9
0.25
269
0.21
248
0.16
108
0.16
145
ffmtwo views0.44
149
0.26
212
0.49
182
0.37
45
0.25
112
0.55
164
0.37
165
0.68
100
1.04
286
0.73
159
0.96
194
0.71
177
0.53
166
0.57
89
0.25
9
0.16
110
0.10
9
0.25
269
0.21
248
0.16
108
0.16
145
ff1two views0.49
198
0.26
212
0.49
182
0.37
45
0.25
112
0.55
164
0.37
165
0.68
100
1.04
286
0.73
159
0.96
194
0.71
177
0.53
166
1.01
300
0.88
302
0.16
110
0.10
9
0.25
269
0.21
248
0.16
108
0.16
145
mmxtwo views0.53
230
0.26
212
0.49
182
0.37
45
0.25
112
0.55
164
0.37
165
1.16
285
1.03
282
0.73
159
0.96
194
0.71
177
0.53
166
1.01
300
0.88
302
0.20
221
0.15
202
0.25
269
0.21
248
0.22
238
0.20
224
whm_ethtwo views0.48
182
0.30
254
0.74
294
0.46
242
0.38
290
0.37
86
0.37
165
0.79
162
0.78
163
0.82
201
1.74
351
0.37
33
0.38
92
0.60
126
0.38
147
0.18
171
0.16
229
0.20
179
0.20
231
0.19
191
0.22
250
xxxcopylefttwo views0.53
230
0.26
212
0.49
182
0.37
45
0.25
112
0.55
164
0.37
165
1.16
285
1.03
282
0.73
159
0.96
194
0.71
177
0.53
166
1.01
300
0.88
302
0.20
221
0.15
202
0.25
269
0.21
248
0.22
238
0.20
224
DCREtwo views0.37
80
0.18
34
0.46
146
0.45
223
0.32
253
0.42
120
0.37
165
0.63
61
0.51
63
0.47
49
0.94
183
0.56
96
0.36
86
0.52
61
0.32
74
0.14
32
0.13
152
0.15
42
0.14
72
0.14
45
0.13
58
GwcNet-ADLtwo views0.44
149
0.22
128
0.48
172
0.45
223
0.30
224
0.40
102
0.37
165
0.92
202
0.97
254
0.71
141
0.78
113
0.61
132
0.42
116
0.62
139
0.50
208
0.19
200
0.14
178
0.15
42
0.14
72
0.18
157
0.18
176
PSMNet-ADLtwo views0.48
182
0.27
226
0.40
77
0.48
256
0.30
224
0.68
236
0.37
165
0.90
197
0.80
171
0.61
82
0.80
124
0.92
258
0.62
212
0.72
202
0.63
249
0.23
258
0.18
254
0.18
119
0.20
231
0.22
238
0.20
224
KYRafttwo views0.48
182
0.20
70
0.38
53
0.44
202
0.23
69
0.44
126
0.37
165
0.66
81
0.41
42
0.94
269
1.73
349
0.79
216
0.41
115
0.63
149
0.31
66
0.16
110
0.11
57
0.18
119
0.22
263
0.16
108
0.78
380
TestStereotwo views0.38
94
0.31
259
0.40
77
0.45
223
0.20
20
0.40
102
0.37
165
0.66
81
0.65
110
0.53
62
0.78
113
0.47
69
0.40
109
0.55
71
0.37
139
0.18
171
0.13
152
0.20
179
0.15
94
0.22
238
0.13
58
raft+_RVCtwo views0.38
94
0.19
49
0.35
29
0.37
45
0.25
112
0.45
131
0.37
165
0.78
160
0.89
221
0.51
56
0.78
113
0.50
78
0.29
42
0.53
66
0.40
158
0.15
79
0.12
98
0.17
85
0.15
94
0.14
45
0.12
33
222two views1.18
360
0.22
128
0.44
119
0.37
45
0.22
42
0.79
263
0.37
165
1.31
334
0.89
221
0.92
265
1.08
251
0.72
187
0.71
266
0.66
168
13.89
414
0.20
221
0.15
202
0.17
85
0.16
123
0.18
157
0.19
204
SFCPSMtwo views0.47
175
0.21
101
0.55
220
0.40
108
0.27
172
0.87
289
0.37
165
1.33
337
0.77
157
0.80
184
0.84
144
0.54
91
0.49
148
0.57
89
0.37
139
0.18
171
0.13
152
0.18
119
0.20
231
0.16
108
0.15
106
cf-rtwo views0.47
175
0.23
145
0.41
81
0.39
85
0.23
69
0.59
194
0.37
165
0.88
191
0.85
193
0.72
152
1.05
239
0.94
261
0.62
212
0.56
79
0.54
229
0.21
235
0.14
178
0.17
85
0.19
209
0.15
77
0.15
106
PSMNet-RSSMtwo views0.48
182
0.22
128
0.38
53
0.42
169
0.25
112
0.50
142
0.37
165
1.10
263
0.77
157
0.70
135
1.06
245
0.84
232
0.64
228
0.62
139
0.47
202
0.23
258
0.15
202
0.23
244
0.25
296
0.20
204
0.19
204
CFNet-ftpermissivetwo views0.48
182
0.23
145
0.36
34
0.40
108
0.26
148
0.64
222
0.37
165
0.87
187
0.85
193
0.64
99
1.00
216
1.01
277
0.64
228
0.61
133
0.53
226
0.23
258
0.15
202
0.24
258
0.21
248
0.23
247
0.18
176
HSM-Net_RVCpermissivetwo views0.53
230
0.22
128
0.35
29
0.37
45
0.21
29
0.85
285
0.37
165
1.23
313
0.93
238
0.90
252
1.15
273
1.26
318
0.63
218
0.72
202
0.48
205
0.17
143
0.13
152
0.16
60
0.15
94
0.17
139
0.15
106
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
CFNet_RVCtwo views0.48
182
0.23
145
0.36
34
0.40
108
0.26
148
0.64
222
0.37
165
0.87
187
0.85
193
0.64
99
1.00
216
1.01
277
0.64
228
0.61
133
0.53
226
0.23
258
0.15
202
0.24
258
0.21
248
0.23
247
0.18
176
PWC_ROBbinarytwo views0.87
325
0.52
337
1.28
356
0.50
285
0.32
253
0.91
291
0.37
165
1.36
345
1.46
357
1.61
360
2.59
378
1.16
313
1.01
335
1.34
347
1.40
360
0.25
277
0.18
254
0.28
302
0.20
231
0.29
284
0.28
287
ACVNet-DCAtwo views0.35
47
0.23
145
0.33
20
0.41
132
0.22
42
0.55
164
0.38
185
0.85
177
0.54
73
0.41
32
0.50
33
0.34
21
0.49
148
0.57
89
0.25
9
0.16
110
0.10
9
0.19
155
0.13
50
0.18
157
0.17
162
xx1two views0.39
108
0.23
145
0.33
20
0.41
132
0.22
42
0.55
164
0.38
185
0.67
91
1.06
298
0.41
32
0.50
33
0.65
156
0.53
166
0.57
89
0.25
9
0.16
110
0.10
9
0.20
179
0.19
209
0.18
157
0.17
162
1test111two views0.36
65
0.23
145
0.33
20
0.41
132
0.22
42
0.55
164
0.38
185
0.85
177
0.54
73
0.41
32
0.50
33
0.34
21
0.49
148
0.55
71
0.45
188
0.16
110
0.10
9
0.19
155
0.13
50
0.18
157
0.17
162
cc1two views0.37
80
0.23
145
0.33
20
0.41
132
0.22
42
0.55
164
0.38
185
0.67
91
1.06
298
0.41
32
0.50
33
0.34
21
0.49
148
0.57
89
0.25
9
0.16
110
0.10
9
0.19
155
0.13
50
0.16
108
0.15
106
tt1two views0.36
65
0.24
180
0.32
17
0.41
132
0.22
42
0.54
159
0.38
185
0.68
100
1.04
286
0.41
32
0.46
24
0.35
26
0.45
135
0.57
89
0.25
9
0.16
110
0.10
9
0.19
155
0.13
50
0.16
108
0.16
145
ttttwo views0.51
218
0.25
198
0.43
109
0.38
66
0.24
86
0.65
227
0.38
185
1.18
293
1.05
291
0.72
152
1.08
251
0.63
139
0.49
148
0.84
252
0.59
240
0.24
267
0.21
283
0.22
230
0.20
231
0.24
257
0.24
263
StereoVisiontwo views0.42
137
0.28
240
0.45
130
0.49
271
0.28
191
0.38
98
0.38
185
0.72
132
0.62
88
0.44
42
1.14
268
0.54
91
0.39
104
0.56
79
0.34
96
0.21
235
0.24
306
0.25
269
0.24
287
0.26
269
0.16
145
CAStwo views0.34
35
0.13
1
0.25
6
1.28
388
0.30
224
0.46
133
0.38
185
0.48
11
0.47
59
0.34
14
0.52
42
0.24
1
0.19
2
0.29
1
0.27
33
0.69
379
0.08
1
0.12
2
0.08
1
0.12
8
0.15
106
ddtwo views0.43
143
0.38
295
0.55
220
0.44
202
0.25
112
0.47
135
0.38
185
0.70
123
1.05
291
0.59
73
0.65
70
0.42
49
0.39
104
0.66
168
0.50
208
0.24
267
0.15
202
0.21
218
0.15
94
0.22
238
0.18
176
GMOStereotwo views0.37
80
0.19
49
0.38
53
0.43
187
0.24
86
0.37
86
0.38
185
0.52
19
0.62
88
0.87
233
0.84
144
0.64
146
0.35
77
0.37
8
0.28
43
0.13
12
0.11
57
0.20
179
0.18
185
0.15
77
0.11
9
error versiontwo views0.37
80
0.19
49
0.38
53
0.43
187
0.24
86
0.37
86
0.38
185
0.52
19
0.62
88
0.87
233
0.84
144
0.64
146
0.35
77
0.37
8
0.28
43
0.13
12
0.11
57
0.20
179
0.18
185
0.15
77
0.11
9
test-vtwo views0.37
80
0.19
49
0.38
53
0.43
187
0.24
86
0.37
86
0.38
185
0.52
19
0.62
88
0.87
233
0.84
144
0.64
146
0.35
77
0.37
8
0.28
43
0.13
12
0.11
57
0.20
179
0.18
185
0.15
77
0.11
9
AACVNettwo views0.50
211
0.23
145
0.49
182
0.46
242
0.29
214
0.52
149
0.38
185
0.90
197
0.55
77
0.81
192
1.03
231
1.00
274
0.70
262
0.83
247
0.54
229
0.21
235
0.18
254
0.24
258
0.18
185
0.23
247
0.20
224
AnonymousMtwo views0.41
131
0.81
367
0.29
10
0.34
11
0.22
42
0.28
32
0.38
185
0.53
26
0.41
42
0.70
135
0.49
32
0.47
69
0.27
23
0.41
19
0.31
66
0.15
79
0.12
98
1.51
387
0.26
306
0.12
8
0.10
3
test-2two views0.37
80
0.19
49
0.38
53
0.43
187
0.24
86
0.37
86
0.38
185
0.52
19
0.62
88
0.87
233
0.84
144
0.64
146
0.35
77
0.37
8
0.28
43
0.13
12
0.11
57
0.20
179
0.18
185
0.15
77
0.11
9
RALCasStereoNettwo views0.36
65
0.21
101
0.37
44
0.42
169
0.26
148
0.35
78
0.38
185
0.63
61
0.64
105
0.50
54
0.72
85
0.51
81
0.29
42
0.59
120
0.36
127
0.16
110
0.14
178
0.15
42
0.13
50
0.17
139
0.16
145
GwcNet-RSSMtwo views0.49
198
0.24
180
0.42
100
0.40
108
0.23
69
0.55
164
0.38
185
0.93
204
0.93
238
0.71
141
1.16
278
0.86
236
0.60
202
0.62
139
0.66
254
0.21
235
0.14
178
0.19
155
0.20
231
0.16
108
0.15
106
DMCA-RVCcopylefttwo views0.51
218
0.30
254
0.59
234
0.50
285
0.32
253
0.54
159
0.38
185
0.86
180
0.68
116
0.94
269
0.86
155
0.91
256
0.68
248
0.70
192
0.59
240
0.23
258
0.18
254
0.31
318
0.23
274
0.26
269
0.19
204
RASNettwo views0.53
230
0.22
128
0.52
206
0.38
66
0.22
42
0.68
236
0.38
185
0.97
220
0.88
211
0.73
159
1.04
235
1.03
284
0.92
318
0.90
272
0.86
295
0.16
110
0.14
178
0.14
16
0.17
163
0.15
77
0.13
58
RAFT_CTSACEtwo views0.45
159
0.20
70
0.44
119
0.45
223
0.27
172
0.34
73
0.39
204
0.60
46
0.73
137
0.76
172
1.44
327
0.83
228
0.38
92
1.08
315
0.26
25
0.12
4
0.13
152
0.18
119
0.16
123
0.15
77
0.11
9
test_xeamplepermissivetwo views1.01
341
0.21
101
0.42
100
0.35
29
0.21
29
0.71
245
0.39
204
1.23
313
0.86
198
0.81
192
1.04
235
0.69
171
0.61
207
0.69
189
10.93
411
0.19
200
0.15
202
0.18
119
0.17
163
0.18
157
0.17
162
MMNettwo views0.55
241
0.25
198
0.61
241
0.43
187
0.34
269
1.07
321
0.39
204
0.87
187
0.91
228
0.91
257
0.93
182
0.86
236
0.76
278
0.81
238
0.76
276
0.15
79
0.14
178
0.18
119
0.19
209
0.20
204
0.16
145
acv_fttwo views0.51
218
0.23
145
0.56
226
0.44
202
0.28
191
0.86
288
0.39
204
0.91
201
0.80
171
0.97
282
0.96
194
0.79
216
0.59
198
0.63
149
0.87
299
0.17
143
0.15
202
0.16
60
0.15
94
0.17
139
0.15
106
FADNet-RVCtwo views0.60
273
0.53
340
1.14
341
0.46
242
0.39
295
0.61
200
0.39
204
1.12
272
0.87
207
0.70
135
0.84
144
1.04
286
0.55
179
0.94
294
0.69
261
0.26
287
0.25
314
0.28
302
0.28
316
0.31
298
0.31
306
PWCDC_ROBbinarytwo views0.89
329
0.49
324
0.80
309
0.74
369
0.40
300
1.03
315
0.39
204
1.33
337
2.35
386
1.02
301
3.77
395
0.81
226
0.92
318
1.20
329
0.90
315
0.34
339
0.22
289
0.24
258
0.20
231
0.34
315
0.29
293
TestStereo1two views0.43
143
0.23
145
0.41
81
0.51
297
0.24
86
0.34
73
0.40
210
0.77
155
0.90
223
0.68
124
0.96
194
0.48
73
0.46
138
0.91
279
0.32
74
0.16
110
0.13
152
0.18
119
0.15
94
0.14
45
0.13
58
BSDual-CNNtwo views0.46
165
0.25
198
0.43
109
0.45
223
0.28
191
0.77
256
0.40
210
0.94
208
0.76
150
0.75
167
0.80
124
0.76
208
0.54
177
0.64
156
0.43
170
0.20
221
0.14
178
0.22
230
0.19
209
0.18
157
0.18
176
hknettwo views0.49
198
0.25
198
0.51
201
0.45
223
0.29
214
0.77
256
0.40
210
0.94
208
0.83
183
0.75
167
0.80
124
0.97
267
0.61
207
0.73
207
0.45
188
0.18
171
0.14
178
0.22
230
0.19
209
0.18
157
0.18
176
SA-5Ktwo views0.43
143
0.23
145
0.41
81
0.51
297
0.24
86
0.34
73
0.40
210
0.77
155
0.90
223
0.68
124
0.96
194
0.48
73
0.46
138
0.91
279
0.32
74
0.16
110
0.13
152
0.18
119
0.15
94
0.14
45
0.13
58
AASNettwo views0.53
230
0.25
198
0.52
206
0.49
271
0.32
253
0.74
250
0.40
210
1.50
363
0.86
198
0.86
226
0.92
179
0.64
146
0.59
198
0.59
120
0.79
281
0.23
258
0.19
268
0.20
179
0.16
123
0.21
222
0.19
204
DRafttwo views0.49
198
0.17
19
0.47
156
0.37
45
0.25
112
0.58
185
0.40
210
0.65
72
0.85
193
1.02
301
1.75
353
0.50
78
0.82
297
0.63
149
0.40
158
0.13
12
0.11
57
0.16
60
0.16
123
0.14
45
0.15
106
ACVNettwo views0.46
165
0.23
145
0.36
34
0.39
85
0.28
191
0.58
185
0.40
210
0.87
187
0.80
171
0.64
99
0.96
194
0.79
216
0.60
202
0.63
149
0.67
257
0.17
143
0.15
202
0.16
60
0.15
94
0.18
157
0.15
106
hitnet-ftcopylefttwo views0.55
241
0.27
226
0.39
70
0.41
132
0.28
191
0.78
260
0.40
210
0.92
202
0.90
223
0.82
201
1.01
219
1.13
309
0.70
262
0.78
231
0.67
257
0.28
300
0.20
276
0.28
302
0.22
263
0.29
284
0.26
273
DANettwo views0.71
294
0.45
318
0.91
321
0.59
335
0.40
300
0.81
271
0.40
210
0.97
220
0.84
186
1.20
337
1.22
288
1.33
332
0.88
312
1.16
324
1.24
351
0.27
294
0.23
299
0.31
318
0.25
296
0.35
319
0.32
310
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
HSMtwo views0.51
218
0.24
180
0.41
81
0.39
85
0.24
86
0.75
253
0.40
210
1.22
309
0.75
144
0.81
192
0.91
175
1.21
314
0.69
252
0.87
262
0.46
198
0.17
143
0.13
152
0.17
85
0.14
72
0.17
139
0.17
162
StereoDRNet-Refinedtwo views0.58
263
0.32
261
0.54
215
0.46
242
0.30
224
0.96
302
0.40
210
1.00
228
0.94
245
1.12
327
1.08
251
0.96
265
0.67
242
0.90
272
0.89
313
0.17
143
0.13
152
0.22
230
0.21
248
0.20
204
0.19
204
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
iResNettwo views0.49
198
0.29
248
0.79
307
0.42
169
0.21
29
0.61
200
0.40
210
0.82
170
0.99
263
0.87
233
1.12
260
0.69
171
0.53
166
0.78
231
0.51
216
0.15
79
0.11
57
0.14
16
0.12
29
0.17
139
0.15
106
gwcnet-sptwo views0.48
182
0.23
145
0.70
284
0.40
108
0.26
148
0.81
271
0.41
222
0.89
193
0.84
186
0.91
257
0.76
101
0.66
161
0.61
207
0.66
168
0.50
208
0.18
171
0.17
243
0.18
119
0.18
185
0.18
157
0.18
176
scenettwo views0.48
182
0.23
145
0.70
284
0.40
108
0.26
148
0.81
271
0.41
222
0.89
193
0.84
186
0.91
257
0.76
101
0.66
161
0.61
207
0.66
168
0.50
208
0.18
171
0.17
243
0.18
119
0.18
185
0.18
157
0.18
176
ssnettwo views0.48
182
0.23
145
0.70
284
0.40
108
0.26
148
0.81
271
0.41
222
0.89
193
0.84
186
0.91
257
0.76
101
0.66
161
0.61
207
0.66
168
0.50
208
0.18
171
0.17
243
0.18
119
0.18
185
0.18
157
0.18
176
DAStwo views0.51
218
0.25
198
0.60
239
0.48
256
0.31
241
0.58
185
0.41
222
0.83
171
0.97
254
0.89
245
1.12
260
0.70
173
0.75
275
0.82
240
0.43
170
0.17
143
0.13
152
0.18
119
0.15
94
0.20
204
0.18
176
SepStereotwo views0.51
218
0.25
198
0.60
239
0.48
256
0.31
241
0.58
185
0.41
222
0.83
171
0.97
254
0.89
245
1.12
260
0.70
173
0.75
275
0.93
287
0.43
170
0.17
143
0.13
152
0.18
119
0.15
94
0.20
204
0.18
176
UNettwo views0.54
240
0.26
212
0.66
267
0.44
202
0.40
300
0.99
308
0.41
222
0.98
223
0.75
144
0.83
213
0.89
170
1.04
286
0.72
270
0.73
207
0.62
246
0.19
200
0.14
178
0.20
179
0.17
163
0.20
204
0.17
162
FADNettwo views0.61
275
0.51
331
1.10
336
0.45
223
0.44
325
0.65
227
0.41
222
1.19
295
1.05
291
0.70
135
0.84
144
0.98
270
0.66
239
0.82
240
0.50
208
0.29
306
0.30
334
0.27
295
0.30
322
0.46
350
0.35
323
test_5two views0.43
143
0.24
180
0.43
109
0.52
308
0.28
191
0.28
32
0.42
229
0.72
132
0.82
178
0.62
83
0.91
175
0.72
187
0.55
179
0.79
234
0.35
111
0.14
32
0.11
57
0.18
119
0.18
185
0.18
157
0.16
145
1111xtwo views0.55
241
0.22
128
0.46
146
0.38
66
0.20
20
0.66
230
0.43
230
1.23
313
0.99
263
0.71
141
0.99
214
0.95
263
0.69
252
0.90
272
1.08
339
0.18
171
0.17
243
0.18
119
0.19
209
0.20
204
0.18
176
ProNettwo views0.29
12
0.21
101
0.38
53
0.35
29
0.24
86
0.32
63
0.43
230
0.57
31
0.37
31
0.33
13
0.30
6
0.32
10
0.28
32
0.57
89
0.26
25
0.13
12
0.11
57
0.16
60
0.13
50
0.13
20
0.13
58
psmgtwo views0.49
198
0.25
198
0.43
109
0.41
132
0.28
191
0.85
285
0.43
230
0.99
225
0.76
150
0.91
257
0.94
183
0.76
208
0.54
177
0.64
156
0.43
170
0.20
221
0.15
202
0.20
179
0.20
231
0.18
157
0.18
176
ICVPtwo views0.46
165
0.25
198
0.38
53
0.48
256
0.28
191
0.58
185
0.43
230
1.00
228
0.70
121
0.67
118
0.95
190
0.75
202
0.55
179
0.53
66
0.54
229
0.23
258
0.17
243
0.19
155
0.17
163
0.19
191
0.20
224
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
FADNet-RVC-Resampletwo views0.56
252
0.33
269
1.16
342
0.49
271
0.34
269
0.71
245
0.43
230
1.01
235
0.93
238
0.82
201
0.87
159
0.74
201
0.67
242
0.73
207
0.45
188
0.18
171
0.18
254
0.26
283
0.27
311
0.26
269
0.27
280
DeepPruner_ROBtwo views0.53
230
0.34
274
0.59
234
0.41
132
0.30
224
0.50
142
0.43
230
1.19
295
0.70
121
0.85
221
1.05
239
0.86
236
0.55
179
0.84
252
0.51
216
0.29
306
0.23
299
0.22
230
0.22
263
0.26
269
0.25
269
STTStereotwo views0.55
241
0.37
286
0.76
302
0.44
202
0.31
241
0.60
199
0.44
236
0.96
216
0.86
198
0.99
289
0.90
173
0.96
265
0.58
192
0.71
197
0.61
244
0.25
277
0.23
299
0.26
283
0.32
335
0.24
257
0.23
257
NLCA_NET_v2_RVCtwo views0.53
230
0.32
261
0.64
257
0.44
202
0.30
224
0.66
230
0.44
236
1.04
245
0.88
211
0.91
257
0.91
175
0.99
271
0.60
202
0.68
186
0.60
243
0.21
235
0.17
243
0.22
230
0.22
263
0.21
222
0.21
237
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
Prome-Stereotwo views0.46
165
0.19
49
0.35
29
0.44
202
0.26
148
0.40
102
0.45
238
0.68
100
0.44
52
0.96
277
1.84
356
0.59
123
0.67
242
0.61
133
0.32
74
0.14
32
0.11
57
0.16
60
0.14
72
0.16
108
0.29
293
ac_64two views0.52
227
0.22
128
0.50
194
0.45
223
0.28
191
0.80
266
0.45
238
1.02
238
0.61
87
0.91
257
0.83
139
1.07
296
0.68
248
0.74
213
0.70
264
0.21
235
0.18
254
0.20
179
0.19
209
0.18
157
0.15
106
HGLStereotwo views0.56
252
0.28
240
0.57
229
0.50
285
0.37
282
0.80
266
0.45
238
1.02
238
0.78
163
0.86
226
1.14
268
0.89
250
0.82
297
0.76
220
0.73
271
0.21
235
0.20
276
0.19
155
0.18
185
0.19
191
0.21
237
RAFT+CT+SAtwo views0.39
108
0.23
145
0.36
34
0.51
297
0.27
172
0.29
36
0.46
241
0.75
147
0.80
171
0.51
56
0.89
170
0.41
43
0.40
109
0.78
231
0.32
74
0.14
32
0.11
57
0.18
119
0.18
185
0.15
77
0.14
87
sAnonymous2two views0.40
120
0.39
299
0.85
312
0.48
256
0.37
282
0.40
102
0.46
241
0.57
31
0.52
66
0.38
21
0.46
24
0.35
26
0.42
116
0.43
24
0.30
59
0.19
200
0.14
178
0.18
119
0.17
163
0.57
368
0.44
353
CroCo_RVCtwo views0.40
120
0.39
299
0.85
312
0.48
256
0.37
282
0.40
102
0.46
241
0.57
31
0.52
66
0.38
21
0.46
24
0.35
26
0.42
116
0.43
24
0.30
59
0.19
200
0.14
178
0.18
119
0.17
163
0.57
368
0.44
353
ADLNettwo views0.55
241
0.27
226
0.51
201
0.44
202
0.35
275
0.78
260
0.46
241
1.08
258
0.86
198
0.99
289
0.98
209
0.92
258
0.63
218
0.69
189
0.81
286
0.22
253
0.16
229
0.22
230
0.22
263
0.21
222
0.21
237
SuperBtwo views1.04
346
0.37
286
4.81
402
0.43
187
0.31
241
0.99
308
0.46
241
1.02
238
2.09
379
1.09
323
1.09
255
0.75
202
0.81
293
1.06
310
1.76
367
0.19
200
0.15
202
0.17
85
0.15
94
2.82
410
0.26
273
SQANettwo views0.82
316
0.74
362
0.67
271
1.13
383
0.98
381
1.11
327
0.47
246
1.07
254
0.83
183
0.91
257
1.05
239
1.03
284
0.74
273
1.01
300
0.64
251
0.61
376
0.24
306
1.03
383
0.35
342
1.18
387
0.58
374
GASNettwo views0.67
283
0.72
360
0.96
325
0.70
365
0.48
337
0.62
207
0.47
246
1.08
258
1.03
282
0.94
269
0.82
134
0.93
260
0.83
301
1.33
345
0.80
283
0.31
315
0.22
289
0.29
310
0.28
316
0.44
343
0.24
263
TransformOpticalFlowtwo views0.44
149
0.20
70
0.47
156
0.41
132
0.23
69
0.37
86
0.47
246
0.94
208
0.76
150
0.65
106
1.14
268
0.73
196
0.56
184
0.76
220
0.32
74
0.15
79
0.10
9
0.17
85
0.15
94
0.14
45
0.13
58
RAFTtwo views0.45
159
0.22
128
0.45
130
0.47
251
0.26
148
0.54
159
0.47
246
0.66
81
0.58
83
0.80
184
0.82
134
0.94
261
0.57
185
0.75
217
0.34
96
0.17
143
0.15
202
0.22
230
0.20
231
0.16
108
0.12
33
GMM-Stereotwo views0.44
149
0.19
49
0.36
34
0.42
169
0.25
112
0.51
146
0.47
246
0.71
128
0.53
69
0.76
172
1.37
313
0.76
208
0.38
92
0.60
126
0.33
86
0.15
79
0.10
9
0.20
179
0.19
209
0.16
108
0.27
280
DispFullNettwo views1.60
379
2.63
414
2.75
391
2.56
407
1.79
399
1.24
345
0.47
246
1.37
347
1.45
356
1.87
372
1.50
334
1.55
357
2.46
392
2.04
383
1.04
336
0.59
375
0.18
254
2.32
402
0.68
383
2.29
403
1.14
396
LL-Strereotwo views0.57
257
0.27
226
0.68
274
0.48
256
0.34
269
0.39
101
0.48
252
0.94
208
0.97
254
0.83
213
0.78
113
1.10
302
1.18
350
1.33
345
0.49
207
0.17
143
0.14
178
0.22
230
0.19
209
0.16
108
0.17
162
SACVNettwo views0.58
263
0.34
274
0.55
220
0.55
322
0.36
277
0.63
216
0.48
252
1.13
273
0.77
157
1.02
301
1.06
245
1.02
282
0.74
273
0.90
272
0.51
216
0.27
294
0.21
283
0.25
269
0.24
287
0.29
284
0.36
325
stereogantwo views0.80
312
0.31
259
0.71
287
0.59
335
0.50
340
1.72
374
0.48
252
1.35
342
1.37
347
1.00
294
1.46
332
1.56
358
0.95
327
1.29
341
0.84
290
0.28
300
0.29
331
0.29
310
0.25
296
0.38
329
0.38
337
SHDtwo views0.93
336
0.50
328
1.18
348
0.59
335
0.46
336
0.97
303
0.48
252
1.70
379
2.15
380
1.58
357
1.37
313
1.42
344
1.19
352
1.31
343
1.60
362
0.31
315
0.26
320
0.32
323
0.33
338
0.40
332
0.42
347
AANet_RVCtwo views0.57
257
0.32
261
0.54
215
0.45
223
0.27
172
0.57
183
0.48
252
1.00
228
1.28
340
0.86
226
1.33
307
0.87
241
0.58
192
1.07
313
0.75
275
0.18
171
0.12
98
0.15
42
0.13
50
0.18
157
0.18
176
NVstereo2Dtwo views0.60
273
0.30
254
0.75
297
0.48
256
0.43
318
0.89
290
0.48
252
1.05
250
1.15
318
0.66
117
0.86
155
0.88
246
0.70
262
0.99
297
0.65
252
0.32
327
0.15
202
0.28
302
0.20
231
0.40
332
0.36
325
fast-acv-fttwo views0.64
278
0.30
254
0.73
290
0.45
223
0.34
269
1.17
337
0.49
258
0.86
180
0.98
258
1.02
301
1.36
310
1.29
322
0.85
304
0.76
220
0.81
286
0.21
235
0.23
299
0.23
244
0.23
274
0.21
222
0.20
224
ToySttwo views0.49
198
0.27
226
0.75
297
0.40
108
0.27
172
0.64
222
0.49
258
0.84
174
0.77
157
0.60
77
0.83
139
0.88
246
0.66
239
0.70
192
0.56
235
0.16
110
0.17
243
0.21
218
0.20
231
0.21
222
0.19
204
Anonymoustwo views0.39
108
0.27
226
0.66
267
0.53
313
0.43
318
0.55
164
0.49
258
0.63
61
0.50
62
0.37
17
0.42
20
0.33
18
0.42
116
0.56
79
0.38
147
0.20
221
0.19
268
0.17
85
0.18
185
0.30
293
0.24
263
UPFNettwo views0.53
230
0.24
180
0.51
201
0.45
223
0.38
290
0.84
284
0.49
258
0.99
225
0.75
144
0.87
233
0.88
166
0.86
236
0.64
228
0.80
235
0.71
268
0.20
221
0.20
276
0.20
179
0.20
231
0.19
191
0.15
106
MyStereo07two views0.32
28
0.22
128
0.34
26
0.42
169
0.28
191
0.40
102
0.50
262
0.72
132
0.37
31
0.37
17
0.34
16
0.32
10
0.31
57
0.59
120
0.27
33
0.14
32
0.13
152
0.18
119
0.17
163
0.17
139
0.16
145
MyStereo06two views0.38
94
0.21
101
0.61
241
0.41
132
0.28
191
0.41
115
0.50
262
0.95
214
0.35
16
0.62
83
0.54
46
0.76
208
0.27
23
0.50
52
0.29
54
0.14
32
0.13
152
0.18
119
0.17
163
0.17
139
0.15
106
MyStereo05two views0.44
149
0.21
101
0.45
130
0.41
132
0.28
191
0.41
115
0.50
262
0.93
204
1.09
309
0.76
172
0.61
63
0.51
81
0.57
185
0.73
207
0.42
165
0.14
32
0.13
152
0.18
119
0.17
163
0.17
139
0.15
106
MyStereo04two views0.44
149
0.22
128
0.44
119
0.42
169
0.28
191
0.40
102
0.50
262
1.00
228
1.08
307
0.62
83
0.58
58
0.55
94
0.57
185
0.71
197
0.44
182
0.14
32
0.13
152
0.18
119
0.17
163
0.17
139
0.16
145
CSP-Nettwo views0.56
252
0.27
226
0.49
182
0.41
132
0.28
191
1.22
342
0.50
262
1.23
313
0.72
132
0.95
276
0.95
190
0.89
250
0.62
212
0.83
247
0.62
246
0.26
287
0.17
243
0.17
85
0.17
163
0.18
157
0.17
162
ADLNet2two views0.55
241
0.25
198
0.65
262
0.47
251
0.30
224
0.83
281
0.50
262
1.05
250
0.95
250
0.80
184
0.98
209
0.99
271
0.69
252
0.77
227
0.73
271
0.20
221
0.16
229
0.17
85
0.18
185
0.21
222
0.21
237
STrans-v2two views0.46
165
0.20
70
0.48
172
0.40
108
0.24
86
0.55
164
0.50
262
1.07
254
0.73
137
0.65
106
1.05
239
0.72
187
0.69
252
0.72
202
0.33
86
0.14
32
0.10
9
0.17
85
0.14
72
0.13
20
0.12
33
PSM-AADtwo views0.48
182
0.20
70
0.37
44
0.43
187
0.23
69
0.56
179
0.50
262
0.65
72
0.70
121
1.07
318
1.12
260
0.58
109
0.92
318
0.61
133
0.32
74
0.15
79
0.11
57
0.25
269
0.26
306
0.18
157
0.43
352
Anonymous3two views0.46
165
0.34
274
0.86
317
0.50
285
0.37
282
0.81
271
0.50
262
0.72
132
0.65
110
0.51
56
0.65
70
0.45
61
0.45
135
0.64
156
0.38
147
0.24
267
0.24
306
0.22
230
0.21
248
0.23
247
0.23
257
delettwo views0.55
241
0.24
180
0.55
220
0.44
202
0.33
262
1.07
321
0.50
262
1.00
228
0.86
198
0.85
221
0.96
194
0.90
254
0.63
218
0.83
247
0.74
274
0.18
171
0.18
254
0.20
179
0.21
248
0.16
108
0.15
106
psmorigintwo views0.82
316
0.51
331
2.09
385
0.49
271
0.41
307
0.85
285
0.50
262
1.04
245
0.88
211
1.45
352
1.43
325
1.50
352
1.06
338
1.22
332
0.97
325
0.31
315
0.32
347
0.27
295
0.27
311
0.33
308
0.42
347
GwcNetcopylefttwo views0.69
288
0.36
283
1.10
336
0.51
297
0.42
313
1.08
325
0.50
262
1.21
301
1.16
319
1.00
294
1.37
313
1.06
291
0.79
289
0.92
282
0.94
319
0.25
277
0.24
306
0.24
258
0.22
263
0.23
247
0.26
273
RTSCtwo views0.87
325
0.48
321
1.23
353
0.52
308
0.37
282
1.13
331
0.50
262
1.34
339
1.79
373
1.51
354
1.24
293
1.12
306
0.81
293
1.62
364
2.16
377
0.25
277
0.19
268
0.23
244
0.24
287
0.30
293
0.31
306
DLCB_ROBtwo views0.58
263
0.28
240
0.47
156
0.49
271
0.32
253
0.77
256
0.50
262
0.99
225
0.92
233
1.04
310
1.14
268
1.21
314
0.69
252
0.88
265
0.69
261
0.20
221
0.20
276
0.22
230
0.22
263
0.21
222
0.18
176
AF-Nettwo views0.81
315
0.39
299
0.68
274
0.64
347
0.54
349
0.91
291
0.51
276
1.61
374
1.31
343
0.96
277
2.02
363
1.46
346
1.26
358
1.11
320
0.99
329
0.32
327
0.24
306
0.39
344
0.27
311
0.30
293
0.25
269
ADCReftwo views0.80
312
0.43
310
1.32
361
0.50
285
0.45
329
1.07
321
0.51
276
1.07
254
0.98
258
1.17
332
1.42
322
0.87
241
0.91
315
0.85
259
3.19
388
0.18
171
0.16
229
0.23
244
0.23
274
0.22
238
0.21
237
DISCOtwo views0.70
290
0.26
212
0.68
274
0.44
202
0.31
241
1.14
332
0.51
276
1.23
313
1.23
330
0.81
192
1.05
239
1.50
352
0.85
304
1.82
375
1.03
333
0.19
200
0.15
202
0.18
119
0.16
123
0.24
257
0.23
257
Anonymous_2two views0.82
316
0.44
314
0.63
252
0.40
108
0.43
318
0.80
266
0.52
279
0.72
132
0.77
157
0.71
141
0.60
60
0.87
241
0.76
278
0.75
217
0.58
236
0.52
369
0.54
382
0.54
369
4.82
418
0.56
366
0.40
342
CRFU-Nettwo views0.57
257
0.27
226
0.57
229
0.46
242
0.30
224
1.20
341
0.52
279
1.10
263
0.56
81
1.00
294
0.98
209
1.06
291
0.79
289
0.81
238
0.71
268
0.21
235
0.19
268
0.18
119
0.16
123
0.18
157
0.19
204
DSFCAtwo views0.55
241
0.25
198
0.62
244
0.40
108
0.36
277
0.74
250
0.52
279
1.04
245
0.82
178
1.06
315
0.84
144
0.89
250
0.63
218
0.99
297
0.58
236
0.25
277
0.21
283
0.21
218
0.21
248
0.21
222
0.19
204
Syn2CoExtwo views0.71
294
0.51
331
0.95
323
0.64
347
0.45
329
0.91
291
0.53
282
1.48
360
1.13
315
0.93
266
1.35
309
1.02
282
0.99
332
0.92
282
0.80
283
0.30
312
0.27
324
0.28
302
0.24
287
0.23
247
0.24
263
MaskLacGwcNet_RVCtwo views0.67
283
0.81
367
0.73
290
0.53
313
0.37
282
1.40
353
0.53
282
1.04
245
0.79
170
0.88
241
0.94
183
0.95
263
0.53
166
0.93
287
0.58
236
0.39
352
0.30
334
0.57
371
0.31
329
0.53
362
0.30
300
edge stereotwo views0.76
304
0.38
295
0.74
294
0.52
308
0.43
318
0.80
266
0.53
282
1.28
328
1.06
298
1.28
344
1.38
318
1.81
365
1.11
343
1.08
315
0.85
294
0.33
333
0.32
347
0.41
348
0.28
316
0.32
303
0.36
325
StereoDRNettwo views0.64
278
0.33
269
0.68
274
0.51
297
0.43
318
1.03
315
0.53
282
1.47
359
0.99
263
1.10
325
0.87
159
1.07
296
0.71
266
0.82
240
0.88
302
0.23
258
0.19
268
0.25
269
0.23
274
0.27
279
0.19
204
iRaft-Stereo_5wtwo views0.45
159
0.21
101
0.48
172
0.42
169
0.28
191
0.31
53
0.54
286
0.63
61
0.62
88
0.62
83
0.89
170
1.01
277
0.69
252
0.75
217
0.66
254
0.13
12
0.12
98
0.17
85
0.15
94
0.14
45
0.15
106
IRAFT_RVCtwo views0.42
137
0.20
70
0.48
172
0.44
202
0.24
86
0.27
25
0.54
286
0.74
141
0.77
157
0.76
172
0.80
124
0.73
196
0.51
161
0.70
192
0.36
127
0.17
143
0.10
9
0.21
218
0.16
123
0.16
108
0.14
87
GEStereo_RVCtwo views0.55
241
0.29
248
0.63
252
0.49
271
0.31
241
0.70
240
0.54
286
1.22
309
0.92
233
0.82
201
0.85
152
0.85
234
0.63
218
0.90
272
0.65
252
0.24
267
0.16
229
0.19
155
0.16
123
0.21
222
0.22
250
NOSS_ROBtwo views0.57
257
0.39
299
0.39
70
0.44
202
0.30
224
0.73
249
0.54
286
1.03
242
1.08
307
0.67
118
0.87
159
0.76
208
0.57
185
0.77
227
0.47
202
0.38
350
0.38
362
0.44
353
0.42
360
0.37
325
0.34
318
ARAFTtwo views0.47
175
0.24
180
0.79
307
0.42
169
0.25
112
0.55
164
0.55
290
0.75
147
0.81
177
0.89
245
0.75
99
0.73
196
0.47
141
0.88
265
0.37
139
0.15
79
0.12
98
0.23
244
0.22
263
0.14
45
0.13
58
RPtwo views0.76
304
0.36
283
0.63
252
0.66
355
0.58
360
0.80
266
0.55
290
1.14
279
1.22
329
0.97
282
1.65
343
1.43
345
1.32
360
1.01
300
0.84
290
0.33
333
0.30
334
0.36
335
0.30
322
0.34
315
0.34
318
Nwc_Nettwo views0.78
308
0.38
295
0.73
290
0.60
340
0.55
351
1.05
320
0.55
290
1.67
378
1.05
291
0.88
241
1.86
358
1.40
343
1.09
341
1.10
318
0.87
299
0.30
312
0.25
314
0.36
335
0.38
347
0.29
284
0.29
293
ADCP+two views1.06
349
0.35
278
1.51
374
0.49
271
0.51
343
1.45
359
0.55
290
1.25
323
1.03
282
1.16
331
1.15
273
1.10
302
1.07
340
1.56
360
6.75
407
0.19
200
0.16
229
0.23
244
0.21
248
0.28
281
0.21
237
SGM-Foresttwo views0.62
276
0.32
261
0.39
70
0.43
187
0.30
224
1.02
312
0.55
290
1.09
262
1.05
291
1.06
315
1.18
282
1.10
302
0.67
242
0.88
265
0.62
246
0.31
315
0.33
353
0.33
328
0.30
322
0.30
293
0.28
287
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
iinet-ftwo views0.67
283
0.26
212
2.15
387
0.39
85
0.31
241
1.19
340
0.56
295
0.84
174
0.84
186
0.80
184
1.17
280
1.05
290
0.84
303
0.71
197
1.21
349
0.20
221
0.18
254
0.17
85
0.15
94
0.20
204
0.20
224
Wz-Net-LNSev-Reftwo views0.63
277
0.28
240
0.99
328
0.40
108
0.30
224
1.03
315
0.56
295
1.10
263
0.99
263
0.97
282
1.22
288
1.06
291
0.69
252
1.07
313
0.95
322
0.19
200
0.11
57
0.16
60
0.13
50
0.22
238
0.21
237
psm_uptwo views0.55
241
0.26
212
0.47
156
0.49
271
0.32
253
0.65
227
0.56
295
1.04
245
0.82
178
0.82
201
0.88
166
1.01
277
0.94
324
0.74
213
0.61
244
0.21
235
0.25
314
0.26
283
0.23
274
0.21
222
0.20
224
UDGtwo views0.88
327
0.82
370
0.67
271
1.00
379
0.96
378
1.02
312
0.57
298
1.13
273
0.99
263
0.90
252
0.97
208
1.31
325
0.99
332
0.85
259
0.84
290
0.54
373
0.32
347
1.77
390
0.40
354
0.94
380
0.66
377
RGCtwo views0.79
311
0.59
348
0.71
287
0.65
352
0.65
365
0.92
295
0.58
299
1.29
329
1.05
291
1.07
318
1.45
330
1.47
349
1.03
336
1.21
331
0.88
302
0.32
327
0.30
334
0.48
361
0.40
354
0.37
325
0.37
331
PS-NSSStwo views0.58
263
0.44
314
0.62
244
0.42
169
0.33
262
0.66
230
0.58
299
1.02
238
0.86
198
0.77
177
1.28
299
0.72
187
0.64
228
0.82
240
0.59
240
0.31
315
0.26
320
0.40
347
0.27
311
0.33
308
0.26
273
ssnet_v2two views0.58
263
0.28
240
0.56
226
0.43
187
0.29
214
0.95
299
0.59
301
1.13
273
0.99
263
0.93
266
0.80
124
0.99
271
0.64
228
0.82
240
0.94
319
0.25
277
0.22
289
0.23
244
0.24
287
0.20
204
0.19
204
FAT-Stereotwo views0.73
300
0.33
269
0.75
297
0.49
271
0.37
282
0.71
245
0.59
301
1.36
345
1.30
342
1.03
309
1.40
319
1.59
361
1.15
346
0.87
262
0.86
295
0.28
300
0.28
326
0.28
302
0.23
274
0.28
281
0.38
337
LRCNet_RVCtwo views21.24
422
31.15
428
21.41
418
28.98
426
23.82
424
3.13
400
0.60
303
20.96
426
1.59
365
25.58
426
28.15
428
21.99
426
14.79
415
21.94
427
16.41
416
28.89
435
14.87
426
33.53
431
31.28
431
29.51
433
26.16
431
RAFT + AFFtwo views0.53
230
0.29
248
0.75
297
0.51
297
0.32
253
0.63
216
0.60
303
1.00
228
0.91
228
0.78
180
0.87
159
0.83
228
0.58
192
0.80
235
0.47
202
0.17
143
0.20
276
0.23
244
0.22
263
0.18
157
0.18
176
MFN_U_SF_RVCtwo views1.09
353
0.59
348
1.97
384
0.67
358
0.44
325
1.93
378
0.60
303
1.85
381
1.36
345
1.61
360
1.54
338
1.95
371
1.37
362
1.64
367
1.73
365
0.40
356
0.37
360
0.45
354
0.48
367
0.44
343
0.44
353
S-Stereotwo views0.74
301
0.35
278
0.96
325
0.56
325
0.45
329
0.82
279
0.60
303
1.24
320
1.60
368
0.96
277
1.41
321
1.12
306
0.94
324
0.80
235
1.04
336
0.26
287
0.31
344
0.28
302
0.25
296
0.32
303
0.47
362
MeshStereopermissivetwo views1.34
367
0.43
310
0.54
215
0.44
202
0.34
269
1.66
370
0.60
303
1.94
382
1.37
347
4.47
409
3.25
387
4.71
400
1.94
385
1.92
378
1.17
346
0.35
343
0.35
357
0.37
339
0.31
329
0.32
303
0.32
310
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
CVANet_RVCtwo views0.57
257
0.33
269
0.44
119
0.47
251
0.32
253
0.67
234
0.61
308
1.05
250
0.93
238
0.85
221
1.04
235
1.01
277
0.73
271
0.83
247
0.52
223
0.29
306
0.19
268
0.27
295
0.25
296
0.31
298
0.21
237
DRN-Testtwo views0.66
282
0.32
261
0.66
267
0.50
285
0.39
295
1.15
334
0.61
308
1.49
362
1.01
274
1.12
327
1.08
251
1.06
291
0.69
252
0.77
227
0.94
319
0.23
258
0.17
243
0.26
283
0.25
296
0.25
265
0.21
237
FCDSN-DCtwo views1.39
372
0.56
344
0.65
262
0.74
369
0.59
361
1.38
352
0.63
310
1.35
342
1.39
350
3.26
403
4.50
406
4.61
398
2.63
396
1.58
362
1.03
333
0.46
360
0.42
371
0.48
361
0.47
365
0.50
356
0.50
368
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
STTRV1_RVCtwo views0.82
316
0.59
348
1.16
342
0.67
358
0.81
371
1.11
327
0.63
310
1.30
332
1.11
311
0.98
286
1.33
307
1.08
298
0.95
327
1.26
336
0.87
299
0.55
374
0.25
314
0.43
350
0.39
351
0.58
371
0.40
342
PDISCO_ROBtwo views0.91
333
0.48
321
1.06
333
0.99
377
0.97
379
1.67
372
0.63
310
1.64
376
1.59
365
1.06
315
1.18
282
1.31
325
0.79
289
1.55
358
0.97
325
0.49
365
0.22
289
0.45
354
0.40
354
0.45
347
0.37
331
G-Nettwo views0.95
337
0.46
320
1.04
331
0.64
347
0.48
337
2.12
381
0.64
313
1.01
235
0.87
207
1.75
368
2.82
385
1.30
324
1.64
376
1.06
310
0.96
324
0.36
346
0.29
331
0.35
332
0.25
296
0.45
347
0.42
347
CBFPSMtwo views0.59
270
0.22
128
1.31
359
0.38
66
0.27
172
1.12
330
0.65
314
0.79
162
0.82
178
0.80
184
0.81
131
1.35
338
0.87
309
0.67
178
0.76
276
0.16
110
0.15
202
0.15
42
0.16
123
0.17
139
0.22
250
ccnettwo views0.82
316
0.57
346
0.75
297
0.54
319
0.59
361
1.09
326
0.66
315
1.38
348
0.94
245
1.12
327
1.44
327
1.29
322
0.92
318
0.95
296
1.24
351
0.49
365
0.42
371
0.50
366
0.47
365
0.51
357
0.46
358
aanetorigintwo views0.83
322
0.56
344
1.87
382
0.49
271
0.38
290
0.56
179
0.66
315
0.70
123
1.00
270
2.42
388
2.02
363
1.31
325
1.18
350
0.93
287
1.13
345
0.20
221
0.18
254
0.20
179
0.19
209
0.27
279
0.30
300
THIR-Stereotwo views0.50
211
0.18
34
0.45
130
0.38
66
0.23
69
0.75
253
0.67
317
0.66
81
0.87
207
1.02
301
1.40
319
0.72
187
0.76
278
0.62
139
0.42
165
0.15
79
0.11
57
0.17
85
0.18
185
0.14
45
0.15
106
GrayStereotwo views0.49
198
0.19
49
0.42
100
0.46
242
0.28
191
0.53
155
0.67
317
0.69
109
0.63
98
1.02
301
1.47
333
0.78
215
0.76
278
0.56
79
0.33
86
0.14
32
0.12
98
0.17
85
0.17
163
0.15
77
0.29
293
RYNettwo views0.72
298
0.35
278
0.64
257
0.53
313
0.67
366
1.31
349
0.67
317
1.20
299
1.18
322
1.05
312
0.87
159
1.27
319
0.93
323
0.93
287
1.27
355
0.22
253
0.16
229
0.26
283
0.23
274
0.40
332
0.39
339
MSMD_ROBtwo views1.21
362
0.49
324
0.62
244
0.59
335
0.50
340
1.62
369
0.67
317
1.23
313
1.24
332
2.45
389
3.77
395
3.09
389
2.98
401
1.32
344
0.81
286
0.45
359
0.41
369
0.49
364
0.51
374
0.47
352
0.44
353
WCMA_ROBtwo views1.14
355
0.36
283
0.76
302
0.49
271
0.44
325
1.23
344
0.67
317
1.11
268
1.23
330
2.84
396
3.95
401
3.28
392
1.83
382
1.25
335
0.99
329
0.44
358
0.34
355
0.34
330
0.37
344
0.41
338
0.40
342
APVNettwo views0.71
294
0.37
286
0.89
320
0.56
325
0.45
329
1.18
339
0.68
322
1.41
353
0.85
193
0.81
192
1.15
273
1.04
286
0.81
293
1.10
318
1.17
346
0.26
287
0.28
326
0.32
323
0.31
329
0.29
284
0.30
300
EDNetEfficientorigintwo views9.93
414
1.15
385
175.16
437
0.48
256
0.36
277
1.04
319
0.68
322
1.24
320
2.69
390
3.17
402
2.50
374
2.30
376
2.07
389
1.76
372
2.21
378
0.20
221
0.18
254
0.24
258
0.19
209
0.51
357
0.50
368
XQCtwo views0.89
329
0.65
357
1.31
359
0.67
358
0.52
346
1.22
342
0.68
322
1.26
324
1.52
360
1.14
330
1.11
258
1.28
321
1.04
337
1.40
355
1.77
368
0.38
350
0.24
306
0.37
339
0.31
329
0.53
362
0.47
362
PA-Nettwo views0.67
283
0.43
310
0.83
310
0.50
285
0.53
347
0.94
296
0.68
322
1.10
263
1.14
317
0.80
184
0.88
166
0.87
241
0.77
282
1.02
305
0.88
302
0.24
267
0.41
369
0.29
310
0.44
361
0.26
269
0.34
318
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
Wz-Net-LNSevtwo views0.71
294
0.51
331
1.36
367
0.50
285
0.41
307
1.15
334
0.69
326
1.21
301
1.07
304
1.02
301
1.12
260
1.08
298
0.87
309
0.89
270
0.89
313
0.24
267
0.22
289
0.21
218
0.19
209
0.26
269
0.26
273
DDUNettwo views1.06
349
2.56
413
0.68
274
1.21
385
1.26
389
1.03
315
0.69
326
1.11
268
0.94
245
0.96
277
1.22
288
1.27
319
0.82
297
0.93
287
0.72
270
0.84
384
0.38
362
1.99
393
0.60
379
1.10
386
0.85
384
NCC-stereotwo views0.78
308
0.40
303
0.76
302
0.61
342
0.67
366
0.81
271
0.69
326
1.54
370
1.11
311
0.90
252
1.36
310
1.33
332
1.16
347
1.19
327
0.88
302
0.31
315
0.30
334
0.37
339
0.48
367
0.33
308
0.33
314
Abc-Nettwo views0.78
308
0.40
303
0.76
302
0.61
342
0.67
366
0.81
271
0.69
326
1.54
370
1.11
311
0.90
252
1.36
310
1.33
332
1.16
347
1.19
327
0.88
302
0.31
315
0.30
334
0.37
339
0.48
367
0.33
308
0.33
314
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
pmcnntwo views1.23
363
0.29
248
0.96
325
0.40
108
0.23
69
0.95
299
0.69
326
1.16
285
1.28
340
1.67
366
2.33
368
11.15
417
0.86
306
0.93
287
0.88
302
0.15
79
0.12
98
0.12
2
0.10
10
0.15
77
0.15
106
otakutwo views1.04
346
0.93
375
0.88
319
1.33
389
1.05
386
1.66
370
0.70
331
1.40
352
1.18
322
1.08
321
1.32
306
1.33
332
0.91
315
1.23
333
0.76
276
0.72
380
0.46
379
1.24
385
0.50
372
1.40
388
0.75
378
DGSMNettwo views0.76
304
0.55
343
1.29
358
0.58
332
0.62
363
0.94
296
0.70
331
1.26
324
1.11
311
0.83
213
1.24
293
1.00
274
0.71
266
1.03
307
0.81
286
0.34
339
0.29
331
0.41
348
0.40
354
0.57
368
0.55
373
CC-Net-ROBtwo views0.82
316
0.96
378
0.85
312
0.58
332
0.45
329
1.27
347
0.70
331
1.17
290
1.02
277
0.83
213
1.23
292
0.90
254
0.77
282
1.06
310
0.69
261
0.46
360
0.34
355
1.71
389
0.38
347
0.59
372
0.36
325
FC-DCNNcopylefttwo views1.59
378
0.51
331
0.66
267
0.61
342
0.49
339
1.56
365
0.70
331
1.66
377
1.53
361
4.64
410
4.62
407
5.85
407
3.34
404
1.84
376
1.11
341
0.46
360
0.42
371
0.47
358
0.46
362
0.48
353
0.46
358
MDST_ROBtwo views0.91
333
0.27
226
0.85
312
0.63
346
0.41
307
2.53
385
0.71
335
1.60
373
1.13
315
2.83
395
1.73
349
0.97
267
0.69
252
1.61
363
0.73
271
0.25
277
0.22
289
0.32
323
0.28
316
0.25
265
0.24
263
DeepPrunerFtwo views0.89
329
0.52
337
3.43
395
0.68
362
0.81
371
0.72
248
0.72
336
1.22
309
1.99
378
0.93
266
1.01
219
0.87
241
0.86
306
1.08
315
0.95
322
0.34
339
0.28
326
0.43
350
0.39
351
0.30
293
0.32
310
TDLMtwo views0.57
257
0.33
269
0.49
182
0.51
297
0.30
224
0.66
230
0.73
337
1.03
242
1.01
274
0.82
201
1.10
257
0.84
232
0.70
262
0.86
261
0.58
236
0.28
300
0.17
243
0.25
269
0.22
263
0.26
269
0.19
204
SGM_RVCbinarytwo views0.97
338
0.28
240
0.41
81
0.39
85
0.22
42
1.55
364
0.73
337
1.51
366
1.25
336
2.25
385
1.92
359
2.58
382
1.56
371
2.02
382
1.19
348
0.27
294
0.27
324
0.27
295
0.25
296
0.25
265
0.25
269
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
ADCMidtwo views1.14
355
0.52
337
2.23
388
0.53
313
0.43
318
1.07
321
0.75
339
1.23
313
1.05
291
2.15
382
1.44
327
1.50
352
1.43
366
1.56
360
5.01
401
0.26
287
0.24
306
0.29
310
0.31
329
0.37
325
0.33
314
ADCPNettwo views1.03
345
0.48
321
2.70
390
0.54
319
0.42
313
1.40
353
0.75
339
1.13
273
1.07
304
1.22
339
1.42
322
1.68
363
1.09
341
1.36
352
3.45
392
0.30
312
0.28
326
0.29
310
0.32
335
0.37
325
0.35
323
ACVNet-4btwo views1.35
369
1.31
389
1.10
336
1.90
397
1.59
392
1.92
377
0.77
341
1.52
369
1.62
369
1.05
312
1.60
342
2.11
373
0.94
324
1.64
367
0.77
280
1.30
395
0.35
357
2.03
397
0.67
382
1.88
397
0.84
383
CBMVpermissivetwo views0.64
278
0.35
278
0.41
81
0.42
169
0.25
112
1.01
310
0.77
341
1.13
273
1.09
309
1.17
332
1.22
288
1.04
286
0.75
275
0.88
265
0.63
249
0.28
300
0.30
334
0.34
330
0.30
322
0.26
269
0.26
273
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
FBW_ROBtwo views0.88
327
0.50
328
0.85
312
0.55
322
0.40
300
1.17
337
0.78
343
1.50
363
1.37
347
1.33
348
1.27
297
1.48
350
1.00
334
2.57
394
0.98
328
0.25
277
0.32
347
0.45
354
0.30
322
0.34
315
0.28
287
FTStereotwo views0.56
252
0.20
70
0.37
44
0.41
132
0.25
112
0.40
102
0.79
344
0.66
81
0.43
48
1.09
323
3.27
389
0.70
173
0.73
271
0.55
71
0.33
86
0.14
32
0.13
152
0.19
155
0.17
163
0.15
77
0.30
300
Ntrotwo views1.09
353
0.97
381
0.91
321
1.44
390
1.19
388
1.69
373
0.80
345
1.35
342
1.25
336
1.00
294
1.29
302
1.31
325
0.97
330
1.26
336
0.84
290
0.84
384
0.43
374
1.36
386
0.50
372
1.56
389
0.78
380
anonymitytwo views0.97
338
0.89
373
1.05
332
0.92
375
1.03
384
0.97
303
0.81
346
1.29
329
0.91
228
1.07
318
0.98
209
1.00
274
0.95
327
1.02
305
0.92
318
0.96
387
0.95
405
0.90
380
0.91
393
0.92
379
0.94
387
Wz-Net-MNSevtwo views0.76
304
0.40
303
1.34
362
0.50
285
0.40
300
1.44
358
0.83
347
1.15
282
1.16
319
1.25
343
1.20
287
1.13
309
0.81
293
1.16
324
1.00
332
0.22
253
0.19
268
0.24
258
0.23
274
0.28
281
0.26
273
EDNetEfficienttwo views1.46
374
0.80
366
6.12
404
0.47
251
0.39
295
0.69
238
0.83
347
0.90
197
2.77
391
3.50
405
1.96
361
1.66
362
2.03
388
1.26
336
4.18
397
0.21
235
0.18
254
0.21
218
0.20
231
0.41
338
0.39
339
PSMNet_ROBtwo views0.64
278
0.37
286
0.65
262
0.56
325
0.42
313
0.97
303
0.83
347
1.21
301
0.92
233
0.79
182
1.02
227
1.08
298
0.63
218
0.82
240
0.91
317
0.29
306
0.20
276
0.31
318
0.31
329
0.26
269
0.23
257
Consistency-Rafttwo views1.01
341
0.81
367
1.24
354
0.84
372
0.97
379
0.81
271
0.84
350
1.30
332
1.59
365
1.05
312
1.68
348
1.12
306
0.91
315
0.92
282
1.11
341
0.65
377
0.74
390
0.79
378
0.90
390
1.06
385
0.79
382
PVDtwo views1.28
366
0.67
359
1.28
356
0.74
369
0.62
363
1.50
361
0.84
350
1.99
384
2.96
392
2.18
383
2.36
371
1.85
368
1.95
386
1.92
378
1.94
372
0.39
352
0.36
359
0.49
364
0.37
344
0.51
357
0.64
375
PASMtwo views0.90
332
0.64
356
1.69
376
0.69
364
0.69
369
0.78
260
0.84
350
1.03
242
1.26
339
1.19
334
1.15
273
1.31
325
0.98
331
1.24
334
1.03
333
0.52
369
0.56
383
0.59
374
0.66
381
0.56
366
0.54
372
XPNet_ROBtwo views0.70
290
0.35
278
0.68
274
0.52
308
0.40
300
0.79
263
0.85
353
1.16
285
0.94
245
1.33
348
1.15
273
1.38
340
0.83
301
1.03
307
0.90
315
0.32
327
0.25
314
0.26
283
0.24
287
0.31
298
0.28
287
ETE_ROBtwo views0.70
290
0.49
324
0.73
290
0.56
325
0.36
277
0.79
263
0.87
354
1.14
279
0.93
238
1.19
334
1.18
282
1.39
341
0.82
297
0.99
297
0.80
283
0.26
287
0.21
283
0.31
318
0.26
306
0.33
308
0.34
318
FINETtwo views0.67
283
0.42
308
1.00
329
0.46
242
0.43
318
0.83
281
0.89
355
1.08
258
1.50
359
0.87
233
1.14
268
0.71
177
0.68
248
0.92
282
0.70
264
0.36
346
0.30
334
0.26
283
0.24
287
0.35
319
0.33
314
ADCLtwo views1.04
346
0.38
295
1.35
363
0.50
285
0.39
295
1.61
368
0.89
355
1.29
329
1.39
350
1.29
345
1.50
334
1.24
317
1.24
355
1.37
353
4.87
400
0.21
235
0.19
268
0.25
269
0.25
296
0.29
284
0.27
280
LE_ROBtwo views4.42
407
0.24
180
2.75
391
0.42
169
0.23
69
1.57
366
0.90
357
1.71
380
17.88
423
16.56
425
4.88
408
5.17
405
18.85
424
1.63
366
14.62
415
0.17
143
0.14
178
0.16
60
0.16
123
0.19
191
0.17
162
SPS-STEREOcopylefttwo views1.25
365
0.93
375
1.06
333
1.04
381
1.03
384
1.41
355
0.91
358
1.51
366
1.19
324
2.09
380
1.83
355
1.94
370
1.39
363
1.62
364
1.39
359
0.97
388
0.94
404
0.90
380
0.89
389
0.96
382
0.96
390
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
SANettwo views1.07
351
0.41
306
1.06
333
0.48
256
0.30
224
1.41
355
0.94
359
1.42
354
3.36
398
1.58
357
2.43
372
2.33
378
1.70
377
1.34
347
1.07
338
0.28
300
0.24
306
0.26
283
0.23
274
0.34
315
0.30
300
LALA_ROBtwo views0.74
301
0.43
310
0.69
280
0.54
319
0.40
300
1.01
310
0.95
360
1.21
301
1.07
304
1.22
339
1.12
260
1.56
358
0.79
289
1.04
309
0.86
295
0.33
333
0.22
289
0.35
332
0.30
322
0.35
319
0.31
306
GANettwo views0.70
290
0.37
286
0.55
220
0.51
297
0.34
269
0.94
296
0.96
361
1.08
258
0.94
245
1.04
310
1.98
362
1.13
309
0.88
312
1.12
321
0.66
254
0.25
277
0.26
320
0.27
295
0.22
263
0.31
298
0.22
250
ACVNet_1two views1.46
374
1.33
390
1.12
339
1.91
398
1.62
393
1.83
376
0.98
362
2.00
385
1.85
375
1.39
351
1.53
337
2.32
377
1.53
368
1.34
347
1.11
341
1.30
395
0.50
381
2.06
399
0.58
378
1.93
399
0.95
389
GANetREF_RVCpermissivetwo views0.80
312
0.75
363
0.86
317
0.66
355
0.42
313
1.15
334
0.98
362
1.14
279
1.19
324
1.01
299
1.02
227
1.10
302
0.90
314
1.15
323
0.76
276
0.48
363
0.39
366
0.57
371
0.38
347
0.63
374
0.46
358
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
MANEtwo views4.13
406
0.51
331
0.64
257
0.66
355
0.56
354
6.89
411
0.99
364
7.55
414
12.04
412
6.68
414
8.57
415
10.69
416
9.45
413
7.59
414
6.39
405
0.49
365
0.43
374
0.48
361
0.98
394
0.49
354
0.48
364
NVStereoNet_ROBtwo views1.24
364
0.90
374
1.13
340
0.86
373
0.88
373
1.11
327
0.99
364
1.42
354
1.53
361
1.59
359
2.48
373
2.24
375
1.53
368
1.96
381
1.30
356
0.76
382
0.70
387
0.78
377
1.00
395
0.71
376
0.88
385
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
LSMtwo views4.74
409
0.77
364
10.16
409
0.70
365
56.56
433
1.02
312
1.00
366
1.24
320
1.62
369
2.04
378
2.34
369
1.33
332
1.17
349
1.38
354
1.09
340
0.33
333
0.49
380
0.39
344
0.46
362
0.51
357
10.09
420
SGM+DAISYtwo views1.35
369
0.94
377
1.25
355
0.96
376
1.00
383
1.52
363
1.02
367
1.34
339
1.21
327
2.64
391
2.65
380
2.44
379
1.56
371
1.64
367
1.26
353
0.97
388
0.95
405
0.90
380
0.90
390
0.94
380
0.96
390
NaN_ROBtwo views0.69
288
0.44
314
0.69
280
0.51
297
0.33
262
0.97
303
1.06
368
1.22
309
1.19
324
1.24
342
0.96
194
1.08
298
0.78
287
1.20
329
0.67
257
0.24
267
0.30
334
0.23
244
0.24
287
0.23
247
0.25
269
CSANtwo views0.83
322
0.49
324
0.77
306
0.60
340
0.41
307
1.14
332
1.06
368
1.19
295
1.46
357
1.32
346
1.43
325
1.37
339
1.19
352
1.27
339
0.86
295
0.39
352
0.31
344
0.36
335
0.37
344
0.35
319
0.34
318
RainbowNettwo views1.35
369
1.49
393
1.19
349
1.88
396
1.45
390
1.48
360
1.07
370
1.61
374
1.55
363
1.20
337
1.59
341
1.54
356
1.13
344
1.34
347
0.97
325
1.36
398
0.70
387
1.82
391
0.79
387
1.71
391
1.07
395
ADCStwo views1.51
376
0.61
352
3.42
394
0.59
335
0.51
343
1.27
347
1.08
371
1.59
372
1.81
374
1.91
376
1.66
345
1.51
355
1.42
365
1.94
380
8.60
409
0.33
333
0.32
347
0.33
328
0.36
343
0.44
343
0.42
347
Wz-Net-TNSevtwo views1.14
355
1.06
384
4.32
401
0.49
271
0.42
313
1.51
362
1.11
372
1.48
360
1.40
352
1.22
339
1.26
296
1.58
360
1.43
366
1.76
372
1.70
364
0.32
327
0.31
344
0.26
283
0.30
322
0.41
338
0.41
346
Wz-Net-SNSevtwo views0.91
333
0.73
361
2.13
386
0.56
325
0.45
329
0.95
299
1.13
373
1.34
339
1.24
332
1.02
301
1.30
303
1.46
346
0.86
306
1.81
374
1.50
361
0.25
277
0.23
299
0.25
269
0.26
306
0.32
303
0.29
293
CrosDoStereotwo views0.50
211
0.18
34
0.45
130
0.38
66
0.24
86
0.40
102
1.18
374
0.67
91
0.86
198
0.94
269
1.37
313
0.63
139
0.77
282
0.65
163
0.45
188
0.15
79
0.12
98
0.17
85
0.18
185
0.14
45
0.14
87
DeepStereo_LLtwo views0.50
211
0.18
34
0.45
130
0.38
66
0.24
86
0.40
102
1.18
374
0.67
91
0.86
198
0.94
269
1.37
313
0.63
139
0.77
282
0.65
163
0.45
188
0.15
79
0.12
98
0.17
85
0.18
185
0.14
45
0.14
87
ACVNet_2two views1.65
382
1.27
388
1.41
370
1.75
393
1.62
393
2.22
382
1.20
376
2.30
389
2.62
388
1.78
370
2.56
375
3.03
386
1.61
373
1.54
357
1.12
344
1.06
391
0.58
385
1.82
391
0.70
384
1.82
393
0.96
390
NCCL2two views0.72
298
0.41
306
0.65
262
0.64
347
0.44
325
0.98
307
1.20
376
1.11
268
1.00
270
0.98
286
0.96
194
1.49
351
0.87
309
0.90
272
0.79
281
0.31
315
0.26
320
0.39
344
0.39
351
0.32
303
0.32
310
coex-fttwo views6.43
412
1.51
395
87.33
436
0.49
271
0.38
290
1.34
350
1.21
378
1.16
285
8.09
409
12.12
417
2.79
382
2.77
385
3.31
403
1.16
324
3.15
387
0.24
267
0.23
299
0.27
295
0.24
287
0.45
347
0.37
331
WAO-8two views2.92
397
1.55
396
1.35
363
1.79
394
1.63
395
5.23
407
1.22
379
4.58
409
12.56
414
2.84
396
4.07
403
4.83
401
2.72
398
3.49
399
2.25
381
1.27
392
0.91
400
1.99
393
1.15
403
1.86
394
1.15
397
Venustwo views2.92
397
1.55
396
1.35
363
1.79
394
1.63
395
5.23
407
1.22
379
4.58
409
12.56
414
2.84
396
4.06
402
4.83
401
2.72
398
3.49
399
2.25
381
1.27
392
0.91
400
1.99
393
1.15
403
1.86
394
1.15
397
MFMNet_retwo views1.14
355
0.97
381
1.19
349
0.99
377
0.95
377
1.25
346
1.22
379
1.39
349
1.55
363
1.69
367
1.67
347
1.21
314
1.53
368
1.12
321
0.99
329
0.87
386
0.75
394
0.79
378
0.75
385
0.90
378
0.94
387
Anonymous Stereotwo views0.75
303
0.54
342
1.78
380
0.57
330
0.56
354
0.62
207
1.25
382
0.96
216
0.99
263
0.96
277
0.95
190
0.83
228
0.58
192
1.27
339
1.21
349
0.31
315
0.30
334
0.31
318
0.33
338
0.33
308
0.36
325
DPSNettwo views0.99
340
0.42
308
1.88
383
0.53
313
0.41
307
1.59
367
1.26
383
2.21
388
1.43
353
1.10
325
1.11
258
1.46
346
1.95
386
1.34
347
1.26
353
0.34
339
0.25
314
0.25
269
0.21
248
0.46
350
0.37
331
IMH-64-1two views1.86
383
1.62
398
1.16
342
2.20
401
1.89
401
2.33
383
1.30
384
2.89
393
2.29
383
1.66
364
2.80
383
2.49
380
1.61
373
2.10
384
1.78
369
1.60
399
0.74
390
2.43
403
1.02
396
2.12
400
1.17
399
IMH-64two views1.86
383
1.62
398
1.16
342
2.20
401
1.89
401
2.33
383
1.30
384
2.89
393
2.29
383
1.66
364
2.80
383
2.49
380
1.61
373
2.10
384
1.78
369
1.60
399
0.74
390
2.43
403
1.02
396
2.12
400
1.17
399
IMHtwo views2.04
390
1.62
398
1.20
352
2.20
401
1.89
401
2.91
398
1.30
384
3.11
396
3.03
394
1.81
371
3.35
393
3.03
386
1.90
383
2.48
391
1.80
371
1.66
402
0.77
396
2.45
405
1.04
399
2.15
402
1.19
402
WZ-Nettwo views1.19
361
0.59
348
4.07
399
0.62
345
0.51
343
1.34
350
1.31
387
1.32
335
1.74
372
1.53
356
1.65
343
1.74
364
1.28
359
2.25
388
2.01
374
0.27
294
0.21
283
0.23
244
0.25
296
0.40
332
0.39
339
AnyNet_C32two views1.16
359
0.62
355
2.40
389
0.57
330
0.55
351
1.41
355
1.34
388
1.18
293
1.24
332
1.49
353
1.42
322
1.39
341
1.20
354
1.55
358
4.82
399
0.29
306
0.28
326
0.29
310
0.34
340
0.38
329
0.42
347
Deantwo views1.98
387
1.36
391
1.36
367
2.12
400
1.81
400
2.74
388
1.36
389
3.37
402
3.80
402
2.08
379
3.32
391
3.21
391
1.82
380
1.71
371
1.67
363
1.27
392
0.77
396
1.99
393
0.90
390
1.86
394
1.03
394
AnyNet_C01two views1.56
377
1.05
383
7.45
407
0.64
347
0.54
349
1.99
379
1.38
390
1.43
356
1.36
345
1.63
363
1.92
359
1.84
366
1.33
361
2.40
390
4.03
394
0.33
333
0.32
347
0.32
323
0.34
340
0.44
343
0.45
357
RTStwo views1.98
387
0.96
378
11.36
411
0.65
352
0.57
358
2.77
391
1.40
391
1.39
349
2.26
381
1.89
373
2.56
375
1.32
330
1.25
356
5.20
407
4.05
395
0.31
315
0.22
289
0.29
310
0.29
320
0.40
332
0.37
331
RTSAtwo views1.98
387
0.96
378
11.36
411
0.65
352
0.57
358
2.77
391
1.40
391
1.39
349
2.26
381
1.89
373
2.56
375
1.32
330
1.25
356
5.20
407
4.05
395
0.31
315
0.22
289
0.29
310
0.29
320
0.40
332
0.37
331
MADNet+two views2.23
393
2.43
410
10.85
410
1.22
386
0.91
375
2.76
390
1.40
391
2.12
387
1.67
371
1.32
346
1.74
351
1.86
369
1.74
378
6.25
410
4.41
398
0.65
377
0.64
386
0.58
373
0.54
376
0.80
377
0.76
379
WAO-6two views2.04
390
1.50
394
1.16
342
1.70
392
1.67
397
2.69
387
1.44
394
3.06
395
3.63
401
1.98
377
3.27
389
3.54
396
2.07
389
2.36
389
2.22
380
1.31
397
0.91
400
2.04
398
1.22
405
1.73
392
1.27
403
SGM-ForestMtwo views4.04
405
0.32
261
0.46
146
0.43
187
0.27
172
7.50
412
1.45
395
3.84
405
4.24
404
8.19
416
6.76
412
19.00
423
9.08
412
10.74
417
6.62
406
0.31
315
0.33
353
0.32
323
0.32
335
0.29
284
0.29
293
ELAScopylefttwo views1.63
381
0.61
352
0.95
323
0.68
362
0.55
351
3.01
399
1.55
396
2.39
390
2.33
385
3.64
406
3.89
399
2.75
384
2.90
400
2.15
386
2.27
383
0.52
369
0.45
377
0.50
366
0.48
367
0.54
364
0.52
370
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
WAO-7two views1.90
385
1.20
386
1.35
363
1.27
387
1.06
387
2.84
393
1.56
397
3.23
398
3.06
396
2.23
384
3.33
392
3.17
390
2.28
391
3.12
395
2.21
378
1.02
390
0.91
400
1.06
384
1.03
398
1.04
384
0.97
393
MFN_U_SF_DS_RVCtwo views1.02
344
0.57
346
1.51
374
0.67
358
0.50
340
2.57
386
1.66
398
1.20
299
1.43
353
1.38
350
1.57
340
1.33
332
0.92
318
1.64
367
0.88
302
0.37
349
0.39
366
0.46
357
0.60
379
0.41
338
0.40
342
TorneroNet-64two views3.44
400
1.86
402
1.42
371
2.58
408
2.28
406
6.87
410
1.68
399
4.70
411
12.03
411
2.31
386
5.59
411
8.25
412
2.55
395
3.97
404
2.73
385
1.81
404
0.74
390
2.57
407
1.07
400
2.35
404
1.44
405
TorneroNettwo views4.53
408
1.89
403
1.48
373
2.55
406
2.27
405
13.78
418
1.69
400
4.84
413
23.73
428
2.89
399
7.70
414
7.06
411
2.69
397
4.26
406
3.42
391
1.84
405
0.77
396
2.68
409
1.13
401
2.42
405
1.47
406
notakertwo views2.76
395
2.29
409
1.80
381
2.96
411
2.58
412
2.90
397
1.75
401
3.24
399
3.05
395
2.78
394
4.24
404
6.15
410
2.51
394
3.34
397
2.75
386
2.31
410
1.18
408
3.00
413
1.65
409
2.84
411
1.97
408
SAMSARAtwo views1.07
351
0.65
357
1.19
349
1.06
382
0.90
374
1.76
375
1.76
402
1.46
358
1.44
355
1.51
354
1.16
278
2.00
372
1.14
345
1.48
356
1.31
357
0.39
352
0.44
376
0.35
332
0.38
347
0.49
354
0.49
367
LVEtwo views2.12
392
1.44
392
1.36
367
1.99
399
1.78
398
2.75
389
1.79
403
2.82
392
3.95
403
1.90
375
4.33
405
3.52
395
1.81
379
2.24
387
1.74
366
1.74
403
0.87
399
2.06
399
1.13
401
1.91
398
1.35
404
MSC_U_SF_DS_RVCtwo views1.34
367
0.87
372
1.76
379
0.86
373
0.56
354
4.29
405
1.79
403
1.50
363
1.98
377
1.61
360
1.85
357
1.84
366
1.41
364
1.89
377
1.36
358
0.48
363
0.40
368
0.56
370
0.57
377
0.69
375
0.48
364
ELAS_RVCcopylefttwo views1.60
379
0.61
352
1.01
330
0.70
365
0.56
354
2.00
380
1.89
405
1.96
383
2.65
389
3.33
404
3.26
388
3.03
386
3.41
405
2.49
392
2.09
376
0.52
369
0.45
377
0.50
366
0.48
367
0.54
364
0.52
370
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
KSHMRtwo views2.57
394
1.93
404
1.69
376
2.63
409
2.42
408
2.86
395
2.07
406
3.27
400
6.50
407
2.49
390
3.36
394
3.41
394
1.92
384
2.49
392
1.94
372
2.13
408
1.40
410
2.79
412
1.50
408
2.73
408
1.77
407
ktntwo views2.98
399
2.25
408
1.73
378
2.84
410
2.53
411
3.76
404
2.15
407
3.70
404
5.47
406
2.75
393
5.17
410
5.94
408
2.48
393
3.23
396
2.46
384
2.34
412
1.44
411
2.78
411
2.03
411
2.45
406
2.01
410
PWCKtwo views1.92
386
1.66
401
3.12
393
1.65
391
0.91
375
2.84
393
2.26
408
2.10
386
2.41
387
2.36
387
2.31
367
2.22
374
1.82
380
3.43
398
2.03
375
1.61
401
0.71
389
1.51
387
0.82
388
1.69
390
0.91
386
HanzoNettwo views6.76
413
2.45
411
4.22
400
3.19
413
2.94
414
3.62
402
2.28
409
4.79
412
7.20
408
14.00
421
13.19
419
17.49
421
22.30
425
13.25
419
6.19
404
4.20
416
1.93
413
3.10
414
2.56
413
3.35
414
2.88
415
UNDER WATERtwo views3.46
401
2.07
407
3.64
397
3.09
412
2.48
409
3.75
403
2.42
410
3.31
401
13.77
416
2.90
400
2.95
386
5.84
406
3.69
406
3.69
401
3.48
393
2.07
407
1.11
407
2.70
410
1.40
406
2.84
411
1.98
409
UNDER WATER-64two views3.53
402
2.01
405
3.94
398
3.22
414
2.49
410
5.41
409
2.60
411
3.43
403
12.41
413
3.03
401
2.68
381
6.07
409
4.04
407
3.79
403
3.33
389
2.02
406
1.24
409
2.63
408
1.46
407
2.78
409
2.08
411
MADNet++two views4.03
404
2.70
415
3.44
396
3.72
416
3.44
415
4.44
406
3.52
412
3.95
407
3.61
400
4.46
408
4.98
409
4.10
397
4.58
409
7.00
413
5.89
403
3.74
413
3.67
417
3.27
415
2.71
414
3.70
416
3.66
417
DPSimNet_ROBtwo views3.58
403
2.45
411
8.57
408
2.53
405
2.37
407
2.88
396
3.77
413
3.14
397
3.23
397
4.71
411
3.86
398
4.68
399
4.87
410
4.07
405
5.62
402
2.33
411
2.33
414
2.47
406
2.52
412
2.51
407
2.64
413
JetBluetwo views2.78
396
1.26
387
7.04
406
1.16
384
1.48
391
8.00
413
6.02
414
2.60
391
1.92
376
2.12
381
2.64
379
3.34
393
3.05
402
6.49
411
3.39
390
0.78
383
0.76
395
0.75
376
0.76
386
0.97
383
1.18
401
BEATNet-Init1two views15.13
418
0.82
370
50.86
435
0.72
368
0.53
347
38.10
429
7.03
415
11.83
420
14.25
417
29.78
434
30.17
433
48.21
437
22.64
426
26.78
428
18.11
417
0.42
357
0.38
362
0.47
358
0.46
362
0.51
357
0.48
364
JetRedtwo views5.27
410
5.84
417
12.81
414
2.36
404
2.83
413
12.23
417
10.50
416
4.46
408
3.60
399
3.86
407
3.83
397
4.85
403
4.18
408
6.78
412
11.96
412
2.17
409
2.96
416
2.18
401
1.97
410
3.38
415
2.68
414
tttwo views6.20
411
0.20
70
5.89
403
3.55
415
2.07
404
11.26
416
19.21
417
11.74
419
5.46
405
2.69
392
2.04
365
4.87
404
6.25
411
3.70
402
7.09
408
8.32
420
11.17
425
4.93
416
5.41
419
5.74
418
2.37
412
HaxPigtwo views31.96
424
37.24
430
34.27
425
24.37
425
24.88
425
18.26
420
19.86
418
20.64
425
28.52
429
35.97
435
38.75
434
25.57
427
28.72
428
33.88
429
34.39
428
35.94
436
38.87
436
37.80
432
40.48
432
39.68
434
41.15
436
MEDIAN_ROBtwo views37.38
434
40.85
438
40.60
428
32.31
427
31.85
426
27.20
424
24.55
419
29.10
430
33.19
436
42.09
437
41.76
436
33.35
428
34.39
436
39.78
431
37.07
429
43.64
438
44.10
438
44.12
434
43.40
434
41.51
436
42.76
438
AVERAGE_ROBtwo views37.58
435
40.13
437
40.15
427
34.81
428
33.82
427
28.55
428
25.10
420
32.02
431
34.06
438
41.28
436
40.66
435
34.46
429
34.81
437
39.18
430
37.57
430
42.78
437
43.44
437
43.82
433
43.03
433
40.47
435
41.51
437
ASD4two views9.96
415
8.86
420
17.78
415
7.17
418
9.80
417
16.08
419
28.92
421
9.77
418
8.20
410
7.02
415
7.08
413
8.47
413
9.57
414
11.17
418
20.26
418
4.12
415
4.14
419
5.57
419
4.74
417
5.53
417
4.90
419
DGTPSM_ROBtwo views12.07
416
8.00
418
20.99
416
8.93
420
16.78
419
10.67
414
30.87
422
9.01
416
15.16
418
6.50
412
15.41
423
9.04
414
14.85
416
9.25
415
21.67
420
4.57
417
8.57
420
5.08
417
9.28
420
5.90
419
10.95
421
DPSMNet_ROBtwo views12.08
417
8.00
418
21.00
417
8.97
421
16.79
420
10.67
414
30.89
423
9.02
417
15.17
419
6.51
413
15.41
423
9.04
414
14.85
416
9.27
416
21.67
420
4.58
418
8.57
420
5.09
418
9.29
421
5.90
419
10.95
421
Anonymous_1two views33.25
425
18.26
421
23.92
419
20.54
422
21.28
423
25.59
421
35.94
424
22.01
429
15.57
420
13.33
418
13.49
420
18.08
422
15.29
418
20.36
420
24.60
422
16.28
428
8.84
422
66.59
435
118.00
435
155.73
438
11.23
423
DPSM_ROBtwo views17.78
419
18.63
422
24.31
423
20.90
423
19.47
421
25.97
422
36.21
425
21.23
427
16.24
421
13.38
419
14.06
421
19.18
424
16.30
419
20.78
421
25.67
423
9.38
422
9.23
423
9.49
422
9.82
422
13.51
422
11.91
424
DPSMtwo views17.78
419
18.63
422
24.31
423
20.90
423
19.47
421
25.97
422
36.21
425
21.23
427
16.24
421
13.38
419
14.06
421
19.18
424
16.30
419
20.78
421
25.67
423
9.38
422
9.23
423
9.49
422
9.82
422
13.51
422
11.91
424
xxxxx1two views36.64
431
19.51
424
24.21
420
61.66
435
64.63
435
27.28
425
40.10
427
20.25
422
18.63
424
14.07
422
12.97
416
17.26
418
17.36
421
21.70
424
27.93
425
13.18
425
18.50
428
111.26
436
133.37
436
29.24
430
39.73
433
tt_lltwo views36.64
431
19.51
424
24.21
420
61.66
435
64.63
435
27.28
425
40.10
427
20.25
422
18.63
424
14.07
422
12.97
416
17.26
418
17.36
421
21.70
424
27.93
425
13.18
425
18.50
428
111.26
436
133.37
436
29.24
430
39.73
433
fftwo views36.64
431
19.51
424
24.21
420
61.66
435
64.63
435
27.28
425
40.10
427
20.25
422
18.63
424
14.07
422
12.97
416
17.26
418
17.36
421
21.70
424
27.93
425
13.18
425
18.50
428
111.26
436
133.37
436
29.24
430
39.73
433
LSM0two views38.95
436
37.60
436
48.58
429
43.57
434
91.06
438
52.57
436
72.57
430
43.17
437
32.63
435
26.97
429
27.97
427
38.65
434
32.94
433
41.86
437
51.78
437
18.89
434
18.41
427
19.13
427
19.63
425
27.29
429
33.77
432
Selective-RAFT-Errortwo views35.84
430
37.49
432
48.83
434
42.26
433
39.24
432
52.30
435
73.09
431
42.66
436
32.61
430
26.80
428
28.30
429
38.84
435
33.51
434
41.68
436
51.59
432
18.82
433
18.58
432
19.17
429
19.80
427
27.28
428
24.05
430
CasAABBNettwo views35.74
426
37.43
431
48.72
430
42.22
432
39.20
431
52.24
431
73.12
432
42.61
435
32.62
434
26.78
427
27.95
426
38.58
433
32.60
429
41.67
435
51.65
436
18.74
429
18.57
431
19.15
428
19.77
426
27.20
427
23.98
429
MyStereo03two views35.77
427
37.55
433
48.75
431
42.19
429
39.18
428
52.27
432
73.13
433
42.32
432
32.61
430
27.03
430
28.40
430
38.50
430
32.89
430
41.62
432
51.63
433
18.78
430
18.59
433
19.11
424
19.80
427
27.18
424
23.95
426
MyStereo02two views35.77
427
37.55
433
48.75
431
42.19
429
39.18
428
52.27
432
73.13
433
42.32
432
32.61
430
27.03
430
28.40
430
38.50
430
32.89
430
41.62
432
51.63
433
18.78
430
18.59
433
19.11
424
19.80
427
27.18
424
23.95
426
MyStereotwo views35.77
427
37.55
433
48.75
431
42.19
429
39.18
428
52.27
432
73.13
433
42.32
432
32.61
430
27.03
430
28.40
430
38.50
430
32.89
430
41.62
432
51.63
433
18.78
430
18.59
433
19.11
424
19.80
427
27.18
424
23.95
426
SPstereotwo views24.26
423
4.19
416
6.66
405
4.29
417
3.79
416
45.68
430
78.09
436
63.52
438
33.36
437
27.50
433
26.65
425
39.53
436
33.55
435
42.77
438
51.02
431
3.90
414
3.72
418
5.95
420
4.66
416
3.15
413
3.30
416
test_example2two views176.61
438
205.14
439
198.86
438
188.60
439
190.98
439
152.67
438
170.61
437
94.86
439
123.55
439
178.88
439
179.48
437
158.94
439
141.34
438
192.61
439
198.96
438
203.76
439
236.37
439
164.13
439
173.55
439
218.58
439
160.41
439
PMLtwo views40.80
437
29.24
427
11.87
413
7.20
419
14.47
418
92.13
437
213.69
438
7.63
415
23.35
427
74.72
438
190.14
438
50.17
438
26.15
427
21.39
423
12.70
413
8.76
421
2.92
415
8.45
421
3.25
415
13.26
421
4.42
418
FADEtwo views2.05
406
1.03
380
0.99
382
3.91
406
3.00
393
1.76
369
2.73
383
5.95
409
11.57
424
1.70
412
23.09
430
15.86
424
0.62
373
0.65
376