This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
XX-TBDtwo views0.46
24
0.70
337
0.35
1
0.79
321
0.25
18
0.58
74
0.26
9
0.69
4
1.27
245
0.76
52
1.00
86
0.45
14
0.33
10
0.47
3
0.37
38
0.19
92
0.15
125
0.15
3
0.11
6
0.17
24
0.14
11
CAStwo views0.63
115
0.18
1
0.37
2
2.27
389
0.84
346
0.57
73
0.54
188
0.79
12
0.62
23
0.48
17
0.70
30
0.36
2
0.26
1
0.45
2
0.35
27
2.24
390
0.10
1
0.14
1
0.09
1
0.15
5
1.06
380
CEStwo views0.48
31
0.20
2
0.37
2
0.39
4
1.39
381
0.55
65
0.35
46
0.98
61
0.66
40
0.44
8
0.66
22
0.35
1
0.27
2
0.56
10
0.33
16
0.15
6
0.13
42
0.15
3
0.10
2
0.19
71
1.46
386
CREStereo++_RVCtwo views0.47
29
0.21
4
0.38
4
0.45
32
0.38
169
0.45
17
0.25
4
0.75
8
1.29
254
0.80
61
1.21
168
0.47
18
0.37
12
0.53
5
0.44
83
0.16
11
0.11
3
0.15
3
0.80
377
0.18
41
0.11
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
s12784htwo views0.52
38
0.20
2
0.38
4
0.41
5
0.19
1
0.96
223
0.34
43
1.17
123
1.25
233
0.81
65
0.90
64
0.63
56
0.50
55
1.45
167
0.42
72
0.14
4
0.12
9
0.17
14
0.11
6
0.18
41
0.11
1
CREStereotwo views0.39
5
0.21
4
0.38
4
0.34
1
0.22
4
0.53
56
0.29
19
0.77
11
1.11
174
0.58
32
0.71
32
0.51
31
0.41
18
0.54
7
0.34
24
0.18
60
0.13
42
0.15
3
0.10
2
0.14
2
0.14
11
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
PMTNettwo views0.46
24
0.21
4
0.38
4
0.37
2
0.23
6
0.71
141
0.27
14
0.74
7
1.04
146
0.64
39
0.70
30
0.55
38
0.47
38
0.86
68
0.35
27
1.00
375
0.13
42
0.15
3
0.10
2
0.15
5
0.13
3
LoS_RVCtwo views0.42
11
0.26
46
0.40
8
0.44
23
0.82
344
0.51
49
0.44
123
0.64
2
0.41
2
0.44
8
0.78
44
0.44
8
0.47
38
0.56
10
0.36
33
0.13
1
0.12
9
0.14
1
0.10
2
0.13
1
0.84
369
GLC_STEREOtwo views0.39
5
0.25
35
0.41
9
0.54
133
0.23
6
0.48
20
0.30
22
0.73
6
0.58
18
0.52
28
0.73
35
0.51
31
0.31
6
0.64
26
0.42
72
0.17
32
0.20
224
0.23
149
0.19
107
0.21
131
0.17
60
AnonymousMtwo views0.59
97
1.11
370
0.41
9
0.44
23
0.32
106
0.43
14
0.47
147
1.05
86
0.64
27
0.98
96
0.63
20
0.67
66
0.43
22
0.59
14
0.41
64
0.20
117
0.15
125
1.84
387
0.84
379
0.14
2
0.13
3
LoStwo views0.40
8
0.21
4
0.44
11
0.37
2
0.22
4
0.50
39
0.40
82
1.00
67
0.94
106
0.48
17
0.66
22
0.48
21
0.40
16
0.60
23
0.37
38
0.18
60
0.14
75
0.16
9
0.11
6
0.14
2
0.14
11
TANstereotwo views0.44
21
0.21
4
0.44
11
0.41
5
0.21
3
0.65
108
0.26
9
0.79
12
0.83
75
0.93
82
0.98
81
0.51
31
0.46
32
0.54
7
0.35
27
0.18
60
0.24
271
0.16
9
0.13
11
0.16
13
0.26
223
Any-RAFTtwo views0.53
47
0.24
19
0.47
13
0.47
41
0.27
33
1.00
233
0.25
4
1.58
218
1.05
150
0.85
75
0.99
83
1.06
185
0.47
38
0.70
33
0.32
7
0.18
60
0.13
42
0.16
9
0.13
11
0.16
13
0.16
41
knoymoustwo views0.51
37
0.29
110
0.47
13
0.43
8
0.30
79
0.55
65
0.55
201
1.02
73
0.77
61
0.98
96
0.85
55
0.94
147
0.56
77
0.85
65
0.45
91
0.20
117
0.14
75
0.26
224
0.14
22
0.23
177
0.23
181
CASnettwo views0.41
10
0.25
35
0.48
15
0.50
71
0.20
2
0.50
39
0.36
55
0.81
20
0.80
68
0.83
69
0.68
26
0.48
21
0.31
6
0.54
7
0.32
7
0.18
60
0.12
9
0.27
235
0.22
196
0.23
177
0.14
11
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
MC-Stereotwo views0.43
13
0.23
13
0.48
15
0.51
94
0.28
52
0.39
9
0.32
30
0.88
31
0.68
44
0.60
38
0.84
54
0.56
40
0.61
105
1.03
97
0.31
5
0.17
32
0.11
3
0.17
14
0.15
30
0.16
13
0.13
3
UCFNet_RVCtwo views0.69
152
0.35
222
0.49
17
0.64
245
0.39
177
0.85
196
0.58
220
1.75
252
1.14
189
0.97
92
1.19
163
1.17
215
0.93
217
0.99
90
0.62
175
0.28
261
0.20
224
0.34
296
0.31
299
0.32
260
0.27
229
MyStereo07two views0.48
31
0.29
110
0.50
18
0.55
152
0.45
209
0.59
78
0.79
272
1.05
86
0.51
13
0.48
17
0.53
10
0.43
6
0.55
73
1.30
135
0.34
24
0.17
32
0.16
156
0.24
169
0.20
135
0.23
177
0.20
133
ACVNet-DCAtwo views0.56
85
0.31
157
0.50
18
0.54
133
0.26
20
1.18
263
0.51
169
1.42
177
0.78
63
0.58
32
0.79
47
0.48
21
0.88
199
1.46
169
0.32
7
0.20
117
0.12
9
0.25
205
0.15
30
0.22
152
0.21
149
xx1two views0.67
147
0.31
157
0.50
18
0.54
133
0.26
20
1.18
263
0.51
169
0.93
44
3.05
382
0.58
32
0.79
47
0.95
153
0.77
151
1.46
169
0.32
7
0.20
117
0.12
9
0.24
169
0.23
216
0.22
152
0.21
149
1test111two views0.54
61
0.31
157
0.50
18
0.54
133
0.26
20
1.18
263
0.51
169
1.42
177
0.78
63
0.58
32
0.79
47
0.48
21
0.88
199
0.88
70
0.59
163
0.20
117
0.12
9
0.25
205
0.15
30
0.22
152
0.21
149
cc1two views0.64
125
0.31
157
0.50
18
0.54
133
0.26
20
1.18
263
0.51
169
0.93
44
3.05
382
0.58
32
0.79
47
0.48
21
0.88
199
1.46
169
0.32
7
0.20
117
0.12
9
0.25
205
0.15
30
0.19
71
0.19
111
Selective-IGEVtwo views0.39
5
0.24
19
0.50
18
0.44
23
0.25
18
0.46
18
0.33
33
1.25
150
0.40
1
0.35
1
0.45
3
0.52
36
0.30
4
1.07
108
0.30
1
0.14
4
0.12
9
0.17
14
0.13
11
0.16
13
0.13
3
tt1two views0.62
109
0.32
171
0.51
24
0.54
133
0.26
20
1.16
260
0.48
155
0.95
51
2.47
370
0.57
31
0.77
42
0.49
28
0.81
166
1.55
186
0.32
7
0.20
117
0.12
9
0.24
169
0.15
30
0.19
71
0.20
133
EGLCR-Stereotwo views0.37
3
0.22
9
0.51
24
0.43
8
0.26
20
0.44
16
0.22
2
0.99
63
0.48
4
0.42
4
0.42
2
0.67
66
0.29
3
0.86
68
0.33
16
0.17
32
0.12
9
0.19
49
0.17
74
0.17
24
0.15
27
AEACVtwo views0.37
3
0.24
19
0.52
26
0.47
41
0.51
243
0.37
8
0.38
68
0.65
3
0.53
16
0.42
4
0.56
18
0.46
15
0.60
96
0.53
5
0.30
1
0.16
11
0.13
42
0.18
36
0.15
30
0.17
24
0.14
11
LCNettwo views0.72
160
0.28
83
0.52
26
0.55
152
0.31
91
0.69
131
0.54
188
1.00
67
0.88
85
1.19
183
1.34
214
0.97
161
1.34
314
2.56
284
0.45
91
0.18
60
0.13
42
0.21
96
0.25
238
0.27
220
0.73
364
anonymousdsptwo views0.43
13
0.27
67
0.53
28
0.44
23
0.32
106
0.50
39
0.42
95
0.89
32
0.51
13
0.49
20
0.53
10
0.47
18
0.47
38
1.33
140
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
PSM-AADtwo views0.79
200
0.27
67
0.53
28
0.55
152
0.28
52
0.77
165
1.24
343
0.99
63
0.91
97
1.66
321
1.57
277
0.81
97
2.19
371
1.65
200
0.44
83
0.19
92
0.14
75
0.38
316
0.32
305
0.21
131
0.70
361
Prome-Stereotwo views0.75
184
0.27
67
0.53
28
0.55
152
0.32
106
0.59
78
0.97
313
0.89
32
0.88
85
1.45
284
2.46
358
0.91
135
1.41
317
1.58
192
0.44
83
0.18
60
0.13
42
0.19
49
0.17
74
0.20
97
0.92
371
HSM-Net_RVCpermissivetwo views0.87
233
0.29
110
0.53
28
0.53
118
0.30
79
1.15
258
0.55
201
3.57
388
1.28
250
1.53
300
1.74
304
1.68
311
0.93
217
1.49
175
0.77
213
0.22
166
0.17
180
0.19
49
0.18
88
0.20
97
0.19
111
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
IGEV-Stereopermissivetwo views0.43
13
0.27
67
0.54
32
0.45
32
0.32
106
0.50
39
0.42
95
0.90
38
0.51
13
0.49
20
0.53
10
0.47
18
0.47
38
1.32
138
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
raft+_RVCtwo views0.53
47
0.26
46
0.54
32
0.60
205
0.47
223
0.54
59
0.54
188
1.27
152
0.99
129
0.76
52
1.03
106
0.70
76
0.56
77
0.93
81
0.47
109
0.18
60
0.14
75
0.19
49
0.18
88
0.18
41
0.15
27
ACVNettwo views0.63
115
0.31
157
0.54
32
0.54
133
0.36
145
0.80
179
0.46
141
1.37
167
1.07
158
0.93
82
1.30
197
1.08
192
0.85
184
0.80
54
0.94
247
0.21
143
0.19
207
0.21
96
0.18
88
0.22
152
0.18
78
CFNet-ftpermissivetwo views0.72
160
0.32
171
0.54
32
0.66
262
0.54
257
0.83
188
0.55
201
1.37
167
1.15
198
0.93
82
1.28
193
1.57
293
0.97
235
1.35
144
0.81
225
0.26
242
0.20
224
0.33
286
0.25
238
0.30
248
0.23
181
CFNet_RVCtwo views0.72
160
0.32
171
0.54
32
0.66
262
0.54
257
0.83
188
0.55
201
1.37
167
1.15
198
0.93
82
1.28
193
1.57
293
0.97
235
1.35
144
0.81
225
0.26
242
0.20
224
0.33
286
0.25
238
0.30
248
0.23
181
ff7two views0.43
13
0.27
67
0.56
37
0.44
23
0.33
122
0.50
39
0.42
95
0.87
24
0.50
6
0.49
20
0.53
10
0.44
8
0.48
46
1.38
152
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
IGEVStereo-DCAtwo views0.46
24
0.28
83
0.56
37
0.43
8
0.33
122
0.49
30
0.42
95
0.87
24
0.50
6
0.47
13
0.48
6
0.48
21
0.46
32
2.03
250
0.30
1
0.19
92
0.14
75
0.19
49
0.15
30
0.16
13
0.18
78
fffftwo views0.43
13
0.27
67
0.56
37
0.44
23
0.33
122
0.50
39
0.42
95
0.87
24
0.50
6
0.49
20
0.53
10
0.44
8
0.48
46
1.38
152
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
11ttwo views0.43
13
0.27
67
0.56
37
0.44
23
0.33
122
0.50
39
0.42
95
0.87
24
0.50
6
0.49
20
0.53
10
0.44
8
0.48
46
1.38
152
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
ccc-4two views0.43
13
0.27
67
0.56
37
0.44
23
0.33
122
0.50
39
0.42
95
0.87
24
0.50
6
0.49
20
0.53
10
0.44
8
0.48
46
1.38
152
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
test_4two views0.53
47
0.22
9
0.56
37
0.54
133
0.32
106
0.64
96
0.39
79
0.80
17
0.62
23
0.92
81
1.87
322
0.68
68
0.42
20
1.16
121
0.37
38
0.15
6
0.13
42
0.20
73
0.22
196
0.20
97
0.15
27
FTStereotwo views0.91
242
0.26
46
0.56
37
0.54
133
0.33
122
0.66
117
1.87
377
1.00
67
0.75
56
1.75
328
4.15
381
1.04
183
1.65
340
1.57
190
0.46
104
0.19
92
0.16
156
0.23
149
0.21
171
0.18
41
0.63
353
raftrobusttwo views0.52
38
0.25
35
0.56
37
0.65
257
0.52
251
0.49
30
0.34
43
0.98
61
0.91
97
1.30
232
0.87
59
0.63
56
0.81
166
0.78
50
0.41
64
0.19
92
0.15
125
0.16
9
0.14
22
0.15
5
0.16
41
MSKI-zero shottwo views0.55
76
0.26
46
0.57
45
0.51
94
0.26
20
0.69
131
0.28
17
1.18
128
0.64
27
0.91
79
1.32
207
0.82
102
0.33
10
1.92
239
0.32
7
0.17
32
0.12
9
0.17
14
0.13
11
0.16
13
0.16
41
ICVPtwo views0.63
115
0.33
187
0.57
45
0.61
217
0.40
182
0.80
179
0.58
220
1.61
225
0.89
88
0.90
77
1.24
176
0.88
129
0.73
135
0.72
39
0.88
241
0.29
269
0.21
240
0.22
122
0.21
171
0.24
190
0.27
229
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
hitnet-ftcopylefttwo views0.79
200
0.35
222
0.57
45
0.58
181
0.42
191
0.96
223
0.46
141
1.47
189
1.33
272
1.19
183
1.22
170
1.81
322
0.98
239
1.66
204
0.94
247
0.33
290
0.28
296
0.34
296
0.27
259
0.35
269
0.31
265
StereoIMtwo views0.36
1
0.25
35
0.58
48
0.44
23
0.34
137
0.30
3
0.30
22
0.72
5
0.50
6
0.37
2
0.36
1
0.58
46
0.49
54
0.52
4
0.36
33
0.19
92
0.16
156
0.19
49
0.15
30
0.18
41
0.14
11
ProNettwo views0.43
13
0.28
83
0.58
48
0.43
8
0.30
79
0.56
68
0.52
178
1.00
67
0.58
18
0.44
8
0.49
8
0.43
6
0.43
22
1.28
131
0.36
33
0.15
6
0.13
42
0.19
49
0.16
58
0.17
24
0.16
41
RCA-Stereotwo views0.50
36
0.23
13
0.58
48
0.48
51
0.33
122
0.55
65
0.45
134
0.97
59
1.38
294
0.68
42
1.05
110
0.63
56
0.80
163
0.59
14
0.32
7
0.17
32
0.12
9
0.17
14
0.14
22
0.16
13
0.14
11
GrayStereotwo views0.82
211
0.26
46
0.58
48
0.63
236
0.37
152
0.76
159
1.86
376
1.11
114
0.87
81
1.99
348
1.89
324
1.08
192
1.82
355
1.39
157
0.48
114
0.19
92
0.14
75
0.19
49
0.21
171
0.18
41
0.39
297
ttttwo views0.94
248
0.34
206
0.59
52
0.61
217
0.37
152
0.94
215
0.50
168
2.17
348
1.34
275
1.23
198
1.61
285
0.91
135
0.76
147
1.85
233
3.97
375
0.30
273
0.26
282
0.26
224
0.24
227
0.29
239
0.29
243
MIF-Stereotwo views0.36
1
0.23
13
0.59
52
0.48
51
0.36
145
0.40
10
0.32
30
0.53
1
0.49
5
0.54
30
0.55
17
0.36
2
0.31
6
0.58
13
0.51
130
0.20
117
0.15
125
0.17
14
0.15
30
0.19
71
0.15
27
GMM-Stereotwo views0.74
177
0.25
35
0.59
52
0.54
133
0.34
137
0.72
143
0.99
317
1.01
72
0.87
81
1.36
260
1.78
310
1.12
205
0.81
166
2.09
255
0.46
104
0.18
60
0.12
9
0.25
205
0.25
238
0.20
97
0.85
370
rafts_anoytwo views0.52
38
0.29
110
0.59
52
0.59
194
0.50
233
0.53
56
0.40
82
1.11
114
1.03
142
0.84
71
0.83
52
0.68
68
0.54
67
0.72
39
0.51
130
0.19
92
0.14
75
0.24
169
0.26
251
0.21
131
0.18
78
riskmintwo views0.56
85
0.27
67
0.60
56
0.43
8
0.31
91
0.83
188
0.42
95
1.14
118
1.04
146
0.73
51
0.75
39
1.11
204
1.01
251
0.81
58
0.51
130
0.20
117
0.14
75
0.24
169
0.15
30
0.24
190
0.25
205
RAFT+CT+SAtwo views0.58
94
0.29
110
0.60
56
0.66
262
0.37
152
0.42
13
0.55
201
1.27
152
1.03
142
0.70
45
1.22
170
0.60
51
0.70
132
1.64
199
0.41
64
0.18
60
0.13
42
0.22
122
0.22
196
0.21
131
0.18
78
SGM-Foresttwo views1.24
306
0.38
239
0.60
56
0.52
110
0.37
152
1.56
310
1.30
348
1.65
232
1.36
286
2.11
354
1.79
311
1.63
303
0.93
217
7.48
388
0.95
249
0.36
308
0.37
339
0.39
322
0.34
316
0.37
279
0.32
271
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
xtwo views0.54
61
0.31
157
0.61
59
0.47
41
0.30
79
0.67
121
0.47
147
1.53
209
0.79
67
0.81
65
0.83
52
0.78
89
0.70
132
0.70
33
0.62
175
0.21
143
0.19
207
0.22
122
0.19
107
0.21
131
0.20
133
cross-rafttwo views0.54
61
0.25
35
0.61
59
0.52
110
0.29
63
0.68
127
0.37
64
1.46
187
0.76
59
1.01
103
1.06
112
1.28
245
0.46
32
0.71
37
0.35
27
0.15
6
0.12
9
0.18
36
0.16
58
0.19
71
0.14
11
PSMNet-RSSMtwo views0.72
160
0.30
126
0.61
59
0.63
236
0.42
191
0.73
146
0.56
207
1.92
297
1.10
172
1.09
122
1.37
223
1.22
223
0.98
239
1.28
131
0.72
198
0.27
251
0.19
207
0.27
235
0.29
287
0.24
190
0.24
193
SGM_RVCbinarytwo views1.68
347
0.36
229
0.61
59
0.59
194
0.29
63
2.25
359
1.18
339
2.38
368
1.68
335
3.60
388
2.67
363
3.69
380
2.42
377
8.13
394
1.90
341
0.31
280
0.31
314
0.30
262
0.28
276
0.30
248
0.29
243
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
PSMNet-ADLtwo views0.72
160
0.35
222
0.62
63
0.69
285
0.46
219
1.14
253
0.44
123
1.37
167
1.01
136
0.83
69
1.17
158
1.33
254
0.96
232
1.43
164
0.95
249
0.33
290
0.22
254
0.21
96
0.23
216
0.27
220
0.29
243
KYRafttwo views0.75
184
0.28
83
0.62
63
0.56
164
0.29
63
0.67
121
0.86
290
0.94
48
0.84
76
1.62
318
2.21
346
1.16
214
1.02
256
1.57
190
0.40
57
0.20
117
0.13
42
0.22
122
0.28
276
0.20
97
1.02
375
NOSS_ROBtwo views1.26
309
0.46
271
0.62
63
0.56
164
0.38
169
1.06
242
0.78
269
1.73
246
1.40
303
1.01
103
1.43
240
1.10
200
0.75
139
10.62
411
0.65
183
0.45
339
0.43
353
0.48
343
0.45
344
0.44
315
0.41
302
HHNettwo views0.62
109
0.26
46
0.63
66
0.43
8
0.45
209
0.50
39
0.58
220
1.07
101
1.01
136
1.25
210
2.23
347
0.70
76
0.61
105
1.07
108
0.47
109
0.20
117
0.13
42
0.23
149
0.19
107
0.19
71
0.30
255
FENettwo views0.60
100
0.28
83
0.63
66
0.54
133
0.33
122
0.83
188
0.38
68
1.27
152
1.07
158
1.00
100
0.86
56
0.99
167
0.85
184
0.96
82
0.68
188
0.22
166
0.15
125
0.23
149
0.20
135
0.22
152
0.23
181
GANet-RSSMtwo views0.72
160
0.28
83
0.63
66
0.64
245
0.58
274
0.80
179
0.58
220
1.89
287
1.08
162
1.04
113
1.25
180
1.15
213
1.04
259
1.49
175
0.62
175
0.25
228
0.19
207
0.22
122
0.22
196
0.22
152
0.21
149
R-Stereo Traintwo views0.57
89
0.26
46
0.63
66
0.54
133
0.36
145
0.69
131
0.54
188
1.22
142
0.72
52
1.61
315
1.50
261
0.75
82
0.53
64
0.64
26
0.44
83
0.18
60
0.15
125
0.17
14
0.15
30
0.17
24
0.17
60
RAFT-Stereopermissivetwo views0.57
89
0.26
46
0.63
66
0.54
133
0.36
145
0.69
131
0.54
188
1.22
142
0.72
52
1.61
315
1.50
261
0.75
82
0.53
64
0.64
26
0.44
83
0.18
60
0.15
125
0.17
14
0.15
30
0.17
24
0.17
60
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
CBMV_ROBtwo views0.90
239
0.44
263
0.63
66
0.51
94
0.37
152
1.25
275
0.49
162
1.77
261
1.27
245
1.41
275
2.00
332
1.33
254
1.08
270
2.17
260
0.76
207
0.43
333
0.42
352
0.47
342
0.44
342
0.41
298
0.36
286
RAFT-Testtwo views0.54
61
0.25
35
0.64
72
0.47
41
0.30
79
0.97
227
0.27
14
1.24
148
0.81
69
0.96
89
1.12
138
1.28
245
0.48
46
0.71
37
0.36
33
0.17
32
0.13
42
0.17
14
0.14
22
0.16
13
0.16
41
raft_robusttwo views0.68
151
0.30
126
0.64
72
0.52
110
0.26
20
0.54
59
0.35
46
1.33
158
1.24
230
1.16
166
1.07
115
0.60
51
0.54
67
3.58
318
0.37
38
0.18
60
0.14
75
0.20
73
0.22
196
0.20
97
0.16
41
iRaftStereo_RVCtwo views0.47
29
0.26
46
0.64
72
0.50
71
0.29
63
0.53
56
0.33
33
1.05
86
0.77
61
0.84
71
1.00
86
0.55
38
0.37
12
0.81
58
0.40
57
0.17
32
0.12
9
0.22
122
0.20
135
0.19
71
0.15
27
AFF-stereotwo views0.58
94
0.25
35
0.64
72
0.46
35
0.29
63
0.34
4
0.38
68
1.15
120
1.14
189
1.17
175
1.60
281
1.10
200
0.71
134
0.97
87
0.43
81
0.13
1
0.11
3
0.19
49
0.19
107
0.17
24
0.14
11
GMOStereotwo views0.53
47
0.26
46
0.65
76
0.50
71
0.29
63
0.52
51
0.43
111
0.89
32
0.96
110
1.41
275
1.14
146
0.85
118
0.56
77
0.59
14
0.38
48
0.16
11
0.14
75
0.24
169
0.21
171
0.20
97
0.15
27
error versiontwo views0.53
47
0.26
46
0.65
76
0.50
71
0.29
63
0.52
51
0.43
111
0.89
32
0.96
110
1.41
275
1.14
146
0.85
118
0.56
77
0.59
14
0.38
48
0.16
11
0.14
75
0.24
169
0.21
171
0.20
97
0.15
27
test-vtwo views0.53
47
0.26
46
0.65
76
0.50
71
0.29
63
0.52
51
0.43
111
0.89
32
0.96
110
1.41
275
1.14
146
0.85
118
0.56
77
0.59
14
0.38
48
0.16
11
0.14
75
0.24
169
0.21
171
0.20
97
0.15
27
test-2two views0.53
47
0.26
46
0.65
76
0.50
71
0.29
63
0.52
51
0.43
111
0.89
32
0.96
110
1.41
275
1.14
146
0.85
118
0.56
77
0.59
14
0.38
48
0.16
11
0.14
75
0.24
169
0.21
171
0.20
97
0.15
27
test_xeamplepermissivetwo views1.45
328
0.28
83
0.65
76
0.51
94
0.28
52
0.94
215
0.59
227
2.14
337
1.29
254
1.24
206
1.51
263
0.88
129
0.86
192
1.46
169
15.10
409
0.22
166
0.20
224
0.22
122
0.20
135
0.22
152
0.22
164
HSMtwo views1.19
304
0.32
171
0.65
76
0.57
175
0.38
169
1.23
272
0.59
227
2.25
357
1.19
211
1.30
232
1.25
180
1.94
333
1.03
258
9.32
401
0.71
195
0.22
166
0.16
156
0.20
73
0.16
58
0.21
131
0.21
149
RAFT-345two views0.84
220
0.25
35
0.66
82
0.50
71
0.27
33
0.54
59
0.42
95
0.83
21
1.11
174
1.32
244
2.34
352
0.86
122
0.54
67
5.72
356
0.47
109
0.18
60
0.13
42
0.22
122
0.17
74
0.17
24
0.16
41
RALCasStereoNettwo views0.54
61
0.30
126
0.66
82
0.59
194
0.51
243
0.61
87
0.52
178
0.94
48
0.93
103
0.70
45
1.01
91
0.78
89
0.44
26
1.33
140
0.47
109
0.20
117
0.16
156
0.18
36
0.16
58
0.20
97
0.19
111
CBMVpermissivetwo views0.95
251
0.44
263
0.66
82
0.53
118
0.35
140
1.53
307
1.63
366
1.69
240
1.42
309
2.00
350
1.60
281
1.43
268
1.17
283
1.59
194
0.99
257
0.34
298
0.34
324
0.39
322
0.33
311
0.33
266
0.32
271
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
AE-Stereotwo views0.49
34
0.27
67
0.67
85
0.60
205
0.39
177
0.67
121
0.46
141
1.18
128
1.09
168
0.47
13
0.75
39
0.69
73
0.47
38
0.59
14
0.40
57
0.16
11
0.15
125
0.21
96
0.20
135
0.19
71
0.15
27
RAFT-RH_RVCtwo views1.03
273
0.24
19
0.67
85
0.49
64
0.28
52
0.81
183
0.33
33
0.83
21
1.08
162
2.05
351
4.65
387
1.04
183
0.57
85
5.98
363
0.50
127
0.18
60
0.13
42
0.26
224
0.20
135
0.16
13
0.17
60
222two views1.61
341
0.29
110
0.67
85
0.56
164
0.29
63
1.06
242
0.42
95
2.17
348
1.31
264
1.31
242
1.52
264
0.92
143
0.94
222
1.76
223
17.65
413
0.24
204
0.20
224
0.21
96
0.19
107
0.22
152
0.23
181
11t1two views0.52
38
0.28
83
0.68
88
0.51
94
0.28
52
0.83
188
0.39
79
1.22
142
0.63
25
0.84
71
0.74
37
0.68
68
0.68
126
0.91
75
0.57
158
0.21
143
0.18
194
0.19
49
0.16
58
0.20
97
0.21
149
BUStwo views0.74
177
0.32
171
0.68
88
0.54
133
0.44
202
2.34
363
0.42
95
2.16
342
0.98
122
1.20
187
1.11
132
1.03
180
0.62
110
0.91
75
0.70
190
0.24
204
0.17
180
0.25
205
0.22
196
0.22
152
0.22
164
BSDual-CNNtwo views0.71
159
0.32
171
0.68
88
0.54
133
0.44
202
1.27
277
0.65
239
2.16
342
0.98
122
1.20
187
1.11
132
1.12
205
0.74
137
0.91
75
0.66
184
0.24
204
0.17
180
0.25
205
0.22
196
0.22
152
0.22
164
psmgtwo views0.72
160
0.32
171
0.68
88
0.50
71
0.44
202
1.48
302
0.75
261
1.94
303
0.98
122
1.21
190
1.33
209
1.12
205
0.74
137
0.91
75
0.66
184
0.24
204
0.19
207
0.25
205
0.25
238
0.23
177
0.22
164
test-3two views0.54
61
0.22
9
0.68
88
0.47
41
0.27
33
0.58
74
0.35
46
0.92
40
1.00
134
1.32
244
0.69
29
0.87
126
0.45
29
1.68
210
0.37
38
0.16
11
0.11
3
0.20
73
0.16
58
0.17
24
0.13
3
test_1two views0.54
61
0.22
9
0.68
88
0.47
41
0.27
33
0.58
74
0.35
46
0.92
40
1.00
134
1.28
219
0.68
26
0.87
126
0.45
29
1.67
205
0.37
38
0.16
11
0.11
3
0.20
73
0.16
58
0.17
24
0.13
3
xxxxtwo views1.51
332
0.28
83
0.68
88
0.54
133
0.28
52
1.16
260
0.44
123
2.19
350
1.29
254
1.09
122
1.36
221
1.22
223
0.85
184
1.79
226
15.70
412
0.24
204
0.21
240
0.21
96
0.20
135
0.22
152
0.23
181
RAFT-Stereo + iAFFtwo views0.54
61
0.25
35
0.68
88
0.43
8
0.24
9
0.40
10
0.34
43
1.04
80
1.09
168
1.32
244
1.60
281
0.80
94
0.68
126
0.67
30
0.39
54
0.13
1
0.10
1
0.18
36
0.17
74
0.17
24
0.13
3
Gwc-CoAtRStwo views0.52
38
0.24
19
0.68
88
0.48
51
0.29
63
0.64
96
0.25
4
1.16
121
1.08
162
1.01
103
1.00
86
1.12
205
0.56
77
0.69
31
0.37
38
0.16
11
0.13
42
0.17
14
0.15
30
0.15
5
0.15
27
LL-Strereo2two views0.52
38
0.33
187
0.69
97
0.52
110
0.37
152
0.70
138
0.30
22
1.13
117
0.67
41
0.94
87
0.78
44
0.91
135
0.42
20
1.05
103
0.42
72
0.17
32
0.16
156
0.29
253
0.25
238
0.21
131
0.16
41
NRIStereotwo views0.60
100
0.29
110
0.69
97
0.53
118
0.28
52
0.63
94
0.33
33
1.08
105
0.87
81
1.14
152
0.87
59
0.91
135
0.59
94
2.24
267
0.49
121
0.20
117
0.14
75
0.21
96
0.19
107
0.21
131
0.17
60
ASMatchtwo views0.88
234
0.26
46
0.69
97
0.51
94
0.35
140
0.48
20
0.37
64
1.12
116
0.92
101
1.10
130
3.28
371
0.96
159
0.98
239
4.90
338
0.49
121
0.19
92
0.16
156
0.22
122
0.19
107
0.19
71
0.27
229
THIR-Stereotwo views1.02
272
0.27
67
0.69
97
0.49
64
0.28
52
0.95
219
1.34
350
1.03
76
0.97
117
1.34
255
1.90
325
1.17
215
1.58
333
6.44
368
0.78
215
0.19
92
0.14
75
0.21
96
0.22
196
0.19
71
0.20
133
test_xeample3two views0.42
11
0.28
83
0.69
97
0.43
8
0.33
122
0.56
68
0.38
68
0.79
12
0.45
3
0.53
29
0.46
4
0.44
8
0.44
26
1.38
152
0.31
5
0.18
60
0.14
75
0.19
49
0.15
30
0.17
24
0.16
41
EAI-Stereotwo views0.65
130
0.28
83
0.69
97
0.53
118
0.27
33
0.60
84
0.40
82
2.28
360
0.64
27
0.71
47
3.18
370
0.57
42
0.43
22
1.06
104
0.41
64
0.18
60
0.13
42
0.17
14
0.17
74
0.17
24
0.17
60
MIF-Stereo (partial)two views0.45
23
0.25
35
0.70
103
0.50
71
0.52
251
0.35
5
0.26
9
0.91
39
0.59
21
0.45
12
0.71
32
0.51
31
0.51
57
1.11
114
0.45
91
0.20
117
0.16
156
0.23
149
0.20
135
0.24
190
0.18
78
DCREtwo views0.82
211
0.26
46
0.70
103
0.58
181
0.44
202
0.54
59
0.48
155
0.95
51
0.78
63
0.78
56
7.33
400
0.86
122
0.52
59
0.76
47
0.41
64
0.16
11
0.16
156
0.19
49
0.17
74
0.18
41
0.17
60
ffftwo views0.53
47
0.24
19
0.70
103
0.43
8
0.24
9
0.48
20
0.36
55
1.07
101
1.25
233
1.10
130
1.02
98
0.57
42
1.06
266
0.73
42
0.52
136
0.16
11
0.13
42
0.17
14
0.13
11
0.15
5
0.19
111
DRafttwo views0.80
203
0.24
19
0.70
103
0.45
32
0.30
79
0.97
227
0.53
184
1.05
86
0.97
117
1.78
331
2.02
335
0.80
94
1.74
347
2.73
291
0.72
198
0.17
32
0.14
75
0.20
73
0.20
135
0.18
41
0.21
149
Pruner-Stereotwo views0.62
109
0.29
110
0.70
103
0.61
217
0.31
91
0.63
94
0.43
111
1.17
123
0.99
129
1.53
300
1.08
118
0.95
153
0.55
73
1.35
144
0.51
130
0.23
189
0.14
75
0.24
169
0.21
171
0.21
131
0.23
181
DCANettwo views0.54
61
0.24
19
0.70
103
0.43
8
0.24
9
0.49
30
0.36
55
1.05
86
1.30
260
1.12
136
1.03
106
0.58
46
0.92
211
0.81
58
0.52
136
0.16
11
0.13
42
0.17
14
0.13
11
0.18
41
0.19
111
csctwo views0.53
47
0.24
19
0.70
103
0.43
8
0.24
9
0.48
20
0.36
55
1.07
101
1.25
233
1.10
130
1.02
98
0.57
42
1.06
266
0.73
42
0.52
136
0.16
11
0.13
42
0.17
14
0.13
11
0.15
5
0.19
111
cscssctwo views0.53
47
0.24
19
0.70
103
0.43
8
0.24
9
0.48
20
0.36
55
1.07
101
1.25
233
1.10
130
1.02
98
0.57
42
1.06
266
0.73
42
0.52
136
0.16
11
0.13
42
0.17
14
0.13
11
0.15
5
0.19
111
111two views0.60
100
0.23
13
0.70
103
0.43
8
0.24
9
0.72
143
0.42
95
1.18
128
1.41
306
0.80
61
1.38
227
1.10
200
0.79
158
0.96
82
0.58
161
0.18
60
0.13
42
0.17
14
0.15
30
0.17
24
0.19
111
CFNet-RSSMtwo views0.54
61
0.24
19
0.70
103
0.48
51
0.28
52
0.60
84
0.27
14
1.49
191
1.14
189
1.06
114
0.93
69
1.08
192
0.54
67
0.70
33
0.35
27
0.16
11
0.12
9
0.17
14
0.15
30
0.16
13
0.14
11
psm_uptwo views0.77
191
0.34
206
0.70
103
0.66
262
0.58
274
1.05
239
0.92
303
1.52
203
1.12
178
1.26
214
1.16
155
1.31
252
1.23
298
1.20
123
0.81
225
0.25
228
0.29
304
0.31
266
0.27
259
0.27
220
0.25
205
qqqtwo views0.57
89
0.34
206
0.71
114
0.47
41
0.27
33
0.64
96
0.62
234
1.42
177
0.78
63
0.80
61
0.92
67
0.95
153
0.77
151
0.88
70
0.59
163
0.21
143
0.20
224
0.24
169
0.23
216
0.22
152
0.21
149
test_3two views0.55
76
0.23
13
0.71
114
0.53
118
0.28
52
0.61
87
0.40
82
0.92
40
1.05
150
1.19
183
0.68
26
0.93
144
0.44
26
1.67
205
0.39
54
0.15
6
0.12
9
0.22
122
0.19
107
0.21
131
0.14
11
TestStereotwo views0.64
125
0.39
244
0.71
114
0.51
94
0.27
33
0.56
68
0.42
95
1.03
76
0.91
97
0.80
61
1.00
86
0.68
68
0.52
59
3.25
308
0.45
91
0.22
166
0.15
125
0.24
169
0.18
88
0.27
220
0.16
41
mmmtwo views0.63
115
0.35
222
0.72
117
0.51
94
0.30
79
0.86
197
0.54
188
1.59
219
0.86
77
1.07
116
1.38
227
0.79
92
0.75
139
0.91
75
0.58
161
0.22
166
0.18
194
0.29
253
0.25
238
0.25
200
0.23
181
CASStwo views0.65
130
0.34
206
0.72
117
0.56
164
0.27
33
0.78
170
0.42
95
1.59
219
0.86
77
1.30
232
1.25
180
0.87
126
0.84
181
0.84
63
0.54
150
0.35
305
0.19
207
0.26
224
0.21
171
0.28
234
0.42
306
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
HBP-ISPtwo views0.96
252
0.58
310
0.72
117
0.61
217
0.46
219
1.64
318
0.76
264
1.86
282
1.28
250
1.30
232
1.53
265
0.86
122
0.94
222
3.27
309
0.69
189
0.45
339
0.44
356
0.54
354
0.48
351
0.47
321
0.40
298
DisPMtwo views0.66
138
0.28
83
0.72
117
0.61
217
0.35
140
0.62
93
0.45
134
1.02
73
0.99
129
1.56
308
1.10
127
0.80
94
0.59
94
2.37
276
0.41
64
0.23
189
0.14
75
0.23
149
0.21
171
0.20
97
0.25
205
GANet-ADLtwo views0.60
100
0.35
222
0.72
117
0.64
245
0.40
182
0.68
127
0.51
169
1.49
191
1.12
178
0.95
88
1.08
118
0.91
135
0.57
85
0.76
47
0.55
154
0.26
242
0.18
194
0.18
36
0.16
58
0.23
177
0.25
205
CrosDoStereotwo views1.58
336
0.24
19
0.72
117
0.48
51
0.29
63
0.67
121
12.49
413
1.10
108
0.98
122
1.34
255
1.75
307
1.00
168
1.89
357
6.65
371
0.81
225
0.19
92
0.15
125
0.20
73
0.22
196
0.18
41
0.19
111
AAGNettwo views1.83
354
0.28
83
0.72
117
0.61
217
0.32
106
0.67
121
0.51
169
0.96
58
0.98
122
1.47
287
1.20
166
1.00
168
1.18
286
2.83
293
22.77
419
0.22
166
0.13
42
0.22
122
0.19
107
0.23
177
0.15
27
OMP-Stereotwo views0.94
248
0.33
187
0.72
117
0.90
354
0.31
91
0.49
30
0.36
55
1.16
121
1.06
153
1.58
314
1.12
138
1.46
276
0.69
129
6.94
378
0.49
121
0.19
92
0.14
75
0.24
169
0.18
88
0.20
97
0.14
11
IIG-Stereotwo views0.96
252
0.31
157
0.72
117
0.88
349
0.33
122
0.61
87
0.26
9
1.19
134
1.03
142
1.69
324
1.37
223
1.46
276
0.75
139
6.96
379
0.51
130
0.19
92
0.14
75
0.23
149
0.18
88
0.20
97
0.14
11
DeepStereo_LLtwo views1.58
336
0.24
19
0.72
117
0.48
51
0.29
63
0.67
121
12.49
413
1.10
108
0.98
122
1.34
255
1.75
307
1.00
168
1.89
357
6.65
371
0.81
225
0.19
92
0.15
125
0.20
73
0.22
196
0.18
41
0.19
111
SST-Stereotwo views0.83
216
0.28
83
0.72
117
0.59
194
0.31
91
0.72
143
0.26
9
1.09
106
0.86
77
1.47
287
1.10
127
1.00
168
0.87
195
5.73
357
0.45
91
0.22
166
0.13
42
0.23
149
0.19
107
0.23
177
0.18
78
DeepStereo_RVCtwo views0.55
76
0.29
110
0.72
117
0.51
94
0.30
79
0.59
78
0.33
33
1.03
76
0.70
47
1.16
166
0.93
69
0.83
109
0.94
222
0.96
82
0.54
150
0.21
143
0.14
75
0.21
96
0.19
107
0.24
190
0.24
193
rrrtwo views0.46
24
0.28
83
0.73
129
0.43
8
0.33
122
0.49
30
0.38
68
0.76
10
0.50
6
0.47
13
0.48
6
0.48
21
0.46
32
2.03
250
0.30
1
0.19
92
0.14
75
0.19
49
0.15
30
0.16
13
0.16
41
EKT-Stereotwo views0.53
47
0.30
126
0.73
129
0.58
181
0.60
284
0.51
49
0.48
155
0.94
48
0.90
92
0.71
47
0.88
61
0.77
86
0.43
22
1.07
108
0.40
57
0.22
166
0.16
156
0.21
96
0.18
88
0.20
97
0.22
164
Patchmatch Stereo++two views0.55
76
0.30
126
0.73
129
0.50
71
0.27
33
0.65
108
0.29
19
1.05
86
0.64
27
1.12
136
0.96
73
0.83
109
0.60
96
1.37
148
0.45
91
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.54
61
0.30
126
0.73
129
0.50
71
0.27
33
0.65
108
0.41
93
1.04
80
0.64
27
1.12
136
0.96
73
0.82
102
0.61
105
1.06
104
0.45
91
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
ROB_FTStereo_v2two views0.54
61
0.30
126
0.73
129
0.50
71
0.27
33
0.64
96
0.42
95
1.05
86
0.64
27
1.12
136
0.96
73
0.83
109
0.60
96
1.12
116
0.46
104
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
ROB_FTStereotwo views0.54
61
0.30
126
0.73
129
0.50
71
0.27
33
0.64
96
0.25
4
1.05
86
0.64
27
1.12
136
0.95
71
0.82
102
0.61
105
1.15
119
0.45
91
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
HUI-Stereotwo views0.52
38
0.30
126
0.73
129
0.50
71
0.27
33
0.65
108
0.30
22
1.04
80
0.64
27
1.12
136
0.96
73
0.83
109
0.60
96
0.79
53
0.45
91
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
RAFT_R40two views0.83
216
0.28
83
0.73
129
0.59
194
0.31
91
0.69
131
0.44
123
1.10
108
0.95
108
1.47
287
1.10
127
1.00
168
0.85
184
5.53
351
0.46
104
0.22
166
0.13
42
0.23
149
0.20
135
0.23
177
0.18
78
iGMRVCtwo views0.56
85
0.30
126
0.73
129
0.50
71
0.27
33
0.65
108
0.38
68
1.05
86
0.64
27
1.12
136
0.96
73
0.83
109
0.60
96
1.52
178
0.46
104
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
iRAFTtwo views0.55
76
0.30
126
0.73
129
0.50
71
0.27
33
0.65
108
0.29
19
1.05
86
0.64
27
1.12
136
0.96
73
0.83
109
0.60
96
1.37
148
0.45
91
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
CroCo-Stereocopylefttwo views0.40
8
0.31
157
0.73
129
0.58
181
0.27
33
0.26
1
0.33
33
0.95
51
0.81
69
0.42
4
0.47
5
0.65
62
0.47
38
0.39
1
0.34
24
0.18
60
0.15
125
0.16
9
0.14
22
0.19
71
0.16
41
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.64
125
0.30
126
0.73
129
0.59
194
0.33
122
0.68
127
0.58
220
1.04
80
0.76
59
1.08
117
1.19
163
1.65
308
0.93
217
1.06
104
0.56
156
0.21
143
0.18
194
0.27
235
0.24
227
0.22
152
0.17
60
RAFT-IKPtwo views0.54
61
0.30
126
0.73
129
0.50
71
0.27
33
0.59
78
0.36
55
1.04
80
0.64
27
1.12
136
0.96
73
0.83
109
0.61
105
1.22
125
0.45
91
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
HCRNettwo views0.70
154
0.39
244
0.73
129
0.60
205
0.59
281
0.76
159
0.35
46
1.22
142
1.13
187
1.02
106
0.99
83
1.02
177
0.76
147
2.19
264
0.70
190
0.28
261
0.19
207
0.28
245
0.23
216
0.25
200
0.23
181
anonymousdsp2two views0.53
47
0.27
67
0.74
143
0.48
51
0.29
63
0.76
159
0.47
147
1.61
225
0.82
74
0.77
55
0.77
42
0.75
82
0.47
38
1.03
97
0.40
57
0.18
60
0.13
42
0.18
36
0.13
11
0.19
71
0.18
78
CRE-IMPtwo views0.55
76
0.30
126
0.74
143
0.52
110
0.29
63
0.79
174
0.25
4
1.04
80
0.72
52
1.09
122
0.95
71
0.81
97
0.57
85
1.10
111
0.50
127
0.21
143
0.14
75
0.23
149
0.19
107
0.28
234
0.22
164
anonymousatwo views0.72
160
0.27
67
0.75
145
0.47
41
0.63
293
1.43
299
0.45
134
1.24
148
0.89
88
1.28
219
1.75
307
1.62
301
1.13
280
0.69
31
0.59
163
0.19
92
0.16
156
0.23
149
0.25
238
0.20
97
0.18
78
TestStereo1two views0.63
115
0.28
83
0.75
145
0.76
315
0.31
91
0.48
20
0.43
111
1.30
156
1.21
221
0.97
92
1.31
202
0.64
59
0.77
151
1.75
218
0.42
72
0.20
117
0.15
125
0.22
122
0.18
88
0.21
131
0.17
60
test_5two views0.65
130
0.30
126
0.75
145
0.67
272
0.50
233
0.92
210
0.52
178
1.39
173
1.12
178
0.76
52
1.11
132
1.00
168
0.90
206
1.53
182
0.45
91
0.18
60
0.13
42
0.23
149
0.22
196
0.21
131
0.19
111
SA-5Ktwo views0.63
115
0.28
83
0.75
145
0.76
315
0.31
91
0.48
20
0.43
111
1.30
156
1.21
221
0.97
92
1.31
202
0.64
59
0.77
151
1.75
218
0.42
72
0.20
117
0.15
125
0.22
122
0.18
88
0.21
131
0.17
60
NF-Stereotwo views0.80
203
0.30
126
0.75
145
0.60
205
0.31
91
0.64
96
0.44
123
1.21
135
0.90
92
1.29
224
1.02
98
0.82
102
0.57
85
5.40
349
0.48
114
0.23
189
0.14
75
0.24
169
0.20
135
0.20
97
0.30
255
OCTAStereotwo views0.80
203
0.30
126
0.75
145
0.60
205
0.31
91
0.64
96
0.44
123
1.21
135
0.90
92
1.29
224
1.01
91
0.82
102
0.57
85
5.35
344
0.48
114
0.24
204
0.14
75
0.24
169
0.20
135
0.20
97
0.30
255
RE-Stereotwo views0.80
203
0.30
126
0.75
145
0.60
205
0.31
91
0.64
96
0.44
123
1.21
135
0.90
92
1.29
224
1.01
91
0.81
97
0.57
85
5.37
347
0.48
114
0.24
204
0.14
75
0.24
169
0.20
135
0.20
97
0.30
255
TVStereotwo views0.80
203
0.30
126
0.75
145
0.60
205
0.31
91
0.64
96
0.44
123
1.21
135
0.90
92
1.29
224
1.01
91
0.81
97
0.57
85
5.37
347
0.48
114
0.24
204
0.14
75
0.24
169
0.20
135
0.20
97
0.30
255
AdaStereotwo views0.70
154
0.43
260
0.75
145
0.73
307
0.37
152
0.92
210
0.53
184
1.85
279
1.18
208
1.12
136
1.23
174
1.07
191
0.65
123
0.96
82
0.63
179
0.31
280
0.15
125
0.32
279
0.21
171
0.29
239
0.22
164
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
4D-IteraStereotwo views0.48
31
0.24
19
0.76
154
0.50
71
0.44
202
0.66
117
0.31
27
0.87
24
1.02
139
1.03
110
0.72
34
0.78
89
0.32
9
0.64
26
0.37
38
0.17
32
0.11
3
0.23
149
0.19
107
0.19
71
0.13
3
Sa-1000two views0.72
160
0.29
110
0.76
154
0.59
194
0.30
79
0.73
146
0.37
64
1.62
228
1.33
272
1.28
219
2.04
337
0.86
122
0.75
139
1.84
230
0.38
48
0.19
92
0.14
75
0.25
205
0.23
216
0.20
97
0.16
41
IRAFT_RVCtwo views0.88
234
0.28
83
0.76
154
0.63
236
0.31
91
0.65
108
1.02
322
1.22
142
0.94
106
1.22
195
1.04
109
1.01
175
0.98
239
5.82
358
0.53
144
0.22
166
0.12
9
0.25
205
0.20
135
0.20
97
0.19
111
CVANet_RVCtwo views1.07
279
0.43
260
0.76
154
0.60
205
0.50
233
0.90
202
0.97
313
1.52
203
1.26
238
1.33
252
1.38
227
1.24
230
1.18
286
6.75
377
0.75
205
0.34
298
0.23
262
0.34
296
0.29
287
0.42
303
0.27
229
HHtwo views0.63
115
0.30
126
0.77
158
0.50
71
0.32
106
0.49
30
0.46
141
1.65
232
0.64
27
0.69
43
1.09
123
1.63
303
0.85
184
1.90
237
0.37
38
0.18
60
0.13
42
0.19
49
0.17
74
0.19
71
0.16
41
HanStereotwo views0.63
115
0.30
126
0.77
158
0.50
71
0.32
106
0.49
30
0.46
141
1.65
232
0.64
27
0.69
43
1.09
123
1.63
303
0.85
184
1.90
237
0.37
38
0.18
60
0.13
42
0.19
49
0.17
74
0.19
71
0.16
41
CroCo-Stereo Lap2two views0.44
21
0.34
206
0.77
158
0.61
217
0.79
335
0.28
2
0.35
46
0.75
8
0.71
51
0.38
3
0.50
9
0.72
79
0.55
73
0.57
12
0.47
109
0.17
32
0.18
194
0.19
49
0.16
58
0.21
131
0.20
133
PFNet+two views0.59
97
0.28
83
0.77
158
0.53
118
0.30
79
0.59
78
0.31
27
0.92
40
1.14
189
1.33
252
1.10
127
0.79
92
0.57
85
1.31
136
0.49
121
0.25
228
0.17
180
0.28
245
0.26
251
0.21
131
0.25
205
PSM-softLosstwo views0.78
197
0.31
157
0.77
158
0.58
181
0.32
106
0.56
68
0.40
82
1.18
128
0.70
47
1.24
206
1.07
115
0.83
109
0.52
59
5.36
345
0.53
144
0.24
204
0.15
125
0.25
205
0.22
196
0.20
97
0.25
205
KMStereotwo views0.78
197
0.31
157
0.77
158
0.58
181
0.32
106
0.56
68
0.40
82
1.18
128
0.70
47
1.24
206
1.07
115
0.83
109
0.52
59
5.36
345
0.53
144
0.24
204
0.15
125
0.25
205
0.22
196
0.20
97
0.25
205
cf-rtwo views0.73
174
0.30
126
0.77
158
0.55
152
0.63
293
0.78
170
0.48
155
1.79
267
1.15
198
1.13
150
1.26
186
1.43
268
0.87
195
1.40
162
0.85
238
0.25
228
0.18
194
0.22
122
0.23
216
0.19
71
0.19
111
HITNettwo views0.65
130
0.40
248
0.77
158
0.48
51
0.24
9
1.05
239
0.49
162
1.76
258
1.02
139
1.18
179
1.18
160
0.89
133
0.80
163
0.85
65
0.79
221
0.17
32
0.12
9
0.21
96
0.17
74
0.29
239
0.15
27
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
NINENettwo views0.77
191
0.37
234
0.78
166
0.62
228
0.51
243
2.34
363
0.42
95
1.83
277
1.04
146
1.14
152
1.23
174
1.03
180
0.62
110
1.24
128
0.70
190
0.28
261
0.23
262
0.31
266
0.21
171
0.26
208
0.25
205
DLCB_ROBtwo views0.86
229
0.40
248
0.78
166
0.68
282
0.54
257
1.11
248
0.84
284
1.49
191
1.23
226
1.64
320
1.65
294
1.70
313
0.91
208
1.70
212
1.05
260
0.25
228
0.24
271
0.26
224
0.27
259
0.27
220
0.24
193
Selective-RAFTtwo views0.52
38
0.28
83
0.79
168
0.55
152
0.27
33
0.91
204
0.33
33
0.80
17
0.88
85
0.58
32
0.63
20
0.81
97
0.77
151
1.29
134
0.48
114
0.19
92
0.14
75
0.17
14
0.15
30
0.19
71
0.17
60
AACVNettwo views0.86
229
0.35
222
0.79
168
0.82
332
0.39
177
0.76
159
0.49
162
1.61
225
0.81
69
1.08
117
1.33
209
1.30
249
0.93
217
4.34
329
0.74
202
0.25
228
0.21
240
0.28
245
0.22
196
0.29
239
0.25
205
GwcNet-ADLtwo views0.64
125
0.31
157
0.79
168
0.56
164
0.41
188
0.60
84
0.58
220
1.41
175
1.26
238
1.08
117
1.13
143
0.91
135
0.60
96
1.04
102
0.78
215
0.27
251
0.18
194
0.18
36
0.18
88
0.25
200
0.29
243
DEmStereotwo views0.97
258
0.23
13
0.79
168
0.47
41
0.32
106
1.04
238
0.56
207
0.93
44
0.89
88
1.39
272
2.14
343
1.02
177
2.07
368
5.64
355
0.77
213
0.17
32
0.15
125
0.20
73
0.20
135
0.18
41
0.20
133
TDLMtwo views1.06
277
0.44
263
0.79
168
0.63
236
0.50
233
0.89
200
1.44
355
1.48
190
1.26
238
1.12
136
1.40
233
1.08
192
0.98
239
6.65
371
0.78
215
0.33
290
0.21
240
0.33
286
0.26
251
0.37
279
0.24
193
UDGNettwo views0.72
160
1.17
375
0.80
173
0.77
318
0.41
188
0.77
165
0.38
68
0.97
59
1.34
275
0.81
65
0.88
61
0.71
78
0.60
96
1.21
124
0.54
150
0.52
352
0.19
207
1.02
379
0.26
251
0.71
362
0.31
265
FCDSN-DCtwo views2.32
372
0.63
325
0.81
174
0.84
336
0.75
326
2.23
358
0.94
309
2.09
331
1.80
345
5.45
405
7.72
403
7.77
403
6.93
408
3.39
310
1.80
336
0.52
352
0.48
365
0.52
348
0.51
359
0.57
342
0.58
345
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
ac_64two views0.82
211
0.29
110
0.81
174
0.71
297
0.60
284
1.05
239
0.54
188
1.99
312
0.92
101
1.18
179
1.06
112
1.99
338
1.08
270
1.94
243
0.97
254
0.27
251
0.22
254
0.24
169
0.23
216
0.22
152
0.19
111
Anonymous_2two views1.30
313
0.55
300
0.82
176
0.52
110
0.58
274
1.01
234
0.64
237
1.25
150
0.97
117
0.96
89
0.78
44
1.33
254
1.29
306
1.03
97
0.74
202
0.62
364
0.64
381
1.06
380
9.63
417
1.16
378
0.49
328
SAtwo views0.66
138
0.30
126
0.82
176
0.61
217
0.30
79
0.58
74
0.38
68
1.44
184
1.30
260
0.96
89
1.36
221
0.66
64
0.95
227
1.85
233
0.42
72
0.19
92
0.15
125
0.25
205
0.23
216
0.21
131
0.17
60
CSP-Nettwo views0.97
258
0.38
239
0.83
178
0.53
118
0.41
188
1.63
316
0.77
267
2.00
313
1.05
150
1.25
210
1.20
166
1.33
254
0.83
179
4.93
340
0.85
238
0.32
285
0.22
254
0.20
73
0.20
135
0.23
177
0.25
205
DIP-Stereotwo views0.62
109
0.30
126
0.83
178
0.48
51
0.36
145
0.95
219
0.33
33
2.37
367
0.67
41
1.25
210
1.00
86
0.68
68
0.51
57
0.91
75
0.61
172
0.18
60
0.15
125
0.21
96
0.17
74
0.19
71
0.19
111
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
DualNettwo views1.09
284
0.33
187
0.85
180
0.53
118
0.37
152
0.74
149
0.56
207
0.95
51
2.47
370
1.15
155
1.45
245
1.06
185
0.82
170
1.55
186
7.61
390
0.20
117
0.12
9
0.31
266
0.27
259
0.19
71
0.20
133
ffmtwo views0.72
160
0.33
187
0.85
180
0.53
118
0.37
152
0.74
149
0.56
207
0.95
51
2.47
370
1.15
155
1.45
245
1.06
185
0.82
170
1.55
186
0.32
7
0.20
117
0.12
9
0.31
266
0.27
259
0.19
71
0.20
133
ff1two views1.37
321
0.33
187
0.85
180
0.53
118
0.37
152
0.74
149
0.56
207
0.95
51
2.47
370
1.15
155
1.45
245
1.06
185
0.82
170
7.22
381
7.61
390
0.20
117
0.12
9
0.31
266
0.27
259
0.19
71
0.20
133
mmxtwo views1.39
323
0.33
187
0.85
180
0.53
118
0.37
152
0.74
149
0.56
207
2.13
333
1.37
290
1.15
155
1.45
245
1.06
185
0.82
170
7.22
381
7.61
390
0.24
204
0.19
207
0.31
266
0.27
259
0.30
248
0.25
205
xxxcopylefttwo views1.39
323
0.33
187
0.85
180
0.53
118
0.37
152
0.74
149
0.56
207
2.13
333
1.37
290
1.15
155
1.45
245
1.06
185
0.82
170
7.22
381
7.61
390
0.24
204
0.19
207
0.31
266
0.27
259
0.30
248
0.25
205
SACVNettwo views0.85
224
0.46
271
0.85
180
0.81
327
0.56
264
0.80
179
0.79
272
1.68
238
1.12
178
1.34
255
1.33
209
1.25
234
0.94
222
2.39
278
0.76
207
0.34
298
0.26
282
0.31
266
0.29
287
0.35
269
0.44
312
SMFormertwo views0.75
184
0.30
126
0.86
186
0.46
35
0.26
20
0.82
184
0.43
111
2.05
322
1.39
298
1.23
198
1.47
252
0.98
162
0.95
227
1.71
213
0.82
230
0.24
204
0.20
224
0.22
122
0.21
171
0.23
177
0.24
193
ttatwo views0.75
184
0.30
126
0.86
186
0.46
35
0.26
20
0.82
184
0.43
111
2.05
322
1.39
298
1.23
198
1.47
252
0.98
162
0.95
227
1.71
213
0.82
230
0.24
204
0.20
224
0.22
122
0.21
171
0.18
41
0.18
78
qqq1two views0.72
160
0.30
126
0.86
186
0.46
35
0.26
20
0.82
184
0.43
111
2.05
322
1.39
298
1.23
198
1.47
252
0.98
162
0.95
227
1.71
213
0.44
83
0.24
204
0.20
224
0.18
36
0.15
30
0.18
41
0.18
78
fff1two views0.72
160
0.30
126
0.86
186
0.46
35
0.26
20
0.82
184
0.43
111
2.05
322
1.39
298
1.23
198
1.47
252
0.98
162
0.95
227
1.71
213
0.44
83
0.24
204
0.20
224
0.18
36
0.15
30
0.18
41
0.18
78
1111xtwo views1.70
349
0.29
110
0.86
186
0.51
94
0.27
33
1.01
234
0.68
249
2.22
354
1.28
250
1.13
150
1.40
233
1.21
221
1.10
274
5.53
351
15.20
410
0.22
166
0.21
240
0.22
122
0.22
196
0.24
190
0.22
164
StereoVisiontwo views0.65
130
0.34
206
0.86
186
0.59
194
0.40
182
0.50
39
0.41
93
1.09
106
0.93
103
0.71
47
2.50
359
0.82
102
0.57
85
1.03
97
0.49
121
0.25
228
0.28
296
0.29
253
0.28
276
0.36
275
0.20
133
CFNet_pseudotwo views0.66
138
0.32
171
0.86
186
0.48
51
0.39
177
0.70
138
0.40
82
1.33
158
1.22
223
1.16
166
1.34
214
1.24
230
0.64
118
0.98
88
0.59
163
0.21
143
0.16
156
0.33
286
0.19
107
0.36
275
0.25
205
GANettwo views1.36
320
0.47
275
0.86
186
0.67
272
0.45
209
1.34
286
1.73
368
1.64
231
1.24
230
1.49
295
2.38
353
1.55
291
1.20
292
9.30
400
0.93
246
0.30
273
0.31
314
0.33
286
0.28
276
0.39
291
0.30
255
ccs_robtwo views0.66
138
0.33
187
0.86
186
0.48
51
0.39
177
0.70
138
0.40
82
1.33
158
1.22
223
1.16
166
1.34
214
1.23
228
0.64
118
0.98
88
0.59
163
0.21
143
0.16
156
0.35
303
0.20
135
0.37
279
0.25
205
FC-DCNNcopylefttwo views2.72
387
0.59
313
0.86
186
0.73
307
0.57
266
2.91
378
1.04
324
3.01
382
2.60
375
6.83
407
7.64
402
9.92
408
6.33
406
5.21
342
3.14
365
0.53
358
0.48
365
0.51
347
0.50
357
0.53
336
0.51
333
RALAANettwo views0.60
100
0.33
187
0.87
196
0.62
228
0.50
233
0.69
131
0.31
27
1.21
135
1.06
153
1.09
122
1.16
155
0.88
129
0.46
32
1.22
125
0.42
72
0.19
92
0.15
125
0.21
96
0.17
74
0.27
220
0.17
60
MSMDNettwo views0.66
138
0.32
171
0.87
196
0.49
64
0.37
152
0.79
174
0.40
82
1.43
183
1.31
264
1.15
155
1.31
202
1.24
230
0.63
115
0.88
70
0.57
158
0.21
143
0.16
156
0.26
224
0.19
107
0.39
291
0.24
193
DeepPruner_ROBtwo views0.74
177
0.48
280
0.87
196
0.57
175
0.44
202
0.79
174
0.54
188
1.73
246
0.96
110
1.38
267
1.27
189
1.24
230
0.73
135
1.43
164
0.73
201
0.34
298
0.28
296
0.27
235
0.26
251
0.31
255
0.31
265
PCWNet_CMDtwo views0.66
138
0.32
171
0.88
199
0.49
64
0.37
152
0.78
170
0.40
82
1.42
177
1.31
264
1.16
166
1.31
202
1.25
234
0.62
110
0.89
73
0.57
158
0.20
117
0.16
156
0.27
235
0.19
107
0.40
295
0.25
205
CFNet_ucstwo views0.70
154
0.33
187
0.88
199
0.50
71
0.43
196
0.74
149
0.44
123
1.60
222
1.29
254
1.22
195
1.54
267
1.09
198
0.63
115
0.99
90
0.59
163
0.25
228
0.20
224
0.37
313
0.21
171
0.40
295
0.28
240
RAFT_CTSACEtwo views0.63
115
0.26
46
0.88
199
0.55
152
0.51
243
0.71
141
0.44
123
0.80
17
0.97
117
0.97
92
1.84
317
1.18
218
0.68
126
1.47
173
0.36
33
0.16
11
0.15
125
0.21
96
0.20
135
0.20
97
0.14
11
LMCR-Stereopermissivemany views0.82
211
0.46
271
0.88
199
0.75
313
0.43
196
1.33
284
0.56
207
2.43
371
0.98
122
1.53
300
1.49
258
0.74
80
1.00
249
1.63
198
0.89
242
0.28
261
0.17
180
0.22
122
0.17
74
0.29
239
0.20
133
StereoDRNet-Refinedtwo views0.80
203
0.41
254
0.88
199
0.62
228
0.42
191
1.33
284
0.48
155
1.52
203
1.17
204
1.45
284
1.44
243
1.44
272
0.90
206
1.26
130
1.24
285
0.20
117
0.16
156
0.27
235
0.24
227
0.25
200
0.28
240
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
TransformOpticalFlowtwo views0.96
252
0.28
83
0.89
204
0.52
110
0.31
91
0.66
117
0.54
188
1.75
252
1.12
178
1.09
122
1.44
243
1.37
262
1.01
251
6.70
375
0.42
72
0.19
92
0.12
9
0.20
73
0.19
107
0.18
41
0.19
111
ADLNettwo views0.85
224
0.36
229
0.89
204
0.85
341
0.72
315
1.24
273
0.76
264
1.82
273
1.36
286
1.52
299
1.35
220
1.27
242
0.99
247
1.23
127
1.15
276
0.27
251
0.20
224
0.26
224
0.25
238
0.28
234
0.30
255
MSMD_ROBtwo views1.99
364
0.59
313
0.89
204
0.70
290
0.61
287
3.95
394
0.94
309
1.80
269
1.79
344
4.41
396
4.43
382
8.17
404
3.66
392
3.40
311
1.33
297
0.52
352
0.48
365
0.54
354
0.58
366
0.53
336
0.50
329
GEStwo views0.66
138
0.34
206
0.90
207
0.59
194
0.38
169
0.94
215
0.57
217
2.11
332
0.86
77
1.02
106
1.11
132
0.66
64
0.79
158
0.99
90
0.61
172
0.27
251
0.19
207
0.20
73
0.20
135
0.21
131
0.30
255
UPFNettwo views0.80
203
0.32
171
0.90
207
0.59
194
0.74
320
1.26
276
0.80
278
1.52
203
1.10
172
1.30
232
1.12
138
1.30
249
0.84
181
1.67
205
1.09
267
0.24
204
0.24
271
0.24
169
0.23
216
0.25
200
0.18
78
DMCAtwo views0.67
147
0.34
206
0.90
207
0.51
94
0.44
202
0.86
197
0.47
147
1.42
177
1.02
139
1.17
175
1.12
138
1.23
228
0.75
139
0.78
50
0.95
249
0.25
228
0.19
207
0.27
235
0.19
107
0.24
190
0.27
229
iRaft-Stereo_5wtwo views0.85
224
0.29
110
0.91
210
0.53
118
0.43
196
0.49
30
0.68
249
0.99
63
0.87
81
0.79
59
1.34
214
1.46
276
0.91
208
5.11
341
1.11
272
0.17
32
0.14
75
0.22
122
0.18
88
0.20
97
0.20
133
AASNettwo views0.76
190
0.35
222
0.91
210
0.79
321
0.81
342
1.14
253
0.56
207
2.02
320
1.08
162
1.22
195
1.24
176
0.93
144
0.76
147
0.77
49
1.16
277
0.27
251
0.23
262
0.24
169
0.20
135
0.28
234
0.24
193
Anonymoustwo views0.53
47
0.38
239
0.91
210
0.66
262
0.73
318
0.65
108
0.59
227
0.95
51
0.73
55
0.47
13
0.58
19
0.42
4
0.60
96
0.80
54
0.53
144
0.24
204
0.23
262
0.21
96
0.21
171
0.41
298
0.29
243
RASNettwo views1.12
292
0.30
126
0.91
210
0.66
262
0.77
330
0.97
227
0.57
217
1.37
167
1.35
283
1.02
106
1.34
214
2.11
347
1.43
319
7.09
380
1.39
307
0.19
92
0.17
180
0.17
14
0.19
107
0.18
41
0.16
41
MIM_Stereotwo views0.57
89
0.24
19
0.92
214
0.46
35
0.30
79
0.54
59
0.28
17
1.27
152
0.75
56
1.00
100
1.16
155
0.93
144
0.53
64
1.45
167
0.61
172
0.16
11
0.16
156
0.20
73
0.19
107
0.17
24
0.14
11
MeshStereopermissivetwo views2.26
370
0.56
303
0.92
214
0.61
217
0.49
227
2.60
371
1.02
322
3.18
384
2.05
360
7.40
411
4.98
391
7.58
401
2.98
386
6.37
367
1.96
344
0.43
333
0.43
353
0.45
337
0.39
330
0.43
308
0.42
306
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
CoDeXtwo views0.73
174
0.29
110
0.93
216
0.54
133
0.36
145
1.14
253
0.61
232
2.34
365
1.17
204
1.16
166
1.25
180
0.91
135
0.87
195
1.33
140
0.64
182
0.20
117
0.16
156
0.21
96
0.18
88
0.20
97
0.18
78
PS-NSSStwo views0.99
263
0.58
310
0.93
216
0.58
181
0.57
266
0.91
204
0.80
278
1.81
272
1.14
189
1.14
152
1.67
298
1.00
168
0.83
179
4.62
333
0.78
215
0.37
312
0.31
314
0.52
348
0.32
305
0.45
318
0.38
294
MIPNettwo views0.56
85
0.28
83
0.94
218
0.49
64
0.33
122
0.66
117
0.38
68
1.35
164
1.08
162
1.06
114
0.92
67
0.60
51
0.79
158
0.73
42
0.52
136
0.17
32
0.14
75
0.19
49
0.16
58
0.18
41
0.17
60
GMStereopermissivetwo views0.55
76
0.45
269
0.94
218
0.50
71
0.32
106
0.64
96
0.43
111
1.00
67
1.40
303
0.82
68
0.73
35
0.51
31
0.45
29
0.85
65
0.55
154
0.24
204
0.15
125
0.20
73
0.21
171
0.31
255
0.24
193
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
HGLStereotwo views0.85
224
0.38
239
0.94
218
0.80
324
1.03
362
1.17
262
0.58
220
1.52
203
1.20
216
1.19
183
1.62
288
1.13
210
1.20
292
1.80
227
1.06
262
0.24
204
0.24
271
0.24
169
0.21
171
0.23
177
0.27
229
MyStereo06two views0.61
106
0.28
83
0.95
221
0.56
164
0.46
219
0.61
87
0.73
259
1.78
265
0.67
41
1.03
110
1.12
138
1.13
210
0.56
77
0.78
50
0.41
64
0.17
32
0.16
156
0.23
149
0.20
135
0.22
152
0.20
133
hknettwo views0.77
191
0.32
171
0.95
221
0.54
133
0.38
169
1.27
277
0.65
239
2.16
342
1.07
158
1.20
187
1.11
132
1.59
297
0.81
166
1.37
148
0.66
184
0.22
166
0.17
180
0.25
205
0.22
196
0.22
152
0.22
164
delettwo views0.85
224
0.32
171
0.95
221
0.65
257
0.66
300
1.64
318
0.84
284
1.75
252
1.35
283
1.32
244
1.30
197
1.30
249
0.88
199
1.68
210
1.10
270
0.21
143
0.21
240
0.24
169
0.24
227
0.21
131
0.21
149
acv_fttwo views0.75
184
0.31
157
0.95
221
0.70
290
0.86
349
1.24
273
0.53
184
1.44
184
1.07
158
1.24
206
1.30
197
1.08
192
0.92
211
0.80
54
1.34
299
0.21
143
0.19
207
0.21
96
0.18
88
0.21
131
0.18
78
CIPLGtwo views0.62
109
0.33
187
0.96
225
0.58
181
0.50
233
0.75
155
0.48
155
1.05
86
0.96
110
1.40
273
1.57
277
0.64
59
0.48
46
0.89
73
0.70
190
0.23
189
0.15
125
0.19
49
0.16
58
0.19
71
0.21
149
STrans-v2two views1.04
276
0.28
83
0.96
225
0.49
64
0.32
106
0.68
127
0.79
272
2.47
373
1.12
178
1.12
136
1.46
251
1.40
263
1.46
323
6.70
375
0.43
81
0.18
60
0.13
42
0.20
73
0.18
88
0.18
41
0.18
78
ddtwo views0.59
97
0.48
280
0.97
227
0.55
152
0.32
106
0.64
96
0.47
147
1.02
73
1.34
275
0.78
56
0.86
56
0.58
46
0.54
67
1.01
94
0.86
240
0.28
261
0.18
194
0.26
224
0.19
107
0.32
260
0.24
193
IPLGtwo views0.69
152
0.27
67
0.97
227
0.51
94
0.43
196
0.79
174
0.33
33
1.21
135
1.06
153
1.30
232
1.10
127
0.52
36
0.55
73
3.16
306
0.63
179
0.16
11
0.14
75
0.19
49
0.16
58
0.18
41
0.17
60
TRStereotwo views0.60
100
0.60
320
0.97
227
0.74
309
0.67
302
0.46
18
0.38
68
1.85
279
0.89
88
0.79
59
0.80
51
0.88
129
0.39
14
1.10
111
0.41
64
0.23
189
0.15
125
0.23
149
0.24
227
0.17
24
0.15
27
IGEV_Zeroshot_testtwo views0.53
47
0.30
126
0.99
230
0.56
164
0.35
140
0.41
12
0.32
30
1.37
167
0.63
25
1.00
100
1.09
123
0.95
153
0.41
18
0.83
61
0.39
54
0.18
60
0.12
9
0.19
49
0.18
88
0.19
71
0.17
60
UDGtwo views1.41
326
2.65
406
0.99
230
1.44
382
1.64
385
1.34
286
0.80
278
1.60
222
1.23
226
1.23
198
1.71
301
2.01
340
1.34
314
1.47
173
1.41
312
0.90
373
0.54
375
2.29
390
0.75
374
1.84
384
1.04
377
IPLGR_Ctwo views0.62
109
0.33
187
0.99
230
0.58
181
0.49
227
0.76
159
0.48
155
1.10
108
0.96
110
1.40
273
1.56
273
0.62
54
0.48
46
0.80
54
0.71
195
0.23
189
0.15
125
0.19
49
0.16
58
0.19
71
0.21
149
GEStereo_RVCtwo views0.90
239
0.37
234
0.99
230
0.64
245
0.50
233
0.95
219
0.79
272
2.42
370
1.17
204
1.16
166
1.11
132
1.26
238
0.92
211
3.24
307
0.90
244
0.29
269
0.19
207
0.23
149
0.20
135
0.27
220
0.29
243
iResNet_ROBtwo views0.77
191
0.30
126
0.99
230
0.57
175
0.36
145
0.83
188
0.36
55
2.33
363
1.58
328
1.27
217
1.30
197
1.25
234
0.84
181
1.65
200
0.79
221
0.20
117
0.14
75
0.17
14
0.12
9
0.18
41
0.27
229
MyStereo8two views0.65
130
0.29
110
1.00
235
0.58
181
0.49
227
0.91
204
0.35
46
1.18
128
1.31
264
1.16
166
1.27
189
0.90
134
0.64
118
0.72
39
0.95
249
0.18
60
0.14
75
0.20
73
0.18
88
0.22
152
0.26
223
CRFU-Nettwo views0.86
229
0.39
244
1.00
235
0.65
257
0.57
266
1.78
333
0.86
290
2.15
339
0.81
69
1.38
267
1.18
160
1.64
306
1.19
289
1.35
144
0.90
244
0.26
242
0.22
254
0.21
96
0.19
107
0.23
177
0.24
193
iRaft-Stereo_20wtwo views0.65
130
0.31
157
1.00
235
0.47
41
0.34
137
0.73
146
0.30
22
2.96
381
0.70
47
1.15
155
1.14
146
0.76
85
0.65
123
1.11
114
0.38
48
0.17
32
0.13
42
0.18
36
0.16
58
0.19
71
0.18
78
MaskLacGwcNet_RVCtwo views1.10
287
1.02
363
1.00
235
0.82
332
0.67
302
1.93
343
0.93
307
1.62
228
1.11
174
1.15
155
1.25
180
1.50
284
0.79
158
1.96
245
0.76
207
1.89
386
0.34
324
0.79
371
0.36
324
1.25
381
0.83
368
GMStereo_Zeroshotpermissivetwo views0.67
147
0.61
321
1.01
239
0.64
245
0.37
152
0.84
195
0.35
46
1.05
86
1.12
178
1.12
136
1.06
112
1.27
242
0.54
67
1.19
122
0.59
163
0.32
285
0.17
180
0.31
266
0.18
88
0.52
334
0.22
164
test crocotwo views0.46
24
0.27
67
1.01
239
0.50
71
0.40
182
0.35
5
0.37
64
0.87
24
0.56
17
0.43
7
0.76
41
0.42
4
0.40
16
1.13
117
0.45
91
0.21
143
0.15
125
0.24
169
0.19
107
0.24
190
0.16
41
ACREtwo views0.61
106
0.33
187
1.01
239
0.58
181
0.49
227
0.75
155
0.47
147
1.06
99
0.95
108
1.37
262
1.55
269
0.62
54
0.46
32
0.83
61
0.70
190
0.23
189
0.15
125
0.19
49
0.16
58
0.18
41
0.21
149
ccnettwo views1.12
292
0.67
330
1.01
239
0.78
320
0.73
318
1.72
324
0.99
317
1.84
278
1.26
238
1.47
287
1.85
319
1.75
321
1.29
306
1.75
218
1.88
340
0.57
360
0.53
372
0.57
364
0.55
363
0.59
346
0.54
336
GwcNet-RSSMtwo views0.77
191
0.32
171
1.01
239
0.62
228
0.54
257
0.78
170
0.51
169
1.73
246
1.20
216
1.09
122
1.37
223
1.46
276
0.85
184
1.53
182
1.09
267
0.25
228
0.18
194
0.23
149
0.24
227
0.20
97
0.19
111
CFNettwo views0.96
252
0.36
229
1.01
239
0.62
228
0.42
191
0.99
231
0.47
147
1.90
290
1.32
269
0.99
98
1.39
231
1.10
200
0.86
192
5.58
354
0.79
221
0.23
189
0.17
180
0.28
245
0.27
259
0.26
208
0.21
149
ssnet_v2two views0.88
234
0.36
229
1.02
245
0.62
228
0.38
169
1.32
283
0.97
313
2.07
328
1.34
275
1.37
262
1.18
160
1.54
289
0.92
211
1.10
111
1.65
330
0.30
273
0.27
290
0.30
262
0.28
276
0.27
220
0.26
223
IERtwo views0.70
154
0.31
157
1.02
245
0.48
51
0.52
251
1.34
286
0.51
169
1.17
123
0.99
129
1.23
198
1.34
214
1.12
205
1.11
275
0.99
90
0.71
195
0.20
117
0.16
156
0.21
96
0.21
171
0.20
97
0.19
111
sCroCo_RVCtwo views0.49
34
0.40
248
1.02
245
0.65
257
0.60
284
0.52
51
0.40
82
0.83
21
0.61
22
0.44
8
0.74
37
0.49
28
0.50
55
0.63
25
0.48
114
0.26
242
0.27
290
0.23
149
0.22
196
0.29
239
0.25
205
SFCPSMtwo views0.70
154
0.28
83
1.02
245
0.51
94
0.38
169
1.37
289
0.66
244
2.00
313
1.03
142
1.17
175
1.21
168
0.82
102
0.78
156
1.03
97
0.53
144
0.21
143
0.17
180
0.22
122
0.24
227
0.21
131
0.19
111
DAStwo views0.84
220
0.34
206
1.03
249
0.64
245
0.69
310
0.77
165
0.63
235
1.54
211
1.20
216
1.79
334
1.55
269
0.95
153
1.04
259
2.83
293
0.60
170
0.21
143
0.16
156
0.25
205
0.18
88
0.27
220
0.22
164
SepStereotwo views0.82
211
0.34
206
1.03
249
0.64
245
0.69
310
0.77
165
0.63
235
1.54
211
1.20
216
1.79
334
1.55
269
0.95
153
1.04
259
2.30
271
0.60
170
0.21
143
0.16
156
0.25
205
0.18
88
0.27
220
0.22
164
MANEtwo views6.19
402
0.59
313
1.03
249
0.93
360
1.22
378
13.38
415
2.69
400
12.81
416
17.94
419
8.21
412
10.82
411
14.72
414
11.68
410
11.39
413
11.90
404
0.59
361
0.50
369
0.52
348
1.76
403
0.55
339
0.54
336
test-1two views0.52
38
0.26
46
1.04
252
0.56
164
0.32
106
0.61
87
0.38
68
1.10
108
0.91
97
0.78
56
1.01
91
0.77
86
0.52
59
0.60
23
0.42
72
0.17
32
0.14
75
0.20
73
0.17
74
0.20
97
0.23
181
whm_ethtwo views0.65
130
0.47
275
1.05
253
0.55
152
0.64
295
0.69
131
0.45
134
1.34
162
1.26
238
1.02
106
1.92
327
0.49
28
0.48
46
0.70
33
0.52
136
0.23
189
0.20
224
0.25
205
0.24
227
0.24
190
0.31
265
NLCA_NET_v2_RVCtwo views0.79
200
0.43
260
1.05
253
0.64
245
0.58
274
0.95
219
0.53
184
1.53
209
1.18
208
1.37
262
1.15
152
1.43
268
0.88
199
1.61
196
0.84
235
0.25
228
0.22
254
0.27
235
0.27
259
0.29
239
0.29
243
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
DN-CSS_ROBtwo views0.64
125
0.32
171
1.05
253
0.55
152
0.40
182
0.54
59
0.45
134
1.21
135
0.93
103
1.03
110
1.47
252
0.69
73
0.63
115
1.76
223
0.49
121
0.18
60
0.14
75
0.25
205
0.22
196
0.22
152
0.20
133
ADStereo(finetuned)two views0.57
89
0.24
19
1.06
256
0.43
8
0.24
9
0.49
30
0.35
46
1.05
86
1.30
260
1.12
136
1.03
106
0.58
46
1.20
292
0.84
63
0.51
130
0.16
11
0.13
42
0.17
14
0.13
11
0.18
41
0.19
111
dadtwo views0.86
229
0.66
329
1.06
256
0.56
164
0.37
152
0.76
159
0.44
123
1.17
123
1.50
319
1.44
282
1.27
189
1.34
258
0.75
139
2.52
283
0.84
235
0.42
328
0.27
290
0.83
372
0.26
251
0.41
298
0.29
243
DSFCAtwo views0.93
247
0.34
206
1.06
256
0.52
110
0.65
298
1.55
309
0.93
307
1.49
191
1.19
211
1.56
308
1.15
152
1.50
284
0.96
232
3.07
301
1.02
259
0.30
273
0.26
282
0.25
205
0.25
238
0.28
234
0.24
193
NCCL2two views1.00
267
0.56
303
1.06
256
0.75
313
0.57
266
1.31
282
1.72
367
1.77
261
1.36
286
1.50
296
1.17
158
1.91
328
1.17
283
1.54
184
1.29
293
0.35
305
0.31
314
0.45
337
0.44
342
0.40
295
0.40
298
MyStereo05two views0.66
138
0.28
83
1.07
260
0.56
164
0.46
219
0.61
87
0.73
259
1.34
162
1.41
306
1.15
155
0.91
65
0.77
86
0.80
163
1.41
163
0.63
179
0.17
32
0.16
156
0.23
149
0.20
135
0.22
152
0.20
133
MyStereo04two views0.67
147
0.29
110
1.07
260
0.55
152
0.45
209
0.59
78
0.79
272
1.50
195
1.40
303
0.91
79
0.91
65
0.74
80
0.86
192
1.52
178
0.62
175
0.17
32
0.16
156
0.24
169
0.20
135
0.23
177
0.20
133
DCANet-4two views0.54
61
0.26
46
1.07
260
0.42
7
0.24
9
0.48
20
0.36
55
0.99
63
1.30
260
1.10
130
1.02
98
0.56
40
0.75
139
0.73
42
0.52
136
0.16
11
0.13
42
0.17
14
0.13
11
0.15
5
0.19
111
SQANettwo views1.31
314
0.88
356
1.08
263
1.83
385
1.44
382
1.44
300
0.75
261
1.74
250
1.09
168
1.32
244
1.26
186
1.28
245
1.01
251
1.50
177
0.83
232
2.50
391
0.34
324
1.47
383
0.55
363
2.32
387
1.57
387
RAFT + AFFtwo views1.00
267
0.42
257
1.09
264
0.67
272
0.50
233
1.22
271
1.24
343
2.24
356
1.19
211
1.30
232
1.56
273
1.17
215
1.49
328
3.44
315
0.83
232
0.21
143
0.25
278
0.30
262
0.26
251
0.27
220
0.27
229
MMNettwo views0.84
220
0.32
171
1.09
264
0.60
205
0.59
281
1.85
339
0.49
162
1.51
200
1.27
245
1.37
262
1.15
152
1.26
238
1.18
286
1.67
205
1.22
283
0.19
92
0.18
194
0.23
149
0.22
196
0.25
200
0.21
149
XPNet_ROBtwo views0.96
252
0.49
283
1.09
264
0.72
300
0.57
266
1.11
248
1.14
334
1.66
236
1.23
226
1.85
340
1.39
231
1.64
306
1.11
275
1.80
227
1.42
316
0.38
316
0.30
308
0.33
286
0.29
287
0.37
279
0.34
277
PFNettwo views0.91
242
0.26
46
1.10
267
0.63
236
0.32
106
0.64
96
0.56
207
1.17
123
0.99
129
1.47
287
1.08
118
0.98
162
0.69
129
6.62
370
0.54
150
0.20
117
0.12
9
0.24
169
0.19
107
0.20
97
0.17
60
MLCVtwo views0.72
160
0.34
206
1.10
267
0.51
94
0.23
6
0.91
204
0.39
79
1.33
158
1.23
226
1.46
286
1.55
269
1.01
175
0.64
118
1.95
244
0.80
224
0.18
60
0.12
9
0.18
36
0.14
22
0.19
71
0.17
60
Anonymous3two views0.61
106
0.44
263
1.11
269
0.59
194
0.49
227
0.93
213
0.65
239
0.93
44
0.81
69
0.72
50
0.88
61
0.65
62
0.69
129
1.06
104
0.53
144
0.35
305
0.30
308
0.26
224
0.26
251
0.31
255
0.27
229
DISCOtwo views1.03
273
0.34
206
1.11
269
0.69
285
0.45
209
2.07
352
0.84
284
2.13
333
1.50
319
1.15
155
1.33
209
2.40
359
1.07
269
2.60
286
1.51
325
0.23
189
0.18
194
0.22
122
0.20
135
0.31
255
0.27
229
DDUNettwo views1.50
331
2.69
407
1.12
271
1.77
384
1.88
387
1.84
338
0.92
303
1.70
243
1.16
202
1.38
267
1.79
311
1.60
299
1.12
278
1.37
148
1.08
265
1.10
383
0.76
384
2.37
392
0.94
384
2.00
385
1.37
385
RPtwo views1.09
284
0.50
287
1.12
271
0.90
354
1.04
363
1.11
248
0.84
284
1.80
269
1.62
330
1.55
307
2.00
332
1.90
327
1.78
350
1.84
230
1.25
286
0.52
352
0.36
337
0.48
343
0.36
324
0.45
318
0.43
310
DRN-Testtwo views1.00
267
0.44
263
1.13
273
0.70
290
0.81
342
1.62
315
0.79
272
2.14
337
1.44
312
1.78
331
1.33
209
1.43
268
1.05
263
2.18
263
1.53
326
0.27
251
0.21
240
0.31
266
0.30
295
0.32
260
0.28
240
IPLGRtwo views0.58
94
0.27
67
1.14
274
0.48
51
0.28
52
0.65
108
0.33
33
1.22
142
1.13
187
1.18
179
1.05
110
0.69
73
0.66
125
0.96
82
0.52
136
0.17
32
0.15
125
0.20
73
0.17
74
0.20
97
0.18
78
NaN_ROBtwo views1.13
295
0.55
300
1.15
275
0.64
245
0.48
224
1.61
314
2.03
386
1.72
245
1.48
316
2.09
353
1.27
189
1.40
263
1.08
270
3.94
321
1.30
294
0.28
261
0.34
324
0.28
245
0.28
276
0.30
248
0.33
275
ETE_ROBtwo views0.96
252
0.64
327
1.16
276
0.69
285
0.48
224
1.14
253
1.13
333
1.77
261
1.19
211
1.91
345
1.45
245
1.73
316
1.05
263
1.60
195
1.14
275
0.32
285
0.26
282
0.38
316
0.34
316
0.39
291
0.41
302
LALA_ROBtwo views1.01
270
0.59
313
1.16
276
0.67
272
0.51
243
1.63
316
1.26
347
1.69
240
1.38
294
1.81
337
1.37
223
1.94
333
1.02
256
1.58
192
1.38
304
0.37
312
0.27
290
0.43
333
0.37
327
0.43
308
0.37
288
ADLNet2two views0.88
234
0.34
206
1.17
278
0.77
318
0.64
295
1.12
251
0.76
264
1.74
250
1.24
230
1.21
190
1.65
294
1.71
314
1.05
263
1.67
205
1.17
279
0.24
204
0.21
240
0.21
96
0.22
196
0.26
208
0.29
243
BEATNet_4xtwo views0.73
174
0.49
283
1.17
278
0.53
118
0.26
20
1.03
236
0.55
201
1.82
273
1.06
153
1.21
190
1.22
170
0.96
159
0.91
208
1.01
94
1.06
262
0.21
143
0.14
75
0.24
169
0.19
107
0.37
279
0.21
149
PSMNet_ROBtwo views0.90
239
0.52
293
1.17
278
0.72
300
0.61
287
1.27
277
1.12
332
1.76
258
1.12
178
1.09
122
1.28
193
1.45
274
0.89
205
1.65
200
1.42
316
0.33
290
0.25
278
0.37
313
0.39
330
0.35
269
0.29
243
otakutwo views1.60
339
1.11
370
1.21
281
2.20
388
1.56
384
1.97
346
1.24
343
2.07
328
1.36
286
1.44
282
1.62
288
1.73
316
1.19
289
1.73
217
0.98
256
2.89
395
0.57
377
1.74
384
0.60
370
2.78
392
1.94
392
anonymitytwo views1.12
292
0.97
359
1.21
281
1.07
371
1.12
369
1.08
245
0.89
295
1.95
305
1.16
202
1.29
224
1.26
186
1.22
223
1.09
273
1.15
119
1.01
258
1.02
378
1.00
399
0.97
376
0.97
386
0.98
371
0.99
374
STTStereotwo views0.78
197
0.50
287
1.22
283
0.64
245
0.54
257
0.89
200
0.54
188
1.44
184
1.11
174
1.38
267
1.09
123
1.27
242
0.85
184
1.43
164
0.83
232
0.29
269
0.27
290
0.33
286
0.39
330
0.32
260
0.30
255
Ntrotwo views1.64
343
1.15
373
1.23
284
2.48
393
1.83
386
2.09
353
1.16
337
1.96
306
1.38
294
1.21
190
1.62
288
1.62
301
1.29
306
1.87
236
1.11
272
3.04
396
0.56
376
1.82
386
0.64
371
2.80
393
2.05
393
ToySttwo views0.66
138
0.33
187
1.23
284
0.51
94
0.33
122
0.86
197
0.68
249
1.10
108
0.97
117
0.84
71
1.08
118
1.25
234
0.94
222
1.01
94
0.74
202
0.19
92
0.19
207
0.24
169
0.24
227
0.27
220
0.23
181
SPS-STEREOcopylefttwo views1.67
345
1.04
364
1.23
284
1.21
375
1.13
372
1.82
336
1.11
330
2.16
342
1.52
322
3.07
386
2.32
350
2.82
371
1.80
352
4.11
324
2.04
347
1.03
379
0.99
398
0.97
376
0.94
384
1.03
375
1.02
375
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
NCC-stereotwo views1.10
287
0.54
297
1.24
287
0.84
336
0.94
357
1.29
280
0.89
295
2.01
317
1.34
275
1.32
244
1.74
304
1.88
323
1.74
347
2.35
274
1.25
286
0.45
339
0.37
339
0.45
337
0.58
366
0.42
303
0.42
306
Abc-Nettwo views1.10
287
0.54
297
1.24
287
0.84
336
0.94
357
1.29
280
0.89
295
2.01
317
1.34
275
1.32
244
1.74
304
1.88
323
1.74
347
2.35
274
1.25
286
0.45
339
0.37
339
0.45
337
0.58
366
0.42
303
0.42
306
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
RYNettwo views1.17
303
0.49
283
1.24
287
0.70
290
0.97
361
1.71
322
0.92
303
1.91
294
1.46
314
1.38
267
1.14
146
1.88
323
1.30
310
4.24
325
1.87
338
0.26
242
0.21
240
0.35
303
0.27
259
0.55
339
0.54
336
RGCtwo views1.14
297
0.79
348
1.26
290
0.91
357
0.96
360
1.52
306
0.77
267
1.92
297
1.26
238
1.54
304
1.93
328
2.02
342
1.54
330
2.25
269
1.31
295
0.44
338
0.35
332
0.58
365
0.48
351
0.47
321
0.46
318
SGM-ForestMtwo views6.52
404
0.38
239
1.26
290
0.63
236
0.35
140
13.59
416
5.32
410
6.32
409
6.70
404
11.14
413
9.18
408
22.51
424
13.93
412
16.89
417
20.07
415
0.36
308
0.37
339
0.36
311
0.35
320
0.36
275
0.34
277
CSANtwo views1.41
326
0.59
313
1.26
290
0.70
290
0.50
233
1.76
328
1.78
370
1.77
261
1.90
352
2.35
361
2.32
350
1.92
331
1.94
361
5.56
353
1.49
324
0.43
333
0.35
332
0.40
327
0.41
336
0.43
308
0.41
302
DMCA-RVCcopylefttwo views0.74
177
0.40
248
1.27
293
0.66
262
0.49
227
0.77
165
0.47
147
1.35
164
1.01
136
1.53
300
1.01
91
1.29
248
0.82
170
1.31
136
0.78
215
0.27
251
0.21
240
0.35
303
0.27
259
0.32
260
0.24
193
CC-Net-ROBtwo views1.49
329
1.26
377
1.27
293
0.88
349
0.79
335
1.76
328
1.00
319
1.79
267
1.26
238
1.10
130
1.61
285
1.21
221
0.99
247
8.13
394
0.84
235
1.09
382
0.41
350
2.20
388
0.46
347
1.20
380
0.48
324
PA-Nettwo views1.01
270
0.57
307
1.29
295
0.64
245
0.74
320
1.19
267
0.84
284
1.69
240
1.43
311
1.16
166
1.19
163
1.32
253
1.19
289
3.42
313
1.25
286
0.29
269
0.45
360
0.33
286
0.49
354
0.32
260
0.47
321
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
edge stereotwo views1.11
290
0.50
287
1.30
296
0.71
297
0.65
298
1.14
253
0.75
261
1.93
301
1.37
290
1.71
325
1.83
315
2.54
363
1.44
320
2.43
280
1.23
284
0.42
328
0.41
350
0.54
354
0.35
320
0.42
303
0.46
318
UNettwo views0.83
216
0.34
206
1.31
297
0.58
181
0.74
320
1.58
312
0.49
162
1.41
175
1.04
146
1.21
190
1.08
118
1.54
289
1.12
278
1.65
200
1.09
267
0.23
189
0.17
180
0.25
205
0.20
135
0.25
200
0.22
164
GANetREF_RVCpermissivetwo views1.07
279
0.86
353
1.31
297
0.82
332
0.53
254
1.41
298
1.31
349
1.76
258
1.52
322
1.27
217
1.31
202
1.46
276
1.24
300
2.03
250
0.96
253
0.56
359
0.45
360
0.67
367
0.50
357
0.88
369
0.59
347
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
WCMA_ROBtwo views1.84
355
0.47
275
1.31
297
0.69
285
0.57
266
2.11
354
1.14
334
1.87
283
1.73
339
4.04
392
6.43
395
5.62
395
3.61
391
2.59
285
1.94
343
0.52
352
0.44
356
0.39
322
0.42
338
0.48
324
0.47
321
FAT-Stereotwo views1.07
279
0.41
254
1.32
300
0.72
300
0.58
274
1.08
245
0.89
295
1.96
306
1.65
332
1.75
328
1.98
331
2.03
343
1.48
326
2.02
249
1.18
282
0.42
328
0.35
332
0.34
296
0.29
287
0.35
269
0.53
335
DANettwo views1.08
282
0.61
321
1.32
300
0.85
341
0.72
315
1.37
289
0.51
169
1.54
211
1.15
198
1.78
331
1.54
267
2.01
340
1.11
275
2.90
296
2.00
346
0.33
290
0.30
308
0.40
327
0.30
295
0.44
315
0.45
314
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
AF-Nettwo views1.13
295
0.52
293
1.33
302
0.86
343
0.91
353
1.38
292
0.71
257
2.16
342
1.62
330
1.56
308
2.40
355
1.99
338
1.65
340
1.81
229
1.48
323
0.48
347
0.28
296
0.49
345
0.33
311
0.39
291
0.32
271
Nwc_Nettwo views1.09
284
0.49
283
1.33
302
0.89
353
0.80
340
1.49
304
0.66
244
2.19
350
1.27
245
1.32
244
2.26
348
1.96
335
1.54
330
1.92
239
1.34
299
0.40
321
0.30
308
0.43
333
0.45
344
0.38
287
0.37
288
PWCDC_ROBbinarytwo views1.29
311
0.75
344
1.33
302
1.05
368
0.88
352
1.73
325
0.52
178
1.89
287
3.28
384
1.29
224
4.88
390
1.22
223
1.46
323
1.77
225
1.45
320
0.60
362
0.26
282
0.29
253
0.25
238
0.52
334
0.37
288
iResNettwo views0.75
184
0.40
248
1.36
305
0.67
272
0.29
63
0.92
210
0.59
227
1.52
203
1.25
233
1.28
219
1.48
257
0.94
147
0.76
147
1.62
197
0.78
215
0.18
60
0.14
75
0.18
36
0.15
30
0.22
152
0.23
181
LL-Strereotwo views1.33
317
0.39
244
1.38
306
0.61
217
0.61
287
0.75
155
0.66
244
1.63
230
1.17
204
1.56
308
1.60
281
2.03
343
2.12
369
9.72
406
0.97
254
0.21
143
0.18
194
0.27
235
0.23
216
0.22
152
0.25
205
fast-acv-fttwo views0.94
248
0.44
263
1.40
307
0.58
181
0.51
243
1.77
331
0.69
253
1.36
166
1.42
309
1.29
224
1.86
320
1.74
318
1.25
301
1.52
178
1.38
304
0.26
242
0.28
296
0.28
245
0.28
276
0.27
220
0.26
223
stereogantwo views1.15
300
0.42
257
1.40
307
0.86
343
0.84
346
2.38
365
0.71
257
1.88
285
1.73
339
1.72
326
1.94
330
2.31
354
1.29
306
2.07
254
1.08
265
0.36
308
0.35
332
0.39
322
0.31
299
0.51
332
0.46
318
APVNettwo views1.06
277
0.53
296
1.42
309
0.84
336
0.79
335
1.92
342
0.82
282
1.90
290
1.08
162
1.08
117
1.43
240
1.56
292
1.13
280
3.07
301
1.58
327
0.31
280
0.34
324
0.42
331
0.36
324
0.36
275
0.37
288
gwcnet-sptwo views0.74
177
0.33
187
1.44
310
0.57
175
0.45
209
1.40
294
0.54
188
1.50
195
1.14
189
1.30
232
1.02
98
0.94
147
0.82
170
1.39
157
0.76
207
0.21
143
0.21
240
0.22
122
0.21
171
0.22
152
0.22
164
scenettwo views0.74
177
0.33
187
1.44
310
0.57
175
0.45
209
1.40
294
0.54
188
1.50
195
1.14
189
1.30
232
1.02
98
0.94
147
0.82
170
1.39
157
0.76
207
0.21
143
0.21
240
0.22
122
0.21
171
0.22
152
0.22
164
ssnettwo views0.74
177
0.33
187
1.44
310
0.57
175
0.45
209
1.40
294
0.54
188
1.50
195
1.14
189
1.30
232
1.02
98
0.94
147
0.82
170
1.39
157
0.76
207
0.21
143
0.21
240
0.22
122
0.21
171
0.22
152
0.22
164
PDISCO_ROBtwo views1.32
316
0.65
328
1.44
310
1.36
377
1.46
383
2.55
369
0.92
303
2.45
372
2.07
361
1.37
262
1.49
258
1.65
308
1.00
249
2.82
292
1.35
302
1.01
376
0.27
290
0.54
354
0.47
349
0.71
362
0.73
364
NVStereoNet_ROBtwo views1.88
357
1.07
365
1.45
314
1.07
371
1.17
373
1.47
301
1.48
358
1.89
287
1.93
355
1.94
346
4.67
388
3.08
375
1.80
352
6.51
369
1.65
330
1.06
381
0.86
393
1.08
381
1.32
393
0.93
370
1.26
384
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
FBW_ROBtwo views1.71
351
0.62
324
1.45
314
0.67
272
0.61
287
1.81
334
1.08
328
2.52
374
1.70
336
1.77
330
1.73
303
1.98
337
1.25
301
12.57
414
1.84
337
0.34
298
0.37
339
0.56
362
0.38
329
0.45
318
0.43
310
WAO-6two views2.81
388
1.60
386
1.46
316
2.36
392
2.28
395
3.55
387
2.29
395
4.21
394
4.56
397
2.36
363
4.51
383
4.88
390
2.66
381
4.60
332
4.07
376
1.72
385
1.15
405
2.31
391
1.46
399
2.31
386
1.85
390
IMH-64-1two views2.70
385
1.79
390
1.46
316
3.26
404
2.66
400
3.23
385
2.10
387
4.08
391
2.75
379
2.34
359
3.81
378
3.06
373
2.22
372
4.25
326
2.59
357
3.75
406
0.84
388
2.75
402
1.35
394
3.15
401
2.60
403
IMH-64two views2.70
385
1.79
390
1.46
316
3.26
404
2.66
400
3.23
385
2.10
387
4.08
391
2.75
379
2.34
359
3.81
378
3.06
373
2.22
372
4.25
326
2.59
357
3.75
406
0.84
388
2.75
402
1.35
394
3.15
401
2.60
403
sAnonymous2two views0.55
76
0.56
303
1.46
316
0.60
205
0.51
243
0.48
20
0.52
178
0.79
12
0.68
44
0.50
26
0.67
24
0.46
15
0.62
110
0.59
14
0.40
57
0.22
166
0.17
180
0.22
122
0.21
171
0.86
367
0.56
340
CroCo_RVCtwo views0.55
76
0.56
303
1.46
316
0.60
205
0.51
243
0.48
20
0.52
178
0.79
12
0.68
44
0.50
26
0.67
24
0.46
15
0.62
110
0.59
14
0.40
57
0.22
166
0.17
180
0.22
122
0.21
171
0.86
367
0.56
340
IMHtwo views3.21
391
1.85
394
1.48
321
3.25
403
2.69
402
4.07
396
2.02
385
4.41
396
3.80
390
2.72
372
7.11
399
4.75
389
2.92
384
5.92
360
2.55
355
3.85
409
0.88
394
2.78
404
1.36
396
3.19
403
2.59
402
NVstereo2Dtwo views0.92
244
0.41
254
1.48
321
0.72
300
0.72
315
1.20
269
0.87
292
1.75
252
1.38
294
0.99
98
1.13
143
1.26
238
0.98
239
2.21
266
0.89
242
0.43
333
0.20
224
0.38
316
0.24
227
0.57
342
0.63
353
ARAFTtwo views0.77
191
0.36
229
1.49
323
0.51
94
0.31
91
0.90
202
0.82
282
1.90
290
1.06
153
1.62
318
1.24
176
1.02
177
0.64
118
1.84
230
0.50
127
0.18
60
0.14
75
0.28
245
0.27
259
0.17
24
0.16
41
AANet_RVCtwo views1.16
302
0.52
293
1.49
323
0.65
257
0.45
209
0.75
155
0.69
253
1.42
177
1.55
327
1.34
255
1.87
322
1.53
288
0.78
156
7.43
386
1.38
304
0.25
228
0.17
180
0.19
49
0.16
58
0.22
152
0.26
223
ELAScopylefttwo views2.37
374
0.74
342
1.54
325
0.99
364
0.92
355
4.78
400
2.33
396
3.33
386
3.37
386
5.05
404
4.77
389
3.67
379
4.53
399
3.42
313
4.50
377
0.62
364
0.53
372
0.55
359
0.53
361
0.63
351
0.64
357
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
G-Nettwo views1.66
344
0.63
325
1.56
326
1.11
373
0.74
320
2.98
381
0.91
301
1.55
215
1.22
223
2.76
375
8.18
406
2.32
355
2.53
380
1.92
239
1.87
338
0.48
347
0.44
356
0.45
337
0.31
299
0.60
350
0.57
344
RainbowNettwo views1.97
363
1.76
388
1.57
327
2.81
396
2.21
392
1.98
348
1.81
372
2.54
375
1.89
350
1.50
296
1.84
317
1.96
335
1.65
340
2.14
259
1.25
286
3.33
402
0.85
391
2.39
395
0.98
388
2.82
395
2.22
394
MDST_ROBtwo views1.67
345
0.34
206
1.58
328
0.92
359
0.58
274
4.26
398
1.11
330
2.83
378
1.41
306
4.49
398
2.55
360
1.45
274
0.97
235
7.79
391
1.17
279
0.31
280
0.25
278
0.37
313
0.33
311
0.31
255
0.30
255
FINETtwo views0.97
258
0.54
297
1.60
329
0.63
236
0.79
335
1.08
245
1.07
327
1.56
216
2.20
364
1.15
155
1.49
258
0.94
147
0.88
199
2.32
272
1.05
260
0.42
328
0.35
332
0.32
279
0.28
276
0.43
308
0.38
294
LVEtwo views3.31
392
1.67
387
1.64
330
2.85
397
2.42
398
3.20
384
2.26
394
4.78
399
5.05
399
2.35
361
6.91
396
6.02
396
2.37
375
9.15
398
2.17
352
3.19
399
1.08
404
2.38
394
1.47
400
2.81
394
2.40
399
ACVNet-4btwo views2.15
367
1.41
381
1.64
330
2.80
395
2.31
396
2.31
362
1.24
343
2.32
362
2.14
362
1.26
214
2.39
354
2.66
367
1.48
326
5.95
362
1.06
262
3.20
400
0.45
360
2.37
392
0.89
381
2.83
396
2.37
397
Syn2CoExtwo views1.14
297
0.69
334
1.66
332
0.80
324
0.67
302
1.40
294
0.88
293
2.06
327
1.54
325
1.25
210
1.58
279
1.42
267
1.50
329
4.09
323
1.40
308
0.36
308
0.32
321
0.34
296
0.29
287
0.29
239
0.34
277
MFMNet_retwo views1.40
325
1.14
372
1.68
333
1.39
379
1.07
364
1.48
302
1.43
354
1.87
283
1.82
347
2.26
357
2.19
345
1.51
286
1.86
356
1.52
178
1.25
286
0.93
374
0.83
387
0.84
373
0.80
377
0.99
373
1.05
379
StereoDRNettwo views0.98
262
0.47
275
1.70
334
0.76
315
0.94
357
1.51
305
0.91
301
1.92
297
1.32
269
1.61
315
1.13
143
1.47
281
0.97
235
1.75
218
1.46
321
0.28
261
0.23
262
0.29
253
0.27
259
0.35
269
0.27
229
iResNetv2_ROBtwo views0.80
203
0.37
234
1.71
335
0.56
164
0.37
152
0.94
215
0.64
237
1.73
246
1.34
275
1.23
198
1.42
236
1.26
238
0.92
211
1.85
233
0.56
156
0.23
189
0.15
125
0.19
49
0.14
22
0.24
190
0.19
111
ACVNet_1two views2.18
368
1.45
383
1.72
336
2.85
397
2.33
397
2.28
360
1.46
356
3.08
383
2.22
365
1.82
338
2.05
338
3.56
378
1.98
363
3.09
304
1.40
308
3.17
397
0.60
379
2.40
396
0.92
383
2.91
399
2.37
397
GASNettwo views0.99
263
0.97
359
1.72
336
0.98
363
0.68
308
0.83
188
0.67
247
1.60
222
1.28
250
1.31
242
1.22
170
1.22
223
1.21
295
2.41
279
1.41
312
0.43
333
0.26
282
0.36
311
0.34
316
0.55
339
0.31
265
WAO-7two views2.66
381
1.40
380
1.73
338
1.39
379
1.17
373
3.93
393
1.94
381
4.11
393
3.88
391
2.92
379
5.50
392
4.18
384
3.00
387
7.63
389
3.71
372
1.13
384
1.00
399
1.17
382
1.13
392
1.18
379
1.09
381
TorneroNet-64two views5.30
401
2.03
396
1.74
339
3.43
406
2.81
403
10.09
410
2.12
389
9.10
413
17.12
418
4.96
403
9.27
409
10.72
412
3.70
393
9.20
399
4.55
378
3.31
401
0.84
388
2.88
405
1.55
401
3.49
404
3.04
406
WAO-8two views4.40
395
1.82
392
1.79
340
2.34
390
2.20
390
9.19
408
1.53
359
6.09
406
16.46
413
3.94
390
7.84
404
7.32
398
3.72
394
9.41
404
3.31
368
2.00
387
1.07
402
2.44
397
1.37
397
2.50
388
1.68
388
Venustwo views4.40
395
1.82
392
1.79
340
2.34
390
2.20
390
9.19
408
1.53
359
6.09
406
16.46
413
3.94
390
7.84
404
7.32
398
3.72
394
9.41
404
3.31
368
2.00
387
1.07
402
2.44
397
1.37
397
2.50
388
1.68
388
FADNettwo views0.92
244
0.61
321
1.81
342
0.62
228
0.55
263
0.96
223
0.57
217
1.78
265
1.33
272
0.93
82
1.01
91
1.36
259
1.01
251
2.71
290
0.75
205
0.33
290
0.34
324
0.31
266
0.34
316
0.59
346
0.40
298
TorneroNettwo views10.70
411
2.03
396
1.82
343
3.43
406
3.01
405
43.83
428
2.22
393
8.87
412
67.47
437
7.17
410
27.36
422
10.68
411
3.85
396
8.67
397
7.65
394
3.59
404
0.88
394
3.04
406
1.57
402
3.71
405
3.17
407
Wz-Net-LNSev-Reftwo views0.99
263
0.40
248
1.82
343
0.66
262
0.62
292
2.05
351
0.78
269
1.91
294
1.29
254
1.54
304
1.42
236
1.51
286
1.23
298
1.99
247
1.33
297
0.23
189
0.14
75
0.20
73
0.15
30
0.27
220
0.26
223
FADNet_RVCtwo views0.83
216
0.51
290
1.83
345
0.54
133
0.42
191
1.19
267
0.46
141
1.51
200
1.09
168
0.89
76
1.24
176
0.91
135
0.87
195
2.11
257
1.11
272
0.27
251
0.22
254
0.31
266
0.28
276
0.43
308
0.38
294
CBFPSMtwo views0.92
244
0.33
187
1.86
346
0.49
64
0.38
169
1.75
326
0.84
284
1.39
173
1.12
178
1.09
122
0.99
83
2.37
357
1.66
344
1.32
138
1.42
316
0.19
92
0.18
194
0.20
73
0.20
135
0.21
131
0.33
275
XX-Stereotwo views0.63
115
0.26
46
1.90
347
0.81
327
0.67
302
0.43
14
0.23
3
1.03
76
0.58
18
0.65
40
1.56
273
1.41
266
0.39
14
1.28
131
0.35
27
0.20
117
0.14
75
0.20
73
0.19
107
0.18
41
0.14
11
ELAS_RVCcopylefttwo views2.48
379
0.74
342
1.90
347
1.05
368
0.92
355
2.76
374
4.01
408
2.76
377
4.11
393
4.69
399
4.63
386
4.62
386
5.96
404
3.97
322
3.96
374
0.63
366
0.53
372
0.56
362
0.52
360
0.64
353
0.63
353
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
Consistency-Rafttwo views1.25
308
0.99
361
1.93
349
1.02
367
1.21
377
0.96
223
1.01
321
1.75
252
1.92
353
1.36
260
2.12
341
1.44
272
1.01
251
1.14
118
1.40
308
0.72
369
0.82
386
0.89
374
0.98
388
1.31
382
0.95
372
FADNet-RVCtwo views0.88
234
0.67
330
1.93
349
0.60
205
0.48
224
0.91
204
0.60
231
1.71
244
1.18
208
0.90
77
0.96
73
1.36
259
0.92
211
2.25
269
1.17
279
0.30
273
0.29
304
0.32
279
0.32
305
0.41
298
0.35
282
STTRV1_RVCtwo views1.58
336
0.68
333
1.96
351
0.88
349
1.12
369
1.57
311
0.90
300
2.25
357
1.75
342
1.29
224
2.02
335
1.40
263
1.22
296
9.77
407
1.31
295
0.81
371
0.33
323
0.54
354
0.49
354
0.73
364
0.52
334
ACVNet_2two views2.43
378
1.41
381
2.04
352
2.62
394
2.24
393
2.63
373
1.88
378
3.31
385
3.01
381
2.19
355
3.45
374
4.62
386
2.04
365
4.50
331
1.47
322
2.55
392
0.64
381
2.22
389
0.84
379
2.69
391
2.29
396
Deantwo views2.91
390
1.53
385
2.07
353
2.96
401
2.51
399
3.15
382
2.14
390
4.75
398
4.41
396
2.76
375
6.10
394
5.53
394
2.37
375
2.97
299
1.92
342
3.18
398
0.85
391
2.51
399
1.04
391
2.88
398
2.47
400
FADNet-RVC-Resampletwo views0.84
220
0.47
275
2.10
354
0.61
217
0.45
209
1.07
244
0.61
232
1.59
219
1.20
216
1.08
117
0.98
81
1.03
180
0.98
239
2.17
260
0.72
198
0.23
189
0.22
254
0.30
262
0.32
305
0.35
269
0.34
277
KSHMRtwo views8.75
409
2.06
399
2.11
355
3.53
408
3.11
406
4.13
397
2.69
400
5.60
403
61.37
436
3.00
383
55.83
436
4.98
393
2.45
378
4.49
330
2.61
359
3.46
403
1.55
409
3.14
408
1.94
406
3.72
406
3.18
408
ktntwo views4.70
397
2.38
404
2.12
356
3.76
409
3.24
407
4.85
401
2.95
405
5.52
401
7.37
405
4.07
394
19.32
419
7.46
400
3.47
389
7.39
384
2.95
361
4.04
410
1.85
410
3.26
410
2.22
409
3.08
400
2.65
405
SGM+DAISYtwo views2.41
377
1.07
365
2.14
357
1.18
374
1.10
366
2.14
356
1.36
351
1.96
306
1.66
333
5.46
406
7.07
398
4.95
391
4.32
398
5.50
350
2.26
353
1.04
380
1.02
401
0.99
378
0.97
386
1.02
374
1.04
377
SDNRtwo views1.62
342
0.51
290
2.17
358
0.53
118
0.56
264
3.80
392
0.45
134
1.54
211
1.29
254
1.33
252
2.41
356
1.08
192
0.96
232
11.18
412
1.16
277
0.66
368
0.63
380
0.43
333
0.32
305
0.64
353
0.67
358
S-Stereotwo views1.15
300
0.46
271
2.17
358
0.81
327
0.80
340
1.21
270
1.19
340
1.93
301
2.02
358
1.47
287
2.11
340
1.57
293
1.17
283
2.05
253
1.41
312
0.40
321
0.40
348
0.35
303
0.31
299
0.44
315
0.70
361
SANettwo views1.88
357
0.57
307
2.18
360
0.63
236
0.40
182
2.80
377
1.57
363
2.39
369
5.88
402
2.36
363
3.57
375
3.72
381
2.97
385
4.74
334
1.76
334
0.34
298
0.30
308
0.32
279
0.29
287
0.48
324
0.37
288
Wz-Net-MNSevtwo views1.11
290
0.58
310
2.23
361
0.66
262
0.71
313
1.95
345
1.46
356
1.98
311
1.45
313
1.79
334
1.43
240
1.49
283
1.33
313
1.97
246
1.42
316
0.27
251
0.23
262
0.28
245
0.28
276
0.34
268
0.31
265
PVDtwo views1.70
349
0.84
350
2.26
362
0.94
362
0.83
345
2.48
367
0.97
313
2.59
376
3.35
385
3.01
384
2.77
364
2.34
356
2.47
379
2.67
289
3.14
365
0.47
346
0.45
360
0.59
366
0.48
351
0.59
346
0.75
366
GwcNetcopylefttwo views1.08
282
0.51
290
2.33
363
0.79
321
1.18
375
1.76
328
0.70
255
1.68
238
1.47
315
1.41
275
1.64
292
1.74
318
1.04
259
2.20
265
1.41
312
0.30
273
0.29
304
0.29
253
0.27
259
0.30
248
0.35
282
SHDtwo views1.31
314
0.71
338
2.34
364
0.86
343
0.75
326
1.77
331
0.65
239
2.22
354
2.50
374
2.40
365
1.71
301
1.91
328
1.60
336
1.93
242
2.37
354
0.38
316
0.31
314
0.38
316
0.40
334
0.48
324
0.50
329
ADCReftwo views1.35
319
0.55
300
2.37
365
0.72
300
0.77
330
1.94
344
0.78
269
1.91
294
1.27
245
1.57
312
1.59
280
1.36
259
1.41
317
1.54
184
7.53
389
0.23
189
0.20
224
0.32
279
0.30
295
0.29
239
0.29
243
RTSCtwo views1.29
311
0.73
339
2.44
366
0.83
335
0.57
266
1.85
339
0.65
239
1.88
285
2.00
357
2.20
356
1.66
296
1.60
299
1.26
303
2.33
273
3.92
373
0.32
285
0.23
262
0.27
235
0.29
287
0.37
279
0.37
288
Anonymous Stereotwo views1.28
310
0.75
344
2.45
367
0.74
309
0.77
330
0.93
213
1.77
369
1.51
200
1.31
264
1.67
322
1.29
196
1.20
220
0.75
139
6.29
366
1.68
333
0.37
312
0.36
337
0.38
316
0.40
334
0.43
308
0.45
314
PWC_ROBbinarytwo views1.24
306
0.76
346
2.46
368
0.72
300
0.78
333
1.15
258
0.49
162
1.75
252
1.92
353
2.31
358
3.07
368
1.59
297
1.40
316
2.46
281
2.10
350
0.33
290
0.22
254
0.35
303
0.24
227
0.38
287
0.41
302
DGSMNettwo views1.14
297
0.76
346
2.49
369
0.81
327
0.86
349
1.39
293
1.39
352
2.13
333
1.35
283
1.26
214
1.63
291
1.48
282
0.98
239
1.75
218
1.10
270
0.45
339
0.43
353
0.55
359
0.49
354
0.75
365
0.70
361
XQCtwo views1.37
321
0.87
354
2.56
370
0.84
336
0.69
310
1.83
337
0.89
295
2.07
328
1.88
349
1.88
341
1.53
265
1.91
328
1.55
332
2.85
295
3.05
362
0.48
347
0.29
304
0.44
336
0.39
330
0.69
360
0.60
350
SAMSARAtwo views1.55
335
0.84
350
2.61
371
1.22
376
1.07
364
2.50
368
1.93
380
2.05
322
1.89
350
2.75
374
1.66
296
2.81
370
1.69
345
3.08
303
1.97
345
0.46
345
0.51
370
0.42
331
0.46
347
0.58
344
0.59
347
PASMtwo views1.34
318
0.92
357
2.62
372
0.86
343
0.87
351
1.03
236
1.08
328
1.50
195
1.51
321
1.82
338
1.41
235
1.68
311
1.26
303
4.87
337
1.34
299
0.61
363
0.65
383
0.68
368
0.78
376
0.69
360
0.68
360
notakertwo views3.98
394
2.40
405
2.68
373
3.82
411
3.27
409
3.97
395
2.14
390
4.78
399
3.45
388
4.12
395
6.94
397
7.65
402
3.26
388
7.82
392
5.30
381
4.04
410
1.41
407
3.36
411
2.10
408
3.88
407
3.31
409
Wz-Net-LNSevtwo views1.03
273
0.67
330
2.71
374
0.64
245
0.84
346
1.75
326
1.00
319
1.80
269
1.32
269
1.28
219
1.25
180
1.65
308
1.22
296
1.39
157
1.40
308
0.28
261
0.26
282
0.24
169
0.23
216
0.33
266
0.32
271
pmcnntwo views2.37
374
0.42
257
2.71
374
0.63
236
0.43
196
1.54
308
1.19
340
2.01
317
1.53
324
2.64
371
7.60
401
18.07
416
1.45
322
3.44
315
2.78
360
0.18
60
0.15
125
0.15
3
0.12
9
0.20
97
0.18
78
aanetorigintwo views1.23
305
0.79
348
2.78
376
0.70
290
0.79
335
0.99
231
1.06
326
1.06
99
1.37
290
3.52
387
2.61
361
1.72
315
1.63
338
1.99
247
1.78
335
0.25
228
0.24
271
0.26
224
0.25
238
0.38
287
0.45
314
MSC_U_SF_DS_RVCtwo views2.12
366
1.15
373
3.10
377
1.05
368
0.76
329
5.03
403
2.40
398
2.16
342
2.62
376
1.89
343
2.28
349
2.69
368
1.65
340
9.35
402
2.04
347
0.64
367
0.51
370
0.68
368
0.71
373
1.09
377
0.67
358
MFN_U_SF_RVCtwo views1.52
333
0.84
350
3.42
378
0.87
348
0.66
300
2.56
370
0.95
311
2.36
366
1.70
336
1.98
347
1.86
320
2.45
361
1.79
351
2.95
297
2.58
356
0.52
352
0.48
365
0.55
359
0.59
369
0.59
346
0.61
351
MFN_U_SF_DS_RVCtwo views1.74
353
0.87
354
3.56
379
0.80
324
0.75
326
3.72
389
2.44
399
1.82
273
1.82
347
1.74
327
1.91
326
1.92
331
1.26
303
7.69
390
1.28
292
0.45
339
0.47
364
0.52
348
0.77
375
0.50
328
0.50
329
ADCLtwo views1.72
352
0.57
307
3.66
380
0.67
272
0.61
287
2.61
372
1.85
375
1.96
306
1.67
334
1.90
344
1.83
315
2.06
346
1.90
359
2.13
258
9.15
398
0.26
242
0.24
271
0.34
296
0.32
305
0.38
287
0.35
282
DispFullNettwo views2.34
373
2.85
408
3.66
380
3.08
402
2.27
394
1.97
346
0.67
247
2.00
313
1.70
336
2.52
367
2.00
332
2.23
349
5.86
402
3.44
315
1.58
327
1.01
376
0.32
321
2.64
401
1.94
406
2.85
397
2.24
395
iinet-ftwo views0.99
263
0.45
269
3.71
382
0.55
152
0.43
196
1.81
334
0.68
249
1.14
118
1.14
189
1.18
179
1.42
236
1.58
296
1.44
320
1.34
143
1.59
329
0.24
204
0.23
262
0.20
73
0.19
107
0.26
208
0.25
205
pcwnet_v2two views0.97
258
0.37
234
4.33
383
0.62
228
0.54
257
0.79
174
0.45
134
2.02
320
1.58
328
1.42
281
1.64
292
1.09
198
0.79
158
1.24
128
0.67
187
0.32
285
0.25
278
0.29
253
0.27
259
0.37
279
0.35
282
DPSNettwo views1.69
348
0.59
313
4.33
383
0.70
290
0.57
266
2.02
350
1.62
365
3.35
387
1.78
343
1.48
293
1.38
227
2.17
348
2.84
383
4.77
335
3.66
371
0.48
347
0.31
314
0.29
253
0.25
238
0.64
353
0.48
324
MADNet++two views5.01
398
3.14
409
4.91
385
4.55
415
3.94
413
5.20
404
4.41
409
4.40
395
4.13
394
4.95
402
6.08
393
4.74
388
5.37
400
9.40
403
10.67
403
4.65
412
4.15
415
3.97
413
3.34
412
4.09
409
4.08
414
ADCMidtwo views1.89
360
0.73
339
5.06
386
0.72
300
0.67
302
2.00
349
1.14
334
1.97
310
1.48
316
2.86
378
1.81
314
2.37
357
2.05
367
2.24
267
10.39
402
0.33
290
0.31
314
0.39
322
0.43
340
0.50
328
0.44
312
AnyNet_C32two views1.96
362
1.10
367
5.17
387
0.90
354
1.11
367
2.12
355
2.37
397
1.85
279
1.48
316
2.45
366
1.70
300
2.05
345
1.64
339
2.50
282
10.28
401
0.37
312
0.34
324
0.35
303
0.41
336
0.49
327
0.54
336
UNDER WATERtwo views5.08
399
2.33
403
5.55
388
3.94
413
3.51
410
5.20
404
2.72
402
5.61
404
16.52
415
3.84
389
4.60
385
9.21
406
5.89
403
5.90
359
8.66
397
3.75
406
1.34
406
3.18
409
1.88
404
4.33
412
3.61
411
ADCStwo views2.25
369
0.99
361
5.55
388
0.81
327
0.74
320
2.19
357
1.80
371
2.27
359
2.14
362
2.80
377
2.13
342
2.40
359
2.03
364
2.64
288
13.69
406
0.41
325
0.39
346
0.40
327
0.45
344
0.58
344
0.56
340
PWCKtwo views2.88
389
2.05
398
5.72
390
2.08
387
1.11
367
3.55
387
3.90
407
2.86
380
3.54
389
3.03
385
3.63
376
3.10
376
2.31
374
8.15
396
3.09
363
2.12
389
0.91
396
1.75
385
0.98
388
2.57
390
1.18
383
DeepPrunerFtwo views1.60
339
0.73
339
5.81
391
0.88
349
1.19
376
0.91
204
0.95
311
2.19
350
5.24
400
1.17
175
1.30
197
1.19
219
1.30
310
4.90
338
1.66
332
0.42
328
0.34
324
0.52
348
0.47
349
0.41
298
0.40
298
tttwo views6.58
405
0.26
46
6.10
392
3.77
410
2.16
389
11.55
412
19.63
416
13.33
417
5.74
401
2.96
381
2.65
362
4.97
392
6.33
406
3.81
319
7.24
388
9.15
417
11.32
424
5.89
417
6.24
416
6.03
414
2.55
401
Wz-Net-SNSevtwo views1.49
329
1.23
376
6.27
393
0.68
282
0.67
302
1.37
289
1.41
353
2.00
313
1.39
298
1.48
293
1.61
285
2.29
352
1.32
312
3.93
320
2.14
351
0.31
280
0.28
296
0.31
266
0.33
311
0.42
303
0.36
286
Wz-Net-TNSevtwo views1.88
357
2.08
400
7.66
394
0.67
272
0.64
295
2.42
366
1.83
374
2.33
363
1.74
341
1.57
312
1.56
273
2.58
364
1.90
359
4.86
336
3.12
364
0.39
319
0.37
339
0.33
286
0.37
327
0.53
336
0.58
345
ADCP+two views1.99
364
0.48
280
7.73
395
0.66
262
0.91
353
2.30
361
1.05
325
1.82
273
1.34
275
1.54
304
1.32
207
1.74
318
1.61
337
2.17
260
13.37
405
0.24
204
0.21
240
0.32
279
0.28
276
0.37
279
0.29
243
ADCPNettwo views1.85
356
0.69
334
8.07
396
0.71
297
0.58
274
2.79
376
1.22
342
1.94
303
1.54
325
1.88
341
1.69
299
2.46
362
2.04
365
2.37
276
6.48
384
0.38
316
0.37
339
0.38
316
0.43
340
0.47
321
0.45
314
EDNetEfficienttwo views2.37
374
1.10
367
8.08
397
0.74
309
0.71
313
0.98
230
1.56
361
1.46
187
4.06
392
4.90
401
2.82
365
2.25
350
3.48
390
2.95
297
9.97
399
0.26
242
0.24
271
0.26
224
0.30
295
0.68
359
0.61
351
HanzoNettwo views11.04
412
3.62
411
8.10
398
4.08
414
3.55
412
4.90
402
2.73
403
7.19
410
10.10
406
31.86
432
28.92
424
21.96
423
36.36
425
18.08
418
10.17
400
7.94
416
3.32
413
3.47
412
3.31
411
7.06
417
4.04
413
UNDER WATER-64two views5.27
400
2.32
402
8.78
399
3.93
412
3.54
411
7.61
406
3.03
406
5.84
405
14.19
409
4.04
392
4.04
380
9.39
407
6.26
405
5.93
361
8.48
396
3.60
405
1.51
408
3.13
407
1.88
404
4.29
411
3.61
411
WZ-Nettwo views1.95
361
0.95
358
10.10
400
0.86
343
0.78
333
1.69
321
1.60
364
2.20
353
1.98
356
2.08
352
1.93
328
2.30
353
1.97
362
5.30
343
3.17
367
0.34
298
0.26
282
0.29
253
0.31
299
0.51
332
0.47
321
JetBluetwo views3.97
393
2.01
395
10.19
401
1.38
378
2.84
404
10.53
411
9.54
411
3.60
389
2.41
368
2.73
373
3.39
373
4.54
385
4.31
397
7.85
393
6.84
387
0.88
372
0.93
397
0.89
374
0.91
382
1.74
383
1.91
391
AnyNet_C01two views2.26
370
1.78
389
10.22
402
0.93
360
0.74
320
2.92
380
2.20
392
2.29
361
1.80
345
2.53
368
2.41
356
2.71
369
1.73
346
3.41
312
6.72
386
0.41
325
0.39
346
0.40
327
0.42
338
0.67
358
0.63
353
psmorigintwo views1.52
333
0.69
334
10.52
403
0.68
282
0.59
281
1.13
252
0.70
255
1.57
217
1.19
211
1.99
348
1.79
311
2.26
351
1.47
325
2.09
255
1.36
303
0.39
319
0.40
348
0.34
296
0.33
311
0.43
308
0.56
340
SPstereotwo views26.54
421
6.08
414
10.71
404
5.55
416
5.68
415
48.14
429
80.43
436
67.31
437
34.39
432
28.70
430
27.52
423
43.76
434
37.60
432
45.04
436
54.41
437
4.92
415
4.89
416
10.74
421
5.88
415
4.46
413
4.57
415
MADNet+two views2.69
384
3.22
410
11.53
405
1.44
382
1.12
369
3.19
383
1.81
372
2.85
379
2.37
366
1.68
323
2.07
339
2.85
372
2.18
370
7.41
385
5.23
380
0.79
370
0.76
384
0.69
370
0.65
372
0.98
371
0.95
372
LSMtwo views6.33
403
1.10
367
13.19
406
1.41
381
68.17
432
1.64
318
1.90
379
1.92
297
2.46
369
2.99
382
3.11
369
1.88
323
1.80
352
2.61
287
2.06
349
0.41
325
0.58
378
0.50
346
0.57
365
0.64
353
17.66
424
PMLtwo views51.67
434
36.25
427
13.28
407
7.46
417
20.81
419
108.69
437
232.22
438
8.72
411
27.82
424
87.01
437
269.67
438
69.67
437
61.95
437
24.76
426
14.20
408
9.74
419
3.40
414
9.62
418
4.70
413
18.74
422
4.72
416
RTStwo views2.67
382
1.38
378
15.28
408
0.99
364
1.26
379
3.78
390
1.96
382
2.15
339
2.62
376
2.61
369
2.85
366
2.60
365
1.59
334
6.27
364
5.71
382
0.40
321
0.28
296
0.35
303
0.35
320
0.50
328
0.48
324
RTSAtwo views2.67
382
1.38
378
15.28
408
0.99
364
1.26
379
3.78
390
1.96
382
2.15
339
2.62
376
2.61
369
2.85
366
2.60
365
1.59
334
6.27
364
5.71
382
0.40
321
0.28
296
0.35
303
0.35
320
0.50
328
0.48
324
SuperBtwo views2.53
380
0.59
313
18.45
410
0.69
285
0.50
233
1.87
341
0.88
293
1.67
237
2.39
367
1.50
296
1.42
236
1.14
212
1.15
282
4.28
328
5.07
379
0.24
204
0.19
207
0.22
122
0.19
107
7.86
418
0.34
277
ASD4two views15.85
416
10.99
418
19.63
411
10.21
420
11.70
416
19.24
418
31.10
421
19.35
418
10.68
407
11.14
413
10.18
410
12.59
413
12.64
411
14.74
416
24.83
420
12.93
422
9.94
423
26.83
428
19.40
422
16.23
421
12.70
423
FADEtwo views26.59
422
4.78
412
20.96
412
1.89
386
1.92
388
2.91
378
2.00
384
5.58
402
5.04
398
2.92
379
2.16
344
4.13
383
14.18
413
10.23
410
8.46
395
188.09
437
2.77
411
123.78
434
127.92
434
1.06
376
1.10
382
DGTPSM_ROBtwo views13.01
414
8.23
415
21.87
413
9.51
418
18.10
417
11.56
413
32.01
422
10.63
414
16.20
411
7.03
408
19.48
420
10.15
409
16.66
415
9.83
408
22.42
417
4.75
413
8.68
418
5.37
414
10.25
418
6.16
415
11.36
418
DPSMNet_ROBtwo views13.02
415
8.23
415
21.91
414
9.53
419
18.11
418
11.56
413
32.02
423
10.64
415
16.23
412
7.05
409
19.49
421
10.16
410
16.66
415
9.85
409
22.43
418
4.77
414
8.68
418
5.38
415
10.26
419
6.17
416
11.36
418
LRCNet_RVCtwo views22.74
419
32.10
426
21.97
415
29.84
424
26.23
422
4.42
399
0.81
281
22.66
419
2.02
358
26.93
424
29.26
425
23.06
425
15.59
414
23.84
422
18.88
414
31.75
429
19.90
431
34.65
429
32.13
429
30.54
429
28.32
430
LE_ROBtwo views8.05
407
0.37
234
23.53
416
0.74
309
0.33
122
2.77
375
2.87
404
3.71
390
27.24
423
25.39
423
8.87
407
8.46
405
26.71
423
6.65
371
21.99
416
0.21
143
0.19
207
0.20
73
0.21
171
0.25
200
0.22
164
Anonymous_1two views43.04
433
18.73
420
24.79
417
21.81
421
46.26
431
27.80
419
37.60
424
28.08
423
16.14
410
14.66
417
14.30
413
20.65
417
17.88
417
21.56
419
25.94
421
117.93
436
8.92
420
100.65
433
126.50
433
158.64
437
12.08
420
DPSM_ROBtwo views19.08
417
19.14
421
25.17
418
22.15
422
20.85
420
28.17
420
37.82
425
26.56
421
16.85
416
14.14
415
14.84
414
21.70
418
18.75
418
21.87
420
26.55
422
10.16
420
9.30
421
10.47
419
10.42
420
14.03
419
12.61
421
DPSMtwo views19.08
417
19.14
421
25.17
418
22.15
422
20.85
420
28.17
420
37.82
425
26.56
421
16.85
416
14.14
415
14.84
414
21.70
418
18.75
418
21.87
420
26.55
422
10.16
420
9.30
421
10.47
419
10.42
420
14.03
419
12.61
421
JetRedtwo views6.91
406
8.80
417
25.96
420
2.85
397
3.25
408
13.98
417
11.87
412
6.25
408
4.28
395
4.45
397
4.56
384
6.69
397
5.46
401
7.46
387
14.05
407
2.59
393
3.31
412
2.59
400
2.29
410
4.20
410
3.36
410
xxxxx1two views54.10
435
25.67
423
27.13
421
113.43
434
96.96
434
30.69
424
47.44
427
32.38
425
25.60
420
17.75
419
17.27
416
21.81
420
21.02
420
24.43
423
33.82
424
33.37
430
40.54
432
157.71
435
175.86
435
66.16
433
72.93
435
tt_lltwo views54.10
435
25.67
423
27.13
421
113.43
434
96.96
434
30.69
424
47.44
427
32.38
425
25.60
420
17.75
419
17.27
416
21.81
420
21.02
420
24.43
423
33.82
424
33.37
430
40.54
432
157.71
435
175.86
435
66.16
433
72.93
435
fftwo views54.10
435
25.67
423
27.13
421
113.43
434
96.96
434
30.69
424
47.44
427
32.38
425
25.60
420
17.75
419
17.27
416
21.81
420
21.02
420
24.43
423
33.82
424
33.37
430
40.54
432
157.71
435
175.86
435
66.16
433
72.93
435
DPSimNet_ROBtwo views11.20
413
4.98
413
35.43
424
2.90
400
4.52
414
7.89
407
17.09
415
4.66
397
6.06
403
14.89
418
10.93
412
17.29
415
36.81
427
13.18
415
15.68
411
2.86
394
6.29
417
5.75
416
5.09
414
3.91
408
7.70
417
HaxPigtwo views38.92
429
41.40
434
41.64
425
29.95
425
32.27
423
28.90
422
27.60
418
29.73
424
37.71
433
43.82
433
43.87
432
33.17
426
35.56
424
41.53
427
40.37
429
43.94
433
47.51
436
45.82
430
47.08
431
42.38
430
44.15
433
AVERAGE_ROBtwo views40.43
430
42.37
435
42.73
426
36.96
427
35.58
425
30.50
423
27.61
419
36.71
430
38.39
434
44.91
434
44.36
433
37.45
428
36.70
426
41.88
428
40.35
428
45.43
434
46.81
435
47.11
431
46.35
430
42.51
431
43.87
432
DLNR_Zeroshot_testpermissivetwo views23.17
420
48.52
437
43.29
427
176.68
437
78.69
433
0.35
5
0.21
1
23.41
420
0.75
56
0.66
41
0.86
56
0.59
50
0.30
4
1.56
189
0.44
83
9.57
418
0.12
9
0.18
36
0.14
22
76.92
436
0.16
41
MEDIAN_ROBtwo views42.00
431
44.40
436
44.29
428
35.15
426
34.95
424
31.28
427
29.60
420
35.88
429
40.02
435
47.20
435
46.64
434
37.37
427
38.48
435
44.35
435
42.45
430
48.03
435
49.39
437
49.71
432
49.03
432
45.14
432
46.65
434
CasAABBNettwo views38.33
424
38.46
428
50.35
429
44.75
432
41.84
426
56.68
433
76.37
431
53.22
434
33.83
427
28.31
425
29.54
426
43.62
433
37.71
433
43.84
433
53.41
432
20.30
423
18.70
426
21.07
425
21.07
424
28.24
426
25.34
425
MyStereo03two views38.34
425
38.50
430
50.41
430
44.74
429
41.86
427
56.65
430
76.38
432
52.99
431
33.93
429
28.39
427
29.99
428
43.54
429
37.42
429
43.82
430
53.53
433
20.31
424
18.71
428
21.06
422
21.08
425
28.23
423
25.35
426
MyStereo02two views38.34
425
38.50
430
50.41
430
44.74
429
41.86
427
56.65
430
76.38
432
52.99
431
33.93
429
28.39
427
29.99
428
43.54
429
37.42
429
43.82
430
53.53
433
20.31
424
18.71
428
21.06
422
21.08
425
28.23
423
25.35
426
MyStereotwo views38.34
425
38.50
430
50.41
430
44.74
429
41.86
427
56.65
430
76.38
432
52.99
431
33.93
429
28.39
427
29.99
428
43.54
429
37.42
429
43.82
430
53.53
433
20.31
424
18.71
428
21.06
422
21.08
425
28.23
423
25.35
426
Selective-RAFT-Errortwo views38.39
428
38.47
429
50.44
433
44.73
428
41.97
430
56.68
433
76.38
432
53.24
435
33.92
428
28.34
426
29.85
427
43.60
432
38.20
434
43.75
429
53.34
431
20.38
427
18.70
426
21.09
426
21.05
423
28.30
427
25.43
429
LSM0two views42.82
432
38.75
433
50.81
434
47.07
433
109.38
437
57.00
435
76.02
430
53.74
436
33.71
426
29.02
431
30.41
431
43.87
435
37.22
428
43.91
434
53.54
436
20.52
428
18.62
425
21.10
427
21.11
428
28.41
428
42.22
431
BEATNet-Init1two views26.87
423
13.43
419
70.68
435
0.91
357
0.68
308
57.02
436
21.06
417
32.82
428
32.67
425
52.12
436
53.61
435
66.05
436
49.56
436
48.79
437
34.71
427
0.49
351
0.44
356
0.53
353
0.53
361
0.63
351
0.59
347
coex-fttwo views8.13
408
2.13
401
98.04
436
0.67
272
0.53
254
1.71
322
1.56
361
1.65
232
11.11
408
18.17
422
3.75
377
3.88
382
7.61
409
2.98
300
6.49
385
0.30
273
0.30
308
0.32
279
0.31
299
0.66
357
0.50
329
EDNetEfficientorigintwo views10.57
410
1.47
384
177.42
437
0.67
272
0.53
254
1.58
312
1.16
337
1.90
290
3.37
386
4.71
400
3.38
372
3.10
376
2.69
382
3.13
305
3.58
370
0.25
228
0.23
262
0.33
286
0.27
259
0.83
366
0.81
367
test_example2two views192.40
438
210.76
438
206.48
438
199.83
438
204.73
438
172.94
438
183.52
437
133.93
438
133.41
438
191.38
438
196.19
437
187.13
438
178.77
438
205.33
438
208.00
438
222.09
438
238.72
438
186.54
438
190.54
438
227.34
438
170.31
438