This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
XX-TBDtwo views0.46
24
0.70
337
0.35
1
0.79
321
0.25
18
0.58
74
0.26
9
0.69
4
1.27
245
0.76
52
1.00
86
0.45
14
0.33
10
0.47
3
0.37
38
0.19
92
0.15
125
0.15
3
0.11
6
0.17
24
0.14
11
CAStwo views0.63
115
0.18
1
0.37
2
2.27
389
0.84
346
0.57
73
0.54
188
0.79
12
0.62
23
0.48
17
0.70
30
0.36
2
0.26
1
0.45
2
0.35
27
2.24
390
0.10
1
0.14
1
0.09
1
0.15
5
1.06
380
CEStwo views0.48
31
0.20
2
0.37
2
0.39
4
1.39
381
0.55
65
0.35
46
0.98
61
0.66
40
0.44
8
0.66
22
0.35
1
0.27
2
0.56
10
0.33
16
0.15
6
0.13
42
0.15
3
0.10
2
0.19
71
1.46
385
CREStereo++_RVCtwo views0.47
29
0.21
4
0.38
4
0.45
32
0.38
169
0.45
17
0.25
4
0.75
8
1.29
254
0.80
61
1.21
168
0.47
18
0.37
12
0.53
5
0.44
83
0.16
11
0.11
3
0.15
3
0.80
377
0.18
41
0.11
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
s12784htwo views0.52
38
0.20
2
0.38
4
0.41
5
0.19
1
0.96
223
0.34
43
1.17
123
1.25
233
0.81
65
0.90
64
0.63
56
0.50
55
1.45
167
0.42
72
0.14
4
0.12
9
0.17
14
0.11
6
0.18
41
0.11
1
CREStereotwo views0.39
5
0.21
4
0.38
4
0.34
1
0.22
4
0.53
56
0.29
19
0.77
11
1.11
174
0.58
32
0.71
32
0.51
31
0.41
18
0.54
7
0.34
24
0.18
60
0.13
42
0.15
3
0.10
2
0.14
2
0.14
11
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
PMTNettwo views0.46
24
0.21
4
0.38
4
0.37
2
0.23
6
0.71
141
0.27
14
0.74
7
1.04
146
0.64
39
0.70
30
0.55
38
0.47
38
0.86
68
0.35
27
1.00
375
0.13
42
0.15
3
0.10
2
0.15
5
0.13
3
LoS_RVCtwo views0.42
11
0.26
46
0.40
8
0.44
23
0.82
344
0.51
49
0.44
123
0.64
2
0.41
2
0.44
8
0.78
44
0.44
8
0.47
38
0.56
10
0.36
33
0.13
1
0.12
9
0.14
1
0.10
2
0.13
1
0.84
369
GLC_STEREOtwo views0.39
5
0.25
35
0.41
9
0.54
133
0.23
6
0.48
20
0.30
22
0.73
6
0.58
18
0.52
28
0.73
35
0.51
31
0.31
6
0.64
26
0.42
72
0.17
32
0.20
224
0.23
149
0.19
107
0.21
131
0.17
60
AnonymousMtwo views0.59
97
1.11
370
0.41
9
0.44
23
0.32
106
0.43
14
0.47
147
1.05
86
0.64
27
0.98
96
0.63
20
0.67
66
0.43
22
0.59
14
0.41
64
0.20
117
0.15
125
1.84
387
0.84
379
0.14
2
0.13
3
LoStwo views0.40
8
0.21
4
0.44
11
0.37
2
0.22
4
0.50
39
0.40
82
1.00
67
0.94
106
0.48
17
0.66
22
0.48
21
0.40
16
0.60
23
0.37
38
0.18
60
0.14
75
0.16
9
0.11
6
0.14
2
0.14
11
TANstereotwo views0.44
21
0.21
4
0.44
11
0.41
5
0.21
3
0.65
108
0.26
9
0.79
12
0.83
75
0.93
82
0.98
81
0.51
31
0.46
32
0.54
7
0.35
27
0.18
60
0.24
271
0.16
9
0.13
11
0.16
13
0.26
223
Any-RAFTtwo views0.53
47
0.24
19
0.47
13
0.47
41
0.27
33
1.00
233
0.25
4
1.58
218
1.05
150
0.85
75
0.99
83
1.06
185
0.47
38
0.70
33
0.32
7
0.18
60
0.13
42
0.16
9
0.13
11
0.16
13
0.16
41
knoymoustwo views0.51
37
0.29
110
0.47
13
0.43
8
0.30
79
0.55
65
0.55
201
1.02
73
0.77
61
0.98
96
0.85
55
0.94
147
0.56
77
0.85
65
0.45
91
0.20
117
0.14
75
0.26
224
0.14
22
0.23
177
0.23
181
CASnettwo views0.41
10
0.25
35
0.48
15
0.50
71
0.20
2
0.50
39
0.36
55
0.81
20
0.80
68
0.83
69
0.68
26
0.48
21
0.31
6
0.54
7
0.32
7
0.18
60
0.12
9
0.27
235
0.22
196
0.23
177
0.14
11
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
MC-Stereotwo views0.43
13
0.23
13
0.48
15
0.51
94
0.28
52
0.39
9
0.32
30
0.88
31
0.68
44
0.60
38
0.84
54
0.56
40
0.61
105
1.03
97
0.31
5
0.17
32
0.11
3
0.17
14
0.15
30
0.16
13
0.13
3
UCFNet_RVCtwo views0.69
152
0.35
222
0.49
17
0.64
245
0.39
177
0.85
196
0.58
220
1.75
252
1.14
189
0.97
92
1.19
163
1.17
215
0.93
217
0.99
90
0.62
175
0.28
261
0.20
224
0.34
296
0.31
299
0.32
260
0.27
229
MyStereo07two views0.48
31
0.29
110
0.50
18
0.55
152
0.45
209
0.59
78
0.79
272
1.05
86
0.51
13
0.48
17
0.53
10
0.43
6
0.55
73
1.30
135
0.34
24
0.17
32
0.16
156
0.24
169
0.20
135
0.23
177
0.20
133
ACVNet-DCAtwo views0.56
85
0.31
157
0.50
18
0.54
133
0.26
20
1.18
263
0.51
169
1.42
177
0.78
63
0.58
32
0.79
47
0.48
21
0.88
199
1.46
169
0.32
7
0.20
117
0.12
9
0.25
205
0.15
30
0.22
152
0.21
149
xx1two views0.67
147
0.31
157
0.50
18
0.54
133
0.26
20
1.18
263
0.51
169
0.93
44
3.05
382
0.58
32
0.79
47
0.95
153
0.77
151
1.46
169
0.32
7
0.20
117
0.12
9
0.24
169
0.23
216
0.22
152
0.21
149
1test111two views0.54
61
0.31
157
0.50
18
0.54
133
0.26
20
1.18
263
0.51
169
1.42
177
0.78
63
0.58
32
0.79
47
0.48
21
0.88
199
0.88
70
0.59
163
0.20
117
0.12
9
0.25
205
0.15
30
0.22
152
0.21
149
cc1two views0.64
125
0.31
157
0.50
18
0.54
133
0.26
20
1.18
263
0.51
169
0.93
44
3.05
382
0.58
32
0.79
47
0.48
21
0.88
199
1.46
169
0.32
7
0.20
117
0.12
9
0.25
205
0.15
30
0.19
71
0.19
111
Selective-IGEVtwo views0.39
5
0.24
19
0.50
18
0.44
23
0.25
18
0.46
18
0.33
33
1.25
150
0.40
1
0.35
1
0.45
3
0.52
36
0.30
4
1.07
108
0.30
1
0.14
4
0.12
9
0.17
14
0.13
11
0.16
13
0.13
3
tt1two views0.62
109
0.32
171
0.51
24
0.54
133
0.26
20
1.16
260
0.48
155
0.95
51
2.47
370
0.57
31
0.77
42
0.49
28
0.81
166
1.55
186
0.32
7
0.20
117
0.12
9
0.24
169
0.15
30
0.19
71
0.20
133
EGLCR-Stereotwo views0.37
3
0.22
9
0.51
24
0.43
8
0.26
20
0.44
16
0.22
2
0.99
63
0.48
4
0.42
4
0.42
2
0.67
66
0.29
3
0.86
68
0.33
16
0.17
32
0.12
9
0.19
49
0.17
74
0.17
24
0.15
27
AEACVtwo views0.37
3
0.24
19
0.52
26
0.47
41
0.51
243
0.37
8
0.38
68
0.65
3
0.53
16
0.42
4
0.56
18
0.46
15
0.60
96
0.53
5
0.30
1
0.16
11
0.13
42
0.18
36
0.15
30
0.17
24
0.14
11
LCNettwo views0.72
160
0.28
83
0.52
26
0.55
152
0.31
91
0.69
131
0.54
188
1.00
67
0.88
85
1.19
183
1.34
214
0.97
161
1.34
314
2.56
284
0.45
91
0.18
60
0.13
42
0.21
96
0.25
238
0.27
220
0.73
364
anonymousdsptwo views0.43
13
0.27
67
0.53
28
0.44
23
0.32
106
0.50
39
0.42
95
0.89
32
0.51
13
0.49
20
0.53
10
0.47
18
0.47
38
1.33
140
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
PSM-AADtwo views0.79
200
0.27
67
0.53
28
0.55
152
0.28
52
0.77
165
1.24
343
0.99
63
0.91
97
1.66
321
1.57
277
0.81
97
2.19
371
1.65
200
0.44
83
0.19
92
0.14
75
0.38
316
0.32
305
0.21
131
0.70
361
Prome-Stereotwo views0.75
184
0.27
67
0.53
28
0.55
152
0.32
106
0.59
78
0.97
313
0.89
32
0.88
85
1.45
284
2.46
357
0.91
135
1.41
317
1.58
192
0.44
83
0.18
60
0.13
42
0.19
49
0.17
74
0.20
97
0.92
371
HSM-Net_RVCpermissivetwo views0.87
233
0.29
110
0.53
28
0.53
118
0.30
79
1.15
258
0.55
201
3.57
388
1.28
250
1.53
300
1.74
304
1.68
311
0.93
217
1.49
175
0.77
213
0.22
166
0.17
180
0.19
49
0.18
88
0.20
97
0.19
111
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
IGEV-Stereopermissivetwo views0.43
13
0.27
67
0.54
32
0.45
32
0.32
106
0.50
39
0.42
95
0.90
38
0.51
13
0.49
20
0.53
10
0.47
18
0.47
38
1.32
138
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
raft+_RVCtwo views0.53
47
0.26
46
0.54
32
0.60
205
0.47
223
0.54
59
0.54
188
1.27
152
0.99
129
0.76
52
1.03
106
0.70
76
0.56
77
0.93
81
0.47
109
0.18
60
0.14
75
0.19
49
0.18
88
0.18
41
0.15
27
ACVNettwo views0.63
115
0.31
157
0.54
32
0.54
133
0.36
145
0.80
179
0.46
141
1.37
167
1.07
158
0.93
82
1.30
197
1.08
192
0.85
184
0.80
54
0.94
247
0.21
143
0.19
207
0.21
96
0.18
88
0.22
152
0.18
78
CFNet-ftpermissivetwo views0.72
160
0.32
171
0.54
32
0.66
262
0.54
257
0.83
188
0.55
201
1.37
167
1.15
198
0.93
82
1.28
193
1.57
293
0.97
235
1.35
144
0.81
225
0.26
242
0.20
224
0.33
286
0.25
238
0.30
248
0.23
181
CFNet_RVCtwo views0.72
160
0.32
171
0.54
32
0.66
262
0.54
257
0.83
188
0.55
201
1.37
167
1.15
198
0.93
82
1.28
193
1.57
293
0.97
235
1.35
144
0.81
225
0.26
242
0.20
224
0.33
286
0.25
238
0.30
248
0.23
181
ff7two views0.43
13
0.27
67
0.56
37
0.44
23
0.33
122
0.50
39
0.42
95
0.87
24
0.50
6
0.49
20
0.53
10
0.44
8
0.48
46
1.38
152
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
IGEVStereo-DCAtwo views0.46
24
0.28
83
0.56
37
0.43
8
0.33
122
0.49
30
0.42
95
0.87
24
0.50
6
0.47
13
0.48
6
0.48
21
0.46
32
2.03
250
0.30
1
0.19
92
0.14
75
0.19
49
0.15
30
0.16
13
0.18
78
fffftwo views0.43
13
0.27
67
0.56
37
0.44
23
0.33
122
0.50
39
0.42
95
0.87
24
0.50
6
0.49
20
0.53
10
0.44
8
0.48
46
1.38
152
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
11ttwo views0.43
13
0.27
67
0.56
37
0.44
23
0.33
122
0.50
39
0.42
95
0.87
24
0.50
6
0.49
20
0.53
10
0.44
8
0.48
46
1.38
152
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
ccc-4two views0.43
13
0.27
67
0.56
37
0.44
23
0.33
122
0.50
39
0.42
95
0.87
24
0.50
6
0.49
20
0.53
10
0.44
8
0.48
46
1.38
152
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
test_4two views0.53
47
0.22
9
0.56
37
0.54
133
0.32
106
0.64
96
0.39
79
0.80
17
0.62
23
0.92
81
1.87
322
0.68
68
0.42
20
1.16
121
0.37
38
0.15
6
0.13
42
0.20
73
0.22
196
0.20
97
0.15
27
FTStereotwo views0.91
242
0.26
46
0.56
37
0.54
133
0.33
122
0.66
117
1.87
377
1.00
67
0.75
56
1.75
328
4.15
380
1.04
183
1.65
340
1.57
190
0.46
104
0.19
92
0.16
156
0.23
149
0.21
171
0.18
41
0.63
353
raftrobusttwo views0.52
38
0.25
35
0.56
37
0.65
257
0.52
251
0.49
30
0.34
43
0.98
61
0.91
97
1.30
232
0.87
59
0.63
56
0.81
166
0.78
50
0.41
64
0.19
92
0.15
125
0.16
9
0.14
22
0.15
5
0.16
41
MSKI-zero shottwo views0.55
76
0.26
46
0.57
45
0.51
94
0.26
20
0.69
131
0.28
17
1.18
128
0.64
27
0.91
79
1.32
207
0.82
102
0.33
10
1.92
239
0.32
7
0.17
32
0.12
9
0.17
14
0.13
11
0.16
13
0.16
41
ICVPtwo views0.63
115
0.33
187
0.57
45
0.61
217
0.40
182
0.80
179
0.58
220
1.61
225
0.89
88
0.90
77
1.24
176
0.88
129
0.73
135
0.72
39
0.88
241
0.29
269
0.21
240
0.22
122
0.21
171
0.24
190
0.27
229
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
hitnet-ftcopylefttwo views0.79
200
0.35
222
0.57
45
0.58
181
0.42
191
0.96
223
0.46
141
1.47
189
1.33
272
1.19
183
1.22
170
1.81
322
0.98
239
1.66
204
0.94
247
0.33
290
0.28
296
0.34
296
0.27
259
0.35
269
0.31
265
StereoIMtwo views0.36
1
0.25
35
0.58
48
0.44
23
0.34
137
0.30
3
0.30
22
0.72
5
0.50
6
0.37
2
0.36
1
0.58
46
0.49
54
0.52
4
0.36
33
0.19
92
0.16
156
0.19
49
0.15
30
0.18
41
0.14
11
ProNettwo views0.43
13
0.28
83
0.58
48
0.43
8
0.30
79
0.56
68
0.52
178
1.00
67
0.58
18
0.44
8
0.49
8
0.43
6
0.43
22
1.28
131
0.36
33
0.15
6
0.13
42
0.19
49
0.16
58
0.17
24
0.16
41
RCA-Stereotwo views0.50
36
0.23
13
0.58
48
0.48
51
0.33
122
0.55
65
0.45
134
0.97
59
1.38
294
0.68
42
1.05
110
0.63
56
0.80
163
0.59
14
0.32
7
0.17
32
0.12
9
0.17
14
0.14
22
0.16
13
0.14
11
GrayStereotwo views0.82
211
0.26
46
0.58
48
0.63
236
0.37
152
0.76
159
1.86
376
1.11
114
0.87
81
1.99
348
1.89
324
1.08
192
1.82
355
1.39
157
0.48
114
0.19
92
0.14
75
0.19
49
0.21
171
0.18
41
0.39
297
ttttwo views0.94
248
0.34
206
0.59
52
0.61
217
0.37
152
0.94
215
0.50
168
2.17
348
1.34
275
1.23
198
1.61
285
0.91
135
0.76
147
1.85
233
3.97
375
0.30
273
0.26
282
0.26
224
0.24
227
0.29
239
0.29
243
MIF-Stereotwo views0.36
1
0.23
13
0.59
52
0.48
51
0.36
145
0.40
10
0.32
30
0.53
1
0.49
5
0.54
30
0.55
17
0.36
2
0.31
6
0.58
13
0.51
130
0.20
117
0.15
125
0.17
14
0.15
30
0.19
71
0.15
27
GMM-Stereotwo views0.74
177
0.25
35
0.59
52
0.54
133
0.34
137
0.72
143
0.99
317
1.01
72
0.87
81
1.36
260
1.78
310
1.12
205
0.81
166
2.09
255
0.46
104
0.18
60
0.12
9
0.25
205
0.25
238
0.20
97
0.85
370
rafts_anoytwo views0.52
38
0.29
110
0.59
52
0.59
194
0.50
233
0.53
56
0.40
82
1.11
114
1.03
142
0.84
71
0.83
52
0.68
68
0.54
67
0.72
39
0.51
130
0.19
92
0.14
75
0.24
169
0.26
251
0.21
131
0.18
78
riskmintwo views0.56
85
0.27
67
0.60
56
0.43
8
0.31
91
0.83
188
0.42
95
1.14
118
1.04
146
0.73
51
0.75
39
1.11
204
1.01
251
0.81
58
0.51
130
0.20
117
0.14
75
0.24
169
0.15
30
0.24
190
0.25
205
RAFT+CT+SAtwo views0.58
94
0.29
110
0.60
56
0.66
262
0.37
152
0.42
13
0.55
201
1.27
152
1.03
142
0.70
45
1.22
170
0.60
51
0.70
132
1.64
199
0.41
64
0.18
60
0.13
42
0.22
122
0.22
196
0.21
131
0.18
78
SGM-Foresttwo views1.24
306
0.38
239
0.60
56
0.52
110
0.37
152
1.56
310
1.30
348
1.65
232
1.36
286
2.11
354
1.79
311
1.63
303
0.93
217
7.48
388
0.95
249
0.36
308
0.37
339
0.39
322
0.34
316
0.37
279
0.32
271
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
xtwo views0.54
61
0.31
157
0.61
59
0.47
41
0.30
79
0.67
121
0.47
147
1.53
209
0.79
67
0.81
65
0.83
52
0.78
89
0.70
132
0.70
33
0.62
175
0.21
143
0.19
207
0.22
122
0.19
107
0.21
131
0.20
133
cross-rafttwo views0.54
61
0.25
35
0.61
59
0.52
110
0.29
63
0.68
127
0.37
64
1.46
187
0.76
59
1.01
103
1.06
112
1.28
245
0.46
32
0.71
37
0.35
27
0.15
6
0.12
9
0.18
36
0.16
58
0.19
71
0.14
11
PSMNet-RSSMtwo views0.72
160
0.30
126
0.61
59
0.63
236
0.42
191
0.73
146
0.56
207
1.92
297
1.10
172
1.09
122
1.37
223
1.22
223
0.98
239
1.28
131
0.72
198
0.27
251
0.19
207
0.27
235
0.29
287
0.24
190
0.24
193
SGM_RVCbinarytwo views1.68
347
0.36
229
0.61
59
0.59
194
0.29
63
2.25
359
1.18
339
2.38
368
1.68
335
3.60
387
2.67
362
3.69
380
2.42
377
8.13
394
1.90
341
0.31
280
0.31
314
0.30
262
0.28
276
0.30
248
0.29
243
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
PSMNet-ADLtwo views0.72
160
0.35
222
0.62
63
0.69
285
0.46
219
1.14
253
0.44
123
1.37
167
1.01
136
0.83
69
1.17
158
1.33
254
0.96
232
1.43
164
0.95
249
0.33
290
0.22
254
0.21
96
0.23
216
0.27
220
0.29
243
KYRafttwo views0.75
184
0.28
83
0.62
63
0.56
164
0.29
63
0.67
121
0.86
290
0.94
48
0.84
76
1.62
318
2.21
345
1.16
214
1.02
256
1.57
190
0.40
57
0.20
117
0.13
42
0.22
122
0.28
276
0.20
97
1.02
375
NOSS_ROBtwo views1.26
309
0.46
271
0.62
63
0.56
164
0.38
169
1.06
242
0.78
269
1.73
246
1.40
303
1.01
103
1.43
240
1.10
200
0.75
139
10.62
410
0.65
183
0.45
339
0.43
353
0.48
343
0.45
344
0.44
315
0.41
302
HHNettwo views0.62
109
0.26
46
0.63
66
0.43
8
0.45
209
0.50
39
0.58
220
1.07
101
1.01
136
1.25
210
2.23
346
0.70
76
0.61
105
1.07
108
0.47
109
0.20
117
0.13
42
0.23
149
0.19
107
0.19
71
0.30
255
FENettwo views0.60
100
0.28
83
0.63
66
0.54
133
0.33
122
0.83
188
0.38
68
1.27
152
1.07
158
1.00
100
0.86
56
0.99
167
0.85
184
0.96
82
0.68
188
0.22
166
0.15
125
0.23
149
0.20
135
0.22
152
0.23
181
GANet-RSSMtwo views0.72
160
0.28
83
0.63
66
0.64
245
0.58
274
0.80
179
0.58
220
1.89
287
1.08
162
1.04
113
1.25
180
1.15
213
1.04
259
1.49
175
0.62
175
0.25
228
0.19
207
0.22
122
0.22
196
0.22
152
0.21
149
R-Stereo Traintwo views0.57
89
0.26
46
0.63
66
0.54
133
0.36
145
0.69
131
0.54
188
1.22
142
0.72
52
1.61
315
1.50
261
0.75
82
0.53
64
0.64
26
0.44
83
0.18
60
0.15
125
0.17
14
0.15
30
0.17
24
0.17
60
RAFT-Stereopermissivetwo views0.57
89
0.26
46
0.63
66
0.54
133
0.36
145
0.69
131
0.54
188
1.22
142
0.72
52
1.61
315
1.50
261
0.75
82
0.53
64
0.64
26
0.44
83
0.18
60
0.15
125
0.17
14
0.15
30
0.17
24
0.17
60
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
CBMV_ROBtwo views0.90
239
0.44
263
0.63
66
0.51
94
0.37
152
1.25
275
0.49
162
1.77
261
1.27
245
1.41
275
2.00
332
1.33
254
1.08
270
2.17
260
0.76
207
0.43
333
0.42
352
0.47
342
0.44
342
0.41
298
0.36
286
RAFT-Testtwo views0.54
61
0.25
35
0.64
72
0.47
41
0.30
79
0.97
227
0.27
14
1.24
148
0.81
69
0.96
89
1.12
138
1.28
245
0.48
46
0.71
37
0.36
33
0.17
32
0.13
42
0.17
14
0.14
22
0.16
13
0.16
41
raft_robusttwo views0.68
151
0.30
126
0.64
72
0.52
110
0.26
20
0.54
59
0.35
46
1.33
158
1.24
230
1.16
166
1.07
115
0.60
51
0.54
67
3.58
318
0.37
38
0.18
60
0.14
75
0.20
73
0.22
196
0.20
97
0.16
41
iRaftStereo_RVCtwo views0.47
29
0.26
46
0.64
72
0.50
71
0.29
63
0.53
56
0.33
33
1.05
86
0.77
61
0.84
71
1.00
86
0.55
38
0.37
12
0.81
58
0.40
57
0.17
32
0.12
9
0.22
122
0.20
135
0.19
71
0.15
27
AFF-stereotwo views0.58
94
0.25
35
0.64
72
0.46
35
0.29
63
0.34
4
0.38
68
1.15
120
1.14
189
1.17
175
1.60
281
1.10
200
0.71
134
0.97
87
0.43
81
0.13
1
0.11
3
0.19
49
0.19
107
0.17
24
0.14
11
GMOStereotwo views0.53
47
0.26
46
0.65
76
0.50
71
0.29
63
0.52
51
0.43
111
0.89
32
0.96
110
1.41
275
1.14
146
0.85
118
0.56
77
0.59
14
0.38
48
0.16
11
0.14
75
0.24
169
0.21
171
0.20
97
0.15
27
error versiontwo views0.53
47
0.26
46
0.65
76
0.50
71
0.29
63
0.52
51
0.43
111
0.89
32
0.96
110
1.41
275
1.14
146
0.85
118
0.56
77
0.59
14
0.38
48
0.16
11
0.14
75
0.24
169
0.21
171
0.20
97
0.15
27
test-vtwo views0.53
47
0.26
46
0.65
76
0.50
71
0.29
63
0.52
51
0.43
111
0.89
32
0.96
110
1.41
275
1.14
146
0.85
118
0.56
77
0.59
14
0.38
48
0.16
11
0.14
75
0.24
169
0.21
171
0.20
97
0.15
27
test-2two views0.53
47
0.26
46
0.65
76
0.50
71
0.29
63
0.52
51
0.43
111
0.89
32
0.96
110
1.41
275
1.14
146
0.85
118
0.56
77
0.59
14
0.38
48
0.16
11
0.14
75
0.24
169
0.21
171
0.20
97
0.15
27
test_xeamplepermissivetwo views1.45
328
0.28
83
0.65
76
0.51
94
0.28
52
0.94
215
0.59
227
2.14
337
1.29
254
1.24
206
1.51
263
0.88
129
0.86
192
1.46
169
15.10
408
0.22
166
0.20
224
0.22
122
0.20
135
0.22
152
0.22
164
HSMtwo views1.19
304
0.32
171
0.65
76
0.57
175
0.38
169
1.23
272
0.59
227
2.25
357
1.19
211
1.30
232
1.25
180
1.94
333
1.03
258
9.32
401
0.71
195
0.22
166
0.16
156
0.20
73
0.16
58
0.21
131
0.21
149
RAFT-345two views0.84
220
0.25
35
0.66
82
0.50
71
0.27
33
0.54
59
0.42
95
0.83
21
1.11
174
1.32
244
2.34
351
0.86
122
0.54
67
5.72
356
0.47
109
0.18
60
0.13
42
0.22
122
0.17
74
0.17
24
0.16
41
RALCasStereoNettwo views0.54
61
0.30
126
0.66
82
0.59
194
0.51
243
0.61
87
0.52
178
0.94
48
0.93
103
0.70
45
1.01
91
0.78
89
0.44
26
1.33
140
0.47
109
0.20
117
0.16
156
0.18
36
0.16
58
0.20
97
0.19
111
CBMVpermissivetwo views0.95
251
0.44
263
0.66
82
0.53
118
0.35
140
1.53
307
1.63
366
1.69
240
1.42
309
2.00
350
1.60
281
1.43
268
1.17
283
1.59
194
0.99
257
0.34
298
0.34
324
0.39
322
0.33
311
0.33
266
0.32
271
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
AE-Stereotwo views0.49
34
0.27
67
0.67
85
0.60
205
0.39
177
0.67
121
0.46
141
1.18
128
1.09
168
0.47
13
0.75
39
0.69
73
0.47
38
0.59
14
0.40
57
0.16
11
0.15
125
0.21
96
0.20
135
0.19
71
0.15
27
RAFT-RH_RVCtwo views1.03
273
0.24
19
0.67
85
0.49
64
0.28
52
0.81
183
0.33
33
0.83
21
1.08
162
2.05
351
4.65
386
1.04
183
0.57
85
5.98
363
0.50
127
0.18
60
0.13
42
0.26
224
0.20
135
0.16
13
0.17
60
222two views1.61
341
0.29
110
0.67
85
0.56
164
0.29
63
1.06
242
0.42
95
2.17
348
1.31
264
1.31
242
1.52
264
0.92
143
0.94
222
1.76
223
17.65
412
0.24
204
0.20
224
0.21
96
0.19
107
0.22
152
0.23
181
11t1two views0.52
38
0.28
83
0.68
88
0.51
94
0.28
52
0.83
188
0.39
79
1.22
142
0.63
25
0.84
71
0.74
37
0.68
68
0.68
126
0.91
75
0.57
158
0.21
143
0.18
194
0.19
49
0.16
58
0.20
97
0.21
149
BUStwo views0.74
177
0.32
171
0.68
88
0.54
133
0.44
202
2.34
363
0.42
95
2.16
342
0.98
122
1.20
187
1.11
132
1.03
180
0.62
110
0.91
75
0.70
190
0.24
204
0.17
180
0.25
205
0.22
196
0.22
152
0.22
164
BSDual-CNNtwo views0.71
159
0.32
171
0.68
88
0.54
133
0.44
202
1.27
277
0.65
239
2.16
342
0.98
122
1.20
187
1.11
132
1.12
205
0.74
137
0.91
75
0.66
184
0.24
204
0.17
180
0.25
205
0.22
196
0.22
152
0.22
164
psmgtwo views0.72
160
0.32
171
0.68
88
0.50
71
0.44
202
1.48
302
0.75
261
1.94
303
0.98
122
1.21
190
1.33
209
1.12
205
0.74
137
0.91
75
0.66
184
0.24
204
0.19
207
0.25
205
0.25
238
0.23
177
0.22
164
test-3two views0.54
61
0.22
9
0.68
88
0.47
41
0.27
33
0.58
74
0.35
46
0.92
40
1.00
134
1.32
244
0.69
29
0.87
126
0.45
29
1.68
210
0.37
38
0.16
11
0.11
3
0.20
73
0.16
58
0.17
24
0.13
3
test_1two views0.54
61
0.22
9
0.68
88
0.47
41
0.27
33
0.58
74
0.35
46
0.92
40
1.00
134
1.28
219
0.68
26
0.87
126
0.45
29
1.67
205
0.37
38
0.16
11
0.11
3
0.20
73
0.16
58
0.17
24
0.13
3
xxxxtwo views1.51
332
0.28
83
0.68
88
0.54
133
0.28
52
1.16
260
0.44
123
2.19
350
1.29
254
1.09
122
1.36
221
1.22
223
0.85
184
1.79
226
15.70
411
0.24
204
0.21
240
0.21
96
0.20
135
0.22
152
0.23
181
RAFT-Stereo + iAFFtwo views0.54
61
0.25
35
0.68
88
0.43
8
0.24
9
0.40
10
0.34
43
1.04
80
1.09
168
1.32
244
1.60
281
0.80
94
0.68
126
0.67
30
0.39
54
0.13
1
0.10
1
0.18
36
0.17
74
0.17
24
0.13
3
Gwc-CoAtRStwo views0.52
38
0.24
19
0.68
88
0.48
51
0.29
63
0.64
96
0.25
4
1.16
121
1.08
162
1.01
103
1.00
86
1.12
205
0.56
77
0.69
31
0.37
38
0.16
11
0.13
42
0.17
14
0.15
30
0.15
5
0.15
27
LL-Strereo2two views0.52
38
0.33
187
0.69
97
0.52
110
0.37
152
0.70
138
0.30
22
1.13
117
0.67
41
0.94
87
0.78
44
0.91
135
0.42
20
1.05
103
0.42
72
0.17
32
0.16
156
0.29
253
0.25
238
0.21
131
0.16
41
NRIStereotwo views0.60
100
0.29
110
0.69
97
0.53
118
0.28
52
0.63
94
0.33
33
1.08
105
0.87
81
1.14
152
0.87
59
0.91
135
0.59
94
2.24
267
0.49
121
0.20
117
0.14
75
0.21
96
0.19
107
0.21
131
0.17
60
ASMatchtwo views0.88
234
0.26
46
0.69
97
0.51
94
0.35
140
0.48
20
0.37
64
1.12
116
0.92
101
1.10
130
3.28
370
0.96
159
0.98
239
4.90
338
0.49
121
0.19
92
0.16
156
0.22
122
0.19
107
0.19
71
0.27
229
THIR-Stereotwo views1.02
272
0.27
67
0.69
97
0.49
64
0.28
52
0.95
219
1.34
350
1.03
76
0.97
117
1.34
255
1.90
325
1.17
215
1.58
333
6.44
368
0.78
215
0.19
92
0.14
75
0.21
96
0.22
196
0.19
71
0.20
133
test_xeample3two views0.42
11
0.28
83
0.69
97
0.43
8
0.33
122
0.56
68
0.38
68
0.79
12
0.45
3
0.53
29
0.46
4
0.44
8
0.44
26
1.38
152
0.31
5
0.18
60
0.14
75
0.19
49
0.15
30
0.17
24
0.16
41
EAI-Stereotwo views0.65
130
0.28
83
0.69
97
0.53
118
0.27
33
0.60
84
0.40
82
2.28
360
0.64
27
0.71
47
3.18
369
0.57
42
0.43
22
1.06
104
0.41
64
0.18
60
0.13
42
0.17
14
0.17
74
0.17
24
0.17
60
MIF-Stereo (partial)two views0.45
23
0.25
35
0.70
103
0.50
71
0.52
251
0.35
5
0.26
9
0.91
39
0.59
21
0.45
12
0.71
32
0.51
31
0.51
57
1.11
114
0.45
91
0.20
117
0.16
156
0.23
149
0.20
135
0.24
190
0.18
78
DCREtwo views0.82
211
0.26
46
0.70
103
0.58
181
0.44
202
0.54
59
0.48
155
0.95
51
0.78
63
0.78
56
7.33
399
0.86
122
0.52
59
0.76
47
0.41
64
0.16
11
0.16
156
0.19
49
0.17
74
0.18
41
0.17
60
ffftwo views0.53
47
0.24
19
0.70
103
0.43
8
0.24
9
0.48
20
0.36
55
1.07
101
1.25
233
1.10
130
1.02
98
0.57
42
1.06
266
0.73
42
0.52
136
0.16
11
0.13
42
0.17
14
0.13
11
0.15
5
0.19
111
DRafttwo views0.80
203
0.24
19
0.70
103
0.45
32
0.30
79
0.97
227
0.53
184
1.05
86
0.97
117
1.78
331
2.02
335
0.80
94
1.74
347
2.73
291
0.72
198
0.17
32
0.14
75
0.20
73
0.20
135
0.18
41
0.21
149
Pruner-Stereotwo views0.62
109
0.29
110
0.70
103
0.61
217
0.31
91
0.63
94
0.43
111
1.17
123
0.99
129
1.53
300
1.08
118
0.95
153
0.55
73
1.35
144
0.51
130
0.23
189
0.14
75
0.24
169
0.21
171
0.21
131
0.23
181
DCANettwo views0.54
61
0.24
19
0.70
103
0.43
8
0.24
9
0.49
30
0.36
55
1.05
86
1.30
260
1.12
136
1.03
106
0.58
46
0.92
211
0.81
58
0.52
136
0.16
11
0.13
42
0.17
14
0.13
11
0.18
41
0.19
111
csctwo views0.53
47
0.24
19
0.70
103
0.43
8
0.24
9
0.48
20
0.36
55
1.07
101
1.25
233
1.10
130
1.02
98
0.57
42
1.06
266
0.73
42
0.52
136
0.16
11
0.13
42
0.17
14
0.13
11
0.15
5
0.19
111
cscssctwo views0.53
47
0.24
19
0.70
103
0.43
8
0.24
9
0.48
20
0.36
55
1.07
101
1.25
233
1.10
130
1.02
98
0.57
42
1.06
266
0.73
42
0.52
136
0.16
11
0.13
42
0.17
14
0.13
11
0.15
5
0.19
111
111two views0.60
100
0.23
13
0.70
103
0.43
8
0.24
9
0.72
143
0.42
95
1.18
128
1.41
306
0.80
61
1.38
227
1.10
200
0.79
158
0.96
82
0.58
161
0.18
60
0.13
42
0.17
14
0.15
30
0.17
24
0.19
111
CFNet-RSSMtwo views0.54
61
0.24
19
0.70
103
0.48
51
0.28
52
0.60
84
0.27
14
1.49
191
1.14
189
1.06
114
0.93
69
1.08
192
0.54
67
0.70
33
0.35
27
0.16
11
0.12
9
0.17
14
0.15
30
0.16
13
0.14
11
psm_uptwo views0.77
191
0.34
206
0.70
103
0.66
262
0.58
274
1.05
239
0.92
303
1.52
203
1.12
178
1.26
214
1.16
155
1.31
252
1.23
298
1.20
123
0.81
225
0.25
228
0.29
304
0.31
266
0.27
259
0.27
220
0.25
205
qqqtwo views0.57
89
0.34
206
0.71
114
0.47
41
0.27
33
0.64
96
0.62
234
1.42
177
0.78
63
0.80
61
0.92
67
0.95
153
0.77
151
0.88
70
0.59
163
0.21
143
0.20
224
0.24
169
0.23
216
0.22
152
0.21
149
test_3two views0.55
76
0.23
13
0.71
114
0.53
118
0.28
52
0.61
87
0.40
82
0.92
40
1.05
150
1.19
183
0.68
26
0.93
144
0.44
26
1.67
205
0.39
54
0.15
6
0.12
9
0.22
122
0.19
107
0.21
131
0.14
11
TestStereotwo views0.64
125
0.39
244
0.71
114
0.51
94
0.27
33
0.56
68
0.42
95
1.03
76
0.91
97
0.80
61
1.00
86
0.68
68
0.52
59
3.25
308
0.45
91
0.22
166
0.15
125
0.24
169
0.18
88
0.27
220
0.16
41
mmmtwo views0.63
115
0.35
222
0.72
117
0.51
94
0.30
79
0.86
197
0.54
188
1.59
219
0.86
77
1.07
116
1.38
227
0.79
92
0.75
139
0.91
75
0.58
161
0.22
166
0.18
194
0.29
253
0.25
238
0.25
200
0.23
181
CASStwo views0.65
130
0.34
206
0.72
117
0.56
164
0.27
33
0.78
170
0.42
95
1.59
219
0.86
77
1.30
232
1.25
180
0.87
126
0.84
181
0.84
63
0.54
150
0.35
305
0.19
207
0.26
224
0.21
171
0.28
234
0.42
306
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
HBP-ISPtwo views0.96
252
0.58
310
0.72
117
0.61
217
0.46
219
1.64
318
0.76
264
1.86
282
1.28
250
1.30
232
1.53
265
0.86
122
0.94
222
3.27
309
0.69
189
0.45
339
0.44
356
0.54
354
0.48
351
0.47
321
0.40
298
DisPMtwo views0.66
138
0.28
83
0.72
117
0.61
217
0.35
140
0.62
93
0.45
134
1.02
73
0.99
129
1.56
308
1.10
127
0.80
94
0.59
94
2.37
276
0.41
64
0.23
189
0.14
75
0.23
149
0.21
171
0.20
97
0.25
205
GANet-ADLtwo views0.60
100
0.35
222
0.72
117
0.64
245
0.40
182
0.68
127
0.51
169
1.49
191
1.12
178
0.95
88
1.08
118
0.91
135
0.57
85
0.76
47
0.55
154
0.26
242
0.18
194
0.18
36
0.16
58
0.23
177
0.25
205
CrosDoStereotwo views1.58
336
0.24
19
0.72
117
0.48
51
0.29
63
0.67
121
12.49
412
1.10
108
0.98
122
1.34
255
1.75
307
1.00
168
1.89
357
6.65
371
0.81
225
0.19
92
0.15
125
0.20
73
0.22
196
0.18
41
0.19
111
AAGNettwo views1.83
354
0.28
83
0.72
117
0.61
217
0.32
106
0.67
121
0.51
169
0.96
58
0.98
122
1.47
287
1.20
166
1.00
168
1.18
286
2.83
293
22.77
418
0.22
166
0.13
42
0.22
122
0.19
107
0.23
177
0.15
27
OMP-Stereotwo views0.94
248
0.33
187
0.72
117
0.90
354
0.31
91
0.49
30
0.36
55
1.16
121
1.06
153
1.58
314
1.12
138
1.46
276
0.69
129
6.94
378
0.49
121
0.19
92
0.14
75
0.24
169
0.18
88
0.20
97
0.14
11
IIG-Stereotwo views0.96
252
0.31
157
0.72
117
0.88
349
0.33
122
0.61
87
0.26
9
1.19
134
1.03
142
1.69
324
1.37
223
1.46
276
0.75
139
6.96
379
0.51
130
0.19
92
0.14
75
0.23
149
0.18
88
0.20
97
0.14
11
DeepStereo_LLtwo views1.58
336
0.24
19
0.72
117
0.48
51
0.29
63
0.67
121
12.49
412
1.10
108
0.98
122
1.34
255
1.75
307
1.00
168
1.89
357
6.65
371
0.81
225
0.19
92
0.15
125
0.20
73
0.22
196
0.18
41
0.19
111
SST-Stereotwo views0.83
216
0.28
83
0.72
117
0.59
194
0.31
91
0.72
143
0.26
9
1.09
106
0.86
77
1.47
287
1.10
127
1.00
168
0.87
195
5.73
357
0.45
91
0.22
166
0.13
42
0.23
149
0.19
107
0.23
177
0.18
78
DeepStereo_RVCtwo views0.55
76
0.29
110
0.72
117
0.51
94
0.30
79
0.59
78
0.33
33
1.03
76
0.70
47
1.16
166
0.93
69
0.83
109
0.94
222
0.96
82
0.54
150
0.21
143
0.14
75
0.21
96
0.19
107
0.24
190
0.24
193
rrrtwo views0.46
24
0.28
83
0.73
129
0.43
8
0.33
122
0.49
30
0.38
68
0.76
10
0.50
6
0.47
13
0.48
6
0.48
21
0.46
32
2.03
250
0.30
1
0.19
92
0.14
75
0.19
49
0.15
30
0.16
13
0.16
41
EKT-Stereotwo views0.53
47
0.30
126
0.73
129
0.58
181
0.60
284
0.51
49
0.48
155
0.94
48
0.90
92
0.71
47
0.88
61
0.77
86
0.43
22
1.07
108
0.40
57
0.22
166
0.16
156
0.21
96
0.18
88
0.20
97
0.22
164
Patchmatch Stereo++two views0.55
76
0.30
126
0.73
129
0.50
71
0.27
33
0.65
108
0.29
19
1.05
86
0.64
27
1.12
136
0.96
73
0.83
109
0.60
96
1.37
148
0.45
91
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.54
61
0.30
126
0.73
129
0.50
71
0.27
33
0.65
108
0.41
93
1.04
80
0.64
27
1.12
136
0.96
73
0.82
102
0.61
105
1.06
104
0.45
91
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
ROB_FTStereo_v2two views0.54
61
0.30
126
0.73
129
0.50
71
0.27
33
0.64
96
0.42
95
1.05
86
0.64
27
1.12
136
0.96
73
0.83
109
0.60
96
1.12
116
0.46
104
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
ROB_FTStereotwo views0.54
61
0.30
126
0.73
129
0.50
71
0.27
33
0.64
96
0.25
4
1.05
86
0.64
27
1.12
136
0.95
71
0.82
102
0.61
105
1.15
119
0.45
91
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
HUI-Stereotwo views0.52
38
0.30
126
0.73
129
0.50
71
0.27
33
0.65
108
0.30
22
1.04
80
0.64
27
1.12
136
0.96
73
0.83
109
0.60
96
0.79
53
0.45
91
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
RAFT_R40two views0.83
216
0.28
83
0.73
129
0.59
194
0.31
91
0.69
131
0.44
123
1.10
108
0.95
108
1.47
287
1.10
127
1.00
168
0.85
184
5.53
351
0.46
104
0.22
166
0.13
42
0.23
149
0.20
135
0.23
177
0.18
78
iGMRVCtwo views0.56
85
0.30
126
0.73
129
0.50
71
0.27
33
0.65
108
0.38
68
1.05
86
0.64
27
1.12
136
0.96
73
0.83
109
0.60
96
1.52
178
0.46
104
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
iRAFTtwo views0.55
76
0.30
126
0.73
129
0.50
71
0.27
33
0.65
108
0.29
19
1.05
86
0.64
27
1.12
136
0.96
73
0.83
109
0.60
96
1.37
148
0.45
91
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
CroCo-Stereocopylefttwo views0.40
8
0.31
157
0.73
129
0.58
181
0.27
33
0.26
1
0.33
33
0.95
51
0.81
69
0.42
4
0.47
5
0.65
62
0.47
38
0.39
1
0.34
24
0.18
60
0.15
125
0.16
9
0.14
22
0.19
71
0.16
41
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.64
125
0.30
126
0.73
129
0.59
194
0.33
122
0.68
127
0.58
220
1.04
80
0.76
59
1.08
117
1.19
163
1.65
308
0.93
217
1.06
104
0.56
156
0.21
143
0.18
194
0.27
235
0.24
227
0.22
152
0.17
60
RAFT-IKPtwo views0.54
61
0.30
126
0.73
129
0.50
71
0.27
33
0.59
78
0.36
55
1.04
80
0.64
27
1.12
136
0.96
73
0.83
109
0.61
105
1.22
125
0.45
91
0.22
166
0.14
75
0.24
169
0.20
135
0.26
208
0.18
78
HCRNettwo views0.70
154
0.39
244
0.73
129
0.60
205
0.59
281
0.76
159
0.35
46
1.22
142
1.13
187
1.02
106
0.99
83
1.02
177
0.76
147
2.19
264
0.70
190
0.28
261
0.19
207
0.28
245
0.23
216
0.25
200
0.23
181
anonymousdsp2two views0.53
47
0.27
67
0.74
143
0.48
51
0.29
63
0.76
159
0.47
147
1.61
225
0.82
74
0.77
55
0.77
42
0.75
82
0.47
38
1.03
97
0.40
57
0.18
60
0.13
42
0.18
36
0.13
11
0.19
71
0.18
78
CRE-IMPtwo views0.55
76
0.30
126
0.74
143
0.52
110
0.29
63
0.79
174
0.25
4
1.04
80
0.72
52
1.09
122
0.95
71
0.81
97
0.57
85
1.10
111
0.50
127
0.21
143
0.14
75
0.23
149
0.19
107
0.28
234
0.22
164
anonymousatwo views0.72
160
0.27
67
0.75
145
0.47
41
0.63
293
1.43
299
0.45
134
1.24
148
0.89
88
1.28
219
1.75
307
1.62
301
1.13
280
0.69
31
0.59
163
0.19
92
0.16
156
0.23
149
0.25
238
0.20
97
0.18
78
TestStereo1two views0.63
115
0.28
83
0.75
145
0.76
315
0.31
91
0.48
20
0.43
111
1.30
156
1.21
221
0.97
92
1.31
202
0.64
59
0.77
151
1.75
218
0.42
72
0.20
117
0.15
125
0.22
122
0.18
88
0.21
131
0.17
60
test_5two views0.65
130
0.30
126
0.75
145
0.67
272
0.50
233
0.92
210
0.52
178
1.39
173
1.12
178
0.76
52
1.11
132
1.00
168
0.90
206
1.53
182
0.45
91
0.18
60
0.13
42
0.23
149
0.22
196
0.21
131
0.19
111
SA-5Ktwo views0.63
115
0.28
83
0.75
145
0.76
315
0.31
91
0.48
20
0.43
111
1.30
156
1.21
221
0.97
92
1.31
202
0.64
59
0.77
151
1.75
218
0.42
72
0.20
117
0.15
125
0.22
122
0.18
88
0.21
131
0.17
60
NF-Stereotwo views0.80
203
0.30
126
0.75
145
0.60
205
0.31
91
0.64
96
0.44
123
1.21
135
0.90
92
1.29
224
1.02
98
0.82
102
0.57
85
5.40
349
0.48
114
0.23
189
0.14
75
0.24
169
0.20
135
0.20
97
0.30
255
OCTAStereotwo views0.80
203
0.30
126
0.75
145
0.60
205
0.31
91
0.64
96
0.44
123
1.21
135
0.90
92
1.29
224
1.01
91
0.82
102
0.57
85
5.35
344
0.48
114
0.24
204
0.14
75
0.24
169
0.20
135
0.20
97
0.30
255
RE-Stereotwo views0.80
203
0.30
126
0.75
145
0.60
205
0.31
91
0.64
96
0.44
123
1.21
135
0.90
92
1.29
224
1.01
91
0.81
97
0.57
85
5.37
347
0.48
114
0.24
204
0.14
75
0.24
169
0.20
135
0.20
97
0.30
255
TVStereotwo views0.80
203
0.30
126
0.75
145
0.60
205
0.31
91
0.64
96
0.44
123
1.21
135
0.90
92
1.29
224
1.01
91
0.81
97
0.57
85
5.37
347
0.48
114
0.24
204
0.14
75
0.24
169
0.20
135
0.20
97
0.30
255
AdaStereotwo views0.70
154
0.43
260
0.75
145
0.73
307
0.37
152
0.92
210
0.53
184
1.85
279
1.18
208
1.12
136
1.23
174
1.07
191
0.65
123
0.96
82
0.63
179
0.31
280
0.15
125
0.32
279
0.21
171
0.29
239
0.22
164
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
4D-IteraStereotwo views0.48
31
0.24
19
0.76
154
0.50
71
0.44
202
0.66
117
0.31
27
0.87
24
1.02
139
1.03
110
0.72
34
0.78
89
0.32
9
0.64
26
0.37
38
0.17
32
0.11
3
0.23
149
0.19
107
0.19
71
0.13
3
Sa-1000two views0.72
160
0.29
110
0.76
154
0.59
194
0.30
79
0.73
146
0.37
64
1.62
228
1.33
272
1.28
219
2.04
337
0.86
122
0.75
139
1.84
230
0.38
48
0.19
92
0.14
75
0.25
205
0.23
216
0.20
97
0.16
41
IRAFT_RVCtwo views0.88
234
0.28
83
0.76
154
0.63
236
0.31
91
0.65
108
1.02
322
1.22
142
0.94
106
1.22
195
1.04
109
1.01
175
0.98
239
5.82
358
0.53
144
0.22
166
0.12
9
0.25
205
0.20
135
0.20
97
0.19
111
CVANet_RVCtwo views1.07
279
0.43
260
0.76
154
0.60
205
0.50
233
0.90
202
0.97
313
1.52
203
1.26
238
1.33
252
1.38
227
1.24
230
1.18
286
6.75
377
0.75
205
0.34
298
0.23
262
0.34
296
0.29
287
0.42
303
0.27
229
HHtwo views0.63
115
0.30
126
0.77
158
0.50
71
0.32
106
0.49
30
0.46
141
1.65
232
0.64
27
0.69
43
1.09
123
1.63
303
0.85
184
1.90
237
0.37
38
0.18
60
0.13
42
0.19
49
0.17
74
0.19
71
0.16
41
HanStereotwo views0.63
115
0.30
126
0.77
158
0.50
71
0.32
106
0.49
30
0.46
141
1.65
232
0.64
27
0.69
43
1.09
123
1.63
303
0.85
184
1.90
237
0.37
38
0.18
60
0.13
42
0.19
49
0.17
74
0.19
71
0.16
41
CroCo-Stereo Lap2two views0.44
21
0.34
206
0.77
158
0.61
217
0.79
335
0.28
2
0.35
46
0.75
8
0.71
51
0.38
3
0.50
9
0.72
79
0.55
73
0.57
12
0.47
109
0.17
32
0.18
194
0.19
49
0.16
58
0.21
131
0.20
133
PFNet+two views0.59
97
0.28
83
0.77
158
0.53
118
0.30
79
0.59
78
0.31
27
0.92
40
1.14
189
1.33
252
1.10
127
0.79
92
0.57
85
1.31
136
0.49
121
0.25
228
0.17
180
0.28
245
0.26
251
0.21
131
0.25
205
PSM-softLosstwo views0.78
197
0.31
157
0.77
158
0.58
181
0.32
106
0.56
68
0.40
82
1.18
128
0.70
47
1.24
206
1.07
115
0.83
109
0.52
59
5.36
345
0.53
144
0.24
204
0.15
125
0.25
205
0.22
196
0.20
97
0.25
205
KMStereotwo views0.78
197
0.31
157
0.77
158
0.58
181
0.32
106
0.56
68
0.40
82
1.18
128
0.70
47
1.24
206
1.07
115
0.83
109
0.52
59
5.36
345
0.53
144
0.24
204
0.15
125
0.25
205
0.22
196
0.20
97
0.25
205
cf-rtwo views0.73
174
0.30
126
0.77
158
0.55
152
0.63
293
0.78
170
0.48
155
1.79
267
1.15
198
1.13
150
1.26
186
1.43
268
0.87
195
1.40
162
0.85
238
0.25
228
0.18
194
0.22
122
0.23
216
0.19
71
0.19
111
HITNettwo views0.65
130
0.40
248
0.77
158
0.48
51
0.24
9
1.05
239
0.49
162
1.76
258
1.02
139
1.18
179
1.18
160
0.89
133
0.80
163
0.85
65
0.79
221
0.17
32
0.12
9
0.21
96
0.17
74
0.29
239
0.15
27
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
NINENettwo views0.77
191
0.37
234
0.78
166
0.62
228
0.51
243
2.34
363
0.42
95
1.83
277
1.04
146
1.14
152
1.23
174
1.03
180
0.62
110
1.24
128
0.70
190
0.28
261
0.23
262
0.31
266
0.21
171
0.26
208
0.25
205
DLCB_ROBtwo views0.86
229
0.40
248
0.78
166
0.68
282
0.54
257
1.11
248
0.84
284
1.49
191
1.23
226
1.64
320
1.65
294
1.70
313
0.91
208
1.70
212
1.05
260
0.25
228
0.24
271
0.26
224
0.27
259
0.27
220
0.24
193
Selective-RAFTtwo views0.52
38
0.28
83
0.79
168
0.55
152
0.27
33
0.91
204
0.33
33
0.80
17
0.88
85
0.58
32
0.63
20
0.81
97
0.77
151
1.29
134
0.48
114
0.19
92
0.14
75
0.17
14
0.15
30
0.19
71
0.17
60
AACVNettwo views0.86
229
0.35
222
0.79
168
0.82
332
0.39
177
0.76
159
0.49
162
1.61
225
0.81
69
1.08
117
1.33
209
1.30
249
0.93
217
4.34
329
0.74
202
0.25
228
0.21
240
0.28
245
0.22
196
0.29
239
0.25
205
GwcNet-ADLtwo views0.64
125
0.31
157
0.79
168
0.56
164
0.41
188
0.60
84
0.58
220
1.41
175
1.26
238
1.08
117
1.13
143
0.91
135
0.60
96
1.04
102
0.78
215
0.27
251
0.18
194
0.18
36
0.18
88
0.25
200
0.29
243
DEmStereotwo views0.97
258
0.23
13
0.79
168
0.47
41
0.32
106
1.04
238
0.56
207
0.93
44
0.89
88
1.39
272
2.14
343
1.02
177
2.07
368
5.64
355
0.77
213
0.17
32
0.15
125
0.20
73
0.20
135
0.18
41
0.20
133
TDLMtwo views1.06
277
0.44
263
0.79
168
0.63
236
0.50
233
0.89
200
1.44
355
1.48
190
1.26
238
1.12
136
1.40
233
1.08
192
0.98
239
6.65
371
0.78
215
0.33
290
0.21
240
0.33
286
0.26
251
0.37
279
0.24
193
UDGNettwo views0.72
160
1.17
375
0.80
173
0.77
318
0.41
188
0.77
165
0.38
68
0.97
59
1.34
275
0.81
65
0.88
61
0.71
78
0.60
96
1.21
124
0.54
150
0.52
352
0.19
207
1.02
379
0.26
251
0.71
362
0.31
265
FCDSN-DCtwo views2.32
372
0.63
325
0.81
174
0.84
336
0.75
326
2.23
358
0.94
309
2.09
331
1.80
345
5.45
404
7.72
402
7.77
403
6.93
408
3.39
310
1.80
336
0.52
352
0.48
365
0.52
348
0.51
359
0.57
342
0.58
345
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
ac_64two views0.82
211
0.29
110
0.81
174
0.71
297
0.60
284
1.05
239
0.54
188
1.99
312
0.92
101
1.18
179
1.06
112
1.99
338
1.08
270
1.94
243
0.97
254
0.27
251
0.22
254
0.24
169
0.23
216
0.22
152
0.19
111
Anonymous_2two views1.30
313
0.55
300
0.82
176
0.52
110
0.58
274
1.01
234
0.64
237
1.25
150
0.97
117
0.96
89
0.78
44
1.33
254
1.29
306
1.03
97
0.74
202
0.62
364
0.64
381
1.06
380
9.63
417
1.16
378
0.49
328
SAtwo views0.66
138
0.30
126
0.82
176
0.61
217
0.30
79
0.58
74
0.38
68
1.44
184
1.30
260
0.96
89
1.36
221
0.66
64
0.95
227
1.85
233
0.42
72
0.19
92
0.15
125
0.25
205
0.23
216
0.21
131
0.17
60
CSP-Nettwo views0.97
258
0.38
239
0.83
178
0.53
118
0.41
188
1.63
316
0.77
267
2.00
313
1.05
150
1.25
210
1.20
166
1.33
254
0.83
179
4.93
340
0.85
238
0.32
285
0.22
254
0.20
73
0.20
135
0.23
177
0.25
205
DIP-Stereotwo views0.62
109
0.30
126
0.83
178
0.48
51
0.36
145
0.95
219
0.33
33
2.37
367
0.67
41
1.25
210
1.00
86
0.68
68
0.51
57
0.91
75
0.61
172
0.18
60
0.15
125
0.21
96
0.17
74
0.19
71
0.19
111
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
DualNettwo views1.09
284
0.33
187
0.85
180
0.53
118
0.37
152
0.74
149
0.56
207
0.95
51
2.47
370
1.15
155
1.45
245
1.06
185
0.82
170
1.55
186
7.61
390
0.20
117
0.12
9
0.31
266
0.27
259
0.19
71
0.20
133
ffmtwo views0.72
160
0.33
187
0.85
180
0.53
118
0.37
152
0.74
149
0.56
207
0.95
51
2.47
370
1.15
155
1.45
245
1.06
185
0.82
170
1.55
186
0.32
7
0.20
117
0.12
9
0.31
266
0.27
259
0.19
71
0.20
133
ff1two views1.37
321
0.33
187
0.85
180
0.53
118
0.37
152
0.74
149
0.56
207
0.95
51
2.47
370
1.15
155
1.45
245
1.06
185
0.82
170
7.22
381
7.61
390
0.20
117
0.12
9
0.31
266
0.27
259
0.19
71
0.20
133
mmxtwo views1.39
323
0.33
187
0.85
180
0.53
118
0.37
152
0.74
149
0.56
207
2.13
333
1.37
290
1.15
155
1.45
245
1.06
185
0.82
170
7.22
381
7.61
390
0.24
204
0.19
207
0.31
266
0.27
259
0.30
248
0.25
205
xxxcopylefttwo views1.39
323
0.33
187
0.85
180
0.53
118
0.37
152
0.74
149
0.56
207
2.13
333
1.37
290
1.15
155
1.45
245
1.06
185
0.82
170
7.22
381
7.61
390
0.24
204
0.19
207
0.31
266
0.27
259
0.30
248
0.25
205
SACVNettwo views0.85
224
0.46
271
0.85
180
0.81
327
0.56
264
0.80
179
0.79
272
1.68
238
1.12
178
1.34
255
1.33
209
1.25
234
0.94
222
2.39
278
0.76
207
0.34
298
0.26
282
0.31
266
0.29
287
0.35
269
0.44
312
SMFormertwo views0.75
184
0.30
126
0.86
186
0.46
35
0.26
20
0.82
184
0.43
111
2.05
322
1.39
298
1.23
198
1.47
252
0.98
162
0.95
227
1.71
213
0.82
230
0.24
204
0.20
224
0.22
122
0.21
171
0.23
177
0.24
193
ttatwo views0.75
184
0.30
126
0.86
186
0.46
35
0.26
20
0.82
184
0.43
111
2.05
322
1.39
298
1.23
198
1.47
252
0.98
162
0.95
227
1.71
213
0.82
230
0.24
204
0.20
224
0.22
122
0.21
171
0.18
41
0.18
78
qqq1two views0.72
160
0.30
126
0.86
186
0.46
35
0.26
20
0.82
184
0.43
111
2.05
322
1.39
298
1.23
198
1.47
252
0.98
162
0.95
227
1.71
213
0.44
83
0.24
204
0.20
224
0.18
36
0.15
30
0.18
41
0.18
78
fff1two views0.72
160
0.30
126
0.86
186
0.46
35
0.26
20
0.82
184
0.43
111
2.05
322
1.39
298
1.23
198
1.47
252
0.98
162
0.95
227
1.71
213
0.44
83
0.24
204
0.20
224
0.18
36
0.15
30
0.18
41
0.18
78
1111xtwo views1.70
349
0.29
110
0.86
186
0.51
94
0.27
33
1.01
234
0.68
249
2.22
354
1.28
250
1.13
150
1.40
233
1.21
221
1.10
274
5.53
351
15.20
409
0.22
166
0.21
240
0.22
122
0.22
196
0.24
190
0.22
164
StereoVisiontwo views0.65
130
0.34
206
0.86
186
0.59
194
0.40
182
0.50
39
0.41
93
1.09
106
0.93
103
0.71
47
2.50
358
0.82
102
0.57
85
1.03
97
0.49
121
0.25
228
0.28
296
0.29
253
0.28
276
0.36
275
0.20
133
CFNet_pseudotwo views0.66
138
0.32
171
0.86
186
0.48
51
0.39
177
0.70
138
0.40
82
1.33
158
1.22
223
1.16
166
1.34
214
1.24
230
0.64
118
0.98
88
0.59
163
0.21
143
0.16
156
0.33
286
0.19
107
0.36
275
0.25
205
GANettwo views1.36
320
0.47
275
0.86
186
0.67
272
0.45
209
1.34
286
1.73
368
1.64
231
1.24
230
1.49
295
2.38
352
1.55
291
1.20
292
9.30
400
0.93
246
0.30
273
0.31
314
0.33
286
0.28
276
0.39
291
0.30
255
ccs_robtwo views0.66
138
0.33
187
0.86
186
0.48
51
0.39
177
0.70
138
0.40
82
1.33
158
1.22
223
1.16
166
1.34
214
1.23
228
0.64
118
0.98
88
0.59
163
0.21
143
0.16
156
0.35
303
0.20
135
0.37
279
0.25
205
FC-DCNNcopylefttwo views2.72
387
0.59
313
0.86
186
0.73
307
0.57
266
2.91
378
1.04
324
3.01
382
2.60
375
6.83
406
7.64
401
9.92
408
6.33
406
5.21
342
3.14
365
0.53
358
0.48
365
0.51
347
0.50
357
0.53
336
0.51
333
RALAANettwo views0.60
100
0.33
187
0.87
196
0.62
228
0.50
233
0.69
131
0.31
27
1.21
135
1.06
153
1.09
122
1.16
155
0.88
129
0.46
32
1.22
125
0.42
72
0.19
92
0.15
125
0.21
96
0.17
74
0.27
220
0.17
60
MSMDNettwo views0.66
138
0.32
171
0.87
196
0.49
64
0.37
152
0.79
174
0.40
82
1.43
183
1.31
264
1.15
155
1.31
202
1.24
230
0.63
115
0.88
70
0.57
158
0.21
143
0.16
156
0.26
224
0.19
107
0.39
291
0.24
193
DeepPruner_ROBtwo views0.74
177
0.48
280
0.87
196
0.57
175
0.44
202
0.79
174
0.54
188
1.73
246
0.96
110
1.38
267
1.27
189
1.24
230
0.73
135
1.43
164
0.73
201
0.34
298
0.28
296
0.27
235
0.26
251
0.31
255
0.31
265
PCWNet_CMDtwo views0.66
138
0.32
171
0.88
199
0.49
64
0.37
152
0.78
170
0.40
82
1.42
177
1.31
264
1.16
166
1.31
202
1.25
234
0.62
110
0.89
73
0.57
158
0.20
117
0.16
156
0.27
235
0.19
107
0.40
295
0.25
205
CFNet_ucstwo views0.70
154
0.33
187
0.88
199
0.50
71
0.43
196
0.74
149
0.44
123
1.60
222
1.29
254
1.22
195
1.54
267
1.09
198
0.63
115
0.99
90
0.59
163
0.25
228
0.20
224
0.37
313
0.21
171
0.40
295
0.28
240
RAFT_CTSACEtwo views0.63
115
0.26
46
0.88
199
0.55
152
0.51
243
0.71
141
0.44
123
0.80
17
0.97
117
0.97
92
1.84
317
1.18
218
0.68
126
1.47
173
0.36
33
0.16
11
0.15
125
0.21
96
0.20
135
0.20
97
0.14
11
LMCR-Stereopermissivemany views0.82
211
0.46
271
0.88
199
0.75
313
0.43
196
1.33
284
0.56
207
2.43
371
0.98
122
1.53
300
1.49
258
0.74
80
1.00
249
1.63
198
0.89
242
0.28
261
0.17
180
0.22
122
0.17
74
0.29
239
0.20
133
StereoDRNet-Refinedtwo views0.80
203
0.41
254
0.88
199
0.62
228
0.42
191
1.33
284
0.48
155
1.52
203
1.17
204
1.45
284
1.44
243
1.44
272
0.90
206
1.26
130
1.24
285
0.20
117
0.16
156
0.27
235
0.24
227
0.25
200
0.28
240
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
TransformOpticalFlowtwo views0.96
252
0.28
83
0.89
204
0.52
110
0.31
91
0.66
117
0.54
188
1.75
252
1.12
178
1.09
122
1.44
243
1.37
262
1.01
251
6.70
375
0.42
72
0.19
92
0.12
9
0.20
73
0.19
107
0.18
41
0.19
111
ADLNettwo views0.85
224
0.36
229
0.89
204
0.85
341
0.72
315
1.24
273
0.76
264
1.82
273
1.36
286
1.52
299
1.35
220
1.27
242
0.99
247
1.23
127
1.15
276
0.27
251
0.20
224
0.26
224
0.25
238
0.28
234
0.30
255
MSMD_ROBtwo views1.99
364
0.59
313
0.89
204
0.70
290
0.61
287
3.95
393
0.94
309
1.80
269
1.79
344
4.41
395
4.43
381
8.17
404
3.66
392
3.40
311
1.33
297
0.52
352
0.48
365
0.54
354
0.58
366
0.53
336
0.50
329
GEStwo views0.66
138
0.34
206
0.90
207
0.59
194
0.38
169
0.94
215
0.57
217
2.11
332
0.86
77
1.02
106
1.11
132
0.66
64
0.79
158
0.99
90
0.61
172
0.27
251
0.19
207
0.20
73
0.20
135
0.21
131
0.30
255
UPFNettwo views0.80
203
0.32
171
0.90
207
0.59
194
0.74
320
1.26
276
0.80
278
1.52
203
1.10
172
1.30
232
1.12
138
1.30
249
0.84
181
1.67
205
1.09
267
0.24
204
0.24
271
0.24
169
0.23
216
0.25
200
0.18
78
DMCAtwo views0.67
147
0.34
206
0.90
207
0.51
94
0.44
202
0.86
197
0.47
147
1.42
177
1.02
139
1.17
175
1.12
138
1.23
228
0.75
139
0.78
50
0.95
249
0.25
228
0.19
207
0.27
235
0.19
107
0.24
190
0.27
229
iRaft-Stereo_5wtwo views0.85
224
0.29
110
0.91
210
0.53
118
0.43
196
0.49
30
0.68
249
0.99
63
0.87
81
0.79
59
1.34
214
1.46
276
0.91
208
5.11
341
1.11
272
0.17
32
0.14
75
0.22
122
0.18
88
0.20
97
0.20
133
AASNettwo views0.76
190
0.35
222
0.91
210
0.79
321
0.81
342
1.14
253
0.56
207
2.02
320
1.08
162
1.22
195
1.24
176
0.93
144
0.76
147
0.77
49
1.16
277
0.27
251
0.23
262
0.24
169
0.20
135
0.28
234
0.24
193
Anonymoustwo views0.53
47
0.38
239
0.91
210
0.66
262
0.73
318
0.65
108
0.59
227
0.95
51
0.73
55
0.47
13
0.58
19
0.42
4
0.60
96
0.80
54
0.53
144
0.24
204
0.23
262
0.21
96
0.21
171
0.41
298
0.29
243
RASNettwo views1.12
292
0.30
126
0.91
210
0.66
262
0.77
330
0.97
227
0.57
217
1.37
167
1.35
283
1.02
106
1.34
214
2.11
347
1.43
319
7.09
380
1.39
307
0.19
92
0.17
180
0.17
14
0.19
107
0.18
41
0.16
41
MIM_Stereotwo views0.57
89
0.24
19
0.92
214
0.46
35
0.30
79
0.54
59
0.28
17
1.27
152
0.75
56
1.00
100
1.16
155
0.93
144
0.53
64
1.45
167
0.61
172
0.16
11
0.16
156
0.20
73
0.19
107
0.17
24
0.14
11
MeshStereopermissivetwo views2.26
370
0.56
303
0.92
214
0.61
217
0.49
227
2.60
371
1.02
322
3.18
384
2.05
360
7.40
410
4.98
390
7.58
401
2.98
386
6.37
367
1.96
344
0.43
333
0.43
353
0.45
337
0.39
330
0.43
308
0.42
306
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
CoDeXtwo views0.73
174
0.29
110
0.93
216
0.54
133
0.36
145
1.14
253
0.61
232
2.34
365
1.17
204
1.16
166
1.25
180
0.91
135
0.87
195
1.33
140
0.64
182
0.20
117
0.16
156
0.21
96
0.18
88
0.20
97
0.18
78
PS-NSSStwo views0.99
263
0.58
310
0.93
216
0.58
181
0.57
266
0.91
204
0.80
278
1.81
272
1.14
189
1.14
152
1.67
298
1.00
168
0.83
179
4.62
333
0.78
215
0.37
312
0.31
314
0.52
348
0.32
305
0.45
318
0.38
294
MIPNettwo views0.56
85
0.28
83
0.94
218
0.49
64
0.33
122
0.66
117
0.38
68
1.35
164
1.08
162
1.06
114
0.92
67
0.60
51
0.79
158
0.73
42
0.52
136
0.17
32
0.14
75
0.19
49
0.16
58
0.18
41
0.17
60
GMStereopermissivetwo views0.55
76
0.45
269
0.94
218
0.50
71
0.32
106
0.64
96
0.43
111
1.00
67
1.40
303
0.82
68
0.73
35
0.51
31
0.45
29
0.85
65
0.55
154
0.24
204
0.15
125
0.20
73
0.21
171
0.31
255
0.24
193
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
HGLStereotwo views0.85
224
0.38
239
0.94
218
0.80
324
1.03
362
1.17
262
0.58
220
1.52
203
1.20
216
1.19
183
1.62
288
1.13
210
1.20
292
1.80
227
1.06
262
0.24
204
0.24
271
0.24
169
0.21
171
0.23
177
0.27
229
MyStereo06two views0.61
106
0.28
83
0.95
221
0.56
164
0.46
219
0.61
87
0.73
259
1.78
265
0.67
41
1.03
110
1.12
138
1.13
210
0.56
77
0.78
50
0.41
64
0.17
32
0.16
156
0.23
149
0.20
135
0.22
152
0.20
133
hknettwo views0.77
191
0.32
171
0.95
221
0.54
133
0.38
169
1.27
277
0.65
239
2.16
342
1.07
158
1.20
187
1.11
132
1.59
297
0.81
166
1.37
148
0.66
184
0.22
166
0.17
180
0.25
205
0.22
196
0.22
152
0.22
164
delettwo views0.85
224
0.32
171
0.95
221
0.65
257
0.66
300
1.64
318
0.84
284
1.75
252
1.35
283
1.32
244
1.30
197
1.30
249
0.88
199
1.68
210
1.10
270
0.21
143
0.21
240
0.24
169
0.24
227
0.21
131
0.21
149
acv_fttwo views0.75
184
0.31
157
0.95
221
0.70
290
0.86
349
1.24
273
0.53
184
1.44
184
1.07
158
1.24
206
1.30
197
1.08
192
0.92
211
0.80
54
1.34
299
0.21
143
0.19
207
0.21
96
0.18
88
0.21
131
0.18
78
CIPLGtwo views0.62
109
0.33
187
0.96
225
0.58
181
0.50
233
0.75
155
0.48
155
1.05
86
0.96
110
1.40
273
1.57
277
0.64
59
0.48
46
0.89
73
0.70
190
0.23
189
0.15
125
0.19
49
0.16
58
0.19
71
0.21
149
STrans-v2two views1.04
276
0.28
83
0.96
225
0.49
64
0.32
106
0.68
127
0.79
272
2.47
373
1.12
178
1.12
136
1.46
251
1.40
263
1.46
323
6.70
375
0.43
81
0.18
60
0.13
42
0.20
73
0.18
88
0.18
41
0.18
78
ddtwo views0.59
97
0.48
280
0.97
227
0.55
152
0.32
106
0.64
96
0.47
147
1.02
73
1.34
275
0.78
56
0.86
56
0.58
46
0.54
67
1.01
94
0.86
240
0.28
261
0.18
194
0.26
224
0.19
107
0.32
260
0.24
193
IPLGtwo views0.69
152
0.27
67
0.97
227
0.51
94
0.43
196
0.79
174
0.33
33
1.21
135
1.06
153
1.30
232
1.10
127
0.52
36
0.55
73
3.16
306
0.63
179
0.16
11
0.14
75
0.19
49
0.16
58
0.18
41
0.17
60
TRStereotwo views0.60
100
0.60
320
0.97
227
0.74
309
0.67
302
0.46
18
0.38
68
1.85
279
0.89
88
0.79
59
0.80
51
0.88
129
0.39
14
1.10
111
0.41
64
0.23
189
0.15
125
0.23
149
0.24
227
0.17
24
0.15
27
IGEV_Zeroshot_testtwo views0.53
47
0.30
126
0.99
230
0.56
164
0.35
140
0.41
12
0.32
30
1.37
167
0.63
25
1.00
100
1.09
123
0.95
153
0.41
18
0.83
61
0.39
54
0.18
60
0.12
9
0.19
49
0.18
88
0.19
71
0.17
60
UDGtwo views1.41
326
2.65
406
0.99
230
1.44
382
1.64
385
1.34
286
0.80
278
1.60
222
1.23
226
1.23
198
1.71
301
2.01
340
1.34
314
1.47
173
1.41
312
0.90
373
0.54
375
2.29
390
0.75
374
1.84
384
1.04
377
IPLGR_Ctwo views0.62
109
0.33
187
0.99
230
0.58
181
0.49
227
0.76
159
0.48
155
1.10
108
0.96
110
1.40
273
1.56
273
0.62
54
0.48
46
0.80
54
0.71
195
0.23
189
0.15
125
0.19
49
0.16
58
0.19
71
0.21
149
GEStereo_RVCtwo views0.90
239
0.37
234
0.99
230
0.64
245
0.50
233
0.95
219
0.79
272
2.42
370
1.17
204
1.16
166
1.11
132
1.26
238
0.92
211
3.24
307
0.90
244
0.29
269
0.19
207
0.23
149
0.20
135
0.27
220
0.29
243
iResNet_ROBtwo views0.77
191
0.30
126
0.99
230
0.57
175
0.36
145
0.83
188
0.36
55
2.33
363
1.58
328
1.27
217
1.30
197
1.25
234
0.84
181
1.65
200
0.79
221
0.20
117
0.14
75
0.17
14
0.12
9
0.18
41
0.27
229
MyStereo8two views0.65
130
0.29
110
1.00
235
0.58
181
0.49
227
0.91
204
0.35
46
1.18
128
1.31
264
1.16
166
1.27
189
0.90
134
0.64
118
0.72
39
0.95
249
0.18
60
0.14
75
0.20
73
0.18
88
0.22
152
0.26
223
CRFU-Nettwo views0.86
229
0.39
244
1.00
235
0.65
257
0.57
266
1.78
333
0.86
290
2.15
339
0.81
69
1.38
267
1.18
160
1.64
306
1.19
289
1.35
144
0.90
244
0.26
242
0.22
254
0.21
96
0.19
107
0.23
177
0.24
193
iRaft-Stereo_20wtwo views0.65
130
0.31
157
1.00
235
0.47
41
0.34
137
0.73
146
0.30
22
2.96
381
0.70
47
1.15
155
1.14
146
0.76
85
0.65
123
1.11
114
0.38
48
0.17
32
0.13
42
0.18
36
0.16
58
0.19
71
0.18
78
MaskLacGwcNet_RVCtwo views1.10
287
1.02
363
1.00
235
0.82
332
0.67
302
1.93
343
0.93
307
1.62
228
1.11
174
1.15
155
1.25
180
1.50
284
0.79
158
1.96
245
0.76
207
1.89
386
0.34
324
0.79
371
0.36
324
1.25
381
0.83
368
GMStereo_Zeroshotpermissivetwo views0.67
147
0.61
321
1.01
239
0.64
245
0.37
152
0.84
195
0.35
46
1.05
86
1.12
178
1.12
136
1.06
112
1.27
242
0.54
67
1.19
122
0.59
163
0.32
285
0.17
180
0.31
266
0.18
88
0.52
334
0.22
164
test crocotwo views0.46
24
0.27
67
1.01
239
0.50
71
0.40
182
0.35
5
0.37
64
0.87
24
0.56
17
0.43
7
0.76
41
0.42
4
0.40
16
1.13
117
0.45
91
0.21
143
0.15
125
0.24
169
0.19
107
0.24
190
0.16
41
ACREtwo views0.61
106
0.33
187
1.01
239
0.58
181
0.49
227
0.75
155
0.47
147
1.06
99
0.95
108
1.37
262
1.55
269
0.62
54
0.46
32
0.83
61
0.70
190
0.23
189
0.15
125
0.19
49
0.16
58
0.18
41
0.21
149
ccnettwo views1.12
292
0.67
330
1.01
239
0.78
320
0.73
318
1.72
324
0.99
317
1.84
278
1.26
238
1.47
287
1.85
319
1.75
321
1.29
306
1.75
218
1.88
340
0.57
360
0.53
372
0.57
364
0.55
363
0.59
346
0.54
336
GwcNet-RSSMtwo views0.77
191
0.32
171
1.01
239
0.62
228
0.54
257
0.78
170
0.51
169
1.73
246
1.20
216
1.09
122
1.37
223
1.46
276
0.85
184
1.53
182
1.09
267
0.25
228
0.18
194
0.23
149
0.24
227
0.20
97
0.19
111
CFNettwo views0.96
252
0.36
229
1.01
239
0.62
228
0.42
191
0.99
231
0.47
147
1.90
290
1.32
269
0.99
98
1.39
231
1.10
200
0.86
192
5.58
354
0.79
221
0.23
189
0.17
180
0.28
245
0.27
259
0.26
208
0.21
149
ssnet_v2two views0.88
234
0.36
229
1.02
245
0.62
228
0.38
169
1.32
283
0.97
313
2.07
328
1.34
275
1.37
262
1.18
160
1.54
289
0.92
211
1.10
111
1.65
330
0.30
273
0.27
290
0.30
262
0.28
276
0.27
220
0.26
223
IERtwo views0.70
154
0.31
157
1.02
245
0.48
51
0.52
251
1.34
286
0.51
169
1.17
123
0.99
129
1.23
198
1.34
214
1.12
205
1.11
275
0.99
90
0.71
195
0.20
117
0.16
156
0.21
96
0.21
171
0.20
97
0.19
111
sCroCo_RVCtwo views0.49
34
0.40
248
1.02
245
0.65
257
0.60
284
0.52
51
0.40
82
0.83
21
0.61
22
0.44
8
0.74
37
0.49
28
0.50
55
0.63
25
0.48
114
0.26
242
0.27
290
0.23
149
0.22
196
0.29
239
0.25
205
SFCPSMtwo views0.70
154
0.28
83
1.02
245
0.51
94
0.38
169
1.37
289
0.66
244
2.00
313
1.03
142
1.17
175
1.21
168
0.82
102
0.78
156
1.03
97
0.53
144
0.21
143
0.17
180
0.22
122
0.24
227
0.21
131
0.19
111
DAStwo views0.84
220
0.34
206
1.03
249
0.64
245
0.69
310
0.77
165
0.63
235
1.54
211
1.20
216
1.79
334
1.55
269
0.95
153
1.04
259
2.83
293
0.60
170
0.21
143
0.16
156
0.25
205
0.18
88
0.27
220
0.22
164
SepStereotwo views0.82
211
0.34
206
1.03
249
0.64
245
0.69
310
0.77
165
0.63
235
1.54
211
1.20
216
1.79
334
1.55
269
0.95
153
1.04
259
2.30
271
0.60
170
0.21
143
0.16
156
0.25
205
0.18
88
0.27
220
0.22
164
MANEtwo views6.19
402
0.59
313
1.03
249
0.93
360
1.22
378
13.38
414
2.69
399
12.81
415
17.94
418
8.21
411
10.82
410
14.72
414
11.68
410
11.39
412
11.90
403
0.59
361
0.50
369
0.52
348
1.76
403
0.55
339
0.54
336
test-1two views0.52
38
0.26
46
1.04
252
0.56
164
0.32
106
0.61
87
0.38
68
1.10
108
0.91
97
0.78
56
1.01
91
0.77
86
0.52
59
0.60
23
0.42
72
0.17
32
0.14
75
0.20
73
0.17
74
0.20
97
0.23
181
whm_ethtwo views0.65
130
0.47
275
1.05
253
0.55
152
0.64
295
0.69
131
0.45
134
1.34
162
1.26
238
1.02
106
1.92
327
0.49
28
0.48
46
0.70
33
0.52
136
0.23
189
0.20
224
0.25
205
0.24
227
0.24
190
0.31
265
NLCA_NET_v2_RVCtwo views0.79
200
0.43
260
1.05
253
0.64
245
0.58
274
0.95
219
0.53
184
1.53
209
1.18
208
1.37
262
1.15
152
1.43
268
0.88
199
1.61
196
0.84
235
0.25
228
0.22
254
0.27
235
0.27
259
0.29
239
0.29
243
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
DN-CSS_ROBtwo views0.64
125
0.32
171
1.05
253
0.55
152
0.40
182
0.54
59
0.45
134
1.21
135
0.93
103
1.03
110
1.47
252
0.69
73
0.63
115
1.76
223
0.49
121
0.18
60
0.14
75
0.25
205
0.22
196
0.22
152
0.20
133
ADStereo(finetuned)two views0.57
89
0.24
19
1.06
256
0.43
8
0.24
9
0.49
30
0.35
46
1.05
86
1.30
260
1.12
136
1.03
106
0.58
46
1.20
292
0.84
63
0.51
130
0.16
11
0.13
42
0.17
14
0.13
11
0.18
41
0.19
111
dadtwo views0.86
229
0.66
329
1.06
256
0.56
164
0.37
152
0.76
159
0.44
123
1.17
123
1.50
319
1.44
282
1.27
189
1.34
258
0.75
139
2.52
283
0.84
235
0.42
328
0.27
290
0.83
372
0.26
251
0.41
298
0.29
243
DSFCAtwo views0.93
247
0.34
206
1.06
256
0.52
110
0.65
298
1.55
309
0.93
307
1.49
191
1.19
211
1.56
308
1.15
152
1.50
284
0.96
232
3.07
301
1.02
259
0.30
273
0.26
282
0.25
205
0.25
238
0.28
234
0.24
193
NCCL2two views1.00
267
0.56
303
1.06
256
0.75
313
0.57
266
1.31
282
1.72
367
1.77
261
1.36
286
1.50
296
1.17
158
1.91
328
1.17
283
1.54
184
1.29
293
0.35
305
0.31
314
0.45
337
0.44
342
0.40
295
0.40
298
MyStereo05two views0.66
138
0.28
83
1.07
260
0.56
164
0.46
219
0.61
87
0.73
259
1.34
162
1.41
306
1.15
155
0.91
65
0.77
86
0.80
163
1.41
163
0.63
179
0.17
32
0.16
156
0.23
149
0.20
135
0.22
152
0.20
133
MyStereo04two views0.67
147
0.29
110
1.07
260
0.55
152
0.45
209
0.59
78
0.79
272
1.50
195
1.40
303
0.91
79
0.91
65
0.74
80
0.86
192
1.52
178
0.62
175
0.17
32
0.16
156
0.24
169
0.20
135
0.23
177
0.20
133
DCANet-4two views0.54
61
0.26
46
1.07
260
0.42
7
0.24
9
0.48
20
0.36
55
0.99
63
1.30
260
1.10
130
1.02
98
0.56
40
0.75
139
0.73
42
0.52
136
0.16
11
0.13
42
0.17
14
0.13
11
0.15
5
0.19
111
SQANettwo views1.31
314
0.88
356
1.08
263
1.83
385
1.44
382
1.44
300
0.75
261
1.74
250
1.09
168
1.32
244
1.26
186
1.28
245
1.01
251
1.50
177
0.83
232
2.50
391
0.34
324
1.47
383
0.55
363
2.32
387
1.57
386
RAFT + AFFtwo views1.00
267
0.42
257
1.09
264
0.67
272
0.50
233
1.22
271
1.24
343
2.24
356
1.19
211
1.30
232
1.56
273
1.17
215
1.49
328
3.44
315
0.83
232
0.21
143
0.25
278
0.30
262
0.26
251
0.27
220
0.27
229
MMNettwo views0.84
220
0.32
171
1.09
264
0.60
205
0.59
281
1.85
339
0.49
162
1.51
200
1.27
245
1.37
262
1.15
152
1.26
238
1.18
286
1.67
205
1.22
283
0.19
92
0.18
194
0.23
149
0.22
196
0.25
200
0.21
149
XPNet_ROBtwo views0.96
252
0.49
283
1.09
264
0.72
300
0.57
266
1.11
248
1.14
334
1.66
236
1.23
226
1.85
340
1.39
231
1.64
306
1.11
275
1.80
227
1.42
316
0.38
316
0.30
308
0.33
286
0.29
287
0.37
279
0.34
277
PFNettwo views0.91
242
0.26
46
1.10
267
0.63
236
0.32
106
0.64
96
0.56
207
1.17
123
0.99
129
1.47
287
1.08
118
0.98
162
0.69
129
6.62
370
0.54
150
0.20
117
0.12
9
0.24
169
0.19
107
0.20
97
0.17
60
MLCVtwo views0.72
160
0.34
206
1.10
267
0.51
94
0.23
6
0.91
204
0.39
79
1.33
158
1.23
226
1.46
286
1.55
269
1.01
175
0.64
118
1.95
244
0.80
224
0.18
60
0.12
9
0.18
36
0.14
22
0.19
71
0.17
60
Anonymous3two views0.61
106
0.44
263
1.11
269
0.59
194
0.49
227
0.93
213
0.65
239
0.93
44
0.81
69
0.72
50
0.88
61
0.65
62
0.69
129
1.06
104
0.53
144
0.35
305
0.30
308
0.26
224
0.26
251
0.31
255
0.27
229
DISCOtwo views1.03
273
0.34
206
1.11
269
0.69
285
0.45
209
2.07
352
0.84
284
2.13
333
1.50
319
1.15
155
1.33
209
2.40
359
1.07
269
2.60
286
1.51
325
0.23
189
0.18
194
0.22
122
0.20
135
0.31
255
0.27
229
DDUNettwo views1.50
331
2.69
407
1.12
271
1.77
384
1.88
387
1.84
338
0.92
303
1.70
243
1.16
202
1.38
267
1.79
311
1.60
299
1.12
278
1.37
148
1.08
265
1.10
383
0.76
384
2.37
392
0.94
384
2.00
385
1.37
384
RPtwo views1.09
284
0.50
287
1.12
271
0.90
354
1.04
363
1.11
248
0.84
284
1.80
269
1.62
330
1.55
307
2.00
332
1.90
327
1.78
350
1.84
230
1.25
286
0.52
352
0.36
337
0.48
343
0.36
324
0.45
318
0.43
310
DRN-Testtwo views1.00
267
0.44
263
1.13
273
0.70
290
0.81
342
1.62
315
0.79
272
2.14
337
1.44
312
1.78
331
1.33
209
1.43
268
1.05
263
2.18
263
1.53
326
0.27
251
0.21
240
0.31
266
0.30
295
0.32
260
0.28
240
IPLGRtwo views0.58
94
0.27
67
1.14
274
0.48
51
0.28
52
0.65
108
0.33
33
1.22
142
1.13
187
1.18
179
1.05
110
0.69
73
0.66
125
0.96
82
0.52
136
0.17
32
0.15
125
0.20
73
0.17
74
0.20
97
0.18
78
NaN_ROBtwo views1.13
295
0.55
300
1.15
275
0.64
245
0.48
224
1.61
314
2.03
385
1.72
245
1.48
316
2.09
353
1.27
189
1.40
263
1.08
270
3.94
321
1.30
294
0.28
261
0.34
324
0.28
245
0.28
276
0.30
248
0.33
275
ETE_ROBtwo views0.96
252
0.64
327
1.16
276
0.69
285
0.48
224
1.14
253
1.13
333
1.77
261
1.19
211
1.91
345
1.45
245
1.73
316
1.05
263
1.60
195
1.14
275
0.32
285
0.26
282
0.38
316
0.34
316
0.39
291
0.41
302
LALA_ROBtwo views1.01
270
0.59
313
1.16
276
0.67
272
0.51
243
1.63
316
1.26
347
1.69
240
1.38
294
1.81
337
1.37
223
1.94
333
1.02
256
1.58
192
1.38
304
0.37
312
0.27
290
0.43
333
0.37
327
0.43
308
0.37
288
ADLNet2two views0.88
234
0.34
206
1.17
278
0.77
318
0.64
295
1.12
251
0.76
264
1.74
250
1.24
230
1.21
190
1.65
294
1.71
314
1.05
263
1.67
205
1.17
279
0.24
204
0.21
240
0.21
96
0.22
196
0.26
208
0.29
243
BEATNet_4xtwo views0.73
174
0.49
283
1.17
278
0.53
118
0.26
20
1.03
236
0.55
201
1.82
273
1.06
153
1.21
190
1.22
170
0.96
159
0.91
208
1.01
94
1.06
262
0.21
143
0.14
75
0.24
169
0.19
107
0.37
279
0.21
149
PSMNet_ROBtwo views0.90
239
0.52
293
1.17
278
0.72
300
0.61
287
1.27
277
1.12
332
1.76
258
1.12
178
1.09
122
1.28
193
1.45
274
0.89
205
1.65
200
1.42
316
0.33
290
0.25
278
0.37
313
0.39
330
0.35
269
0.29
243
otakutwo views1.60
339
1.11
370
1.21
281
2.20
388
1.56
384
1.97
346
1.24
343
2.07
328
1.36
286
1.44
282
1.62
288
1.73
316
1.19
289
1.73
217
0.98
256
2.89
395
0.57
377
1.74
384
0.60
370
2.78
392
1.94
391
anonymitytwo views1.12
292
0.97
359
1.21
281
1.07
371
1.12
369
1.08
245
0.89
295
1.95
305
1.16
202
1.29
224
1.26
186
1.22
223
1.09
273
1.15
119
1.01
258
1.02
378
1.00
399
0.97
376
0.97
386
0.98
371
0.99
374
STTStereotwo views0.78
197
0.50
287
1.22
283
0.64
245
0.54
257
0.89
200
0.54
188
1.44
184
1.11
174
1.38
267
1.09
123
1.27
242
0.85
184
1.43
164
0.83
232
0.29
269
0.27
290
0.33
286
0.39
330
0.32
260
0.30
255
Ntrotwo views1.64
343
1.15
373
1.23
284
2.48
393
1.83
386
2.09
353
1.16
337
1.96
306
1.38
294
1.21
190
1.62
288
1.62
301
1.29
306
1.87
236
1.11
272
3.04
396
0.56
376
1.82
386
0.64
371
2.80
393
2.05
392
ToySttwo views0.66
138
0.33
187
1.23
284
0.51
94
0.33
122
0.86
197
0.68
249
1.10
108
0.97
117
0.84
71
1.08
118
1.25
234
0.94
222
1.01
94
0.74
202
0.19
92
0.19
207
0.24
169
0.24
227
0.27
220
0.23
181
SPS-STEREOcopylefttwo views1.67
345
1.04
364
1.23
284
1.21
375
1.13
372
1.82
336
1.11
330
2.16
342
1.52
322
3.07
385
2.32
349
2.82
371
1.80
352
4.11
324
2.04
347
1.03
379
0.99
398
0.97
376
0.94
384
1.03
375
1.02
375
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
NCC-stereotwo views1.10
287
0.54
297
1.24
287
0.84
336
0.94
357
1.29
280
0.89
295
2.01
317
1.34
275
1.32
244
1.74
304
1.88
323
1.74
347
2.35
274
1.25
286
0.45
339
0.37
339
0.45
337
0.58
366
0.42
303
0.42
306
Abc-Nettwo views1.10
287
0.54
297
1.24
287
0.84
336
0.94
357
1.29
280
0.89
295
2.01
317
1.34
275
1.32
244
1.74
304
1.88
323
1.74
347
2.35
274
1.25
286
0.45
339
0.37
339
0.45
337
0.58
366
0.42
303
0.42
306
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
RYNettwo views1.17
303
0.49
283
1.24
287
0.70
290
0.97
361
1.71
322
0.92
303
1.91
294
1.46
314
1.38
267
1.14
146
1.88
323
1.30
310
4.24
325
1.87
338
0.26
242
0.21
240
0.35
303
0.27
259
0.55
339
0.54
336
RGCtwo views1.14
297
0.79
348
1.26
290
0.91
357
0.96
360
1.52
306
0.77
267
1.92
297
1.26
238
1.54
304
1.93
328
2.02
342
1.54
330
2.25
269
1.31
295
0.44
338
0.35
332
0.58
365
0.48
351
0.47
321
0.46
318
SGM-ForestMtwo views6.52
404
0.38
239
1.26
290
0.63
236
0.35
140
13.59
415
5.32
409
6.32
408
6.70
403
11.14
412
9.18
407
22.51
424
13.93
412
16.89
416
20.07
414
0.36
308
0.37
339
0.36
311
0.35
320
0.36
275
0.34
277
CSANtwo views1.41
326
0.59
313
1.26
290
0.70
290
0.50
233
1.76
328
1.78
370
1.77
261
1.90
352
2.35
361
2.32
349
1.92
331
1.94
361
5.56
353
1.49
324
0.43
333
0.35
332
0.40
327
0.41
336
0.43
308
0.41
302
DMCA-RVCcopylefttwo views0.74
177
0.40
248
1.27
293
0.66
262
0.49
227
0.77
165
0.47
147
1.35
164
1.01
136
1.53
300
1.01
91
1.29
248
0.82
170
1.31
136
0.78
215
0.27
251
0.21
240
0.35
303
0.27
259
0.32
260
0.24
193
CC-Net-ROBtwo views1.49
329
1.26
377
1.27
293
0.88
349
0.79
335
1.76
328
1.00
319
1.79
267
1.26
238
1.10
130
1.61
285
1.21
221
0.99
247
8.13
394
0.84
235
1.09
382
0.41
350
2.20
388
0.46
347
1.20
380
0.48
324
PA-Nettwo views1.01
270
0.57
307
1.29
295
0.64
245
0.74
320
1.19
267
0.84
284
1.69
240
1.43
311
1.16
166
1.19
163
1.32
253
1.19
289
3.42
313
1.25
286
0.29
269
0.45
360
0.33
286
0.49
354
0.32
260
0.47
321
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
edge stereotwo views1.11
290
0.50
287
1.30
296
0.71
297
0.65
298
1.14
253
0.75
261
1.93
301
1.37
290
1.71
325
1.83
315
2.54
363
1.44
320
2.43
280
1.23
284
0.42
328
0.41
350
0.54
354
0.35
320
0.42
303
0.46
318
UNettwo views0.83
216
0.34
206
1.31
297
0.58
181
0.74
320
1.58
312
0.49
162
1.41
175
1.04
146
1.21
190
1.08
118
1.54
289
1.12
278
1.65
200
1.09
267
0.23
189
0.17
180
0.25
205
0.20
135
0.25
200
0.22
164
GANetREF_RVCpermissivetwo views1.07
279
0.86
353
1.31
297
0.82
332
0.53
254
1.41
298
1.31
349
1.76
258
1.52
322
1.27
217
1.31
202
1.46
276
1.24
300
2.03
250
0.96
253
0.56
359
0.45
360
0.67
367
0.50
357
0.88
369
0.59
347
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
WCMA_ROBtwo views1.84
355
0.47
275
1.31
297
0.69
285
0.57
266
2.11
354
1.14
334
1.87
283
1.73
339
4.04
391
6.43
394
5.62
395
3.61
391
2.59
285
1.94
343
0.52
352
0.44
356
0.39
322
0.42
338
0.48
324
0.47
321
FAT-Stereotwo views1.07
279
0.41
254
1.32
300
0.72
300
0.58
274
1.08
245
0.89
295
1.96
306
1.65
332
1.75
328
1.98
331
2.03
343
1.48
326
2.02
249
1.18
282
0.42
328
0.35
332
0.34
296
0.29
287
0.35
269
0.53
335
DANettwo views1.08
282
0.61
321
1.32
300
0.85
341
0.72
315
1.37
289
0.51
169
1.54
211
1.15
198
1.78
331
1.54
267
2.01
340
1.11
275
2.90
296
2.00
346
0.33
290
0.30
308
0.40
327
0.30
295
0.44
315
0.45
314
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
AF-Nettwo views1.13
295
0.52
293
1.33
302
0.86
343
0.91
353
1.38
292
0.71
257
2.16
342
1.62
330
1.56
308
2.40
354
1.99
338
1.65
340
1.81
229
1.48
323
0.48
347
0.28
296
0.49
345
0.33
311
0.39
291
0.32
271
Nwc_Nettwo views1.09
284
0.49
283
1.33
302
0.89
353
0.80
340
1.49
304
0.66
244
2.19
350
1.27
245
1.32
244
2.26
347
1.96
335
1.54
330
1.92
239
1.34
299
0.40
321
0.30
308
0.43
333
0.45
344
0.38
287
0.37
288
PWCDC_ROBbinarytwo views1.29
311
0.75
344
1.33
302
1.05
368
0.88
352
1.73
325
0.52
178
1.89
287
3.28
384
1.29
224
4.88
389
1.22
223
1.46
323
1.77
225
1.45
320
0.60
362
0.26
282
0.29
253
0.25
238
0.52
334
0.37
288
iResNettwo views0.75
184
0.40
248
1.36
305
0.67
272
0.29
63
0.92
210
0.59
227
1.52
203
1.25
233
1.28
219
1.48
257
0.94
147
0.76
147
1.62
197
0.78
215
0.18
60
0.14
75
0.18
36
0.15
30
0.22
152
0.23
181
LL-Strereotwo views1.33
317
0.39
244
1.38
306
0.61
217
0.61
287
0.75
155
0.66
244
1.63
230
1.17
204
1.56
308
1.60
281
2.03
343
2.12
369
9.72
406
0.97
254
0.21
143
0.18
194
0.27
235
0.23
216
0.22
152
0.25
205
fast-acv-fttwo views0.94
248
0.44
263
1.40
307
0.58
181
0.51
243
1.77
331
0.69
253
1.36
166
1.42
309
1.29
224
1.86
320
1.74
318
1.25
301
1.52
178
1.38
304
0.26
242
0.28
296
0.28
245
0.28
276
0.27
220
0.26
223
stereogantwo views1.15
300
0.42
257
1.40
307
0.86
343
0.84
346
2.38
365
0.71
257
1.88
285
1.73
339
1.72
326
1.94
330
2.31
354
1.29
306
2.07
254
1.08
265
0.36
308
0.35
332
0.39
322
0.31
299
0.51
332
0.46
318
APVNettwo views1.06
277
0.53
296
1.42
309
0.84
336
0.79
335
1.92
342
0.82
282
1.90
290
1.08
162
1.08
117
1.43
240
1.56
292
1.13
280
3.07
301
1.58
327
0.31
280
0.34
324
0.42
331
0.36
324
0.36
275
0.37
288
gwcnet-sptwo views0.74
177
0.33
187
1.44
310
0.57
175
0.45
209
1.40
294
0.54
188
1.50
195
1.14
189
1.30
232
1.02
98
0.94
147
0.82
170
1.39
157
0.76
207
0.21
143
0.21
240
0.22
122
0.21
171
0.22
152
0.22
164
scenettwo views0.74
177
0.33
187
1.44
310
0.57
175
0.45
209
1.40
294
0.54
188
1.50
195
1.14
189
1.30
232
1.02
98
0.94
147
0.82
170
1.39
157
0.76
207
0.21
143
0.21
240
0.22
122
0.21
171
0.22
152
0.22
164
ssnettwo views0.74
177
0.33
187
1.44
310
0.57
175
0.45
209
1.40
294
0.54
188
1.50
195
1.14
189
1.30
232
1.02
98
0.94
147
0.82
170
1.39
157
0.76
207
0.21
143
0.21
240
0.22
122
0.21
171
0.22
152
0.22
164
PDISCO_ROBtwo views1.32
316
0.65
328
1.44
310
1.36
377
1.46
383
2.55
369
0.92
303
2.45
372
2.07
361
1.37
262
1.49
258
1.65
308
1.00
249
2.82
292
1.35
302
1.01
376
0.27
290
0.54
354
0.47
349
0.71
362
0.73
364
NVStereoNet_ROBtwo views1.88
357
1.07
365
1.45
314
1.07
371
1.17
373
1.47
301
1.48
358
1.89
287
1.93
355
1.94
346
4.67
387
3.08
375
1.80
352
6.51
369
1.65
330
1.06
381
0.86
393
1.08
381
1.32
393
0.93
370
1.26
383
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
FBW_ROBtwo views1.71
351
0.62
324
1.45
314
0.67
272
0.61
287
1.81
334
1.08
328
2.52
374
1.70
336
1.77
330
1.73
303
1.98
337
1.25
301
12.57
413
1.84
337
0.34
298
0.37
339
0.56
362
0.38
329
0.45
318
0.43
310
WAO-6two views2.81
388
1.60
386
1.46
316
2.36
392
2.28
395
3.55
386
2.29
394
4.21
394
4.56
397
2.36
363
4.51
382
4.88
390
2.66
381
4.60
332
4.07
376
1.72
385
1.15
405
2.31
391
1.46
399
2.31
386
1.85
389
IMH-64-1two views2.70
385
1.79
390
1.46
316
3.26
404
2.66
400
3.23
384
2.10
386
4.08
391
2.75
379
2.34
359
3.81
377
3.06
373
2.22
372
4.25
326
2.59
357
3.75
406
0.84
388
2.75
402
1.35
394
3.15
401
2.60
402
IMH-64two views2.70
385
1.79
390
1.46
316
3.26
404
2.66
400
3.23
384
2.10
386
4.08
391
2.75
379
2.34
359
3.81
377
3.06
373
2.22
372
4.25
326
2.59
357
3.75
406
0.84
388
2.75
402
1.35
394
3.15
401
2.60
402
sAnonymous2two views0.55
76
0.56
303
1.46
316
0.60
205
0.51
243
0.48
20
0.52
178
0.79
12
0.68
44
0.50
26
0.67
24
0.46
15
0.62
110
0.59
14
0.40
57
0.22
166
0.17
180
0.22
122
0.21
171
0.86
367
0.56
340
CroCo_RVCtwo views0.55
76
0.56
303
1.46
316
0.60
205
0.51
243
0.48
20
0.52
178
0.79
12
0.68
44
0.50
26
0.67
24
0.46
15
0.62
110
0.59
14
0.40
57
0.22
166
0.17
180
0.22
122
0.21
171
0.86
367
0.56
340
IMHtwo views3.21
391
1.85
394
1.48
321
3.25
403
2.69
402
4.07
395
2.02
384
4.41
396
3.80
390
2.72
372
7.11
398
4.75
389
2.92
384
5.92
360
2.55
355
3.85
409
0.88
394
2.78
404
1.36
396
3.19
403
2.59
401
NVstereo2Dtwo views0.92
244
0.41
254
1.48
321
0.72
300
0.72
315
1.20
269
0.87
292
1.75
252
1.38
294
0.99
98
1.13
143
1.26
238
0.98
239
2.21
266
0.89
242
0.43
333
0.20
224
0.38
316
0.24
227
0.57
342
0.63
353
ARAFTtwo views0.77
191
0.36
229
1.49
323
0.51
94
0.31
91
0.90
202
0.82
282
1.90
290
1.06
153
1.62
318
1.24
176
1.02
177
0.64
118
1.84
230
0.50
127
0.18
60
0.14
75
0.28
245
0.27
259
0.17
24
0.16
41
AANet_RVCtwo views1.16
302
0.52
293
1.49
323
0.65
257
0.45
209
0.75
155
0.69
253
1.42
177
1.55
327
1.34
255
1.87
322
1.53
288
0.78
156
7.43
386
1.38
304
0.25
228
0.17
180
0.19
49
0.16
58
0.22
152
0.26
223
ELAScopylefttwo views2.37
374
0.74
342
1.54
325
0.99
364
0.92
355
4.78
399
2.33
395
3.33
386
3.37
386
5.05
403
4.77
388
3.67
379
4.53
399
3.42
313
4.50
377
0.62
364
0.53
372
0.55
359
0.53
361
0.63
351
0.64
357
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
G-Nettwo views1.66
344
0.63
325
1.56
326
1.11
373
0.74
320
2.98
380
0.91
301
1.55
215
1.22
223
2.76
375
8.18
405
2.32
355
2.53
380
1.92
239
1.87
338
0.48
347
0.44
356
0.45
337
0.31
299
0.60
350
0.57
344
RainbowNettwo views1.97
363
1.76
388
1.57
327
2.81
396
2.21
392
1.98
348
1.81
372
2.54
375
1.89
350
1.50
296
1.84
317
1.96
335
1.65
340
2.14
259
1.25
286
3.33
402
0.85
391
2.39
395
0.98
388
2.82
395
2.22
393
MDST_ROBtwo views1.67
345
0.34
206
1.58
328
0.92
359
0.58
274
4.26
397
1.11
330
2.83
378
1.41
306
4.49
397
2.55
359
1.45
274
0.97
235
7.79
391
1.17
279
0.31
280
0.25
278
0.37
313
0.33
311
0.31
255
0.30
255
FINETtwo views0.97
258
0.54
297
1.60
329
0.63
236
0.79
335
1.08
245
1.07
327
1.56
216
2.20
364
1.15
155
1.49
258
0.94
147
0.88
199
2.32
272
1.05
260
0.42
328
0.35
332
0.32
279
0.28
276
0.43
308
0.38
294
LVEtwo views3.31
392
1.67
387
1.64
330
2.85
397
2.42
398
3.20
383
2.26
393
4.78
399
5.05
398
2.35
361
6.91
395
6.02
396
2.37
375
9.15
398
2.17
352
3.19
399
1.08
404
2.38
394
1.47
400
2.81
394
2.40
398
ACVNet-4btwo views2.15
367
1.41
381
1.64
330
2.80
395
2.31
396
2.31
362
1.24
343
2.32
362
2.14
362
1.26
214
2.39
353
2.66
367
1.48
326
5.95
362
1.06
262
3.20
400
0.45
360
2.37
392
0.89
381
2.83
396
2.37
396
Syn2CoExtwo views1.14
297
0.69
334
1.66
332
0.80
324
0.67
302
1.40
294
0.88
293
2.06
327
1.54
325
1.25
210
1.58
279
1.42
267
1.50
329
4.09
323
1.40
308
0.36
308
0.32
321
0.34
296
0.29
287
0.29
239
0.34
277
MFMNet_retwo views1.40
325
1.14
372
1.68
333
1.39
379
1.07
364
1.48
302
1.43
354
1.87
283
1.82
347
2.26
357
2.19
344
1.51
286
1.86
356
1.52
178
1.25
286
0.93
374
0.83
387
0.84
373
0.80
377
0.99
373
1.05
379
StereoDRNettwo views0.98
262
0.47
275
1.70
334
0.76
315
0.94
357
1.51
305
0.91
301
1.92
297
1.32
269
1.61
315
1.13
143
1.47
281
0.97
235
1.75
218
1.46
321
0.28
261
0.23
262
0.29
253
0.27
259
0.35
269
0.27
229
iResNetv2_ROBtwo views0.80
203
0.37
234
1.71
335
0.56
164
0.37
152
0.94
215
0.64
237
1.73
246
1.34
275
1.23
198
1.42
236
1.26
238
0.92
211
1.85
233
0.56
156
0.23
189
0.15
125
0.19
49
0.14
22
0.24
190
0.19
111
ACVNet_1two views2.18
368
1.45
383
1.72
336
2.85
397
2.33
397
2.28
360
1.46
356
3.08
383
2.22
365
1.82
338
2.05
338
3.56
378
1.98
363
3.09
304
1.40
308
3.17
397
0.60
379
2.40
396
0.92
383
2.91
399
2.37
396
GASNettwo views0.99
263
0.97
359
1.72
336
0.98
363
0.68
308
0.83
188
0.67
247
1.60
222
1.28
250
1.31
242
1.22
170
1.22
223
1.21
295
2.41
279
1.41
312
0.43
333
0.26
282
0.36
311
0.34
316
0.55
339
0.31
265
WAO-7two views2.66
381
1.40
380
1.73
338
1.39
379
1.17
373
3.93
392
1.94
381
4.11
393
3.88
391
2.92
379
5.50
391
4.18
384
3.00
387
7.63
389
3.71
372
1.13
384
1.00
399
1.17
382
1.13
392
1.18
379
1.09
381
TorneroNet-64two views5.30
401
2.03
396
1.74
339
3.43
406
2.81
403
10.09
409
2.12
388
9.10
412
17.12
417
4.96
402
9.27
408
10.72
412
3.70
393
9.20
399
4.55
378
3.31
401
0.84
388
2.88
405
1.55
401
3.49
404
3.04
405
WAO-8two views4.40
395
1.82
392
1.79
340
2.34
390
2.20
390
9.19
407
1.53
359
6.09
405
16.46
412
3.94
389
7.84
403
7.32
398
3.72
394
9.41
404
3.31
368
2.00
387
1.07
402
2.44
397
1.37
397
2.50
388
1.68
387
Venustwo views4.40
395
1.82
392
1.79
340
2.34
390
2.20
390
9.19
407
1.53
359
6.09
405
16.46
412
3.94
389
7.84
403
7.32
398
3.72
394
9.41
404
3.31
368
2.00
387
1.07
402
2.44
397
1.37
397
2.50
388
1.68
387
FADNettwo views0.92
244
0.61
321
1.81
342
0.62
228
0.55
263
0.96
223
0.57
217
1.78
265
1.33
272
0.93
82
1.01
91
1.36
259
1.01
251
2.71
290
0.75
205
0.33
290
0.34
324
0.31
266
0.34
316
0.59
346
0.40
298
TorneroNettwo views10.70
411
2.03
396
1.82
343
3.43
406
3.01
405
43.83
427
2.22
392
8.87
411
67.47
436
7.17
409
27.36
421
10.68
411
3.85
396
8.67
397
7.65
394
3.59
404
0.88
394
3.04
406
1.57
402
3.71
405
3.17
406
Wz-Net-LNSev-Reftwo views0.99
263
0.40
248
1.82
343
0.66
262
0.62
292
2.05
351
0.78
269
1.91
294
1.29
254
1.54
304
1.42
236
1.51
286
1.23
298
1.99
247
1.33
297
0.23
189
0.14
75
0.20
73
0.15
30
0.27
220
0.26
223
FADNet_RVCtwo views0.83
216
0.51
290
1.83
345
0.54
133
0.42
191
1.19
267
0.46
141
1.51
200
1.09
168
0.89
76
1.24
176
0.91
135
0.87
195
2.11
257
1.11
272
0.27
251
0.22
254
0.31
266
0.28
276
0.43
308
0.38
294
CBFPSMtwo views0.92
244
0.33
187
1.86
346
0.49
64
0.38
169
1.75
326
0.84
284
1.39
173
1.12
178
1.09
122
0.99
83
2.37
357
1.66
344
1.32
138
1.42
316
0.19
92
0.18
194
0.20
73
0.20
135
0.21
131
0.33
275
XX-Stereotwo views0.63
115
0.26
46
1.90
347
0.81
327
0.67
302
0.43
14
0.23
3
1.03
76
0.58
18
0.65
40
1.56
273
1.41
266
0.39
14
1.28
131
0.35
27
0.20
117
0.14
75
0.20
73
0.19
107
0.18
41
0.14
11
ELAS_RVCcopylefttwo views2.48
379
0.74
342
1.90
347
1.05
368
0.92
355
2.76
374
4.01
407
2.76
377
4.11
393
4.69
398
4.63
385
4.62
386
5.96
404
3.97
322
3.96
374
0.63
366
0.53
372
0.56
362
0.52
360
0.64
353
0.63
353
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
Consistency-Rafttwo views1.25
308
0.99
361
1.93
349
1.02
367
1.21
377
0.96
223
1.01
321
1.75
252
1.92
353
1.36
260
2.12
341
1.44
272
1.01
251
1.14
118
1.40
308
0.72
369
0.82
386
0.89
374
0.98
388
1.31
382
0.95
372
FADNet-RVCtwo views0.88
234
0.67
330
1.93
349
0.60
205
0.48
224
0.91
204
0.60
231
1.71
244
1.18
208
0.90
77
0.96
73
1.36
259
0.92
211
2.25
269
1.17
279
0.30
273
0.29
304
0.32
279
0.32
305
0.41
298
0.35
282
STTRV1_RVCtwo views1.58
336
0.68
333
1.96
351
0.88
349
1.12
369
1.57
311
0.90
300
2.25
357
1.75
342
1.29
224
2.02
335
1.40
263
1.22
296
9.77
407
1.31
295
0.81
371
0.33
323
0.54
354
0.49
354
0.73
364
0.52
334
ACVNet_2two views2.43
378
1.41
381
2.04
352
2.62
394
2.24
393
2.63
373
1.88
378
3.31
385
3.01
381
2.19
355
3.45
373
4.62
386
2.04
365
4.50
331
1.47
322
2.55
392
0.64
381
2.22
389
0.84
379
2.69
391
2.29
395
Deantwo views2.91
390
1.53
385
2.07
353
2.96
401
2.51
399
3.15
381
2.14
389
4.75
398
4.41
396
2.76
375
6.10
393
5.53
394
2.37
375
2.97
299
1.92
342
3.18
398
0.85
391
2.51
399
1.04
391
2.88
398
2.47
399
FADNet-RVC-Resampletwo views0.84
220
0.47
275
2.10
354
0.61
217
0.45
209
1.07
244
0.61
232
1.59
219
1.20
216
1.08
117
0.98
81
1.03
180
0.98
239
2.17
260
0.72
198
0.23
189
0.22
254
0.30
262
0.32
305
0.35
269
0.34
277
KSHMRtwo views8.75
409
2.06
399
2.11
355
3.53
408
3.11
406
4.13
396
2.69
399
5.60
402
61.37
435
3.00
382
55.83
435
4.98
393
2.45
378
4.49
330
2.61
359
3.46
403
1.55
409
3.14
408
1.94
406
3.72
406
3.18
407
ktntwo views4.70
397
2.38
404
2.12
356
3.76
409
3.24
407
4.85
400
2.95
404
5.52
401
7.37
404
4.07
393
19.32
418
7.46
400
3.47
389
7.39
384
2.95
361
4.04
410
1.85
410
3.26
410
2.22
409
3.08
400
2.65
404
SGM+DAISYtwo views2.41
377
1.07
365
2.14
357
1.18
374
1.10
366
2.14
356
1.36
351
1.96
306
1.66
333
5.46
405
7.07
397
4.95
391
4.32
398
5.50
350
2.26
353
1.04
380
1.02
401
0.99
378
0.97
386
1.02
374
1.04
377
SDNRtwo views1.62
342
0.51
290
2.17
358
0.53
118
0.56
264
3.80
391
0.45
134
1.54
211
1.29
254
1.33
252
2.41
355
1.08
192
0.96
232
11.18
411
1.16
277
0.66
368
0.63
380
0.43
333
0.32
305
0.64
353
0.67
358
S-Stereotwo views1.15
300
0.46
271
2.17
358
0.81
327
0.80
340
1.21
270
1.19
340
1.93
301
2.02
358
1.47
287
2.11
340
1.57
293
1.17
283
2.05
253
1.41
312
0.40
321
0.40
348
0.35
303
0.31
299
0.44
315
0.70
361
SANettwo views1.88
357
0.57
307
2.18
360
0.63
236
0.40
182
2.80
377
1.57
363
2.39
369
5.88
401
2.36
363
3.57
374
3.72
381
2.97
385
4.74
334
1.76
334
0.34
298
0.30
308
0.32
279
0.29
287
0.48
324
0.37
288
Wz-Net-MNSevtwo views1.11
290
0.58
310
2.23
361
0.66
262
0.71
313
1.95
345
1.46
356
1.98
311
1.45
313
1.79
334
1.43
240
1.49
283
1.33
313
1.97
246
1.42
316
0.27
251
0.23
262
0.28
245
0.28
276
0.34
268
0.31
265
PVDtwo views1.70
349
0.84
350
2.26
362
0.94
362
0.83
345
2.48
367
0.97
313
2.59
376
3.35
385
3.01
383
2.77
363
2.34
356
2.47
379
2.67
289
3.14
365
0.47
346
0.45
360
0.59
366
0.48
351
0.59
346
0.75
366
GwcNetcopylefttwo views1.08
282
0.51
290
2.33
363
0.79
321
1.18
375
1.76
328
0.70
255
1.68
238
1.47
315
1.41
275
1.64
292
1.74
318
1.04
259
2.20
265
1.41
312
0.30
273
0.29
304
0.29
253
0.27
259
0.30
248
0.35
282
SHDtwo views1.31
314
0.71
338
2.34
364
0.86
343
0.75
326
1.77
331
0.65
239
2.22
354
2.50
374
2.40
365
1.71
301
1.91
328
1.60
336
1.93
242
2.37
354
0.38
316
0.31
314
0.38
316
0.40
334
0.48
324
0.50
329
ADCReftwo views1.35
319
0.55
300
2.37
365
0.72
300
0.77
330
1.94
344
0.78
269
1.91
294
1.27
245
1.57
312
1.59
280
1.36
259
1.41
317
1.54
184
7.53
389
0.23
189
0.20
224
0.32
279
0.30
295
0.29
239
0.29
243
RTSCtwo views1.29
311
0.73
339
2.44
366
0.83
335
0.57
266
1.85
339
0.65
239
1.88
285
2.00
357
2.20
356
1.66
296
1.60
299
1.26
303
2.33
273
3.92
373
0.32
285
0.23
262
0.27
235
0.29
287
0.37
279
0.37
288
Anonymous Stereotwo views1.28
310
0.75
344
2.45
367
0.74
309
0.77
330
0.93
213
1.77
369
1.51
200
1.31
264
1.67
322
1.29
196
1.20
220
0.75
139
6.29
366
1.68
333
0.37
312
0.36
337
0.38
316
0.40
334
0.43
308
0.45
314
PWC_ROBbinarytwo views1.24
306
0.76
346
2.46
368
0.72
300
0.78
333
1.15
258
0.49
162
1.75
252
1.92
353
2.31
358
3.07
367
1.59
297
1.40
316
2.46
281
2.10
350
0.33
290
0.22
254
0.35
303
0.24
227
0.38
287
0.41
302
DGSMNettwo views1.14
297
0.76
346
2.49
369
0.81
327
0.86
349
1.39
293
1.39
352
2.13
333
1.35
283
1.26
214
1.63
291
1.48
282
0.98
239
1.75
218
1.10
270
0.45
339
0.43
353
0.55
359
0.49
354
0.75
365
0.70
361
XQCtwo views1.37
321
0.87
354
2.56
370
0.84
336
0.69
310
1.83
337
0.89
295
2.07
328
1.88
349
1.88
341
1.53
265
1.91
328
1.55
332
2.85
295
3.05
362
0.48
347
0.29
304
0.44
336
0.39
330
0.69
360
0.60
350
SAMSARAtwo views1.55
335
0.84
350
2.61
371
1.22
376
1.07
364
2.50
368
1.93
380
2.05
322
1.89
350
2.75
374
1.66
296
2.81
370
1.69
345
3.08
303
1.97
345
0.46
345
0.51
370
0.42
331
0.46
347
0.58
344
0.59
347
PASMtwo views1.34
318
0.92
357
2.62
372
0.86
343
0.87
351
1.03
236
1.08
328
1.50
195
1.51
321
1.82
338
1.41
235
1.68
311
1.26
303
4.87
337
1.34
299
0.61
363
0.65
383
0.68
368
0.78
376
0.69
360
0.68
360
notakertwo views3.98
394
2.40
405
2.68
373
3.82
411
3.27
409
3.97
394
2.14
389
4.78
399
3.45
388
4.12
394
6.94
396
7.65
402
3.26
388
7.82
392
5.30
381
4.04
410
1.41
407
3.36
411
2.10
408
3.88
407
3.31
408
Wz-Net-LNSevtwo views1.03
273
0.67
330
2.71
374
0.64
245
0.84
346
1.75
326
1.00
319
1.80
269
1.32
269
1.28
219
1.25
180
1.65
308
1.22
296
1.39
157
1.40
308
0.28
261
0.26
282
0.24
169
0.23
216
0.33
266
0.32
271
pmcnntwo views2.37
374
0.42
257
2.71
374
0.63
236
0.43
196
1.54
308
1.19
340
2.01
317
1.53
324
2.64
371
7.60
400
18.07
416
1.45
322
3.44
315
2.78
360
0.18
60
0.15
125
0.15
3
0.12
9
0.20
97
0.18
78
aanetorigintwo views1.23
305
0.79
348
2.78
376
0.70
290
0.79
335
0.99
231
1.06
326
1.06
99
1.37
290
3.52
386
2.61
360
1.72
315
1.63
338
1.99
247
1.78
335
0.25
228
0.24
271
0.26
224
0.25
238
0.38
287
0.45
314
MSC_U_SF_DS_RVCtwo views2.12
366
1.15
373
3.10
377
1.05
368
0.76
329
5.03
402
2.40
397
2.16
342
2.62
376
1.89
343
2.28
348
2.69
368
1.65
340
9.35
402
2.04
347
0.64
367
0.51
370
0.68
368
0.71
373
1.09
377
0.67
358
MFN_U_SF_RVCtwo views1.52
333
0.84
350
3.42
378
0.87
348
0.66
300
2.56
370
0.95
311
2.36
366
1.70
336
1.98
347
1.86
320
2.45
361
1.79
351
2.95
297
2.58
356
0.52
352
0.48
365
0.55
359
0.59
369
0.59
346
0.61
351
MFN_U_SF_DS_RVCtwo views1.74
353
0.87
354
3.56
379
0.80
324
0.75
326
3.72
388
2.44
398
1.82
273
1.82
347
1.74
327
1.91
326
1.92
331
1.26
303
7.69
390
1.28
292
0.45
339
0.47
364
0.52
348
0.77
375
0.50
328
0.50
329
ADCLtwo views1.72
352
0.57
307
3.66
380
0.67
272
0.61
287
2.61
372
1.85
375
1.96
306
1.67
334
1.90
344
1.83
315
2.06
346
1.90
359
2.13
258
9.15
397
0.26
242
0.24
271
0.34
296
0.32
305
0.38
287
0.35
282
DispFullNettwo views2.34
373
2.85
408
3.66
380
3.08
402
2.27
394
1.97
346
0.67
247
2.00
313
1.70
336
2.52
367
2.00
332
2.23
349
5.86
402
3.44
315
1.58
327
1.01
376
0.32
321
2.64
401
1.94
406
2.85
397
2.24
394
iinet-ftwo views0.99
263
0.45
269
3.71
382
0.55
152
0.43
196
1.81
334
0.68
249
1.14
118
1.14
189
1.18
179
1.42
236
1.58
296
1.44
320
1.34
143
1.59
329
0.24
204
0.23
262
0.20
73
0.19
107
0.26
208
0.25
205
pcwnet_v2two views0.97
258
0.37
234
4.33
383
0.62
228
0.54
257
0.79
174
0.45
134
2.02
320
1.58
328
1.42
281
1.64
292
1.09
198
0.79
158
1.24
128
0.67
187
0.32
285
0.25
278
0.29
253
0.27
259
0.37
279
0.35
282
DPSNettwo views1.69
348
0.59
313
4.33
383
0.70
290
0.57
266
2.02
350
1.62
365
3.35
387
1.78
343
1.48
293
1.38
227
2.17
348
2.84
383
4.77
335
3.66
371
0.48
347
0.31
314
0.29
253
0.25
238
0.64
353
0.48
324
MADNet++two views5.01
398
3.14
409
4.91
385
4.55
415
3.94
413
5.20
403
4.41
408
4.40
395
4.13
394
4.95
401
6.08
392
4.74
388
5.37
400
9.40
403
10.67
402
4.65
412
4.15
415
3.97
413
3.34
412
4.09
409
4.08
413
ADCMidtwo views1.89
360
0.73
339
5.06
386
0.72
300
0.67
302
2.00
349
1.14
334
1.97
310
1.48
316
2.86
378
1.81
314
2.37
357
2.05
367
2.24
267
10.39
401
0.33
290
0.31
314
0.39
322
0.43
340
0.50
328
0.44
312
AnyNet_C32two views1.96
362
1.10
367
5.17
387
0.90
354
1.11
367
2.12
355
2.37
396
1.85
279
1.48
316
2.45
366
1.70
300
2.05
345
1.64
339
2.50
282
10.28
400
0.37
312
0.34
324
0.35
303
0.41
336
0.49
327
0.54
336
UNDER WATERtwo views5.08
399
2.33
403
5.55
388
3.94
413
3.51
410
5.20
403
2.72
401
5.61
403
16.52
414
3.84
388
4.60
384
9.21
406
5.89
403
5.90
359
8.66
396
3.75
406
1.34
406
3.18
409
1.88
404
4.33
412
3.61
410
ADCStwo views2.25
369
0.99
361
5.55
388
0.81
327
0.74
320
2.19
357
1.80
371
2.27
359
2.14
362
2.80
377
2.13
342
2.40
359
2.03
364
2.64
288
13.69
405
0.41
325
0.39
346
0.40
327
0.45
344
0.58
344
0.56
340
PWCKtwo views2.88
389
2.05
398
5.72
390
2.08
387
1.11
367
3.55
386
3.90
406
2.86
380
3.54
389
3.03
384
3.63
375
3.10
376
2.31
374
8.15
396
3.09
363
2.12
389
0.91
396
1.75
385
0.98
388
2.57
390
1.18
382
DeepPrunerFtwo views1.60
339
0.73
339
5.81
391
0.88
349
1.19
376
0.91
204
0.95
311
2.19
350
5.24
399
1.17
175
1.30
197
1.19
219
1.30
310
4.90
338
1.66
332
0.42
328
0.34
324
0.52
348
0.47
349
0.41
298
0.40
298
tttwo views6.58
405
0.26
46
6.10
392
3.77
410
2.16
389
11.55
411
19.63
415
13.33
416
5.74
400
2.96
380
2.65
361
4.97
392
6.33
406
3.81
319
7.24
388
9.15
417
11.32
424
5.89
417
6.24
416
6.03
414
2.55
400
Wz-Net-SNSevtwo views1.49
329
1.23
376
6.27
393
0.68
282
0.67
302
1.37
289
1.41
353
2.00
313
1.39
298
1.48
293
1.61
285
2.29
352
1.32
312
3.93
320
2.14
351
0.31
280
0.28
296
0.31
266
0.33
311
0.42
303
0.36
286
Wz-Net-TNSevtwo views1.88
357
2.08
400
7.66
394
0.67
272
0.64
295
2.42
366
1.83
374
2.33
363
1.74
341
1.57
312
1.56
273
2.58
364
1.90
359
4.86
336
3.12
364
0.39
319
0.37
339
0.33
286
0.37
327
0.53
336
0.58
345
ADCP+two views1.99
364
0.48
280
7.73
395
0.66
262
0.91
353
2.30
361
1.05
325
1.82
273
1.34
275
1.54
304
1.32
207
1.74
318
1.61
337
2.17
260
13.37
404
0.24
204
0.21
240
0.32
279
0.28
276
0.37
279
0.29
243
ADCPNettwo views1.85
356
0.69
334
8.07
396
0.71
297
0.58
274
2.79
376
1.22
342
1.94
303
1.54
325
1.88
341
1.69
299
2.46
362
2.04
365
2.37
276
6.48
384
0.38
316
0.37
339
0.38
316
0.43
340
0.47
321
0.45
314
EDNetEfficienttwo views2.37
374
1.10
367
8.08
397
0.74
309
0.71
313
0.98
230
1.56
361
1.46
187
4.06
392
4.90
400
2.82
364
2.25
350
3.48
390
2.95
297
9.97
398
0.26
242
0.24
271
0.26
224
0.30
295
0.68
359
0.61
351
HanzoNettwo views11.04
412
3.62
411
8.10
398
4.08
414
3.55
412
4.90
401
2.73
402
7.19
409
10.10
405
31.86
431
28.92
423
21.96
423
36.36
424
18.08
417
10.17
399
7.94
416
3.32
413
3.47
412
3.31
411
7.06
417
4.04
412
UNDER WATER-64two views5.27
400
2.32
402
8.78
399
3.93
412
3.54
411
7.61
405
3.03
405
5.84
404
14.19
408
4.04
391
4.04
379
9.39
407
6.26
405
5.93
361
8.48
395
3.60
405
1.51
408
3.13
407
1.88
404
4.29
411
3.61
410
WZ-Nettwo views1.95
361
0.95
358
10.10
400
0.86
343
0.78
333
1.69
321
1.60
364
2.20
353
1.98
356
2.08
352
1.93
328
2.30
353
1.97
362
5.30
343
3.17
367
0.34
298
0.26
282
0.29
253
0.31
299
0.51
332
0.47
321
JetBluetwo views3.97
393
2.01
395
10.19
401
1.38
378
2.84
404
10.53
410
9.54
410
3.60
389
2.41
368
2.73
373
3.39
372
4.54
385
4.31
397
7.85
393
6.84
387
0.88
372
0.93
397
0.89
374
0.91
382
1.74
383
1.91
390
AnyNet_C01two views2.26
370
1.78
389
10.22
402
0.93
360
0.74
320
2.92
379
2.20
391
2.29
361
1.80
345
2.53
368
2.41
355
2.71
369
1.73
346
3.41
312
6.72
386
0.41
325
0.39
346
0.40
327
0.42
338
0.67
358
0.63
353
psmorigintwo views1.52
333
0.69
334
10.52
403
0.68
282
0.59
281
1.13
252
0.70
255
1.57
217
1.19
211
1.99
348
1.79
311
2.26
351
1.47
325
2.09
255
1.36
303
0.39
319
0.40
348
0.34
296
0.33
311
0.43
308
0.56
340
SPstereotwo views26.54
421
6.08
414
10.71
404
5.55
416
5.68
415
48.14
428
80.43
435
67.31
436
34.39
431
28.70
429
27.52
422
43.76
434
37.60
431
45.04
435
54.41
436
4.92
415
4.89
416
10.74
421
5.88
415
4.46
413
4.57
414
MADNet+two views2.69
384
3.22
410
11.53
405
1.44
382
1.12
369
3.19
382
1.81
372
2.85
379
2.37
366
1.68
323
2.07
339
2.85
372
2.18
370
7.41
385
5.23
380
0.79
370
0.76
384
0.69
370
0.65
372
0.98
371
0.95
372
LSMtwo views6.33
403
1.10
367
13.19
406
1.41
381
68.17
432
1.64
318
1.90
379
1.92
297
2.46
369
2.99
381
3.11
368
1.88
323
1.80
352
2.61
287
2.06
349
0.41
325
0.58
378
0.50
346
0.57
365
0.64
353
17.66
423
PMLtwo views51.67
433
36.25
427
13.28
407
7.46
417
20.81
419
108.69
436
232.22
437
8.72
410
27.82
423
87.01
436
269.67
437
69.67
437
61.95
436
24.76
425
14.20
407
9.74
419
3.40
414
9.62
418
4.70
413
18.74
422
4.72
415
RTStwo views2.67
382
1.38
378
15.28
408
0.99
364
1.26
379
3.78
389
1.96
382
2.15
339
2.62
376
2.61
369
2.85
365
2.60
365
1.59
334
6.27
364
5.71
382
0.40
321
0.28
296
0.35
303
0.35
320
0.50
328
0.48
324
RTSAtwo views2.67
382
1.38
378
15.28
408
0.99
364
1.26
379
3.78
389
1.96
382
2.15
339
2.62
376
2.61
369
2.85
365
2.60
365
1.59
334
6.27
364
5.71
382
0.40
321
0.28
296
0.35
303
0.35
320
0.50
328
0.48
324
SuperBtwo views2.53
380
0.59
313
18.45
410
0.69
285
0.50
233
1.87
341
0.88
293
1.67
237
2.39
367
1.50
296
1.42
236
1.14
212
1.15
282
4.28
328
5.07
379
0.24
204
0.19
207
0.22
122
0.19
107
7.86
418
0.34
277
ASD4two views15.85
416
10.99
418
19.63
411
10.21
420
11.70
416
19.24
417
31.10
420
19.35
417
10.68
406
11.14
412
10.18
409
12.59
413
12.64
411
14.74
415
24.83
419
12.93
422
9.94
423
26.83
428
19.40
422
16.23
421
12.70
422
DGTPSM_ROBtwo views13.01
414
8.23
415
21.87
412
9.51
418
18.10
417
11.56
412
32.01
421
10.63
413
16.20
410
7.03
407
19.48
419
10.15
409
16.66
414
9.83
408
22.42
416
4.75
413
8.68
418
5.37
414
10.25
418
6.16
415
11.36
417
DPSMNet_ROBtwo views13.02
415
8.23
415
21.91
413
9.53
419
18.11
418
11.56
412
32.02
422
10.64
414
16.23
411
7.05
408
19.49
420
10.16
410
16.66
414
9.85
409
22.43
417
4.77
414
8.68
418
5.38
415
10.26
419
6.17
416
11.36
417
LRCNet_RVCtwo views22.74
419
32.10
426
21.97
414
29.84
424
26.23
422
4.42
398
0.81
281
22.66
418
2.02
358
26.93
423
29.26
424
23.06
425
15.59
413
23.84
421
18.88
413
31.75
429
19.90
431
34.65
429
32.13
429
30.54
429
28.32
429
LE_ROBtwo views8.05
407
0.37
234
23.53
415
0.74
309
0.33
122
2.77
375
2.87
403
3.71
390
27.24
422
25.39
422
8.87
406
8.46
405
26.71
422
6.65
371
21.99
415
0.21
143
0.19
207
0.20
73
0.21
171
0.25
200
0.22
164
Anonymous_1two views43.04
432
18.73
420
24.79
416
21.81
421
46.26
431
27.80
418
37.60
423
28.08
422
16.14
409
14.66
416
14.30
412
20.65
417
17.88
416
21.56
418
25.94
420
117.93
436
8.92
420
100.65
433
126.50
433
158.64
437
12.08
419
DPSM_ROBtwo views19.08
417
19.14
421
25.17
417
22.15
422
20.85
420
28.17
419
37.82
424
26.56
420
16.85
415
14.14
414
14.84
413
21.70
418
18.75
417
21.87
419
26.55
421
10.16
420
9.30
421
10.47
419
10.42
420
14.03
419
12.61
420
DPSMtwo views19.08
417
19.14
421
25.17
417
22.15
422
20.85
420
28.17
419
37.82
424
26.56
420
16.85
415
14.14
414
14.84
413
21.70
418
18.75
417
21.87
419
26.55
421
10.16
420
9.30
421
10.47
419
10.42
420
14.03
419
12.61
420
JetRedtwo views6.91
406
8.80
417
25.96
419
2.85
397
3.25
408
13.98
416
11.87
411
6.25
407
4.28
395
4.45
396
4.56
383
6.69
397
5.46
401
7.46
387
14.05
406
2.59
393
3.31
412
2.59
400
2.29
410
4.20
410
3.36
409
xxxxx1two views54.10
434
25.67
423
27.13
420
113.43
434
96.96
434
30.69
423
47.44
426
32.38
424
25.60
419
17.75
418
17.27
415
21.81
420
21.02
419
24.43
422
33.82
423
33.37
430
40.54
432
157.71
435
175.86
435
66.16
433
72.93
434
tt_lltwo views54.10
434
25.67
423
27.13
420
113.43
434
96.96
434
30.69
423
47.44
426
32.38
424
25.60
419
17.75
418
17.27
415
21.81
420
21.02
419
24.43
422
33.82
423
33.37
430
40.54
432
157.71
435
175.86
435
66.16
433
72.93
434
fftwo views54.10
434
25.67
423
27.13
420
113.43
434
96.96
434
30.69
423
47.44
426
32.38
424
25.60
419
17.75
418
17.27
415
21.81
420
21.02
419
24.43
422
33.82
423
33.37
430
40.54
432
157.71
435
175.86
435
66.16
433
72.93
434
DPSimNet_ROBtwo views11.20
413
4.98
413
35.43
423
2.90
400
4.52
414
7.89
406
17.09
414
4.66
397
6.06
402
14.89
417
10.93
411
17.29
415
36.81
426
13.18
414
15.68
410
2.86
394
6.29
417
5.75
416
5.09
414
3.91
408
7.70
416
HaxPigtwo views38.92
428
41.40
434
41.64
424
29.95
425
32.27
423
28.90
421
27.60
417
29.73
423
37.71
432
43.82
432
43.87
431
33.17
426
35.56
423
41.53
426
40.37
428
43.94
433
47.51
436
45.82
430
47.08
431
42.38
430
44.15
432
AVERAGE_ROBtwo views40.43
429
42.37
435
42.73
425
36.96
427
35.58
425
30.50
422
27.61
418
36.71
429
38.39
433
44.91
433
44.36
432
37.45
428
36.70
425
41.88
427
40.35
427
45.43
434
46.81
435
47.11
431
46.35
430
42.51
431
43.87
431
DLNR_Zeroshot_testpermissivetwo views23.17
420
48.52
437
43.29
426
176.68
437
78.69
433
0.35
5
0.21
1
23.41
419
0.75
56
0.66
41
0.86
56
0.59
50
0.30
4
1.56
189
0.44
83
9.57
418
0.12
9
0.18
36
0.14
22
76.92
436
0.16
41
MEDIAN_ROBtwo views42.00
430
44.40
436
44.29
427
35.15
426
34.95
424
31.28
426
29.60
419
35.88
428
40.02
434
47.20
434
46.64
433
37.37
427
38.48
434
44.35
434
42.45
429
48.03
435
49.39
437
49.71
432
49.03
432
45.14
432
46.65
433
CasAABBNettwo views38.33
423
38.46
428
50.35
428
44.75
432
41.84
426
56.68
432
76.37
430
53.22
433
33.83
426
28.31
424
29.54
425
43.62
433
37.71
432
43.84
432
53.41
431
20.30
423
18.70
426
21.07
425
21.07
424
28.24
426
25.34
424
MyStereo03two views38.34
424
38.50
430
50.41
429
44.74
429
41.86
427
56.65
429
76.38
431
52.99
430
33.93
428
28.39
426
29.99
427
43.54
429
37.42
428
43.82
429
53.53
432
20.31
424
18.71
428
21.06
422
21.08
425
28.23
423
25.35
425
MyStereo02two views38.34
424
38.50
430
50.41
429
44.74
429
41.86
427
56.65
429
76.38
431
52.99
430
33.93
428
28.39
426
29.99
427
43.54
429
37.42
428
43.82
429
53.53
432
20.31
424
18.71
428
21.06
422
21.08
425
28.23
423
25.35
425
MyStereotwo views38.34
424
38.50
430
50.41
429
44.74
429
41.86
427
56.65
429
76.38
431
52.99
430
33.93
428
28.39
426
29.99
427
43.54
429
37.42
428
43.82
429
53.53
432
20.31
424
18.71
428
21.06
422
21.08
425
28.23
423
25.35
425
Selective-RAFT-Errortwo views38.39
427
38.47
429
50.44
432
44.73
428
41.97
430
56.68
432
76.38
431
53.24
434
33.92
427
28.34
425
29.85
426
43.60
432
38.20
433
43.75
428
53.34
430
20.38
427
18.70
426
21.09
426
21.05
423
28.30
427
25.43
428
LSM0two views42.82
431
38.75
433
50.81
433
47.07
433
109.38
437
57.00
434
76.02
429
53.74
435
33.71
425
29.02
430
30.41
430
43.87
435
37.22
427
43.91
433
53.54
435
20.52
428
18.62
425
21.10
427
21.11
428
28.41
428
42.22
430
BEATNet-Init1two views26.87
422
13.43
419
70.68
434
0.91
357
0.68
308
57.02
435
21.06
416
32.82
427
32.67
424
52.12
435
53.61
434
66.05
436
49.56
435
48.79
436
34.71
426
0.49
351
0.44
356
0.53
353
0.53
361
0.63
351
0.59
347
coex-fttwo views8.13
408
2.13
401
98.04
435
0.67
272
0.53
254
1.71
322
1.56
361
1.65
232
11.11
407
18.17
421
3.75
376
3.88
382
7.61
409
2.98
300
6.49
385
0.30
273
0.30
308
0.32
279
0.31
299
0.66
357
0.50
329
EDNetEfficientorigintwo views10.57
410
1.47
384
177.42
436
0.67
272
0.53
254
1.58
312
1.16
337
1.90
290
3.37
386
4.71
399
3.38
371
3.10
376
2.69
382
3.13
305
3.58
370
0.25
228
0.23
262
0.33
286
0.27
259
0.83
366
0.81
367
test_example2two views192.40
437
210.76
438
206.48
437
199.83
438
204.73
438
172.94
437
183.52
436
133.93
437
133.41
437
191.38
437
196.19
436
187.13
438
178.77
437
205.33
437
208.00
437
222.09
438
238.72
438
186.54
438
190.54
438
227.34
438
170.31
437
FADEtwo views4.78
412
1.89
386
1.92
388
4.13
383
188.09
437
2.77
411
123.78
434
127.92
434
1.06
376