This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
XX-TBDtwo views0.46
24
0.70
338
0.35
1
0.79
322
0.25
18
0.58
74
0.26
9
0.69
4
1.27
246
0.76
53
1.00
87
0.45
15
0.33
10
0.47
3
0.37
38
0.19
92
0.15
125
0.15
3
0.11
6
0.17
24
0.14
11
CAStwo views0.63
116
0.18
1
0.37
2
2.27
390
0.84
347
0.57
73
0.54
189
0.79
13
0.62
23
0.48
17
0.70
31
0.36
2
0.26
1
0.45
2
0.35
27
2.24
391
0.10
1
0.14
1
0.09
1
0.15
5
1.06
381
CEStwo views0.48
32
0.20
2
0.37
2
0.39
4
1.39
382
0.55
65
0.35
46
0.98
62
0.66
40
0.44
8
0.66
23
0.35
1
0.27
2
0.56
10
0.33
16
0.15
6
0.13
42
0.15
3
0.10
2
0.19
71
1.46
386
CREStereo++_RVCtwo views0.47
30
0.21
4
0.38
4
0.45
32
0.38
170
0.45
17
0.25
4
0.75
8
1.29
255
0.80
62
1.21
169
0.47
19
0.37
12
0.53
5
0.44
84
0.16
11
0.11
3
0.15
3
0.80
378
0.18
41
0.11
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
s12784htwo views0.52
39
0.20
2
0.38
4
0.41
5
0.19
1
0.96
224
0.34
43
1.17
124
1.25
234
0.81
66
0.90
65
0.63
57
0.50
56
1.45
168
0.42
73
0.14
4
0.12
9
0.17
14
0.11
6
0.18
41
0.11
1
CREStereotwo views0.39
5
0.21
4
0.38
4
0.34
1
0.22
4
0.53
56
0.29
19
0.77
11
1.11
174
0.58
32
0.71
33
0.51
32
0.41
19
0.54
7
0.34
24
0.18
60
0.13
42
0.15
3
0.10
2
0.14
2
0.14
11
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
PMTNettwo views0.46
24
0.21
4
0.38
4
0.37
2
0.23
6
0.71
142
0.27
14
0.74
7
1.04
146
0.64
40
0.70
31
0.55
39
0.47
39
0.86
69
0.35
27
1.00
376
0.13
42
0.15
3
0.10
2
0.15
5
0.13
3
LoS_RVCtwo views0.42
11
0.26
46
0.40
8
0.44
23
0.82
345
0.51
49
0.44
124
0.64
2
0.41
2
0.44
8
0.78
45
0.44
9
0.47
39
0.56
10
0.36
33
0.13
1
0.12
9
0.14
1
0.10
2
0.13
1
0.84
370
GLC_STEREOtwo views0.39
5
0.25
35
0.41
9
0.54
134
0.23
6
0.48
20
0.30
22
0.73
6
0.58
18
0.52
28
0.73
36
0.51
32
0.31
6
0.64
26
0.42
73
0.17
32
0.20
225
0.23
150
0.19
108
0.21
131
0.17
60
AnonymousMtwo views0.59
98
1.11
371
0.41
9
0.44
23
0.32
106
0.43
14
0.47
148
1.05
87
0.64
27
0.98
97
0.63
21
0.67
67
0.43
23
0.59
14
0.41
65
0.20
117
0.15
125
1.84
388
0.84
380
0.14
2
0.13
3
LoStwo views0.40
8
0.21
4
0.44
11
0.37
2
0.22
4
0.50
39
0.40
83
1.00
68
0.94
106
0.48
17
0.66
23
0.48
22
0.40
17
0.60
23
0.37
38
0.18
60
0.14
75
0.16
9
0.11
6
0.14
2
0.14
11
TANstereotwo views0.44
21
0.21
4
0.44
11
0.41
5
0.21
3
0.65
108
0.26
9
0.79
13
0.83
75
0.93
83
0.98
82
0.51
32
0.46
33
0.54
7
0.35
27
0.18
60
0.24
272
0.16
9
0.13
11
0.16
13
0.26
224
Any-RAFTtwo views0.53
48
0.24
19
0.47
13
0.47
41
0.27
33
1.00
234
0.25
4
1.58
219
1.05
150
0.85
76
0.99
84
1.06
186
0.47
39
0.70
33
0.32
7
0.18
60
0.13
42
0.16
9
0.13
11
0.16
13
0.16
41
knoymoustwo views0.51
38
0.29
110
0.47
13
0.43
8
0.30
79
0.55
65
0.55
202
1.02
74
0.77
61
0.98
97
0.85
56
0.94
148
0.56
78
0.85
66
0.45
92
0.20
117
0.14
75
0.26
225
0.14
22
0.23
177
0.23
182
CASnettwo views0.41
10
0.25
35
0.48
15
0.50
72
0.20
2
0.50
39
0.36
56
0.81
21
0.80
68
0.83
70
0.68
27
0.48
22
0.31
6
0.54
7
0.32
7
0.18
60
0.12
9
0.27
236
0.22
197
0.23
177
0.14
11
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
MC-Stereotwo views0.43
13
0.23
13
0.48
15
0.51
95
0.28
52
0.39
9
0.32
30
0.88
32
0.68
44
0.60
38
0.84
55
0.56
41
0.61
106
1.03
98
0.31
5
0.17
32
0.11
3
0.17
14
0.15
30
0.16
13
0.13
3
UCFNet_RVCtwo views0.69
153
0.35
222
0.49
17
0.64
246
0.39
178
0.85
197
0.58
221
1.75
253
1.14
190
0.97
93
1.19
164
1.17
216
0.93
218
0.99
91
0.62
176
0.28
262
0.20
225
0.34
297
0.31
300
0.32
261
0.27
230
MyStereo07two views0.48
32
0.29
110
0.50
18
0.55
153
0.45
210
0.59
78
0.79
273
1.05
87
0.51
13
0.48
17
0.53
10
0.43
7
0.55
74
1.30
136
0.34
24
0.17
32
0.16
156
0.24
170
0.20
136
0.23
177
0.20
134
ACVNet-DCAtwo views0.56
86
0.31
157
0.50
18
0.54
134
0.26
20
1.18
264
0.51
170
1.42
178
0.78
63
0.58
32
0.79
48
0.48
22
0.88
200
1.46
170
0.32
7
0.20
117
0.12
9
0.25
206
0.15
30
0.22
152
0.21
150
xx1two views0.67
148
0.31
157
0.50
18
0.54
134
0.26
20
1.18
264
0.51
170
0.93
45
3.05
383
0.58
32
0.79
48
0.95
154
0.77
152
1.46
170
0.32
7
0.20
117
0.12
9
0.24
170
0.23
217
0.22
152
0.21
150
1test111two views0.54
62
0.31
157
0.50
18
0.54
134
0.26
20
1.18
264
0.51
170
1.42
178
0.78
63
0.58
32
0.79
48
0.48
22
0.88
200
0.88
71
0.59
164
0.20
117
0.12
9
0.25
206
0.15
30
0.22
152
0.21
150
cc1two views0.64
126
0.31
157
0.50
18
0.54
134
0.26
20
1.18
264
0.51
170
0.93
45
3.05
383
0.58
32
0.79
48
0.48
22
0.88
200
1.46
170
0.32
7
0.20
117
0.12
9
0.25
206
0.15
30
0.19
71
0.19
111
Selective-IGEVtwo views0.39
5
0.24
19
0.50
18
0.44
23
0.25
18
0.46
18
0.33
33
1.25
151
0.40
1
0.35
1
0.45
3
0.52
37
0.30
4
1.07
109
0.30
1
0.14
4
0.12
9
0.17
14
0.13
11
0.16
13
0.13
3
tt1two views0.62
110
0.32
171
0.51
24
0.54
134
0.26
20
1.16
261
0.48
156
0.95
52
2.47
371
0.57
31
0.77
43
0.49
29
0.81
167
1.55
187
0.32
7
0.20
117
0.12
9
0.24
170
0.15
30
0.19
71
0.20
134
EGLCR-Stereotwo views0.37
3
0.22
9
0.51
24
0.43
8
0.26
20
0.44
16
0.22
2
0.99
64
0.48
4
0.42
4
0.42
2
0.67
67
0.29
3
0.86
69
0.33
16
0.17
32
0.12
9
0.19
49
0.17
74
0.17
24
0.15
27
AEACVtwo views0.37
3
0.24
19
0.52
26
0.47
41
0.51
244
0.37
8
0.38
69
0.65
3
0.53
16
0.42
4
0.56
18
0.46
16
0.60
97
0.53
5
0.30
1
0.16
11
0.13
42
0.18
36
0.15
30
0.17
24
0.14
11
LCNettwo views0.72
161
0.28
83
0.52
26
0.55
153
0.31
91
0.69
132
0.54
189
1.00
68
0.88
85
1.19
184
1.34
215
0.97
162
1.34
315
2.56
285
0.45
92
0.18
60
0.13
42
0.21
96
0.25
239
0.27
221
0.73
365
anonymousdsptwo views0.43
13
0.27
67
0.53
28
0.44
23
0.32
106
0.50
39
0.42
96
0.89
33
0.51
13
0.49
20
0.53
10
0.47
19
0.47
39
1.33
141
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
PSM-AADtwo views0.79
201
0.27
67
0.53
28
0.55
153
0.28
52
0.77
166
1.24
344
0.99
64
0.91
97
1.66
322
1.57
278
0.81
98
2.19
372
1.65
201
0.44
84
0.19
92
0.14
75
0.38
317
0.32
306
0.21
131
0.70
362
Prome-Stereotwo views0.75
185
0.27
67
0.53
28
0.55
153
0.32
106
0.59
78
0.97
314
0.89
33
0.88
85
1.45
285
2.46
358
0.91
136
1.41
318
1.58
193
0.44
84
0.18
60
0.13
42
0.19
49
0.17
74
0.20
97
0.92
372
HSM-Net_RVCpermissivetwo views0.87
234
0.29
110
0.53
28
0.53
119
0.30
79
1.15
259
0.55
202
3.57
389
1.28
251
1.53
301
1.74
305
1.68
312
0.93
218
1.49
176
0.77
214
0.22
167
0.17
180
0.19
49
0.18
88
0.20
97
0.19
111
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
IGEV-Stereopermissivetwo views0.43
13
0.27
67
0.54
32
0.45
32
0.32
106
0.50
39
0.42
96
0.90
39
0.51
13
0.49
20
0.53
10
0.47
19
0.47
39
1.32
139
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
raft+_RVCtwo views0.53
48
0.26
46
0.54
32
0.60
206
0.47
224
0.54
59
0.54
189
1.27
153
0.99
129
0.76
53
1.03
107
0.70
77
0.56
78
0.93
82
0.47
110
0.18
60
0.14
75
0.19
49
0.18
88
0.18
41
0.15
27
ACVNettwo views0.63
116
0.31
157
0.54
32
0.54
134
0.36
145
0.80
180
0.46
142
1.37
168
1.07
158
0.93
83
1.30
198
1.08
193
0.85
185
0.80
55
0.94
248
0.21
144
0.19
208
0.21
96
0.18
88
0.22
152
0.18
78
CFNet-ftpermissivetwo views0.72
161
0.32
171
0.54
32
0.66
263
0.54
258
0.83
189
0.55
202
1.37
168
1.15
199
0.93
83
1.28
194
1.57
294
0.97
236
1.35
145
0.81
226
0.26
243
0.20
225
0.33
287
0.25
239
0.30
249
0.23
182
CFNet_RVCtwo views0.72
161
0.32
171
0.54
32
0.66
263
0.54
258
0.83
189
0.55
202
1.37
168
1.15
199
0.93
83
1.28
194
1.57
294
0.97
236
1.35
145
0.81
226
0.26
243
0.20
225
0.33
287
0.25
239
0.30
249
0.23
182
ff7two views0.43
13
0.27
67
0.56
37
0.44
23
0.33
122
0.50
39
0.42
96
0.87
25
0.50
6
0.49
20
0.53
10
0.44
9
0.48
47
1.38
153
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
IGEVStereo-DCAtwo views0.46
24
0.28
83
0.56
37
0.43
8
0.33
122
0.49
30
0.42
96
0.87
25
0.50
6
0.47
13
0.48
6
0.48
22
0.46
33
2.03
251
0.30
1
0.19
92
0.14
75
0.19
49
0.15
30
0.16
13
0.18
78
fffftwo views0.43
13
0.27
67
0.56
37
0.44
23
0.33
122
0.50
39
0.42
96
0.87
25
0.50
6
0.49
20
0.53
10
0.44
9
0.48
47
1.38
153
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
11ttwo views0.43
13
0.27
67
0.56
37
0.44
23
0.33
122
0.50
39
0.42
96
0.87
25
0.50
6
0.49
20
0.53
10
0.44
9
0.48
47
1.38
153
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
ccc-4two views0.43
13
0.27
67
0.56
37
0.44
23
0.33
122
0.50
39
0.42
96
0.87
25
0.50
6
0.49
20
0.53
10
0.44
9
0.48
47
1.38
153
0.33
16
0.17
32
0.12
9
0.21
96
0.15
30
0.18
41
0.18
78
test_4two views0.53
48
0.22
9
0.56
37
0.54
134
0.32
106
0.64
96
0.39
80
0.80
18
0.62
23
0.92
82
1.87
323
0.68
69
0.42
21
1.16
122
0.37
38
0.15
6
0.13
42
0.20
73
0.22
197
0.20
97
0.15
27
FTStereotwo views0.91
243
0.26
46
0.56
37
0.54
134
0.33
122
0.66
117
1.87
378
1.00
68
0.75
56
1.75
329
4.15
381
1.04
184
1.65
341
1.57
191
0.46
105
0.19
92
0.16
156
0.23
150
0.21
172
0.18
41
0.63
354
raftrobusttwo views0.52
39
0.25
35
0.56
37
0.65
258
0.52
252
0.49
30
0.34
43
0.98
62
0.91
97
1.30
233
0.87
60
0.63
57
0.81
167
0.78
51
0.41
65
0.19
92
0.15
125
0.16
9
0.14
22
0.15
5
0.16
41
MSKI-zero shottwo views0.55
77
0.26
46
0.57
45
0.51
95
0.26
20
0.69
132
0.28
17
1.18
129
0.64
27
0.91
80
1.32
208
0.82
103
0.33
10
1.92
240
0.32
7
0.17
32
0.12
9
0.17
14
0.13
11
0.16
13
0.16
41
ICVPtwo views0.63
116
0.33
187
0.57
45
0.61
218
0.40
183
0.80
180
0.58
221
1.61
226
0.89
88
0.90
78
1.24
177
0.88
130
0.73
136
0.72
40
0.88
242
0.29
270
0.21
241
0.22
122
0.21
172
0.24
191
0.27
230
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
hitnet-ftcopylefttwo views0.79
201
0.35
222
0.57
45
0.58
182
0.42
192
0.96
224
0.46
142
1.47
190
1.33
273
1.19
184
1.22
171
1.81
323
0.98
240
1.66
205
0.94
248
0.33
291
0.28
297
0.34
297
0.27
260
0.35
270
0.31
266
StereoIMtwo views0.36
1
0.25
35
0.58
48
0.44
23
0.34
137
0.30
3
0.30
22
0.72
5
0.50
6
0.37
2
0.36
1
0.58
47
0.49
55
0.52
4
0.36
33
0.19
92
0.16
156
0.19
49
0.15
30
0.18
41
0.14
11
ProNettwo views0.43
13
0.28
83
0.58
48
0.43
8
0.30
79
0.56
68
0.52
179
1.00
68
0.58
18
0.44
8
0.49
8
0.43
7
0.43
23
1.28
132
0.36
33
0.15
6
0.13
42
0.19
49
0.16
58
0.17
24
0.16
41
RCA-Stereotwo views0.50
37
0.23
13
0.58
48
0.48
52
0.33
122
0.55
65
0.45
135
0.97
60
1.38
295
0.68
43
1.05
111
0.63
57
0.80
164
0.59
14
0.32
7
0.17
32
0.12
9
0.17
14
0.14
22
0.16
13
0.14
11
GrayStereotwo views0.82
212
0.26
46
0.58
48
0.63
237
0.37
153
0.76
160
1.86
377
1.11
115
0.87
81
1.99
349
1.89
325
1.08
193
1.82
356
1.39
158
0.48
115
0.19
92
0.14
75
0.19
49
0.21
172
0.18
41
0.39
298
ttttwo views0.94
249
0.34
206
0.59
52
0.61
218
0.37
153
0.94
216
0.50
169
2.17
349
1.34
276
1.23
199
1.61
286
0.91
136
0.76
148
1.85
234
3.97
376
0.30
274
0.26
283
0.26
225
0.24
228
0.29
240
0.29
244
MIF-Stereotwo views0.36
1
0.23
13
0.59
52
0.48
52
0.36
145
0.40
10
0.32
30
0.53
1
0.49
5
0.54
30
0.55
17
0.36
2
0.31
6
0.58
13
0.51
131
0.20
117
0.15
125
0.17
14
0.15
30
0.19
71
0.15
27
GMM-Stereotwo views0.74
178
0.25
35
0.59
52
0.54
134
0.34
137
0.72
144
0.99
318
1.01
73
0.87
81
1.36
261
1.78
311
1.12
206
0.81
167
2.09
256
0.46
105
0.18
60
0.12
9
0.25
206
0.25
239
0.20
97
0.85
371
rafts_anoytwo views0.52
39
0.29
110
0.59
52
0.59
195
0.50
234
0.53
56
0.40
83
1.11
115
1.03
142
0.84
72
0.83
53
0.68
69
0.54
68
0.72
40
0.51
131
0.19
92
0.14
75
0.24
170
0.26
252
0.21
131
0.18
78
riskmintwo views0.56
86
0.27
67
0.60
56
0.43
8
0.31
91
0.83
189
0.42
96
1.14
119
1.04
146
0.73
52
0.75
40
1.11
205
1.01
252
0.81
59
0.51
131
0.20
117
0.14
75
0.24
170
0.15
30
0.24
191
0.25
206
RAFT+CT+SAtwo views0.58
95
0.29
110
0.60
56
0.66
263
0.37
153
0.42
13
0.55
202
1.27
153
1.03
142
0.70
46
1.22
171
0.60
52
0.70
133
1.64
200
0.41
65
0.18
60
0.13
42
0.22
122
0.22
197
0.21
131
0.18
78
SGM-Foresttwo views1.24
307
0.38
240
0.60
56
0.52
111
0.37
153
1.56
311
1.30
349
1.65
233
1.36
287
2.11
355
1.79
312
1.63
304
0.93
218
7.48
389
0.95
250
0.36
309
0.37
340
0.39
323
0.34
317
0.37
280
0.32
272
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
xtwo views0.54
62
0.31
157
0.61
59
0.47
41
0.30
79
0.67
121
0.47
148
1.53
210
0.79
67
0.81
66
0.83
53
0.78
90
0.70
133
0.70
33
0.62
176
0.21
144
0.19
208
0.22
122
0.19
108
0.21
131
0.20
134
cross-rafttwo views0.54
62
0.25
35
0.61
59
0.52
111
0.29
63
0.68
128
0.37
65
1.46
188
0.76
59
1.01
104
1.06
113
1.28
246
0.46
33
0.71
37
0.35
27
0.15
6
0.12
9
0.18
36
0.16
58
0.19
71
0.14
11
PSMNet-RSSMtwo views0.72
161
0.30
126
0.61
59
0.63
237
0.42
192
0.73
147
0.56
208
1.92
298
1.10
172
1.09
123
1.37
224
1.22
224
0.98
240
1.28
132
0.72
199
0.27
252
0.19
208
0.27
236
0.29
288
0.24
191
0.24
194
SGM_RVCbinarytwo views1.68
348
0.36
229
0.61
59
0.59
195
0.29
63
2.25
360
1.18
340
2.38
369
1.68
336
3.60
388
2.67
363
3.69
381
2.42
378
8.13
395
1.90
342
0.31
281
0.31
315
0.30
263
0.28
277
0.30
249
0.29
244
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
PSMNet-ADLtwo views0.72
161
0.35
222
0.62
63
0.69
286
0.46
220
1.14
254
0.44
124
1.37
168
1.01
136
0.83
70
1.17
159
1.33
255
0.96
233
1.43
165
0.95
250
0.33
291
0.22
255
0.21
96
0.23
217
0.27
221
0.29
244
KYRafttwo views0.75
185
0.28
83
0.62
63
0.56
165
0.29
63
0.67
121
0.86
291
0.94
49
0.84
76
1.62
319
2.21
346
1.16
215
1.02
257
1.57
191
0.40
58
0.20
117
0.13
42
0.22
122
0.28
277
0.20
97
1.02
376
NOSS_ROBtwo views1.26
310
0.46
272
0.62
63
0.56
165
0.38
170
1.06
243
0.78
270
1.73
247
1.40
304
1.01
104
1.43
241
1.10
201
0.75
140
10.62
411
0.65
184
0.45
340
0.43
354
0.48
344
0.45
345
0.44
316
0.41
303
HHNettwo views0.62
110
0.26
46
0.63
66
0.43
8
0.45
210
0.50
39
0.58
221
1.07
102
1.01
136
1.25
211
2.23
347
0.70
77
0.61
106
1.07
109
0.47
110
0.20
117
0.13
42
0.23
150
0.19
108
0.19
71
0.30
256
FENettwo views0.60
101
0.28
83
0.63
66
0.54
134
0.33
122
0.83
189
0.38
69
1.27
153
1.07
158
1.00
101
0.86
57
0.99
168
0.85
185
0.96
83
0.68
189
0.22
167
0.15
125
0.23
150
0.20
136
0.22
152
0.23
182
GANet-RSSMtwo views0.72
161
0.28
83
0.63
66
0.64
246
0.58
275
0.80
180
0.58
221
1.89
288
1.08
162
1.04
114
1.25
181
1.15
214
1.04
260
1.49
176
0.62
176
0.25
229
0.19
208
0.22
122
0.22
197
0.22
152
0.21
150
R-Stereo Traintwo views0.57
90
0.26
46
0.63
66
0.54
134
0.36
145
0.69
132
0.54
189
1.22
143
0.72
52
1.61
316
1.50
262
0.75
83
0.53
65
0.64
26
0.44
84
0.18
60
0.15
125
0.17
14
0.15
30
0.17
24
0.17
60
RAFT-Stereopermissivetwo views0.57
90
0.26
46
0.63
66
0.54
134
0.36
145
0.69
132
0.54
189
1.22
143
0.72
52
1.61
316
1.50
262
0.75
83
0.53
65
0.64
26
0.44
84
0.18
60
0.15
125
0.17
14
0.15
30
0.17
24
0.17
60
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
CBMV_ROBtwo views0.90
240
0.44
264
0.63
66
0.51
95
0.37
153
1.25
276
0.49
163
1.77
262
1.27
246
1.41
276
2.00
333
1.33
255
1.08
271
2.17
261
0.76
208
0.43
334
0.42
353
0.47
343
0.44
343
0.41
299
0.36
287
RAFT-Testtwo views0.54
62
0.25
35
0.64
72
0.47
41
0.30
79
0.97
228
0.27
14
1.24
149
0.81
69
0.96
90
1.12
139
1.28
246
0.48
47
0.71
37
0.36
33
0.17
32
0.13
42
0.17
14
0.14
22
0.16
13
0.16
41
raft_robusttwo views0.68
152
0.30
126
0.64
72
0.52
111
0.26
20
0.54
59
0.35
46
1.33
159
1.24
231
1.16
167
1.07
116
0.60
52
0.54
68
3.58
319
0.37
38
0.18
60
0.14
75
0.20
73
0.22
197
0.20
97
0.16
41
iRaftStereo_RVCtwo views0.47
30
0.26
46
0.64
72
0.50
72
0.29
63
0.53
56
0.33
33
1.05
87
0.77
61
0.84
72
1.00
87
0.55
39
0.37
12
0.81
59
0.40
58
0.17
32
0.12
9
0.22
122
0.20
136
0.19
71
0.15
27
AFF-stereotwo views0.58
95
0.25
35
0.64
72
0.46
35
0.29
63
0.34
4
0.38
69
1.15
121
1.14
190
1.17
176
1.60
282
1.10
201
0.71
135
0.97
88
0.43
82
0.13
1
0.11
3
0.19
49
0.19
108
0.17
24
0.14
11
GMOStereotwo views0.53
48
0.26
46
0.65
76
0.50
72
0.29
63
0.52
51
0.43
112
0.89
33
0.96
110
1.41
276
1.14
147
0.85
119
0.56
78
0.59
14
0.38
48
0.16
11
0.14
75
0.24
170
0.21
172
0.20
97
0.15
27
error versiontwo views0.53
48
0.26
46
0.65
76
0.50
72
0.29
63
0.52
51
0.43
112
0.89
33
0.96
110
1.41
276
1.14
147
0.85
119
0.56
78
0.59
14
0.38
48
0.16
11
0.14
75
0.24
170
0.21
172
0.20
97
0.15
27
test-vtwo views0.53
48
0.26
46
0.65
76
0.50
72
0.29
63
0.52
51
0.43
112
0.89
33
0.96
110
1.41
276
1.14
147
0.85
119
0.56
78
0.59
14
0.38
48
0.16
11
0.14
75
0.24
170
0.21
172
0.20
97
0.15
27
test-2two views0.53
48
0.26
46
0.65
76
0.50
72
0.29
63
0.52
51
0.43
112
0.89
33
0.96
110
1.41
276
1.14
147
0.85
119
0.56
78
0.59
14
0.38
48
0.16
11
0.14
75
0.24
170
0.21
172
0.20
97
0.15
27
test_xeamplepermissivetwo views1.45
329
0.28
83
0.65
76
0.51
95
0.28
52
0.94
216
0.59
228
2.14
338
1.29
255
1.24
207
1.51
264
0.88
130
0.86
193
1.46
170
15.10
409
0.22
167
0.20
225
0.22
122
0.20
136
0.22
152
0.22
165
HSMtwo views1.19
305
0.32
171
0.65
76
0.57
176
0.38
170
1.23
273
0.59
228
2.25
358
1.19
212
1.30
233
1.25
181
1.94
334
1.03
259
9.32
402
0.71
196
0.22
167
0.16
156
0.20
73
0.16
58
0.21
131
0.21
150
RAFT-345two views0.84
221
0.25
35
0.66
82
0.50
72
0.27
33
0.54
59
0.42
96
0.83
22
1.11
174
1.32
245
2.34
352
0.86
123
0.54
68
5.72
357
0.47
110
0.18
60
0.13
42
0.22
122
0.17
74
0.17
24
0.16
41
RALCasStereoNettwo views0.54
62
0.30
126
0.66
82
0.59
195
0.51
244
0.61
87
0.52
179
0.94
49
0.93
103
0.70
46
1.01
92
0.78
90
0.44
27
1.33
141
0.47
110
0.20
117
0.16
156
0.18
36
0.16
58
0.20
97
0.19
111
CBMVpermissivetwo views0.95
252
0.44
264
0.66
82
0.53
119
0.35
140
1.53
308
1.63
367
1.69
241
1.42
310
2.00
351
1.60
282
1.43
269
1.17
284
1.59
195
0.99
258
0.34
299
0.34
325
0.39
323
0.33
312
0.33
267
0.32
272
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
AE-Stereotwo views0.49
35
0.27
67
0.67
85
0.60
206
0.39
178
0.67
121
0.46
142
1.18
129
1.09
168
0.47
13
0.75
40
0.69
74
0.47
39
0.59
14
0.40
58
0.16
11
0.15
125
0.21
96
0.20
136
0.19
71
0.15
27
RAFT-RH_RVCtwo views1.03
274
0.24
19
0.67
85
0.49
65
0.28
52
0.81
184
0.33
33
0.83
22
1.08
162
2.05
352
4.65
387
1.04
184
0.57
86
5.98
364
0.50
128
0.18
60
0.13
42
0.26
225
0.20
136
0.16
13
0.17
60
222two views1.61
342
0.29
110
0.67
85
0.56
165
0.29
63
1.06
243
0.42
96
2.17
349
1.31
265
1.31
243
1.52
265
0.92
144
0.94
223
1.76
224
17.65
413
0.24
205
0.20
225
0.21
96
0.19
108
0.22
152
0.23
182
11t1two views0.52
39
0.28
83
0.68
88
0.51
95
0.28
52
0.83
189
0.39
80
1.22
143
0.63
25
0.84
72
0.74
38
0.68
69
0.68
127
0.91
76
0.57
159
0.21
144
0.18
195
0.19
49
0.16
58
0.20
97
0.21
150
BUStwo views0.74
178
0.32
171
0.68
88
0.54
134
0.44
203
2.34
364
0.42
96
2.16
343
0.98
122
1.20
188
1.11
133
1.03
181
0.62
111
0.91
76
0.70
191
0.24
205
0.17
180
0.25
206
0.22
197
0.22
152
0.22
165
BSDual-CNNtwo views0.71
160
0.32
171
0.68
88
0.54
134
0.44
203
1.27
278
0.65
240
2.16
343
0.98
122
1.20
188
1.11
133
1.12
206
0.74
138
0.91
76
0.66
185
0.24
205
0.17
180
0.25
206
0.22
197
0.22
152
0.22
165
psmgtwo views0.72
161
0.32
171
0.68
88
0.50
72
0.44
203
1.48
303
0.75
262
1.94
304
0.98
122
1.21
191
1.33
210
1.12
206
0.74
138
0.91
76
0.66
185
0.24
205
0.19
208
0.25
206
0.25
239
0.23
177
0.22
165
test-3two views0.54
62
0.22
9
0.68
88
0.47
41
0.27
33
0.58
74
0.35
46
0.92
41
1.00
134
1.32
245
0.69
30
0.87
127
0.45
30
1.68
211
0.37
38
0.16
11
0.11
3
0.20
73
0.16
58
0.17
24
0.13
3
test_1two views0.54
62
0.22
9
0.68
88
0.47
41
0.27
33
0.58
74
0.35
46
0.92
41
1.00
134
1.28
220
0.68
27
0.87
127
0.45
30
1.67
206
0.37
38
0.16
11
0.11
3
0.20
73
0.16
58
0.17
24
0.13
3
xxxxtwo views1.51
333
0.28
83
0.68
88
0.54
134
0.28
52
1.16
261
0.44
124
2.19
351
1.29
255
1.09
123
1.36
222
1.22
224
0.85
185
1.79
227
15.70
412
0.24
205
0.21
241
0.21
96
0.20
136
0.22
152
0.23
182
RAFT-Stereo + iAFFtwo views0.54
62
0.25
35
0.68
88
0.43
8
0.24
9
0.40
10
0.34
43
1.04
81
1.09
168
1.32
245
1.60
282
0.80
95
0.68
127
0.67
30
0.39
54
0.13
1
0.10
1
0.18
36
0.17
74
0.17
24
0.13
3
Gwc-CoAtRStwo views0.52
39
0.24
19
0.68
88
0.48
52
0.29
63
0.64
96
0.25
4
1.16
122
1.08
162
1.01
104
1.00
87
1.12
206
0.56
78
0.69
31
0.37
38
0.16
11
0.13
42
0.17
14
0.15
30
0.15
5
0.15
27
LL-Strereo2two views0.52
39
0.33
187
0.69
97
0.52
111
0.37
153
0.70
139
0.30
22
1.13
118
0.67
41
0.94
88
0.78
45
0.91
136
0.42
21
1.05
104
0.42
73
0.17
32
0.16
156
0.29
254
0.25
239
0.21
131
0.16
41
NRIStereotwo views0.60
101
0.29
110
0.69
97
0.53
119
0.28
52
0.63
94
0.33
33
1.08
106
0.87
81
1.14
153
0.87
60
0.91
136
0.59
95
2.24
268
0.49
122
0.20
117
0.14
75
0.21
96
0.19
108
0.21
131
0.17
60
ASMatchtwo views0.88
235
0.26
46
0.69
97
0.51
95
0.35
140
0.48
20
0.37
65
1.12
117
0.92
101
1.10
131
3.28
371
0.96
160
0.98
240
4.90
339
0.49
122
0.19
92
0.16
156
0.22
122
0.19
108
0.19
71
0.27
230
THIR-Stereotwo views1.02
273
0.27
67
0.69
97
0.49
65
0.28
52
0.95
220
1.34
351
1.03
77
0.97
117
1.34
256
1.90
326
1.17
216
1.58
334
6.44
369
0.78
216
0.19
92
0.14
75
0.21
96
0.22
197
0.19
71
0.20
134
test_xeample3two views0.42
11
0.28
83
0.69
97
0.43
8
0.33
122
0.56
68
0.38
69
0.79
13
0.45
3
0.53
29
0.46
4
0.44
9
0.44
27
1.38
153
0.31
5
0.18
60
0.14
75
0.19
49
0.15
30
0.17
24
0.16
41
EAI-Stereotwo views0.65
131
0.28
83
0.69
97
0.53
119
0.27
33
0.60
84
0.40
83
2.28
361
0.64
27
0.71
48
3.18
370
0.57
43
0.43
23
1.06
105
0.41
65
0.18
60
0.13
42
0.17
14
0.17
74
0.17
24
0.17
60
MIF-Stereo (partial)two views0.45
23
0.25
35
0.70
103
0.50
72
0.52
252
0.35
5
0.26
9
0.91
40
0.59
21
0.45
12
0.71
33
0.51
32
0.51
58
1.11
115
0.45
92
0.20
117
0.16
156
0.23
150
0.20
136
0.24
191
0.18
78
DCREtwo views0.82
212
0.26
46
0.70
103
0.58
182
0.44
203
0.54
59
0.48
156
0.95
52
0.78
63
0.78
57
7.33
400
0.86
123
0.52
60
0.76
48
0.41
65
0.16
11
0.16
156
0.19
49
0.17
74
0.18
41
0.17
60
ffftwo views0.53
48
0.24
19
0.70
103
0.43
8
0.24
9
0.48
20
0.36
56
1.07
102
1.25
234
1.10
131
1.02
99
0.57
43
1.06
267
0.73
43
0.52
137
0.16
11
0.13
42
0.17
14
0.13
11
0.15
5
0.19
111
DRafttwo views0.80
204
0.24
19
0.70
103
0.45
32
0.30
79
0.97
228
0.53
185
1.05
87
0.97
117
1.78
332
2.02
336
0.80
95
1.74
348
2.73
292
0.72
199
0.17
32
0.14
75
0.20
73
0.20
136
0.18
41
0.21
150
Pruner-Stereotwo views0.62
110
0.29
110
0.70
103
0.61
218
0.31
91
0.63
94
0.43
112
1.17
124
0.99
129
1.53
301
1.08
119
0.95
154
0.55
74
1.35
145
0.51
131
0.23
190
0.14
75
0.24
170
0.21
172
0.21
131
0.23
182
DCANettwo views0.54
62
0.24
19
0.70
103
0.43
8
0.24
9
0.49
30
0.36
56
1.05
87
1.30
261
1.12
137
1.03
107
0.58
47
0.92
212
0.81
59
0.52
137
0.16
11
0.13
42
0.17
14
0.13
11
0.18
41
0.19
111
csctwo views0.53
48
0.24
19
0.70
103
0.43
8
0.24
9
0.48
20
0.36
56
1.07
102
1.25
234
1.10
131
1.02
99
0.57
43
1.06
267
0.73
43
0.52
137
0.16
11
0.13
42
0.17
14
0.13
11
0.15
5
0.19
111
cscssctwo views0.53
48
0.24
19
0.70
103
0.43
8
0.24
9
0.48
20
0.36
56
1.07
102
1.25
234
1.10
131
1.02
99
0.57
43
1.06
267
0.73
43
0.52
137
0.16
11
0.13
42
0.17
14
0.13
11
0.15
5
0.19
111
111two views0.60
101
0.23
13
0.70
103
0.43
8
0.24
9
0.72
144
0.42
96
1.18
129
1.41
307
0.80
62
1.38
228
1.10
201
0.79
159
0.96
83
0.58
162
0.18
60
0.13
42
0.17
14
0.15
30
0.17
24
0.19
111
CFNet-RSSMtwo views0.54
62
0.24
19
0.70
103
0.48
52
0.28
52
0.60
84
0.27
14
1.49
192
1.14
190
1.06
115
0.93
70
1.08
193
0.54
68
0.70
33
0.35
27
0.16
11
0.12
9
0.17
14
0.15
30
0.16
13
0.14
11
psm_uptwo views0.77
192
0.34
206
0.70
103
0.66
263
0.58
275
1.05
240
0.92
304
1.52
204
1.12
178
1.26
215
1.16
156
1.31
253
1.23
299
1.20
124
0.81
226
0.25
229
0.29
305
0.31
267
0.27
260
0.27
221
0.25
206
Former-RAFT_DAM_RVCtwo views0.46
24
0.36
229
0.71
114
0.47
41
0.36
145
0.67
121
0.35
46
0.78
12
1.12
178
0.61
39
0.62
20
0.39
4
0.39
14
0.71
37
0.39
54
0.20
117
0.17
180
0.22
122
0.18
88
0.23
177
0.19
111
qqqtwo views0.57
90
0.34
206
0.71
114
0.47
41
0.27
33
0.64
96
0.62
235
1.42
178
0.78
63
0.80
62
0.92
68
0.95
154
0.77
152
0.88
71
0.59
164
0.21
144
0.20
225
0.24
170
0.23
217
0.22
152
0.21
150
test_3two views0.55
77
0.23
13
0.71
114
0.53
119
0.28
52
0.61
87
0.40
83
0.92
41
1.05
150
1.19
184
0.68
27
0.93
145
0.44
27
1.67
206
0.39
54
0.15
6
0.12
9
0.22
122
0.19
108
0.21
131
0.14
11
TestStereotwo views0.64
126
0.39
245
0.71
114
0.51
95
0.27
33
0.56
68
0.42
96
1.03
77
0.91
97
0.80
62
1.00
87
0.68
69
0.52
60
3.25
309
0.45
92
0.22
167
0.15
125
0.24
170
0.18
88
0.27
221
0.16
41
mmmtwo views0.63
116
0.35
222
0.72
118
0.51
95
0.30
79
0.86
198
0.54
189
1.59
220
0.86
77
1.07
117
1.38
228
0.79
93
0.75
140
0.91
76
0.58
162
0.22
167
0.18
195
0.29
254
0.25
239
0.25
201
0.23
182
CASStwo views0.65
131
0.34
206
0.72
118
0.56
165
0.27
33
0.78
171
0.42
96
1.59
220
0.86
77
1.30
233
1.25
181
0.87
127
0.84
182
0.84
64
0.54
151
0.35
306
0.19
208
0.26
225
0.21
172
0.28
235
0.42
307
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
HBP-ISPtwo views0.96
253
0.58
311
0.72
118
0.61
218
0.46
220
1.64
319
0.76
265
1.86
283
1.28
251
1.30
233
1.53
266
0.86
123
0.94
223
3.27
310
0.69
190
0.45
340
0.44
357
0.54
355
0.48
352
0.47
322
0.40
299
DisPMtwo views0.66
139
0.28
83
0.72
118
0.61
218
0.35
140
0.62
93
0.45
135
1.02
74
0.99
129
1.56
309
1.10
128
0.80
95
0.59
95
2.37
277
0.41
65
0.23
190
0.14
75
0.23
150
0.21
172
0.20
97
0.25
206
GANet-ADLtwo views0.60
101
0.35
222
0.72
118
0.64
246
0.40
183
0.68
128
0.51
170
1.49
192
1.12
178
0.95
89
1.08
119
0.91
136
0.57
86
0.76
48
0.55
155
0.26
243
0.18
195
0.18
36
0.16
58
0.23
177
0.25
206
CrosDoStereotwo views1.58
337
0.24
19
0.72
118
0.48
52
0.29
63
0.67
121
12.49
413
1.10
109
0.98
122
1.34
256
1.75
308
1.00
169
1.89
358
6.65
372
0.81
226
0.19
92
0.15
125
0.20
73
0.22
197
0.18
41
0.19
111
AAGNettwo views1.83
355
0.28
83
0.72
118
0.61
218
0.32
106
0.67
121
0.51
170
0.96
59
0.98
122
1.47
288
1.20
167
1.00
169
1.18
287
2.83
294
22.77
419
0.22
167
0.13
42
0.22
122
0.19
108
0.23
177
0.15
27
OMP-Stereotwo views0.94
249
0.33
187
0.72
118
0.90
355
0.31
91
0.49
30
0.36
56
1.16
122
1.06
153
1.58
315
1.12
139
1.46
277
0.69
130
6.94
379
0.49
122
0.19
92
0.14
75
0.24
170
0.18
88
0.20
97
0.14
11
IIG-Stereotwo views0.96
253
0.31
157
0.72
118
0.88
350
0.33
122
0.61
87
0.26
9
1.19
135
1.03
142
1.69
325
1.37
224
1.46
277
0.75
140
6.96
380
0.51
131
0.19
92
0.14
75
0.23
150
0.18
88
0.20
97
0.14
11
DeepStereo_LLtwo views1.58
337
0.24
19
0.72
118
0.48
52
0.29
63
0.67
121
12.49
413
1.10
109
0.98
122
1.34
256
1.75
308
1.00
169
1.89
358
6.65
372
0.81
226
0.19
92
0.15
125
0.20
73
0.22
197
0.18
41
0.19
111
SST-Stereotwo views0.83
217
0.28
83
0.72
118
0.59
195
0.31
91
0.72
144
0.26
9
1.09
107
0.86
77
1.47
288
1.10
128
1.00
169
0.87
196
5.73
358
0.45
92
0.22
167
0.13
42
0.23
150
0.19
108
0.23
177
0.18
78
DeepStereo_RVCtwo views0.55
77
0.29
110
0.72
118
0.51
95
0.30
79
0.59
78
0.33
33
1.03
77
0.70
47
1.16
167
0.93
70
0.83
110
0.94
223
0.96
83
0.54
151
0.21
144
0.14
75
0.21
96
0.19
108
0.24
191
0.24
194
rrrtwo views0.46
24
0.28
83
0.73
130
0.43
8
0.33
122
0.49
30
0.38
69
0.76
10
0.50
6
0.47
13
0.48
6
0.48
22
0.46
33
2.03
251
0.30
1
0.19
92
0.14
75
0.19
49
0.15
30
0.16
13
0.16
41
EKT-Stereotwo views0.53
48
0.30
126
0.73
130
0.58
182
0.60
285
0.51
49
0.48
156
0.94
49
0.90
92
0.71
48
0.88
62
0.77
87
0.43
23
1.07
109
0.40
58
0.22
167
0.16
156
0.21
96
0.18
88
0.20
97
0.22
165
Patchmatch Stereo++two views0.55
77
0.30
126
0.73
130
0.50
72
0.27
33
0.65
108
0.29
19
1.05
87
0.64
27
1.12
137
0.96
74
0.83
110
0.60
97
1.37
149
0.45
92
0.22
167
0.14
75
0.24
170
0.20
136
0.26
209
0.18
78
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.54
62
0.30
126
0.73
130
0.50
72
0.27
33
0.65
108
0.41
94
1.04
81
0.64
27
1.12
137
0.96
74
0.82
103
0.61
106
1.06
105
0.45
92
0.22
167
0.14
75
0.24
170
0.20
136
0.26
209
0.18
78
ROB_FTStereo_v2two views0.54
62
0.30
126
0.73
130
0.50
72
0.27
33
0.64
96
0.42
96
1.05
87
0.64
27
1.12
137
0.96
74
0.83
110
0.60
97
1.12
117
0.46
105
0.22
167
0.14
75
0.24
170
0.20
136
0.26
209
0.18
78
ROB_FTStereotwo views0.54
62
0.30
126
0.73
130
0.50
72
0.27
33
0.64
96
0.25
4
1.05
87
0.64
27
1.12
137
0.95
72
0.82
103
0.61
106
1.15
120
0.45
92
0.22
167
0.14
75
0.24
170
0.20
136
0.26
209
0.18
78
HUI-Stereotwo views0.52
39
0.30
126
0.73
130
0.50
72
0.27
33
0.65
108
0.30
22
1.04
81
0.64
27
1.12
137
0.96
74
0.83
110
0.60
97
0.79
54
0.45
92
0.22
167
0.14
75
0.24
170
0.20
136
0.26
209
0.18
78
RAFT_R40two views0.83
217
0.28
83
0.73
130
0.59
195
0.31
91
0.69
132
0.44
124
1.10
109
0.95
108
1.47
288
1.10
128
1.00
169
0.85
185
5.53
352
0.46
105
0.22
167
0.13
42
0.23
150
0.20
136
0.23
177
0.18
78
iGMRVCtwo views0.56
86
0.30
126
0.73
130
0.50
72
0.27
33
0.65
108
0.38
69
1.05
87
0.64
27
1.12
137
0.96
74
0.83
110
0.60
97
1.52
179
0.46
105
0.22
167
0.14
75
0.24
170
0.20
136
0.26
209
0.18
78
iRAFTtwo views0.55
77
0.30
126
0.73
130
0.50
72
0.27
33
0.65
108
0.29
19
1.05
87
0.64
27
1.12
137
0.96
74
0.83
110
0.60
97
1.37
149
0.45
92
0.22
167
0.14
75
0.24
170
0.20
136
0.26
209
0.18
78
CroCo-Stereocopylefttwo views0.40
8
0.31
157
0.73
130
0.58
182
0.27
33
0.26
1
0.33
33
0.95
52
0.81
69
0.42
4
0.47
5
0.65
63
0.47
39
0.39
1
0.34
24
0.18
60
0.15
125
0.16
9
0.14
22
0.19
71
0.16
41
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.64
126
0.30
126
0.73
130
0.59
195
0.33
122
0.68
128
0.58
221
1.04
81
0.76
59
1.08
118
1.19
164
1.65
309
0.93
218
1.06
105
0.56
157
0.21
144
0.18
195
0.27
236
0.24
228
0.22
152
0.17
60
RAFT-IKPtwo views0.54
62
0.30
126
0.73
130
0.50
72
0.27
33
0.59
78
0.36
56
1.04
81
0.64
27
1.12
137
0.96
74
0.83
110
0.61
106
1.22
126
0.45
92
0.22
167
0.14
75
0.24
170
0.20
136
0.26
209
0.18
78
HCRNettwo views0.70
155
0.39
245
0.73
130
0.60
206
0.59
282
0.76
160
0.35
46
1.22
143
1.13
188
1.02
107
0.99
84
1.02
178
0.76
148
2.19
265
0.70
191
0.28
262
0.19
208
0.28
246
0.23
217
0.25
201
0.23
182
anonymousdsp2two views0.53
48
0.27
67
0.74
144
0.48
52
0.29
63
0.76
160
0.47
148
1.61
226
0.82
74
0.77
56
0.77
43
0.75
83
0.47
39
1.03
98
0.40
58
0.18
60
0.13
42
0.18
36
0.13
11
0.19
71
0.18
78
CRE-IMPtwo views0.55
77
0.30
126
0.74
144
0.52
111
0.29
63
0.79
175
0.25
4
1.04
81
0.72
52
1.09
123
0.95
72
0.81
98
0.57
86
1.10
112
0.50
128
0.21
144
0.14
75
0.23
150
0.19
108
0.28
235
0.22
165
anonymousatwo views0.72
161
0.27
67
0.75
146
0.47
41
0.63
294
1.43
300
0.45
135
1.24
149
0.89
88
1.28
220
1.75
308
1.62
302
1.13
281
0.69
31
0.59
164
0.19
92
0.16
156
0.23
150
0.25
239
0.20
97
0.18
78
TestStereo1two views0.63
116
0.28
83
0.75
146
0.76
316
0.31
91
0.48
20
0.43
112
1.30
157
1.21
222
0.97
93
1.31
203
0.64
60
0.77
152
1.75
219
0.42
73
0.20
117
0.15
125
0.22
122
0.18
88
0.21
131
0.17
60
test_5two views0.65
131
0.30
126
0.75
146
0.67
273
0.50
234
0.92
211
0.52
179
1.39
174
1.12
178
0.76
53
1.11
133
1.00
169
0.90
207
1.53
183
0.45
92
0.18
60
0.13
42
0.23
150
0.22
197
0.21
131
0.19
111
SA-5Ktwo views0.63
116
0.28
83
0.75
146
0.76
316
0.31
91
0.48
20
0.43
112
1.30
157
1.21
222
0.97
93
1.31
203
0.64
60
0.77
152
1.75
219
0.42
73
0.20
117
0.15
125
0.22
122
0.18
88
0.21
131
0.17
60
NF-Stereotwo views0.80
204
0.30
126
0.75
146
0.60
206
0.31
91
0.64
96
0.44
124
1.21
136
0.90
92
1.29
225
1.02
99
0.82
103
0.57
86
5.40
350
0.48
115
0.23
190
0.14
75
0.24
170
0.20
136
0.20
97
0.30
256
OCTAStereotwo views0.80
204
0.30
126
0.75
146
0.60
206
0.31
91
0.64
96
0.44
124
1.21
136
0.90
92
1.29
225
1.01
92
0.82
103
0.57
86
5.35
345
0.48
115
0.24
205
0.14
75
0.24
170
0.20
136
0.20
97
0.30
256
RE-Stereotwo views0.80
204
0.30
126
0.75
146
0.60
206
0.31
91
0.64
96
0.44
124
1.21
136
0.90
92
1.29
225
1.01
92
0.81
98
0.57
86
5.37
348
0.48
115
0.24
205
0.14
75
0.24
170
0.20
136
0.20
97
0.30
256
TVStereotwo views0.80
204
0.30
126
0.75
146
0.60
206
0.31
91
0.64
96
0.44
124
1.21
136
0.90
92
1.29
225
1.01
92
0.81
98
0.57
86
5.37
348
0.48
115
0.24
205
0.14
75
0.24
170
0.20
136
0.20
97
0.30
256
AdaStereotwo views0.70
155
0.43
261
0.75
146
0.73
308
0.37
153
0.92
211
0.53
185
1.85
280
1.18
209
1.12
137
1.23
175
1.07
192
0.65
124
0.96
83
0.63
180
0.31
281
0.15
125
0.32
280
0.21
172
0.29
240
0.22
165
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
4D-IteraStereotwo views0.48
32
0.24
19
0.76
155
0.50
72
0.44
203
0.66
117
0.31
27
0.87
25
1.02
139
1.03
111
0.72
35
0.78
90
0.32
9
0.64
26
0.37
38
0.17
32
0.11
3
0.23
150
0.19
108
0.19
71
0.13
3
Sa-1000two views0.72
161
0.29
110
0.76
155
0.59
195
0.30
79
0.73
147
0.37
65
1.62
229
1.33
273
1.28
220
2.04
338
0.86
123
0.75
140
1.84
231
0.38
48
0.19
92
0.14
75
0.25
206
0.23
217
0.20
97
0.16
41
IRAFT_RVCtwo views0.88
235
0.28
83
0.76
155
0.63
237
0.31
91
0.65
108
1.02
323
1.22
143
0.94
106
1.22
196
1.04
110
1.01
176
0.98
240
5.82
359
0.53
145
0.22
167
0.12
9
0.25
206
0.20
136
0.20
97
0.19
111
CVANet_RVCtwo views1.07
280
0.43
261
0.76
155
0.60
206
0.50
234
0.90
203
0.97
314
1.52
204
1.26
239
1.33
253
1.38
228
1.24
231
1.18
287
6.75
378
0.75
206
0.34
299
0.23
263
0.34
297
0.29
288
0.42
304
0.27
230
HHtwo views0.63
116
0.30
126
0.77
159
0.50
72
0.32
106
0.49
30
0.46
142
1.65
233
0.64
27
0.69
44
1.09
124
1.63
304
0.85
185
1.90
238
0.37
38
0.18
60
0.13
42
0.19
49
0.17
74
0.19
71
0.16
41
HanStereotwo views0.63
116
0.30
126
0.77
159
0.50
72
0.32
106
0.49
30
0.46
142
1.65
233
0.64
27
0.69
44
1.09
124
1.63
304
0.85
185
1.90
238
0.37
38
0.18
60
0.13
42
0.19
49
0.17
74
0.19
71
0.16
41
CroCo-Stereo Lap2two views0.44
21
0.34
206
0.77
159
0.61
218
0.79
336
0.28
2
0.35
46
0.75
8
0.71
51
0.38
3
0.50
9
0.72
80
0.55
74
0.57
12
0.47
110
0.17
32
0.18
195
0.19
49
0.16
58
0.21
131
0.20
134
PFNet+two views0.59
98
0.28
83
0.77
159
0.53
119
0.30
79
0.59
78
0.31
27
0.92
41
1.14
190
1.33
253
1.10
128
0.79
93
0.57
86
1.31
137
0.49
122
0.25
229
0.17
180
0.28
246
0.26
252
0.21
131
0.25
206
PSM-softLosstwo views0.78
198
0.31
157
0.77
159
0.58
182
0.32
106
0.56
68
0.40
83
1.18
129
0.70
47
1.24
207
1.07
116
0.83
110
0.52
60
5.36
346
0.53
145
0.24
205
0.15
125
0.25
206
0.22
197
0.20
97
0.25
206
KMStereotwo views0.78
198
0.31
157
0.77
159
0.58
182
0.32
106
0.56
68
0.40
83
1.18
129
0.70
47
1.24
207
1.07
116
0.83
110
0.52
60
5.36
346
0.53
145
0.24
205
0.15
125
0.25
206
0.22
197
0.20
97
0.25
206
cf-rtwo views0.73
175
0.30
126
0.77
159
0.55
153
0.63
294
0.78
171
0.48
156
1.79
268
1.15
199
1.13
151
1.26
187
1.43
269
0.87
196
1.40
163
0.85
239
0.25
229
0.18
195
0.22
122
0.23
217
0.19
71
0.19
111
HITNettwo views0.65
131
0.40
249
0.77
159
0.48
52
0.24
9
1.05
240
0.49
163
1.76
259
1.02
139
1.18
180
1.18
161
0.89
134
0.80
164
0.85
66
0.79
222
0.17
32
0.12
9
0.21
96
0.17
74
0.29
240
0.15
27
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
NINENettwo views0.77
192
0.37
235
0.78
167
0.62
229
0.51
244
2.34
364
0.42
96
1.83
278
1.04
146
1.14
153
1.23
175
1.03
181
0.62
111
1.24
129
0.70
191
0.28
262
0.23
263
0.31
267
0.21
172
0.26
209
0.25
206
DLCB_ROBtwo views0.86
230
0.40
249
0.78
167
0.68
283
0.54
258
1.11
249
0.84
285
1.49
192
1.23
227
1.64
321
1.65
295
1.70
314
0.91
209
1.70
213
1.05
261
0.25
229
0.24
272
0.26
225
0.27
260
0.27
221
0.24
194
Selective-RAFTtwo views0.52
39
0.28
83
0.79
169
0.55
153
0.27
33
0.91
205
0.33
33
0.80
18
0.88
85
0.58
32
0.63
21
0.81
98
0.77
152
1.29
135
0.48
115
0.19
92
0.14
75
0.17
14
0.15
30
0.19
71
0.17
60
AACVNettwo views0.86
230
0.35
222
0.79
169
0.82
333
0.39
178
0.76
160
0.49
163
1.61
226
0.81
69
1.08
118
1.33
210
1.30
250
0.93
218
4.34
330
0.74
203
0.25
229
0.21
241
0.28
246
0.22
197
0.29
240
0.25
206
GwcNet-ADLtwo views0.64
126
0.31
157
0.79
169
0.56
165
0.41
189
0.60
84
0.58
221
1.41
176
1.26
239
1.08
118
1.13
144
0.91
136
0.60
97
1.04
103
0.78
216
0.27
252
0.18
195
0.18
36
0.18
88
0.25
201
0.29
244
DEmStereotwo views0.97
259
0.23
13
0.79
169
0.47
41
0.32
106
1.04
239
0.56
208
0.93
45
0.89
88
1.39
273
2.14
344
1.02
178
2.07
369
5.64
356
0.77
214
0.17
32
0.15
125
0.20
73
0.20
136
0.18
41
0.20
134
TDLMtwo views1.06
278
0.44
264
0.79
169
0.63
237
0.50
234
0.89
201
1.44
356
1.48
191
1.26
239
1.12
137
1.40
234
1.08
193
0.98
240
6.65
372
0.78
216
0.33
291
0.21
241
0.33
287
0.26
252
0.37
280
0.24
194
UDGNettwo views0.72
161
1.17
376
0.80
174
0.77
319
0.41
189
0.77
166
0.38
69
0.97
60
1.34
276
0.81
66
0.88
62
0.71
79
0.60
97
1.21
125
0.54
151
0.52
353
0.19
208
1.02
380
0.26
252
0.71
363
0.31
266
FCDSN-DCtwo views2.32
373
0.63
326
0.81
175
0.84
337
0.75
327
2.23
359
0.94
310
2.09
332
1.80
346
5.45
405
7.72
403
7.77
404
6.93
409
3.39
311
1.80
337
0.52
353
0.48
366
0.52
349
0.51
360
0.57
343
0.58
346
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
ac_64two views0.82
212
0.29
110
0.81
175
0.71
298
0.60
285
1.05
240
0.54
189
1.99
313
0.92
101
1.18
180
1.06
113
1.99
339
1.08
271
1.94
244
0.97
255
0.27
252
0.22
255
0.24
170
0.23
217
0.22
152
0.19
111
Anonymous_2two views1.30
314
0.55
301
0.82
177
0.52
111
0.58
275
1.01
235
0.64
238
1.25
151
0.97
117
0.96
90
0.78
45
1.33
255
1.29
307
1.03
98
0.74
203
0.62
365
0.64
382
1.06
381
9.63
418
1.16
379
0.49
329
SAtwo views0.66
139
0.30
126
0.82
177
0.61
218
0.30
79
0.58
74
0.38
69
1.44
185
1.30
261
0.96
90
1.36
222
0.66
65
0.95
228
1.85
234
0.42
73
0.19
92
0.15
125
0.25
206
0.23
217
0.21
131
0.17
60
CSP-Nettwo views0.97
259
0.38
240
0.83
179
0.53
119
0.41
189
1.63
317
0.77
268
2.00
314
1.05
150
1.25
211
1.20
167
1.33
255
0.83
180
4.93
341
0.85
239
0.32
286
0.22
255
0.20
73
0.20
136
0.23
177
0.25
206
DIP-Stereotwo views0.62
110
0.30
126
0.83
179
0.48
52
0.36
145
0.95
220
0.33
33
2.37
368
0.67
41
1.25
211
1.00
87
0.68
69
0.51
58
0.91
76
0.61
173
0.18
60
0.15
125
0.21
96
0.17
74
0.19
71
0.19
111
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
DualNettwo views1.09
285
0.33
187
0.85
181
0.53
119
0.37
153
0.74
150
0.56
208
0.95
52
2.47
371
1.15
156
1.45
246
1.06
186
0.82
171
1.55
187
7.61
391
0.20
117
0.12
9
0.31
267
0.27
260
0.19
71
0.20
134
ffmtwo views0.72
161
0.33
187
0.85
181
0.53
119
0.37
153
0.74
150
0.56
208
0.95
52
2.47
371
1.15
156
1.45
246
1.06
186
0.82
171
1.55
187
0.32
7
0.20
117
0.12
9
0.31
267
0.27
260
0.19
71
0.20
134
ff1two views1.37
322
0.33
187
0.85
181
0.53
119
0.37
153
0.74
150
0.56
208
0.95
52
2.47
371
1.15
156
1.45
246
1.06
186
0.82
171
7.22
382
7.61
391
0.20
117
0.12
9
0.31
267
0.27
260
0.19
71
0.20
134
mmxtwo views1.39
324
0.33
187
0.85
181
0.53
119
0.37
153
0.74
150
0.56
208
2.13
334
1.37
291
1.15
156
1.45
246
1.06
186
0.82
171
7.22
382
7.61
391
0.24
205
0.19
208
0.31
267
0.27
260
0.30
249
0.25
206
xxxcopylefttwo views1.39
324
0.33
187
0.85
181
0.53
119
0.37
153
0.74
150
0.56
208
2.13
334
1.37
291
1.15
156
1.45
246
1.06
186
0.82
171
7.22
382
7.61
391
0.24
205
0.19
208
0.31
267
0.27
260
0.30
249
0.25
206
SACVNettwo views0.85
225
0.46
272
0.85
181
0.81
328
0.56
265
0.80
180
0.79
273
1.68
239
1.12
178
1.34
256
1.33
210
1.25
235
0.94
223
2.39
279
0.76
208
0.34
299
0.26
283
0.31
267
0.29
288
0.35
270
0.44
313
SMFormertwo views0.75
185
0.30
126
0.86
187
0.46
35
0.26
20
0.82
185
0.43
112
2.05
323
1.39
299
1.23
199
1.47
253
0.98
163
0.95
228
1.71
214
0.82
231
0.24
205
0.20
225
0.22
122
0.21
172
0.23
177
0.24
194
ttatwo views0.75
185
0.30
126
0.86
187
0.46
35
0.26
20
0.82
185
0.43
112
2.05
323
1.39
299
1.23
199
1.47
253
0.98
163
0.95
228
1.71
214
0.82
231
0.24
205
0.20
225
0.22
122
0.21
172
0.18
41
0.18
78
qqq1two views0.72
161
0.30
126
0.86
187
0.46
35
0.26
20
0.82
185
0.43
112
2.05
323
1.39
299
1.23
199
1.47
253
0.98
163
0.95
228
1.71
214
0.44
84
0.24
205
0.20
225
0.18
36
0.15
30
0.18
41
0.18
78
fff1two views0.72
161
0.30
126
0.86
187
0.46
35
0.26
20
0.82
185
0.43
112
2.05
323
1.39
299
1.23
199
1.47
253
0.98
163
0.95
228
1.71
214
0.44
84
0.24
205
0.20
225
0.18
36
0.15
30
0.18
41
0.18
78
1111xtwo views1.70
350
0.29
110
0.86
187
0.51
95
0.27
33
1.01
235
0.68
250
2.22
355
1.28
251
1.13
151
1.40
234
1.21
222
1.10
275
5.53
352
15.20
410
0.22
167
0.21
241
0.22
122
0.22
197
0.24
191
0.22
165
StereoVisiontwo views0.65
131
0.34
206
0.86
187
0.59
195
0.40
183
0.50
39
0.41
94
1.09
107
0.93
103
0.71
48
2.50
359
0.82
103
0.57
86
1.03
98
0.49
122
0.25
229
0.28
297
0.29
254
0.28
277
0.36
276
0.20
134
CFNet_pseudotwo views0.66
139
0.32
171
0.86
187
0.48
52
0.39
178
0.70
139
0.40
83
1.33
159
1.22
224
1.16
167
1.34
215
1.24
231
0.64
119
0.98
89
0.59
164
0.21
144
0.16
156
0.33
287
0.19
108
0.36
276
0.25
206
GANettwo views1.36
321
0.47
276
0.86
187
0.67
273
0.45
210
1.34
287
1.73
369
1.64
232
1.24
231
1.49
296
2.38
353
1.55
292
1.20
293
9.30
401
0.93
247
0.30
274
0.31
315
0.33
287
0.28
277
0.39
292
0.30
256
ccs_robtwo views0.66
139
0.33
187
0.86
187
0.48
52
0.39
178
0.70
139
0.40
83
1.33
159
1.22
224
1.16
167
1.34
215
1.23
229
0.64
119
0.98
89
0.59
164
0.21
144
0.16
156
0.35
304
0.20
136
0.37
280
0.25
206
FC-DCNNcopylefttwo views2.72
388
0.59
314
0.86
187
0.73
308
0.57
267
2.91
379
1.04
325
3.01
383
2.60
376
6.83
407
7.64
402
9.92
409
6.33
407
5.21
343
3.14
366
0.53
359
0.48
366
0.51
348
0.50
358
0.53
337
0.51
334
RALAANettwo views0.60
101
0.33
187
0.87
197
0.62
229
0.50
234
0.69
132
0.31
27
1.21
136
1.06
153
1.09
123
1.16
156
0.88
130
0.46
33
1.22
126
0.42
73
0.19
92
0.15
125
0.21
96
0.17
74
0.27
221
0.17
60
MSMDNettwo views0.66
139
0.32
171
0.87
197
0.49
65
0.37
153
0.79
175
0.40
83
1.43
184
1.31
265
1.15
156
1.31
203
1.24
231
0.63
116
0.88
71
0.57
159
0.21
144
0.16
156
0.26
225
0.19
108
0.39
292
0.24
194
DeepPruner_ROBtwo views0.74
178
0.48
281
0.87
197
0.57
176
0.44
203
0.79
175
0.54
189
1.73
247
0.96
110
1.38
268
1.27
190
1.24
231
0.73
136
1.43
165
0.73
202
0.34
299
0.28
297
0.27
236
0.26
252
0.31
256
0.31
266
PCWNet_CMDtwo views0.66
139
0.32
171
0.88
200
0.49
65
0.37
153
0.78
171
0.40
83
1.42
178
1.31
265
1.16
167
1.31
203
1.25
235
0.62
111
0.89
74
0.57
159
0.20
117
0.16
156
0.27
236
0.19
108
0.40
296
0.25
206
CFNet_ucstwo views0.70
155
0.33
187
0.88
200
0.50
72
0.43
197
0.74
150
0.44
124
1.60
223
1.29
255
1.22
196
1.54
268
1.09
199
0.63
116
0.99
91
0.59
164
0.25
229
0.20
225
0.37
314
0.21
172
0.40
296
0.28
241
RAFT_CTSACEtwo views0.63
116
0.26
46
0.88
200
0.55
153
0.51
244
0.71
142
0.44
124
0.80
18
0.97
117
0.97
93
1.84
318
1.18
219
0.68
127
1.47
174
0.36
33
0.16
11
0.15
125
0.21
96
0.20
136
0.20
97
0.14
11
LMCR-Stereopermissivemany views0.82
212
0.46
272
0.88
200
0.75
314
0.43
197
1.33
285
0.56
208
2.43
372
0.98
122
1.53
301
1.49
259
0.74
81
1.00
250
1.63
199
0.89
243
0.28
262
0.17
180
0.22
122
0.17
74
0.29
240
0.20
134
StereoDRNet-Refinedtwo views0.80
204
0.41
255
0.88
200
0.62
229
0.42
192
1.33
285
0.48
156
1.52
204
1.17
205
1.45
285
1.44
244
1.44
273
0.90
207
1.26
131
1.24
286
0.20
117
0.16
156
0.27
236
0.24
228
0.25
201
0.28
241
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
TransformOpticalFlowtwo views0.96
253
0.28
83
0.89
205
0.52
111
0.31
91
0.66
117
0.54
189
1.75
253
1.12
178
1.09
123
1.44
244
1.37
263
1.01
252
6.70
376
0.42
73
0.19
92
0.12
9
0.20
73
0.19
108
0.18
41
0.19
111
ADLNettwo views0.85
225
0.36
229
0.89
205
0.85
342
0.72
316
1.24
274
0.76
265
1.82
274
1.36
287
1.52
300
1.35
221
1.27
243
0.99
248
1.23
128
1.15
277
0.27
252
0.20
225
0.26
225
0.25
239
0.28
235
0.30
256
MSMD_ROBtwo views1.99
365
0.59
314
0.89
205
0.70
291
0.61
288
3.95
394
0.94
310
1.80
270
1.79
345
4.41
396
4.43
382
8.17
405
3.66
393
3.40
312
1.33
298
0.52
353
0.48
366
0.54
355
0.58
367
0.53
337
0.50
330
GEStwo views0.66
139
0.34
206
0.90
208
0.59
195
0.38
170
0.94
216
0.57
218
2.11
333
0.86
77
1.02
107
1.11
133
0.66
65
0.79
159
0.99
91
0.61
173
0.27
252
0.19
208
0.20
73
0.20
136
0.21
131
0.30
256
UPFNettwo views0.80
204
0.32
171
0.90
208
0.59
195
0.74
321
1.26
277
0.80
279
1.52
204
1.10
172
1.30
233
1.12
139
1.30
250
0.84
182
1.67
206
1.09
268
0.24
205
0.24
272
0.24
170
0.23
217
0.25
201
0.18
78
DMCAtwo views0.67
148
0.34
206
0.90
208
0.51
95
0.44
203
0.86
198
0.47
148
1.42
178
1.02
139
1.17
176
1.12
139
1.23
229
0.75
140
0.78
51
0.95
250
0.25
229
0.19
208
0.27
236
0.19
108
0.24
191
0.27
230
iRaft-Stereo_5wtwo views0.85
225
0.29
110
0.91
211
0.53
119
0.43
197
0.49
30
0.68
250
0.99
64
0.87
81
0.79
60
1.34
215
1.46
277
0.91
209
5.11
342
1.11
273
0.17
32
0.14
75
0.22
122
0.18
88
0.20
97
0.20
134
AASNettwo views0.76
191
0.35
222
0.91
211
0.79
322
0.81
343
1.14
254
0.56
208
2.02
321
1.08
162
1.22
196
1.24
177
0.93
145
0.76
148
0.77
50
1.16
278
0.27
252
0.23
263
0.24
170
0.20
136
0.28
235
0.24
194
Anonymoustwo views0.53
48
0.38
240
0.91
211
0.66
263
0.73
319
0.65
108
0.59
228
0.95
52
0.73
55
0.47
13
0.58
19
0.42
5
0.60
97
0.80
55
0.53
145
0.24
205
0.23
263
0.21
96
0.21
172
0.41
299
0.29
244
RASNettwo views1.12
293
0.30
126
0.91
211
0.66
263
0.77
331
0.97
228
0.57
218
1.37
168
1.35
284
1.02
107
1.34
215
2.11
348
1.43
320
7.09
381
1.39
308
0.19
92
0.17
180
0.17
14
0.19
108
0.18
41
0.16
41
MIM_Stereotwo views0.57
90
0.24
19
0.92
215
0.46
35
0.30
79
0.54
59
0.28
17
1.27
153
0.75
56
1.00
101
1.16
156
0.93
145
0.53
65
1.45
168
0.61
173
0.16
11
0.16
156
0.20
73
0.19
108
0.17
24
0.14
11
MeshStereopermissivetwo views2.26
371
0.56
304
0.92
215
0.61
218
0.49
228
2.60
372
1.02
323
3.18
385
2.05
361
7.40
411
4.98
391
7.58
402
2.98
387
6.37
368
1.96
345
0.43
334
0.43
354
0.45
338
0.39
331
0.43
309
0.42
307
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
CoDeXtwo views0.73
175
0.29
110
0.93
217
0.54
134
0.36
145
1.14
254
0.61
233
2.34
366
1.17
205
1.16
167
1.25
181
0.91
136
0.87
196
1.33
141
0.64
183
0.20
117
0.16
156
0.21
96
0.18
88
0.20
97
0.18
78
PS-NSSStwo views0.99
264
0.58
311
0.93
217
0.58
182
0.57
267
0.91
205
0.80
279
1.81
273
1.14
190
1.14
153
1.67
299
1.00
169
0.83
180
4.62
334
0.78
216
0.37
313
0.31
315
0.52
349
0.32
306
0.45
319
0.38
295
MIPNettwo views0.56
86
0.28
83
0.94
219
0.49
65
0.33
122
0.66
117
0.38
69
1.35
165
1.08
162
1.06
115
0.92
68
0.60
52
0.79
159
0.73
43
0.52
137
0.17
32
0.14
75
0.19
49
0.16
58
0.18
41
0.17
60
GMStereopermissivetwo views0.55
77
0.45
270
0.94
219
0.50
72
0.32
106
0.64
96
0.43
112
1.00
68
1.40
304
0.82
69
0.73
36
0.51
32
0.45
30
0.85
66
0.55
155
0.24
205
0.15
125
0.20
73
0.21
172
0.31
256
0.24
194
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
HGLStereotwo views0.85
225
0.38
240
0.94
219
0.80
325
1.03
363
1.17
263
0.58
221
1.52
204
1.20
217
1.19
184
1.62
289
1.13
211
1.20
293
1.80
228
1.06
263
0.24
205
0.24
272
0.24
170
0.21
172
0.23
177
0.27
230
MyStereo06two views0.61
107
0.28
83
0.95
222
0.56
165
0.46
220
0.61
87
0.73
260
1.78
266
0.67
41
1.03
111
1.12
139
1.13
211
0.56
78
0.78
51
0.41
65
0.17
32
0.16
156
0.23
150
0.20
136
0.22
152
0.20
134
hknettwo views0.77
192
0.32
171
0.95
222
0.54
134
0.38
170
1.27
278
0.65
240
2.16
343
1.07
158
1.20
188
1.11
133
1.59
298
0.81
167
1.37
149
0.66
185
0.22
167
0.17
180
0.25
206
0.22
197
0.22
152
0.22
165
delettwo views0.85
225
0.32
171
0.95
222
0.65
258
0.66
301
1.64
319
0.84
285
1.75
253
1.35
284
1.32
245
1.30
198
1.30
250
0.88
200
1.68
211
1.10
271
0.21
144
0.21
241
0.24
170
0.24
228
0.21
131
0.21
150
acv_fttwo views0.75
185
0.31
157
0.95
222
0.70
291
0.86
350
1.24
274
0.53
185
1.44
185
1.07
158
1.24
207
1.30
198
1.08
193
0.92
212
0.80
55
1.34
300
0.21
144
0.19
208
0.21
96
0.18
88
0.21
131
0.18
78
CIPLGtwo views0.62
110
0.33
187
0.96
226
0.58
182
0.50
234
0.75
156
0.48
156
1.05
87
0.96
110
1.40
274
1.57
278
0.64
60
0.48
47
0.89
74
0.70
191
0.23
190
0.15
125
0.19
49
0.16
58
0.19
71
0.21
150
STrans-v2two views1.04
277
0.28
83
0.96
226
0.49
65
0.32
106
0.68
128
0.79
273
2.47
374
1.12
178
1.12
137
1.46
252
1.40
264
1.46
324
6.70
376
0.43
82
0.18
60
0.13
42
0.20
73
0.18
88
0.18
41
0.18
78
ddtwo views0.59
98
0.48
281
0.97
228
0.55
153
0.32
106
0.64
96
0.47
148
1.02
74
1.34
276
0.78
57
0.86
57
0.58
47
0.54
68
1.01
95
0.86
241
0.28
262
0.18
195
0.26
225
0.19
108
0.32
261
0.24
194
IPLGtwo views0.69
153
0.27
67
0.97
228
0.51
95
0.43
197
0.79
175
0.33
33
1.21
136
1.06
153
1.30
233
1.10
128
0.52
37
0.55
74
3.16
307
0.63
180
0.16
11
0.14
75
0.19
49
0.16
58
0.18
41
0.17
60
TRStereotwo views0.60
101
0.60
321
0.97
228
0.74
310
0.67
303
0.46
18
0.38
69
1.85
280
0.89
88
0.79
60
0.80
52
0.88
130
0.39
14
1.10
112
0.41
65
0.23
190
0.15
125
0.23
150
0.24
228
0.17
24
0.15
27
IGEV_Zeroshot_testtwo views0.53
48
0.30
126
0.99
231
0.56
165
0.35
140
0.41
12
0.32
30
1.37
168
0.63
25
1.00
101
1.09
124
0.95
154
0.41
19
0.83
62
0.39
54
0.18
60
0.12
9
0.19
49
0.18
88
0.19
71
0.17
60
UDGtwo views1.41
327
2.65
407
0.99
231
1.44
383
1.64
386
1.34
287
0.80
279
1.60
223
1.23
227
1.23
199
1.71
302
2.01
341
1.34
315
1.47
174
1.41
313
0.90
374
0.54
376
2.29
391
0.75
375
1.84
385
1.04
378
IPLGR_Ctwo views0.62
110
0.33
187
0.99
231
0.58
182
0.49
228
0.76
160
0.48
156
1.10
109
0.96
110
1.40
274
1.56
274
0.62
55
0.48
47
0.80
55
0.71
196
0.23
190
0.15
125
0.19
49
0.16
58
0.19
71
0.21
150
GEStereo_RVCtwo views0.90
240
0.37
235
0.99
231
0.64
246
0.50
234
0.95
220
0.79
273
2.42
371
1.17
205
1.16
167
1.11
133
1.26
239
0.92
212
3.24
308
0.90
245
0.29
270
0.19
208
0.23
150
0.20
136
0.27
221
0.29
244
iResNet_ROBtwo views0.77
192
0.30
126
0.99
231
0.57
176
0.36
145
0.83
189
0.36
56
2.33
364
1.58
329
1.27
218
1.30
198
1.25
235
0.84
182
1.65
201
0.79
222
0.20
117
0.14
75
0.17
14
0.12
9
0.18
41
0.27
230
MyStereo8two views0.65
131
0.29
110
1.00
236
0.58
182
0.49
228
0.91
205
0.35
46
1.18
129
1.31
265
1.16
167
1.27
190
0.90
135
0.64
119
0.72
40
0.95
250
0.18
60
0.14
75
0.20
73
0.18
88
0.22
152
0.26
224
CRFU-Nettwo views0.86
230
0.39
245
1.00
236
0.65
258
0.57
267
1.78
334
0.86
291
2.15
340
0.81
69
1.38
268
1.18
161
1.64
307
1.19
290
1.35
145
0.90
245
0.26
243
0.22
255
0.21
96
0.19
108
0.23
177
0.24
194
iRaft-Stereo_20wtwo views0.65
131
0.31
157
1.00
236
0.47
41
0.34
137
0.73
147
0.30
22
2.96
382
0.70
47
1.15
156
1.14
147
0.76
86
0.65
124
1.11
115
0.38
48
0.17
32
0.13
42
0.18
36
0.16
58
0.19
71
0.18
78
MaskLacGwcNet_RVCtwo views1.10
288
1.02
364
1.00
236
0.82
333
0.67
303
1.93
344
0.93
308
1.62
229
1.11
174
1.15
156
1.25
181
1.50
285
0.79
159
1.96
246
0.76
208
1.89
387
0.34
325
0.79
372
0.36
325
1.25
382
0.83
369
GMStereo_Zeroshotpermissivetwo views0.67
148
0.61
322
1.01
240
0.64
246
0.37
153
0.84
196
0.35
46
1.05
87
1.12
178
1.12
137
1.06
113
1.27
243
0.54
68
1.19
123
0.59
164
0.32
286
0.17
180
0.31
267
0.18
88
0.52
335
0.22
165
test crocotwo views0.46
24
0.27
67
1.01
240
0.50
72
0.40
183
0.35
5
0.37
65
0.87
25
0.56
17
0.43
7
0.76
42
0.42
5
0.40
17
1.13
118
0.45
92
0.21
144
0.15
125
0.24
170
0.19
108
0.24
191
0.16
41
ACREtwo views0.61
107
0.33
187
1.01
240
0.58
182
0.49
228
0.75
156
0.47
148
1.06
100
0.95
108
1.37
263
1.55
270
0.62
55
0.46
33
0.83
62
0.70
191
0.23
190
0.15
125
0.19
49
0.16
58
0.18
41
0.21
150
ccnettwo views1.12
293
0.67
331
1.01
240
0.78
321
0.73
319
1.72
325
0.99
318
1.84
279
1.26
239
1.47
288
1.85
320
1.75
322
1.29
307
1.75
219
1.88
341
0.57
361
0.53
373
0.57
365
0.55
364
0.59
347
0.54
337
GwcNet-RSSMtwo views0.77
192
0.32
171
1.01
240
0.62
229
0.54
258
0.78
171
0.51
170
1.73
247
1.20
217
1.09
123
1.37
224
1.46
277
0.85
185
1.53
183
1.09
268
0.25
229
0.18
195
0.23
150
0.24
228
0.20
97
0.19
111
CFNettwo views0.96
253
0.36
229
1.01
240
0.62
229
0.42
192
0.99
232
0.47
148
1.90
291
1.32
270
0.99
99
1.39
232
1.10
201
0.86
193
5.58
355
0.79
222
0.23
190
0.17
180
0.28
246
0.27
260
0.26
209
0.21
150
ssnet_v2two views0.88
235
0.36
229
1.02
246
0.62
229
0.38
170
1.32
284
0.97
314
2.07
329
1.34
276
1.37
263
1.18
161
1.54
290
0.92
212
1.10
112
1.65
331
0.30
274
0.27
291
0.30
263
0.28
277
0.27
221
0.26
224
IERtwo views0.70
155
0.31
157
1.02
246
0.48
52
0.52
252
1.34
287
0.51
170
1.17
124
0.99
129
1.23
199
1.34
215
1.12
206
1.11
276
0.99
91
0.71
196
0.20
117
0.16
156
0.21
96
0.21
172
0.20
97
0.19
111
sCroCo_RVCtwo views0.49
35
0.40
249
1.02
246
0.65
258
0.60
285
0.52
51
0.40
83
0.83
22
0.61
22
0.44
8
0.74
38
0.49
29
0.50
56
0.63
25
0.48
115
0.26
243
0.27
291
0.23
150
0.22
197
0.29
240
0.25
206
SFCPSMtwo views0.70
155
0.28
83
1.02
246
0.51
95
0.38
170
1.37
290
0.66
245
2.00
314
1.03
142
1.17
176
1.21
169
0.82
103
0.78
157
1.03
98
0.53
145
0.21
144
0.17
180
0.22
122
0.24
228
0.21
131
0.19
111
DAStwo views0.84
221
0.34
206
1.03
250
0.64
246
0.69
311
0.77
166
0.63
236
1.54
212
1.20
217
1.79
335
1.55
270
0.95
154
1.04
260
2.83
294
0.60
171
0.21
144
0.16
156
0.25
206
0.18
88
0.27
221
0.22
165
SepStereotwo views0.82
212
0.34
206
1.03
250
0.64
246
0.69
311
0.77
166
0.63
236
1.54
212
1.20
217
1.79
335
1.55
270
0.95
154
1.04
260
2.30
272
0.60
171
0.21
144
0.16
156
0.25
206
0.18
88
0.27
221
0.22
165
MANEtwo views6.19
403
0.59
314
1.03
250
0.93
361
1.22
379
13.38
415
2.69
400
12.81
416
17.94
419
8.21
412
10.82
411
14.72
415
11.68
411
11.39
413
11.90
404
0.59
362
0.50
370
0.52
349
1.76
404
0.55
340
0.54
337
test-1two views0.52
39
0.26
46
1.04
253
0.56
165
0.32
106
0.61
87
0.38
69
1.10
109
0.91
97
0.78
57
1.01
92
0.77
87
0.52
60
0.60
23
0.42
73
0.17
32
0.14
75
0.20
73
0.17
74
0.20
97
0.23
182
whm_ethtwo views0.65
131
0.47
276
1.05
254
0.55
153
0.64
296
0.69
132
0.45
135
1.34
163
1.26
239
1.02
107
1.92
328
0.49
29
0.48
47
0.70
33
0.52
137
0.23
190
0.20
225
0.25
206
0.24
228
0.24
191
0.31
266
NLCA_NET_v2_RVCtwo views0.79
201
0.43
261
1.05
254
0.64
246
0.58
275
0.95
220
0.53
185
1.53
210
1.18
209
1.37
263
1.15
153
1.43
269
0.88
200
1.61
197
0.84
236
0.25
229
0.22
255
0.27
236
0.27
260
0.29
240
0.29
244
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
DN-CSS_ROBtwo views0.64
126
0.32
171
1.05
254
0.55
153
0.40
183
0.54
59
0.45
135
1.21
136
0.93
103
1.03
111
1.47
253
0.69
74
0.63
116
1.76
224
0.49
122
0.18
60
0.14
75
0.25
206
0.22
197
0.22
152
0.20
134
ADStereo(finetuned)two views0.57
90
0.24
19
1.06
257
0.43
8
0.24
9
0.49
30
0.35
46
1.05
87
1.30
261
1.12
137
1.03
107
0.58
47
1.20
293
0.84
64
0.51
131
0.16
11
0.13
42
0.17
14
0.13
11
0.18
41
0.19
111
dadtwo views0.86
230
0.66
330
1.06
257
0.56
165
0.37
153
0.76
160
0.44
124
1.17
124
1.50
320
1.44
283
1.27
190
1.34
259
0.75
140
2.52
284
0.84
236
0.42
329
0.27
291
0.83
373
0.26
252
0.41
299
0.29
244
DSFCAtwo views0.93
248
0.34
206
1.06
257
0.52
111
0.65
299
1.55
310
0.93
308
1.49
192
1.19
212
1.56
309
1.15
153
1.50
285
0.96
233
3.07
302
1.02
260
0.30
274
0.26
283
0.25
206
0.25
239
0.28
235
0.24
194
NCCL2two views1.00
268
0.56
304
1.06
257
0.75
314
0.57
267
1.31
283
1.72
368
1.77
262
1.36
287
1.50
297
1.17
159
1.91
329
1.17
284
1.54
185
1.29
294
0.35
306
0.31
315
0.45
338
0.44
343
0.40
296
0.40
299
MyStereo05two views0.66
139
0.28
83
1.07
261
0.56
165
0.46
220
0.61
87
0.73
260
1.34
163
1.41
307
1.15
156
0.91
66
0.77
87
0.80
164
1.41
164
0.63
180
0.17
32
0.16
156
0.23
150
0.20
136
0.22
152
0.20
134
MyStereo04two views0.67
148
0.29
110
1.07
261
0.55
153
0.45
210
0.59
78
0.79
273
1.50
196
1.40
304
0.91
80
0.91
66
0.74
81
0.86
193
1.52
179
0.62
176
0.17
32
0.16
156
0.24
170
0.20
136
0.23
177
0.20
134
DCANet-4two views0.54
62
0.26
46
1.07
261
0.42
7
0.24
9
0.48
20
0.36
56
0.99
64
1.30
261
1.10
131
1.02
99
0.56
41
0.75
140
0.73
43
0.52
137
0.16
11
0.13
42
0.17
14
0.13
11
0.15
5
0.19
111
SQANettwo views1.31
315
0.88
357
1.08
264
1.83
386
1.44
383
1.44
301
0.75
262
1.74
251
1.09
168
1.32
245
1.26
187
1.28
246
1.01
252
1.50
178
0.83
233
2.50
392
0.34
325
1.47
384
0.55
364
2.32
388
1.57
387
RAFT + AFFtwo views1.00
268
0.42
258
1.09
265
0.67
273
0.50
234
1.22
272
1.24
344
2.24
357
1.19
212
1.30
233
1.56
274
1.17
216
1.49
329
3.44
316
0.83
233
0.21
144
0.25
279
0.30
263
0.26
252
0.27
221
0.27
230
MMNettwo views0.84
221
0.32
171
1.09
265
0.60
206
0.59
282
1.85
340
0.49
163
1.51
201
1.27
246
1.37
263
1.15
153
1.26
239
1.18
287
1.67
206
1.22
284
0.19
92
0.18
195
0.23
150
0.22
197
0.25
201
0.21
150
XPNet_ROBtwo views0.96
253
0.49
284
1.09
265
0.72
301
0.57
267
1.11
249
1.14
335
1.66
237
1.23
227
1.85
341
1.39
232
1.64
307
1.11
276
1.80
228
1.42
317
0.38
317
0.30
309
0.33
287
0.29
288
0.37
280
0.34
278
PFNettwo views0.91
243
0.26
46
1.10
268
0.63
237
0.32
106
0.64
96
0.56
208
1.17
124
0.99
129
1.47
288
1.08
119
0.98
163
0.69
130
6.62
371
0.54
151
0.20
117
0.12
9
0.24
170
0.19
108
0.20
97
0.17
60
MLCVtwo views0.72
161
0.34
206
1.10
268
0.51
95
0.23
6
0.91
205
0.39
80
1.33
159
1.23
227
1.46
287
1.55
270
1.01
176
0.64
119
1.95
245
0.80
225
0.18
60
0.12
9
0.18
36
0.14
22
0.19
71
0.17
60
Anonymous3two views0.61
107
0.44
264
1.11
270
0.59
195
0.49
228
0.93
214
0.65
240
0.93
45
0.81
69
0.72
51
0.88
62
0.65
63
0.69
130
1.06
105
0.53
145
0.35
306
0.30
309
0.26
225
0.26
252
0.31
256
0.27
230
DISCOtwo views1.03
274
0.34
206
1.11
270
0.69
286
0.45
210
2.07
353
0.84
285
2.13
334
1.50
320
1.15
156
1.33
210
2.40
360
1.07
270
2.60
287
1.51
326
0.23
190
0.18
195
0.22
122
0.20
136
0.31
256
0.27
230
DDUNettwo views1.50
332
2.69
408
1.12
272
1.77
385
1.88
388
1.84
339
0.92
304
1.70
244
1.16
203
1.38
268
1.79
312
1.60
300
1.12
279
1.37
149
1.08
266
1.10
384
0.76
385
2.37
393
0.94
385
2.00
386
1.37
385
RPtwo views1.09
285
0.50
288
1.12
272
0.90
355
1.04
364
1.11
249
0.84
285
1.80
270
1.62
331
1.55
308
2.00
333
1.90
328
1.78
351
1.84
231
1.25
287
0.52
353
0.36
338
0.48
344
0.36
325
0.45
319
0.43
311
DRN-Testtwo views1.00
268
0.44
264
1.13
274
0.70
291
0.81
343
1.62
316
0.79
273
2.14
338
1.44
313
1.78
332
1.33
210
1.43
269
1.05
264
2.18
264
1.53
327
0.27
252
0.21
241
0.31
267
0.30
296
0.32
261
0.28
241
IPLGRtwo views0.58
95
0.27
67
1.14
275
0.48
52
0.28
52
0.65
108
0.33
33
1.22
143
1.13
188
1.18
180
1.05
111
0.69
74
0.66
126
0.96
83
0.52
137
0.17
32
0.15
125
0.20
73
0.17
74
0.20
97
0.18
78
NaN_ROBtwo views1.13
296
0.55
301
1.15
276
0.64
246
0.48
225
1.61
315
2.03
386
1.72
246
1.48
317
2.09
354
1.27
190
1.40
264
1.08
271
3.94
322
1.30
295
0.28
262
0.34
325
0.28
246
0.28
277
0.30
249
0.33
276
ETE_ROBtwo views0.96
253
0.64
328
1.16
277
0.69
286
0.48
225
1.14
254
1.13
334
1.77
262
1.19
212
1.91
346
1.45
246
1.73
317
1.05
264
1.60
196
1.14
276
0.32
286
0.26
283
0.38
317
0.34
317
0.39
292
0.41
303
LALA_ROBtwo views1.01
271
0.59
314
1.16
277
0.67
273
0.51
244
1.63
317
1.26
348
1.69
241
1.38
295
1.81
338
1.37
224
1.94
334
1.02
257
1.58
193
1.38
305
0.37
313
0.27
291
0.43
334
0.37
328
0.43
309
0.37
289
ADLNet2two views0.88
235
0.34
206
1.17
279
0.77
319
0.64
296
1.12
252
0.76
265
1.74
251
1.24
231
1.21
191
1.65
295
1.71
315
1.05
264
1.67
206
1.17
280
0.24
205
0.21
241
0.21
96
0.22
197
0.26
209
0.29
244
BEATNet_4xtwo views0.73
175
0.49
284
1.17
279
0.53
119
0.26
20
1.03
237
0.55
202
1.82
274
1.06
153
1.21
191
1.22
171
0.96
160
0.91
209
1.01
95
1.06
263
0.21
144
0.14
75
0.24
170
0.19
108
0.37
280
0.21
150
PSMNet_ROBtwo views0.90
240
0.52
294
1.17
279
0.72
301
0.61
288
1.27
278
1.12
333
1.76
259
1.12
178
1.09
123
1.28
194
1.45
275
0.89
206
1.65
201
1.42
317
0.33
291
0.25
279
0.37
314
0.39
331
0.35
270
0.29
244
otakutwo views1.60
340
1.11
371
1.21
282
2.20
389
1.56
385
1.97
347
1.24
344
2.07
329
1.36
287
1.44
283
1.62
289
1.73
317
1.19
290
1.73
218
0.98
257
2.89
396
0.57
378
1.74
385
0.60
371
2.78
393
1.94
392
anonymitytwo views1.12
293
0.97
360
1.21
282
1.07
372
1.12
370
1.08
246
0.89
296
1.95
306
1.16
203
1.29
225
1.26
187
1.22
224
1.09
274
1.15
120
1.01
259
1.02
379
1.00
400
0.97
377
0.97
387
0.98
372
0.99
375
STTStereotwo views0.78
198
0.50
288
1.22
284
0.64
246
0.54
258
0.89
201
0.54
189
1.44
185
1.11
174
1.38
268
1.09
124
1.27
243
0.85
185
1.43
165
0.83
233
0.29
270
0.27
291
0.33
287
0.39
331
0.32
261
0.30
256
Ntrotwo views1.64
344
1.15
374
1.23
285
2.48
394
1.83
387
2.09
354
1.16
338
1.96
307
1.38
295
1.21
191
1.62
289
1.62
302
1.29
307
1.87
237
1.11
273
3.04
397
0.56
377
1.82
387
0.64
372
2.80
394
2.05
393
ToySttwo views0.66
139
0.33
187
1.23
285
0.51
95
0.33
122
0.86
198
0.68
250
1.10
109
0.97
117
0.84
72
1.08
119
1.25
235
0.94
223
1.01
95
0.74
203
0.19
92
0.19
208
0.24
170
0.24
228
0.27
221
0.23
182
SPS-STEREOcopylefttwo views1.67
346
1.04
365
1.23
285
1.21
376
1.13
373
1.82
337
1.11
331
2.16
343
1.52
323
3.07
386
2.32
350
2.82
372
1.80
353
4.11
325
2.04
348
1.03
380
0.99
399
0.97
377
0.94
385
1.03
376
1.02
376
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
NCC-stereotwo views1.10
288
0.54
298
1.24
288
0.84
337
0.94
358
1.29
281
0.89
296
2.01
318
1.34
276
1.32
245
1.74
305
1.88
324
1.74
348
2.35
275
1.25
287
0.45
340
0.37
340
0.45
338
0.58
367
0.42
304
0.42
307
Abc-Nettwo views1.10
288
0.54
298
1.24
288
0.84
337
0.94
358
1.29
281
0.89
296
2.01
318
1.34
276
1.32
245
1.74
305
1.88
324
1.74
348
2.35
275
1.25
287
0.45
340
0.37
340
0.45
338
0.58
367
0.42
304
0.42
307
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
RYNettwo views1.17
304
0.49
284
1.24
288
0.70
291
0.97
362
1.71
323
0.92
304
1.91
295
1.46
315
1.38
268
1.14
147
1.88
324
1.30
311
4.24
326
1.87
339
0.26
243
0.21
241
0.35
304
0.27
260
0.55
340
0.54
337
RGCtwo views1.14
298
0.79
349
1.26
291
0.91
358
0.96
361
1.52
307
0.77
268
1.92
298
1.26
239
1.54
305
1.93
329
2.02
343
1.54
331
2.25
270
1.31
296
0.44
339
0.35
333
0.58
366
0.48
352
0.47
322
0.46
319
SGM-ForestMtwo views6.52
405
0.38
240
1.26
291
0.63
237
0.35
140
13.59
416
5.32
410
6.32
409
6.70
404
11.14
413
9.18
408
22.51
425
13.93
413
16.89
417
20.07
415
0.36
309
0.37
340
0.36
312
0.35
321
0.36
276
0.34
278
CSANtwo views1.41
327
0.59
314
1.26
291
0.70
291
0.50
234
1.76
329
1.78
371
1.77
262
1.90
353
2.35
362
2.32
350
1.92
332
1.94
362
5.56
354
1.49
325
0.43
334
0.35
333
0.40
328
0.41
337
0.43
309
0.41
303
DMCA-RVCcopylefttwo views0.74
178
0.40
249
1.27
294
0.66
263
0.49
228
0.77
166
0.47
148
1.35
165
1.01
136
1.53
301
1.01
92
1.29
249
0.82
171
1.31
137
0.78
216
0.27
252
0.21
241
0.35
304
0.27
260
0.32
261
0.24
194
CC-Net-ROBtwo views1.49
330
1.26
378
1.27
294
0.88
350
0.79
336
1.76
329
1.00
320
1.79
268
1.26
239
1.10
131
1.61
286
1.21
222
0.99
248
8.13
395
0.84
236
1.09
383
0.41
351
2.20
389
0.46
348
1.20
381
0.48
325
PA-Nettwo views1.01
271
0.57
308
1.29
296
0.64
246
0.74
321
1.19
268
0.84
285
1.69
241
1.43
312
1.16
167
1.19
164
1.32
254
1.19
290
3.42
314
1.25
287
0.29
270
0.45
361
0.33
287
0.49
355
0.32
261
0.47
322
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
edge stereotwo views1.11
291
0.50
288
1.30
297
0.71
298
0.65
299
1.14
254
0.75
262
1.93
302
1.37
291
1.71
326
1.83
316
2.54
364
1.44
321
2.43
281
1.23
285
0.42
329
0.41
351
0.54
355
0.35
321
0.42
304
0.46
319
UNettwo views0.83
217
0.34
206
1.31
298
0.58
182
0.74
321
1.58
313
0.49
163
1.41
176
1.04
146
1.21
191
1.08
119
1.54
290
1.12
279
1.65
201
1.09
268
0.23
190
0.17
180
0.25
206
0.20
136
0.25
201
0.22
165
GANetREF_RVCpermissivetwo views1.07
280
0.86
354
1.31
298
0.82
333
0.53
255
1.41
299
1.31
350
1.76
259
1.52
323
1.27
218
1.31
203
1.46
277
1.24
301
2.03
251
0.96
254
0.56
360
0.45
361
0.67
368
0.50
358
0.88
370
0.59
348
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
WCMA_ROBtwo views1.84
356
0.47
276
1.31
298
0.69
286
0.57
267
2.11
355
1.14
335
1.87
284
1.73
340
4.04
392
6.43
395
5.62
396
3.61
392
2.59
286
1.94
344
0.52
353
0.44
357
0.39
323
0.42
339
0.48
325
0.47
322
FAT-Stereotwo views1.07
280
0.41
255
1.32
301
0.72
301
0.58
275
1.08
246
0.89
296
1.96
307
1.65
333
1.75
329
1.98
332
2.03
344
1.48
327
2.02
250
1.18
283
0.42
329
0.35
333
0.34
297
0.29
288
0.35
270
0.53
336
DANettwo views1.08
283
0.61
322
1.32
301
0.85
342
0.72
316
1.37
290
0.51
170
1.54
212
1.15
199
1.78
332
1.54
268
2.01
341
1.11
276
2.90
297
2.00
347
0.33
291
0.30
309
0.40
328
0.30
296
0.44
316
0.45
315
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
AF-Nettwo views1.13
296
0.52
294
1.33
303
0.86
344
0.91
354
1.38
293
0.71
258
2.16
343
1.62
331
1.56
309
2.40
355
1.99
339
1.65
341
1.81
230
1.48
324
0.48
348
0.28
297
0.49
346
0.33
312
0.39
292
0.32
272
Nwc_Nettwo views1.09
285
0.49
284
1.33
303
0.89
354
0.80
341
1.49
305
0.66
245
2.19
351
1.27
246
1.32
245
2.26
348
1.96
336
1.54
331
1.92
240
1.34
300
0.40
322
0.30
309
0.43
334
0.45
345
0.38
288
0.37
289
PWCDC_ROBbinarytwo views1.29
312
0.75
345
1.33
303
1.05
369
0.88
353
1.73
326
0.52
179
1.89
288
3.28
385
1.29
225
4.88
390
1.22
224
1.46
324
1.77
226
1.45
321
0.60
363
0.26
283
0.29
254
0.25
239
0.52
335
0.37
289
iResNettwo views0.75
185
0.40
249
1.36
306
0.67
273
0.29
63
0.92
211
0.59
228
1.52
204
1.25
234
1.28
220
1.48
258
0.94
148
0.76
148
1.62
198
0.78
216
0.18
60
0.14
75
0.18
36
0.15
30
0.22
152
0.23
182
LL-Strereotwo views1.33
318
0.39
245
1.38
307
0.61
218
0.61
288
0.75
156
0.66
245
1.63
231
1.17
205
1.56
309
1.60
282
2.03
344
2.12
370
9.72
407
0.97
255
0.21
144
0.18
195
0.27
236
0.23
217
0.22
152
0.25
206
fast-acv-fttwo views0.94
249
0.44
264
1.40
308
0.58
182
0.51
244
1.77
332
0.69
254
1.36
167
1.42
310
1.29
225
1.86
321
1.74
319
1.25
302
1.52
179
1.38
305
0.26
243
0.28
297
0.28
246
0.28
277
0.27
221
0.26
224
stereogantwo views1.15
301
0.42
258
1.40
308
0.86
344
0.84
347
2.38
366
0.71
258
1.88
286
1.73
340
1.72
327
1.94
331
2.31
355
1.29
307
2.07
255
1.08
266
0.36
309
0.35
333
0.39
323
0.31
300
0.51
333
0.46
319
APVNettwo views1.06
278
0.53
297
1.42
310
0.84
337
0.79
336
1.92
343
0.82
283
1.90
291
1.08
162
1.08
118
1.43
241
1.56
293
1.13
281
3.07
302
1.58
328
0.31
281
0.34
325
0.42
332
0.36
325
0.36
276
0.37
289
gwcnet-sptwo views0.74
178
0.33
187
1.44
311
0.57
176
0.45
210
1.40
295
0.54
189
1.50
196
1.14
190
1.30
233
1.02
99
0.94
148
0.82
171
1.39
158
0.76
208
0.21
144
0.21
241
0.22
122
0.21
172
0.22
152
0.22
165
scenettwo views0.74
178
0.33
187
1.44
311
0.57
176
0.45
210
1.40
295
0.54
189
1.50
196
1.14
190
1.30
233
1.02
99
0.94
148
0.82
171
1.39
158
0.76
208
0.21
144
0.21
241
0.22
122
0.21
172
0.22
152
0.22
165
ssnettwo views0.74
178
0.33
187
1.44
311
0.57
176
0.45
210
1.40
295
0.54
189
1.50
196
1.14
190
1.30
233
1.02
99
0.94
148
0.82
171
1.39
158
0.76
208
0.21
144
0.21
241
0.22
122
0.21
172
0.22
152
0.22
165
PDISCO_ROBtwo views1.32
317
0.65
329
1.44
311
1.36
378
1.46
384
2.55
370
0.92
304
2.45
373
2.07
362
1.37
263
1.49
259
1.65
309
1.00
250
2.82
293
1.35
303
1.01
377
0.27
291
0.54
355
0.47
350
0.71
363
0.73
365
NVStereoNet_ROBtwo views1.88
358
1.07
366
1.45
315
1.07
372
1.17
374
1.47
302
1.48
359
1.89
288
1.93
356
1.94
347
4.67
388
3.08
376
1.80
353
6.51
370
1.65
331
1.06
382
0.86
394
1.08
382
1.32
394
0.93
371
1.26
384
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
FBW_ROBtwo views1.71
352
0.62
325
1.45
315
0.67
273
0.61
288
1.81
335
1.08
329
2.52
375
1.70
337
1.77
331
1.73
304
1.98
338
1.25
302
12.57
414
1.84
338
0.34
299
0.37
340
0.56
363
0.38
330
0.45
319
0.43
311
WAO-6two views2.81
389
1.60
387
1.46
317
2.36
393
2.28
396
3.55
387
2.29
395
4.21
395
4.56
398
2.36
364
4.51
383
4.88
391
2.66
382
4.60
333
4.07
377
1.72
386
1.15
406
2.31
392
1.46
400
2.31
387
1.85
390
IMH-64-1two views2.70
386
1.79
391
1.46
317
3.26
405
2.66
401
3.23
385
2.10
387
4.08
392
2.75
380
2.34
360
3.81
378
3.06
374
2.22
373
4.25
327
2.59
358
3.75
407
0.84
389
2.75
403
1.35
395
3.15
402
2.60
403
IMH-64two views2.70
386
1.79
391
1.46
317
3.26
405
2.66
401
3.23
385
2.10
387
4.08
392
2.75
380
2.34
360
3.81
378
3.06
374
2.22
373
4.25
327
2.59
358
3.75
407
0.84
389
2.75
403
1.35
395
3.15
402
2.60
403
sAnonymous2two views0.55
77
0.56
304
1.46
317
0.60
206
0.51
244
0.48
20
0.52
179
0.79
13
0.68
44
0.50
26
0.67
25
0.46
16
0.62
111
0.59
14
0.40
58
0.22
167
0.17
180
0.22
122
0.21
172
0.86
368
0.56
341
CroCo_RVCtwo views0.55
77
0.56
304
1.46
317
0.60
206
0.51
244
0.48
20
0.52
179
0.79
13
0.68
44
0.50
26
0.67
25
0.46
16
0.62
111
0.59
14
0.40
58
0.22
167
0.17
180
0.22
122
0.21
172
0.86
368
0.56
341
IMHtwo views3.21
392
1.85
395
1.48
322
3.25
404
2.69
403
4.07
396
2.02
385
4.41
397
3.80
391
2.72
373
7.11
399
4.75
390
2.92
385
5.92
361
2.55
356
3.85
410
0.88
395
2.78
405
1.36
397
3.19
404
2.59
402
NVstereo2Dtwo views0.92
245
0.41
255
1.48
322
0.72
301
0.72
316
1.20
270
0.87
293
1.75
253
1.38
295
0.99
99
1.13
144
1.26
239
0.98
240
2.21
267
0.89
243
0.43
334
0.20
225
0.38
317
0.24
228
0.57
343
0.63
354
ARAFTtwo views0.77
192
0.36
229
1.49
324
0.51
95
0.31
91
0.90
203
0.82
283
1.90
291
1.06
153
1.62
319
1.24
177
1.02
178
0.64
119
1.84
231
0.50
128
0.18
60
0.14
75
0.28
246
0.27
260
0.17
24
0.16
41
AANet_RVCtwo views1.16
303
0.52
294
1.49
324
0.65
258
0.45
210
0.75
156
0.69
254
1.42
178
1.55
328
1.34
256
1.87
323
1.53
289
0.78
157
7.43
387
1.38
305
0.25
229
0.17
180
0.19
49
0.16
58
0.22
152
0.26
224
ELAScopylefttwo views2.37
375
0.74
343
1.54
326
0.99
365
0.92
356
4.78
400
2.33
396
3.33
387
3.37
387
5.05
404
4.77
389
3.67
380
4.53
400
3.42
314
4.50
378
0.62
365
0.53
373
0.55
360
0.53
362
0.63
352
0.64
358
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
G-Nettwo views1.66
345
0.63
326
1.56
327
1.11
374
0.74
321
2.98
381
0.91
302
1.55
216
1.22
224
2.76
376
8.18
406
2.32
356
2.53
381
1.92
240
1.87
339
0.48
348
0.44
357
0.45
338
0.31
300
0.60
351
0.57
345
RainbowNettwo views1.97
364
1.76
389
1.57
328
2.81
397
2.21
393
1.98
349
1.81
373
2.54
376
1.89
351
1.50
297
1.84
318
1.96
336
1.65
341
2.14
260
1.25
287
3.33
403
0.85
392
2.39
396
0.98
389
2.82
396
2.22
394
MDST_ROBtwo views1.67
346
0.34
206
1.58
329
0.92
360
0.58
275
4.26
398
1.11
331
2.83
379
1.41
307
4.49
398
2.55
360
1.45
275
0.97
236
7.79
392
1.17
280
0.31
281
0.25
279
0.37
314
0.33
312
0.31
256
0.30
256
FINETtwo views0.97
259
0.54
298
1.60
330
0.63
237
0.79
336
1.08
246
1.07
328
1.56
217
2.20
365
1.15
156
1.49
259
0.94
148
0.88
200
2.32
273
1.05
261
0.42
329
0.35
333
0.32
280
0.28
277
0.43
309
0.38
295
LVEtwo views3.31
393
1.67
388
1.64
331
2.85
398
2.42
399
3.20
384
2.26
394
4.78
400
5.05
399
2.35
362
6.91
396
6.02
397
2.37
376
9.15
399
2.17
353
3.19
400
1.08
405
2.38
395
1.47
401
2.81
395
2.40
399
ACVNet-4btwo views2.15
368
1.41
382
1.64
331
2.80
396
2.31
397
2.31
363
1.24
344
2.32
363
2.14
363
1.26
215
2.39
354
2.66
368
1.48
327
5.95
363
1.06
263
3.20
401
0.45
361
2.37
393
0.89
382
2.83
397
2.37
397
Syn2CoExtwo views1.14
298
0.69
335
1.66
333
0.80
325
0.67
303
1.40
295
0.88
294
2.06
328
1.54
326
1.25
211
1.58
280
1.42
268
1.50
330
4.09
324
1.40
309
0.36
309
0.32
322
0.34
297
0.29
288
0.29
240
0.34
278
MFMNet_retwo views1.40
326
1.14
373
1.68
334
1.39
380
1.07
365
1.48
303
1.43
355
1.87
284
1.82
348
2.26
358
2.19
345
1.51
287
1.86
357
1.52
179
1.25
287
0.93
375
0.83
388
0.84
374
0.80
378
0.99
374
1.05
380
StereoDRNettwo views0.98
263
0.47
276
1.70
335
0.76
316
0.94
358
1.51
306
0.91
302
1.92
298
1.32
270
1.61
316
1.13
144
1.47
282
0.97
236
1.75
219
1.46
322
0.28
262
0.23
263
0.29
254
0.27
260
0.35
270
0.27
230
iResNetv2_ROBtwo views0.80
204
0.37
235
1.71
336
0.56
165
0.37
153
0.94
216
0.64
238
1.73
247
1.34
276
1.23
199
1.42
237
1.26
239
0.92
212
1.85
234
0.56
157
0.23
190
0.15
125
0.19
49
0.14
22
0.24
191
0.19
111
ACVNet_1two views2.18
369
1.45
384
1.72
337
2.85
398
2.33
398
2.28
361
1.46
357
3.08
384
2.22
366
1.82
339
2.05
339
3.56
379
1.98
364
3.09
305
1.40
309
3.17
398
0.60
380
2.40
397
0.92
384
2.91
400
2.37
397
GASNettwo views0.99
264
0.97
360
1.72
337
0.98
364
0.68
309
0.83
189
0.67
248
1.60
223
1.28
251
1.31
243
1.22
171
1.22
224
1.21
296
2.41
280
1.41
313
0.43
334
0.26
283
0.36
312
0.34
317
0.55
340
0.31
266
WAO-7two views2.66
382
1.40
381
1.73
339
1.39
380
1.17
374
3.93
393
1.94
382
4.11
394
3.88
392
2.92
380
5.50
392
4.18
385
3.00
388
7.63
390
3.71
373
1.13
385
1.00
400
1.17
383
1.13
393
1.18
380
1.09
382
TorneroNet-64two views5.30
402
2.03
397
1.74
340
3.43
407
2.81
404
10.09
410
2.12
389
9.10
413
17.12
418
4.96
403
9.27
409
10.72
413
3.70
394
9.20
400
4.55
379
3.31
402
0.84
389
2.88
406
1.55
402
3.49
405
3.04
406
WAO-8two views4.40
396
1.82
393
1.79
341
2.34
391
2.20
391
9.19
408
1.53
360
6.09
406
16.46
413
3.94
390
7.84
404
7.32
399
3.72
395
9.41
405
3.31
369
2.00
388
1.07
403
2.44
398
1.37
398
2.50
389
1.68
388
Venustwo views4.40
396
1.82
393
1.79
341
2.34
391
2.20
391
9.19
408
1.53
360
6.09
406
16.46
413
3.94
390
7.84
404
7.32
399
3.72
395
9.41
405
3.31
369
2.00
388
1.07
403
2.44
398
1.37
398
2.50
389
1.68
388
FADNettwo views0.92
245
0.61
322
1.81
343
0.62
229
0.55
264
0.96
224
0.57
218
1.78
266
1.33
273
0.93
83
1.01
92
1.36
260
1.01
252
2.71
291
0.75
206
0.33
291
0.34
325
0.31
267
0.34
317
0.59
347
0.40
299
TorneroNettwo views10.70
412
2.03
397
1.82
344
3.43
407
3.01
406
43.83
428
2.22
393
8.87
412
67.47
437
7.17
410
27.36
422
10.68
412
3.85
397
8.67
398
7.65
395
3.59
405
0.88
395
3.04
407
1.57
403
3.71
406
3.17
407
Wz-Net-LNSev-Reftwo views0.99
264
0.40
249
1.82
344
0.66
263
0.62
293
2.05
352
0.78
270
1.91
295
1.29
255
1.54
305
1.42
237
1.51
287
1.23
299
1.99
248
1.33
298
0.23
190
0.14
75
0.20
73
0.15
30
0.27
221
0.26
224
FADNet_RVCtwo views0.83
217
0.51
291
1.83
346
0.54
134
0.42
192
1.19
268
0.46
142
1.51
201
1.09
168
0.89
77
1.24
177
0.91
136
0.87
196
2.11
258
1.11
273
0.27
252
0.22
255
0.31
267
0.28
277
0.43
309
0.38
295
CBFPSMtwo views0.92
245
0.33
187
1.86
347
0.49
65
0.38
170
1.75
327
0.84
285
1.39
174
1.12
178
1.09
123
0.99
84
2.37
358
1.66
345
1.32
139
1.42
317
0.19
92
0.18
195
0.20
73
0.20
136
0.21
131
0.33
276
XX-Stereotwo views0.63
116
0.26
46
1.90
348
0.81
328
0.67
303
0.43
14
0.23
3
1.03
77
0.58
18
0.65
41
1.56
274
1.41
267
0.39
14
1.28
132
0.35
27
0.20
117
0.14
75
0.20
73
0.19
108
0.18
41
0.14
11
ELAS_RVCcopylefttwo views2.48
380
0.74
343
1.90
348
1.05
369
0.92
356
2.76
375
4.01
408
2.76
378
4.11
394
4.69
399
4.63
386
4.62
387
5.96
405
3.97
323
3.96
375
0.63
367
0.53
373
0.56
363
0.52
361
0.64
354
0.63
354
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
Consistency-Rafttwo views1.25
309
0.99
362
1.93
350
1.02
368
1.21
378
0.96
224
1.01
322
1.75
253
1.92
354
1.36
261
2.12
342
1.44
273
1.01
252
1.14
119
1.40
309
0.72
370
0.82
387
0.89
375
0.98
389
1.31
383
0.95
373
FADNet-RVCtwo views0.88
235
0.67
331
1.93
350
0.60
206
0.48
225
0.91
205
0.60
232
1.71
245
1.18
209
0.90
78
0.96
74
1.36
260
0.92
212
2.25
270
1.17
280
0.30
274
0.29
305
0.32
280
0.32
306
0.41
299
0.35
283
STTRV1_RVCtwo views1.58
337
0.68
334
1.96
352
0.88
350
1.12
370
1.57
312
0.90
301
2.25
358
1.75
343
1.29
225
2.02
336
1.40
264
1.22
297
9.77
408
1.31
296
0.81
372
0.33
324
0.54
355
0.49
355
0.73
365
0.52
335
ACVNet_2two views2.43
379
1.41
382
2.04
353
2.62
395
2.24
394
2.63
374
1.88
379
3.31
386
3.01
382
2.19
356
3.45
374
4.62
387
2.04
366
4.50
332
1.47
323
2.55
393
0.64
382
2.22
390
0.84
380
2.69
392
2.29
396
Deantwo views2.91
391
1.53
386
2.07
354
2.96
402
2.51
400
3.15
382
2.14
390
4.75
399
4.41
397
2.76
376
6.10
394
5.53
395
2.37
376
2.97
300
1.92
343
3.18
399
0.85
392
2.51
400
1.04
392
2.88
399
2.47
400
FADNet-RVC-Resampletwo views0.84
221
0.47
276
2.10
355
0.61
218
0.45
210
1.07
245
0.61
233
1.59
220
1.20
217
1.08
118
0.98
82
1.03
181
0.98
240
2.17
261
0.72
199
0.23
190
0.22
255
0.30
263
0.32
306
0.35
270
0.34
278
KSHMRtwo views8.75
410
2.06
400
2.11
356
3.53
409
3.11
407
4.13
397
2.69
400
5.60
403
61.37
436
3.00
383
55.83
436
4.98
394
2.45
379
4.49
331
2.61
360
3.46
404
1.55
410
3.14
409
1.94
407
3.72
407
3.18
408
ktntwo views4.70
398
2.38
405
2.12
357
3.76
410
3.24
408
4.85
401
2.95
405
5.52
402
7.37
405
4.07
394
19.32
419
7.46
401
3.47
390
7.39
385
2.95
362
4.04
411
1.85
411
3.26
411
2.22
410
3.08
401
2.65
405
SGM+DAISYtwo views2.41
378
1.07
366
2.14
358
1.18
375
1.10
367
2.14
357
1.36
352
1.96
307
1.66
334
5.46
406
7.07
398
4.95
392
4.32
399
5.50
351
2.26
354
1.04
381
1.02
402
0.99
379
0.97
387
1.02
375
1.04
378
SDNRtwo views1.62
343
0.51
291
2.17
359
0.53
119
0.56
265
3.80
392
0.45
135
1.54
212
1.29
255
1.33
253
2.41
356
1.08
193
0.96
233
11.18
412
1.16
278
0.66
369
0.63
381
0.43
334
0.32
306
0.64
354
0.67
359
S-Stereotwo views1.15
301
0.46
272
2.17
359
0.81
328
0.80
341
1.21
271
1.19
341
1.93
302
2.02
359
1.47
288
2.11
341
1.57
294
1.17
284
2.05
254
1.41
313
0.40
322
0.40
349
0.35
304
0.31
300
0.44
316
0.70
362
SANettwo views1.88
358
0.57
308
2.18
361
0.63
237
0.40
183
2.80
378
1.57
364
2.39
370
5.88
402
2.36
364
3.57
375
3.72
382
2.97
386
4.74
335
1.76
335
0.34
299
0.30
309
0.32
280
0.29
288
0.48
325
0.37
289
Wz-Net-MNSevtwo views1.11
291
0.58
311
2.23
362
0.66
263
0.71
314
1.95
346
1.46
357
1.98
312
1.45
314
1.79
335
1.43
241
1.49
284
1.33
314
1.97
247
1.42
317
0.27
252
0.23
263
0.28
246
0.28
277
0.34
269
0.31
266
PVDtwo views1.70
350
0.84
351
2.26
363
0.94
363
0.83
346
2.48
368
0.97
314
2.59
377
3.35
386
3.01
384
2.77
364
2.34
357
2.47
380
2.67
290
3.14
366
0.47
347
0.45
361
0.59
367
0.48
352
0.59
347
0.75
367
GwcNetcopylefttwo views1.08
283
0.51
291
2.33
364
0.79
322
1.18
376
1.76
329
0.70
256
1.68
239
1.47
316
1.41
276
1.64
293
1.74
319
1.04
260
2.20
266
1.41
313
0.30
274
0.29
305
0.29
254
0.27
260
0.30
249
0.35
283
SHDtwo views1.31
315
0.71
339
2.34
365
0.86
344
0.75
327
1.77
332
0.65
240
2.22
355
2.50
375
2.40
366
1.71
302
1.91
329
1.60
337
1.93
243
2.37
355
0.38
317
0.31
315
0.38
317
0.40
335
0.48
325
0.50
330
ADCReftwo views1.35
320
0.55
301
2.37
366
0.72
301
0.77
331
1.94
345
0.78
270
1.91
295
1.27
246
1.57
313
1.59
281
1.36
260
1.41
318
1.54
185
7.53
390
0.23
190
0.20
225
0.32
280
0.30
296
0.29
240
0.29
244
RTSCtwo views1.29
312
0.73
340
2.44
367
0.83
336
0.57
267
1.85
340
0.65
240
1.88
286
2.00
358
2.20
357
1.66
297
1.60
300
1.26
304
2.33
274
3.92
374
0.32
286
0.23
263
0.27
236
0.29
288
0.37
280
0.37
289
Anonymous Stereotwo views1.28
311
0.75
345
2.45
368
0.74
310
0.77
331
0.93
214
1.77
370
1.51
201
1.31
265
1.67
323
1.29
197
1.20
221
0.75
140
6.29
367
1.68
334
0.37
313
0.36
338
0.38
317
0.40
335
0.43
309
0.45
315
PWC_ROBbinarytwo views1.24
307
0.76
347
2.46
369
0.72
301
0.78
334
1.15
259
0.49
163
1.75
253
1.92
354
2.31
359
3.07
368
1.59
298
1.40
317
2.46
282
2.10
351
0.33
291
0.22
255
0.35
304
0.24
228
0.38
288
0.41
303
DGSMNettwo views1.14
298
0.76
347
2.49
370
0.81
328
0.86
350
1.39
294
1.39
353
2.13
334
1.35
284
1.26
215
1.63
292
1.48
283
0.98
240
1.75
219
1.10
271
0.45
340
0.43
354
0.55
360
0.49
355
0.75
366
0.70
362
XQCtwo views1.37
322
0.87
355
2.56
371
0.84
337
0.69
311
1.83
338
0.89
296
2.07
329
1.88
350
1.88
342
1.53
266
1.91
329
1.55
333
2.85
296
3.05
363
0.48
348
0.29
305
0.44
337
0.39
331
0.69
361
0.60
351
SAMSARAtwo views1.55
336
0.84
351
2.61
372
1.22
377
1.07
365
2.50
369
1.93
381
2.05
323
1.89
351
2.75
375
1.66
297
2.81
371
1.69
346
3.08
304
1.97
346
0.46
346
0.51
371
0.42
332
0.46
348
0.58
345
0.59
348
PASMtwo views1.34
319
0.92
358
2.62
373
0.86
344
0.87
352
1.03
237
1.08
329
1.50
196
1.51
322
1.82
339
1.41
236
1.68
312
1.26
304
4.87
338
1.34
300
0.61
364
0.65
384
0.68
369
0.78
377
0.69
361
0.68
361
notakertwo views3.98
395
2.40
406
2.68
374
3.82
412
3.27
410
3.97
395
2.14
390
4.78
400
3.45
389
4.12
395
6.94
397
7.65
403
3.26
389
7.82
393
5.30
382
4.04
411
1.41
408
3.36
412
2.10
409
3.88
408
3.31
409
Wz-Net-LNSevtwo views1.03
274
0.67
331
2.71
375
0.64
246
0.84
347
1.75
327
1.00
320
1.80
270
1.32
270
1.28
220
1.25
181
1.65
309
1.22
297
1.39
158
1.40
309
0.28
262
0.26
283
0.24
170
0.23
217
0.33
267
0.32
272
pmcnntwo views2.37
375
0.42
258
2.71
375
0.63
237
0.43
197
1.54
309
1.19
341
2.01
318
1.53
325
2.64
372
7.60
401
18.07
417
1.45
323
3.44
316
2.78
361
0.18
60
0.15
125
0.15
3
0.12
9
0.20
97
0.18
78
aanetorigintwo views1.23
306
0.79
349
2.78
377
0.70
291
0.79
336
0.99
232
1.06
327
1.06
100
1.37
291
3.52
387
2.61
361
1.72
316
1.63
339
1.99
248
1.78
336
0.25
229
0.24
272
0.26
225
0.25
239
0.38
288
0.45
315
MSC_U_SF_DS_RVCtwo views2.12
367
1.15
374
3.10
378
1.05
369
0.76
330
5.03
403
2.40
398
2.16
343
2.62
377
1.89
344
2.28
349
2.69
369
1.65
341
9.35
403
2.04
348
0.64
368
0.51
371
0.68
369
0.71
374
1.09
378
0.67
359
MFN_U_SF_RVCtwo views1.52
334
0.84
351
3.42
379
0.87
349
0.66
301
2.56
371
0.95
312
2.36
367
1.70
337
1.98
348
1.86
321
2.45
362
1.79
352
2.95
298
2.58
357
0.52
353
0.48
366
0.55
360
0.59
370
0.59
347
0.61
352
MFN_U_SF_DS_RVCtwo views1.74
354
0.87
355
3.56
380
0.80
325
0.75
327
3.72
389
2.44
399
1.82
274
1.82
348
1.74
328
1.91
327
1.92
332
1.26
304
7.69
391
1.28
293
0.45
340
0.47
365
0.52
349
0.77
376
0.50
329
0.50
330
ADCLtwo views1.72
353
0.57
308
3.66
381
0.67
273
0.61
288
2.61
373
1.85
376
1.96
307
1.67
335
1.90
345
1.83
316
2.06
347
1.90
360
2.13
259
9.15
398
0.26
243
0.24
272
0.34
297
0.32
306
0.38
288
0.35
283
DispFullNettwo views2.34
374
2.85
409
3.66
381
3.08
403
2.27
395
1.97
347
0.67
248
2.00
314
1.70
337
2.52
368
2.00
333
2.23
350
5.86
403
3.44
316
1.58
328
1.01
377
0.32
322
2.64
402
1.94
407
2.85
398
2.24
395
iinet-ftwo views0.99
264
0.45
270
3.71
383
0.55
153
0.43
197
1.81
335
0.68
250
1.14
119
1.14
190
1.18
180
1.42
237
1.58
297
1.44
321
1.34
144
1.59
330
0.24
205
0.23
263
0.20
73
0.19
108
0.26
209
0.25
206
pcwnet_v2two views0.97
259
0.37
235
4.33
384
0.62
229
0.54
258
0.79
175
0.45
135
2.02
321
1.58
329
1.42
282
1.64
293
1.09
199
0.79
159
1.24
129
0.67
188
0.32
286
0.25
279
0.29
254
0.27
260
0.37
280
0.35
283
DPSNettwo views1.69
349
0.59
314
4.33
384
0.70
291
0.57
267
2.02
351
1.62
366
3.35
388
1.78
344
1.48
294
1.38
228
2.17
349
2.84
384
4.77
336
3.66
372
0.48
348
0.31
315
0.29
254
0.25
239
0.64
354
0.48
325
MADNet++two views5.01
399
3.14
410
4.91
386
4.55
416
3.94
414
5.20
404
4.41
409
4.40
396
4.13
395
4.95
402
6.08
393
4.74
389
5.37
401
9.40
404
10.67
403
4.65
413
4.15
416
3.97
414
3.34
413
4.09
410
4.08
414
ADCMidtwo views1.89
361
0.73
340
5.06
387
0.72
301
0.67
303
2.00
350
1.14
335
1.97
311
1.48
317
2.86
379
1.81
315
2.37
358
2.05
368
2.24
268
10.39
402
0.33
291
0.31
315
0.39
323
0.43
341
0.50
329
0.44
313
AnyNet_C32two views1.96
363
1.10
368
5.17
388
0.90
355
1.11
368
2.12
356
2.37
397
1.85
280
1.48
317
2.45
367
1.70
301
2.05
346
1.64
340
2.50
283
10.28
401
0.37
313
0.34
325
0.35
304
0.41
337
0.49
328
0.54
337
UNDER WATERtwo views5.08
400
2.33
404
5.55
389
3.94
414
3.51
411
5.20
404
2.72
402
5.61
404
16.52
415
3.84
389
4.60
385
9.21
407
5.89
404
5.90
360
8.66
397
3.75
407
1.34
407
3.18
410
1.88
405
4.33
413
3.61
411
ADCStwo views2.25
370
0.99
362
5.55
389
0.81
328
0.74
321
2.19
358
1.80
372
2.27
360
2.14
363
2.80
378
2.13
343
2.40
360
2.03
365
2.64
289
13.69
406
0.41
326
0.39
347
0.40
328
0.45
345
0.58
345
0.56
341
PWCKtwo views2.88
390
2.05
399
5.72
391
2.08
388
1.11
368
3.55
387
3.90
407
2.86
381
3.54
390
3.03
385
3.63
376
3.10
377
2.31
375
8.15
397
3.09
364
2.12
390
0.91
397
1.75
386
0.98
389
2.57
391
1.18
383
DeepPrunerFtwo views1.60
340
0.73
340
5.81
392
0.88
350
1.19
377
0.91
205
0.95
312
2.19
351
5.24
400
1.17
176
1.30
198
1.19
220
1.30
311
4.90
339
1.66
333
0.42
329
0.34
325
0.52
349
0.47
350
0.41
299
0.40
299
tttwo views6.58
406
0.26
46
6.10
393
3.77
411
2.16
390
11.55
412
19.63
416
13.33
417
5.74
401
2.96
381
2.65
362
4.97
393
6.33
407
3.81
320
7.24
389
9.15
418
11.32
425
5.89
418
6.24
417
6.03
415
2.55
401
Wz-Net-SNSevtwo views1.49
330
1.23
377
6.27
394
0.68
283
0.67
303
1.37
290
1.41
354
2.00
314
1.39
299
1.48
294
1.61
286
2.29
353
1.32
313
3.93
321
2.14
352
0.31
281
0.28
297
0.31
267
0.33
312
0.42
304
0.36
287
Wz-Net-TNSevtwo views1.88
358
2.08
401
7.66
395
0.67
273
0.64
296
2.42
367
1.83
375
2.33
364
1.74
342
1.57
313
1.56
274
2.58
365
1.90
360
4.86
337
3.12
365
0.39
320
0.37
340
0.33
287
0.37
328
0.53
337
0.58
346
ADCP+two views1.99
365
0.48
281
7.73
396
0.66
263
0.91
354
2.30
362
1.05
326
1.82
274
1.34
276
1.54
305
1.32
208
1.74
319
1.61
338
2.17
261
13.37
405
0.24
205
0.21
241
0.32
280
0.28
277
0.37
280
0.29
244
ADCPNettwo views1.85
357
0.69
335
8.07
397
0.71
298
0.58
275
2.79
377
1.22
343
1.94
304
1.54
326
1.88
342
1.69
300
2.46
363
2.04
366
2.37
277
6.48
385
0.38
317
0.37
340
0.38
317
0.43
341
0.47
322
0.45
315
EDNetEfficienttwo views2.37
375
1.10
368
8.08
398
0.74
310
0.71
314
0.98
231
1.56
362
1.46
188
4.06
393
4.90
401
2.82
365
2.25
351
3.48
391
2.95
298
9.97
399
0.26
243
0.24
272
0.26
225
0.30
296
0.68
360
0.61
352
HanzoNettwo views11.04
413
3.62
412
8.10
399
4.08
415
3.55
413
4.90
402
2.73
403
7.19
410
10.10
406
31.86
432
28.92
424
21.96
424
36.36
425
18.08
418
10.17
400
7.94
417
3.32
414
3.47
413
3.31
412
7.06
418
4.04
413
UNDER WATER-64two views5.27
401
2.32
403
8.78
400
3.93
413
3.54
412
7.61
406
3.03
406
5.84
405
14.19
409
4.04
392
4.04
380
9.39
408
6.26
406
5.93
362
8.48
396
3.60
406
1.51
409
3.13
408
1.88
405
4.29
412
3.61
411
WZ-Nettwo views1.95
362
0.95
359
10.10
401
0.86
344
0.78
334
1.69
322
1.60
365
2.20
354
1.98
357
2.08
353
1.93
329
2.30
354
1.97
363
5.30
344
3.17
368
0.34
299
0.26
283
0.29
254
0.31
300
0.51
333
0.47
322
JetBluetwo views3.97
394
2.01
396
10.19
402
1.38
379
2.84
405
10.53
411
9.54
411
3.60
390
2.41
369
2.73
374
3.39
373
4.54
386
4.31
398
7.85
394
6.84
388
0.88
373
0.93
398
0.89
375
0.91
383
1.74
384
1.91
391
AnyNet_C01two views2.26
371
1.78
390
10.22
403
0.93
361
0.74
321
2.92
380
2.20
392
2.29
362
1.80
346
2.53
369
2.41
356
2.71
370
1.73
347
3.41
313
6.72
387
0.41
326
0.39
347
0.40
328
0.42
339
0.67
359
0.63
354
psmorigintwo views1.52
334
0.69
335
10.52
404
0.68
283
0.59
282
1.13
253
0.70
256
1.57
218
1.19
212
1.99
349
1.79
312
2.26
352
1.47
326
2.09
256
1.36
304
0.39
320
0.40
349
0.34
297
0.33
312
0.43
309
0.56
341
SPstereotwo views26.54
422
6.08
415
10.71
405
5.55
417
5.68
416
48.14
429
80.43
436
67.31
437
34.39
432
28.70
430
27.52
423
43.76
435
37.60
432
45.04
436
54.41
437
4.92
416
4.89
417
10.74
422
5.88
416
4.46
414
4.57
415
MADNet+two views2.69
385
3.22
411
11.53
406
1.44
383
1.12
370
3.19
383
1.81
373
2.85
380
2.37
367
1.68
324
2.07
340
2.85
373
2.18
371
7.41
386
5.23
381
0.79
371
0.76
385
0.69
371
0.65
373
0.98
372
0.95
373
LSMtwo views6.33
404
1.10
368
13.19
407
1.41
382
68.17
433
1.64
319
1.90
380
1.92
298
2.46
370
2.99
382
3.11
369
1.88
324
1.80
353
2.61
288
2.06
350
0.41
326
0.58
379
0.50
347
0.57
366
0.64
354
17.66
424
PMLtwo views51.67
434
36.25
428
13.28
408
7.46
418
20.81
420
108.69
437
232.22
438
8.72
411
27.82
424
87.01
437
269.67
438
69.67
438
61.95
437
24.76
426
14.20
408
9.74
420
3.40
415
9.62
419
4.70
414
18.74
423
4.72
416
RTStwo views2.67
383
1.38
379
15.28
409
0.99
365
1.26
380
3.78
390
1.96
383
2.15
340
2.62
377
2.61
370
2.85
366
2.60
366
1.59
335
6.27
365
5.71
383
0.40
322
0.28
297
0.35
304
0.35
321
0.50
329
0.48
325
RTSAtwo views2.67
383
1.38
379
15.28
409
0.99
365
1.26
380
3.78
390
1.96
383
2.15
340
2.62
377
2.61
370
2.85
366
2.60
366
1.59
335
6.27
365
5.71
383
0.40
322
0.28
297
0.35
304
0.35
321
0.50
329
0.48
325
SuperBtwo views2.53
381
0.59
314
18.45
411
0.69
286
0.50
234
1.87
342
0.88
294
1.67
238
2.39
368
1.50
297
1.42
237
1.14
213
1.15
283
4.28
329
5.07
380
0.24
205
0.19
208
0.22
122
0.19
108
7.86
419
0.34
278
ASD4two views15.85
417
10.99
419
19.63
412
10.21
421
11.70
417
19.24
418
31.10
421
19.35
418
10.68
407
11.14
413
10.18
410
12.59
414
12.64
412
14.74
416
24.83
420
12.93
423
9.94
424
26.83
429
19.40
423
16.23
422
12.70
423
DGTPSM_ROBtwo views13.01
415
8.23
416
21.87
413
9.51
419
18.10
418
11.56
413
32.01
422
10.63
414
16.20
411
7.03
408
19.48
420
10.15
410
16.66
415
9.83
409
22.42
417
4.75
414
8.68
419
5.37
415
10.25
419
6.16
416
11.36
418
DPSMNet_ROBtwo views13.02
416
8.23
416
21.91
414
9.53
420
18.11
419
11.56
413
32.02
423
10.64
415
16.23
412
7.05
409
19.49
421
10.16
411
16.66
415
9.85
410
22.43
418
4.77
415
8.68
419
5.38
416
10.26
420
6.17
417
11.36
418
LRCNet_RVCtwo views22.74
420
32.10
427
21.97
415
29.84
425
26.23
423
4.42
399
0.81
282
22.66
419
2.02
359
26.93
424
29.26
425
23.06
426
15.59
414
23.84
422
18.88
414
31.75
430
19.90
432
34.65
430
32.13
430
30.54
430
28.32
430
LE_ROBtwo views8.05
408
0.37
235
23.53
416
0.74
310
0.33
122
2.77
376
2.87
404
3.71
391
27.24
423
25.39
423
8.87
407
8.46
406
26.71
423
6.65
372
21.99
416
0.21
144
0.19
208
0.20
73
0.21
172
0.25
201
0.22
165
Anonymous_1two views43.04
433
18.73
421
24.79
417
21.81
422
46.26
432
27.80
419
37.60
424
28.08
423
16.14
410
14.66
417
14.30
413
20.65
418
17.88
417
21.56
419
25.94
421
117.93
437
8.92
421
100.65
434
126.50
434
158.64
438
12.08
420
DPSM_ROBtwo views19.08
418
19.14
422
25.17
418
22.15
423
20.85
421
28.17
420
37.82
425
26.56
421
16.85
416
14.14
415
14.84
414
21.70
419
18.75
418
21.87
420
26.55
422
10.16
421
9.30
422
10.47
420
10.42
421
14.03
420
12.61
421
DPSMtwo views19.08
418
19.14
422
25.17
418
22.15
423
20.85
421
28.17
420
37.82
425
26.56
421
16.85
416
14.14
415
14.84
414
21.70
419
18.75
418
21.87
420
26.55
422
10.16
421
9.30
422
10.47
420
10.42
421
14.03
420
12.61
421
JetRedtwo views6.91
407
8.80
418
25.96
420
2.85
398
3.25
409
13.98
417
11.87
412
6.25
408
4.28
396
4.45
397
4.56
384
6.69
398
5.46
402
7.46
388
14.05
407
2.59
394
3.31
413
2.59
401
2.29
411
4.20
411
3.36
410
xxxxx1two views54.10
435
25.67
424
27.13
421
113.43
435
96.96
435
30.69
424
47.44
427
32.38
425
25.60
420
17.75
419
17.27
416
21.81
421
21.02
420
24.43
423
33.82
424
33.37
431
40.54
433
157.71
436
175.86
436
66.16
434
72.93
435
tt_lltwo views54.10
435
25.67
424
27.13
421
113.43
435
96.96
435
30.69
424
47.44
427
32.38
425
25.60
420
17.75
419
17.27
416
21.81
421
21.02
420
24.43
423
33.82
424
33.37
431
40.54
433
157.71
436
175.86
436
66.16
434
72.93
435
fftwo views54.10
435
25.67
424
27.13
421
113.43
435
96.96
435
30.69
424
47.44
427
32.38
425
25.60
420
17.75
419
17.27
416
21.81
421
21.02
420
24.43
423
33.82
424
33.37
431
40.54
433
157.71
436
175.86
436
66.16
434
72.93
435
DPSimNet_ROBtwo views11.20
414
4.98
414
35.43
424
2.90
401
4.52
415
7.89
407
17.09
415
4.66
398
6.06
403
14.89
418
10.93
412
17.29
416
36.81
427
13.18
415
15.68
411
2.86
395
6.29
418
5.75
417
5.09
415
3.91
409
7.70
417
HaxPigtwo views38.92
429
41.40
435
41.64
425
29.95
426
32.27
424
28.90
422
27.60
418
29.73
424
37.71
433
43.82
433
43.87
432
33.17
427
35.56
424
41.53
427
40.37
429
43.94
434
47.51
437
45.82
431
47.08
432
42.38
431
44.15
433
AVERAGE_ROBtwo views40.43
430
42.37
436
42.73
426
36.96
428
35.58
426
30.50
423
27.61
419
36.71
430
38.39
434
44.91
434
44.36
433
37.45
429
36.70
426
41.88
428
40.35
428
45.43
435
46.81
436
47.11
432
46.35
431
42.51
432
43.87
432
DLNR_Zeroshot_testpermissivetwo views23.17
421
48.52
438
43.29
427
176.68
438
78.69
434
0.35
5
0.21
1
23.41
420
0.75
56
0.66
42
0.86
57
0.59
51
0.30
4
1.56
190
0.44
84
9.57
419
0.12
9
0.18
36
0.14
22
76.92
437
0.16
41
MEDIAN_ROBtwo views42.00
431
44.40
437
44.29
428
35.15
427
34.95
425
31.28
427
29.60
420
35.88
429
40.02
435
47.20
435
46.64
434
37.37
428
38.48
435
44.35
435
42.45
430
48.03
436
49.39
438
49.71
433
49.03
433
45.14
433
46.65
434
CasAABBNettwo views38.33
424
38.46
429
50.35
429
44.75
433
41.84
427
56.68
433
76.37
431
53.22
434
33.83
427
28.31
425
29.54
426
43.62
434
37.71
433
43.84
433
53.41
432
20.30
424
18.70
427
21.07
426
21.07
425
28.24
427
25.34
425
MyStereo03two views38.34
425
38.50
431
50.41
430
44.74
430
41.86
428
56.65
430
76.38
432
52.99
431
33.93
429
28.39
427
29.99
428
43.54
430
37.42
429
43.82
430
53.53
433
20.31
425
18.71
429
21.06
423
21.08
426
28.23
424
25.35
426
MyStereo02two views38.34
425
38.50
431
50.41
430
44.74
430
41.86
428
56.65
430
76.38
432
52.99
431
33.93
429
28.39
427
29.99
428
43.54
430
37.42
429
43.82
430
53.53
433
20.31
425
18.71
429
21.06
423
21.08
426
28.23
424
25.35
426
MyStereotwo views38.34
425
38.50
431
50.41
430
44.74
430
41.86
428
56.65
430
76.38
432
52.99
431
33.93
429
28.39
427
29.99
428
43.54
430
37.42
429
43.82
430
53.53
433
20.31
425
18.71
429
21.06
423
21.08
426
28.23
424
25.35
426
Selective-RAFT-Errortwo views38.39
428
38.47
430
50.44
433
44.73
429
41.97
431
56.68
433
76.38
432
53.24
435
33.92
428
28.34
426
29.85
427
43.60
433
38.20
434
43.75
429
53.34
431
20.38
428
18.70
427
21.09
427
21.05
424
28.30
428
25.43
429
LSM0two views42.82
432
38.75
434
50.81
434
47.07
434
109.38
438
57.00
435
76.02
430
53.74
436
33.71
426
29.02
431
30.41
431
43.87
436
37.22
428
43.91
434
53.54
436
20.52
429
18.62
426
21.10
428
21.11
429
28.41
429
42.22
431
BEATNet-Init1two views26.87
423
13.43
420
70.68
435
0.91
358
0.68
309
57.02
436
21.06
417
32.82
428
32.67
425
52.12
436
53.61
435
66.05
437
49.56
436
48.79
437
34.71
427
0.49
352
0.44
357
0.53
354
0.53
362
0.63
352
0.59
348
coex-fttwo views8.13
409
2.13
402
98.04
436
0.67
273
0.53
255
1.71
323
1.56
362
1.65
233
11.11
408
18.17
422
3.75
377
3.88
383
7.61
410
2.98
301
6.49
386
0.30
274
0.30
309
0.32
280
0.31
300
0.66
358
0.50
330
EDNetEfficientorigintwo views10.57
411
1.47
385
177.42
437
0.67
273
0.53
255
1.58
313
1.16
338
1.90
291
3.37
387
4.71
400
3.38
372
3.10
377
2.69
383
3.13
306
3.58
371
0.25
229
0.23
263
0.33
287
0.27
260
0.83
367
0.81
368
test_example2two views192.40
438
210.76
439
206.48
438
199.83
439
204.73
439
172.94
438
183.52
437
133.93
438
133.41
438
191.38
438
196.19
437
187.13
439
178.77
438
205.33
438
208.00
438
222.09
439
238.72
439
186.54
439
190.54
439
227.34
439
170.31
438
FADEtwo views4.78
413
1.89
387
1.92
389
4.13
384
188.09
438
2.77
412
123.78
435
127.92
435
1.06
377