This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CAStwo views0.66
110
0.19
1
0.41
4
2.31
387
0.86
342
0.56
67
0.53
179
0.83
10
0.63
17
0.49
16
0.70
31
0.36
2
0.26
1
0.47
2
0.37
25
2.33
389
0.10
1
0.14
1
0.10
1
0.17
20
1.31
379
CEStwo views0.51
31
0.21
2
0.40
2
0.42
4
1.40
377
0.53
51
0.34
40
1.04
45
0.68
23
0.45
9
0.67
23
0.35
1
0.28
2
0.58
10
0.35
6
0.16
7
0.13
17
0.15
3
0.10
1
0.19
59
1.69
384
CREStereo++_RVCtwo views0.49
25
0.22
3
0.46
8
0.48
29
0.38
154
0.45
16
0.25
4
0.77
4
1.30
235
0.82
61
1.23
169
0.47
20
0.37
13
0.55
5
0.44
61
0.16
7
0.11
2
0.16
8
0.80
376
0.18
34
0.12
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
s12784htwo views0.55
36
0.22
3
0.49
11
0.43
5
0.19
1
1.00
228
0.34
40
1.40
138
1.30
235
0.84
65
0.93
66
0.63
56
0.52
59
1.48
159
0.47
84
0.15
4
0.12
5
0.17
13
0.11
6
0.19
59
0.13
2
PMTNettwo views0.47
22
0.22
3
0.43
5
0.39
2
0.24
6
0.71
136
0.26
10
0.78
5
1.03
123
0.65
38
0.69
27
0.55
38
0.48
43
0.90
68
0.36
16
0.99
374
0.13
17
0.15
3
0.10
1
0.15
4
0.15
3
LoStwo views0.41
4
0.23
6
0.46
8
0.39
2
0.23
5
0.48
23
0.40
79
1.12
72
0.94
88
0.50
19
0.66
21
0.49
28
0.42
19
0.63
23
0.39
31
0.19
65
0.14
58
0.16
8
0.11
6
0.14
1
0.15
3
test_4two views0.55
36
0.23
6
0.67
47
0.56
122
0.32
97
0.71
136
0.39
77
0.83
10
0.72
28
0.93
80
1.87
321
0.70
72
0.41
16
1.21
121
0.39
31
0.16
7
0.13
17
0.21
93
0.23
213
0.20
86
0.18
32
TANstereotwo views0.45
11
0.23
6
0.50
13
0.43
5
0.21
2
0.65
109
0.26
10
0.83
10
0.88
65
0.95
83
0.99
82
0.51
32
0.45
28
0.56
6
0.36
16
0.19
65
0.24
261
0.16
8
0.13
11
0.17
20
0.27
193
MIF-Stereotwo views0.38
1
0.24
9
0.67
47
0.49
34
0.36
139
0.40
9
0.32
29
0.55
1
0.55
4
0.55
30
0.55
17
0.36
2
0.31
6
0.59
11
0.52
108
0.21
120
0.15
112
0.17
13
0.15
30
0.19
59
0.17
23
EGLCR-Stereotwo views0.41
4
0.24
9
0.59
22
0.45
8
0.27
19
0.54
60
0.22
2
1.23
113
0.56
6
0.44
5
0.43
2
0.68
65
0.29
3
0.89
65
0.34
4
0.17
18
0.12
5
0.20
70
0.17
70
0.17
20
0.18
32
MC-Stereotwo views0.46
19
0.24
9
0.58
18
0.63
200
0.30
63
0.38
7
0.32
29
0.98
30
0.74
36
0.66
39
0.85
54
0.56
40
0.60
99
1.07
97
0.32
2
0.17
18
0.12
5
0.17
13
0.15
30
0.16
11
0.16
13
test-3two views0.56
47
0.24
9
0.82
107
0.50
46
0.29
51
0.57
69
0.34
40
1.09
62
1.03
123
1.33
227
0.69
27
0.87
120
0.45
28
1.68
191
0.39
31
0.17
18
0.12
5
0.20
70
0.17
70
0.17
20
0.16
13
test_1two views0.56
47
0.24
9
0.82
107
0.50
46
0.29
51
0.57
69
0.34
40
1.09
62
1.03
123
1.28
208
0.69
27
0.87
120
0.45
28
1.67
189
0.39
31
0.17
18
0.12
5
0.20
70
0.17
70
0.17
20
0.16
13
test_3two views0.57
59
0.24
9
0.87
137
0.55
110
0.30
63
0.60
83
0.40
79
1.07
50
1.08
137
1.20
169
0.68
24
0.92
142
0.43
22
1.68
191
0.40
44
0.16
7
0.13
17
0.22
120
0.19
102
0.21
121
0.17
23
CREStereotwo views0.40
3
0.24
9
0.40
2
0.37
1
0.22
4
0.52
47
0.29
21
0.81
6
1.15
171
0.59
31
0.72
33
0.51
32
0.42
19
0.57
8
0.37
25
0.19
65
0.13
17
0.15
3
0.10
1
0.14
1
0.15
3
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
AEACVtwo views0.41
4
0.25
16
0.60
24
0.55
110
0.52
237
0.43
13
0.38
68
0.98
30
0.63
17
0.44
5
0.56
18
0.46
15
0.59
95
0.56
6
0.31
1
0.17
18
0.13
17
0.18
33
0.16
54
0.17
20
0.17
23
DEmStereotwo views0.98
249
0.25
16
0.85
130
0.49
34
0.33
110
1.02
231
0.55
195
0.97
26
0.93
83
1.41
259
2.13
339
1.01
173
2.01
356
5.62
347
0.78
193
0.19
65
0.15
112
0.20
70
0.20
128
0.18
34
0.25
160
CFNet-RSSMtwo views0.57
59
0.25
16
0.76
79
0.49
34
0.28
40
0.59
79
0.27
14
1.89
245
1.17
180
1.09
112
0.95
69
1.06
183
0.53
61
0.74
34
0.41
49
0.17
18
0.13
17
0.17
13
0.15
30
0.16
11
0.16
13
MIM_Stereotwo views0.60
87
0.26
19
1.02
182
0.49
34
0.32
97
0.52
47
0.28
17
1.41
142
0.82
53
1.02
97
1.16
150
0.93
144
0.53
61
1.48
159
0.63
158
0.17
18
0.17
161
0.20
70
0.19
102
0.17
20
0.18
32
CASnettwo views0.42
8
0.26
19
0.52
15
0.52
69
0.21
2
0.49
28
0.35
49
0.85
14
0.85
61
0.84
65
0.69
27
0.48
24
0.31
6
0.57
8
0.34
4
0.19
65
0.12
5
0.27
233
0.22
186
0.23
158
0.15
3
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
4D-IteraStereotwo views0.50
29
0.26
19
0.84
124
0.51
57
0.49
221
0.64
105
0.31
25
0.91
19
1.02
120
1.05
105
0.72
33
0.76
82
0.32
9
0.69
29
0.40
44
0.18
40
0.11
2
0.23
146
0.20
128
0.19
59
0.16
13
Selective-IGEVtwo views0.42
8
0.26
19
0.56
16
0.48
29
0.27
19
0.45
16
0.33
33
1.56
167
0.61
15
0.36
1
0.47
4
0.52
35
0.30
4
1.08
99
0.33
3
0.15
4
0.13
17
0.17
13
0.13
11
0.16
11
0.15
3
RCA-Stereotwo views0.52
33
0.26
19
0.66
44
0.49
34
0.33
110
0.54
60
0.44
124
1.20
103
1.41
279
0.69
42
1.06
106
0.63
56
0.79
154
0.62
18
0.35
6
0.17
18
0.12
5
0.17
13
0.14
22
0.16
11
0.16
13
ffftwo views0.58
70
0.26
19
1.15
212
0.46
14
0.25
8
0.48
23
0.36
55
1.20
103
1.28
225
1.13
126
1.03
97
0.59
45
1.04
255
0.77
40
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.15
4
0.24
141
ADStereo(finetuned)two views0.62
92
0.26
19
1.59
284
0.45
8
0.25
8
0.49
28
0.36
55
1.18
95
1.35
251
1.16
145
1.04
101
0.60
48
1.18
287
0.85
59
0.57
137
0.17
18
0.14
58
0.17
13
0.13
11
0.19
59
0.24
141
CrosDoStereotwo views1.56
326
0.26
19
0.78
88
0.51
57
0.29
51
0.66
115
11.86
407
1.18
95
1.00
114
1.35
238
1.76
303
0.99
165
1.83
349
6.64
369
0.83
206
0.19
65
0.15
112
0.20
70
0.22
186
0.18
34
0.25
160
DeepStereo_LLtwo views1.56
326
0.26
19
0.78
88
0.51
57
0.29
51
0.66
115
11.86
407
1.18
95
1.00
114
1.35
238
1.76
303
0.99
165
1.83
349
6.64
369
0.83
206
0.19
65
0.15
112
0.20
70
0.22
186
0.18
34
0.25
160
DRafttwo views0.81
191
0.26
19
0.77
82
0.47
24
0.31
77
0.95
219
0.52
173
1.13
76
0.99
110
1.78
327
2.01
333
0.80
91
1.71
341
2.64
281
0.74
184
0.19
65
0.14
58
0.20
70
0.20
128
0.18
34
0.24
141
RAFT-RH_RVCtwo views1.04
261
0.26
19
0.76
79
0.53
89
0.29
51
0.80
166
0.32
29
0.85
14
1.12
156
2.04
347
4.63
384
1.03
178
0.57
77
5.93
354
0.52
108
0.20
99
0.13
17
0.26
224
0.20
128
0.16
11
0.19
51
RAFT-345two views0.86
213
0.26
19
0.73
67
0.53
89
0.28
40
0.53
51
0.41
87
0.85
14
1.31
242
1.33
227
2.32
348
0.85
118
0.53
61
5.69
348
0.48
88
0.19
65
0.14
58
0.22
120
0.17
70
0.17
20
0.17
23
cross-rafttwo views0.56
47
0.26
19
0.65
42
0.55
110
0.31
77
0.66
115
0.37
61
1.68
190
0.82
53
1.06
109
1.07
108
1.25
230
0.45
28
0.74
34
0.39
31
0.15
4
0.13
17
0.19
47
0.16
54
0.19
59
0.17
23
DCANettwo views0.58
70
0.26
19
1.15
212
0.45
8
0.25
8
0.49
28
0.36
55
1.18
95
1.35
251
1.15
141
1.04
101
0.60
48
0.91
202
0.84
56
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.19
59
0.25
160
csctwo views0.58
70
0.26
19
1.15
212
0.46
14
0.25
8
0.48
23
0.36
55
1.20
103
1.28
225
1.13
126
1.03
97
0.59
45
1.04
255
0.77
40
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.15
4
0.24
141
cscssctwo views0.58
70
0.26
19
1.15
212
0.46
14
0.25
8
0.48
23
0.36
55
1.20
103
1.28
225
1.13
126
1.03
97
0.59
45
1.04
255
0.77
40
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.15
4
0.24
141
StereoIMtwo views0.38
1
0.27
35
0.72
57
0.45
8
0.35
137
0.30
3
0.31
25
0.81
6
0.54
3
0.38
2
0.38
1
0.58
43
0.49
53
0.53
4
0.39
31
0.20
99
0.16
139
0.19
47
0.15
30
0.19
59
0.15
3
Any-RAFTtwo views0.55
36
0.27
35
0.49
11
0.50
46
0.27
19
0.98
226
0.25
4
1.71
203
1.08
137
0.90
75
0.99
82
1.13
207
0.46
35
0.74
34
0.35
6
0.19
65
0.13
17
0.17
13
0.13
11
0.16
11
0.19
51
RAFT-Testtwo views0.58
70
0.27
35
0.81
98
0.50
46
0.33
110
0.95
219
0.27
14
1.40
138
0.89
66
1.00
90
1.12
129
1.39
263
0.48
43
0.74
34
0.41
49
0.17
18
0.14
58
0.17
13
0.14
22
0.16
11
0.18
32
GLC_STEREOtwo views0.41
4
0.27
35
0.43
5
0.55
110
0.24
6
0.47
18
0.30
23
0.81
6
0.64
19
0.53
28
0.74
35
0.50
31
0.31
6
0.65
25
0.45
72
0.18
40
0.20
208
0.23
146
0.19
102
0.21
121
0.21
87
GMM-Stereotwo views0.75
158
0.27
35
0.66
44
0.56
122
0.34
122
0.71
136
0.97
308
1.09
62
0.91
71
1.37
244
1.79
307
1.11
203
0.79
154
2.08
247
0.48
88
0.19
65
0.12
5
0.25
203
0.25
233
0.21
121
0.78
361
raftrobusttwo views0.55
36
0.27
35
0.63
32
0.68
252
0.69
302
0.50
38
0.34
40
1.08
55
0.97
100
1.32
222
0.88
60
0.62
52
0.80
160
0.82
50
0.44
61
0.20
99
0.16
139
0.16
8
0.14
22
0.15
4
0.18
32
111two views0.66
110
0.27
35
1.15
212
0.46
14
0.25
8
0.72
139
0.42
91
1.57
170
1.44
290
0.83
62
1.39
223
1.10
198
0.80
160
0.97
79
0.65
165
0.20
99
0.14
58
0.18
33
0.15
30
0.18
34
0.28
204
Gwc-CoAtRStwo views0.55
36
0.27
35
0.73
67
0.49
34
0.30
63
0.63
97
0.25
4
1.38
136
1.12
156
1.05
105
1.02
90
1.10
198
0.55
70
0.72
32
0.44
61
0.17
18
0.14
58
0.17
13
0.15
30
0.16
11
0.17
23
MIF-Stereo (partial)two views0.48
24
0.28
43
0.83
115
0.51
57
0.53
242
0.39
8
0.27
14
1.03
43
0.64
19
0.47
11
0.71
32
0.51
32
0.51
55
1.13
110
0.47
84
0.20
99
0.16
139
0.23
146
0.20
128
0.24
187
0.20
70
DCREtwo views0.85
211
0.28
43
0.76
79
0.60
169
0.49
221
0.59
79
0.53
179
1.04
45
0.92
76
0.80
55
7.34
397
0.87
120
0.57
77
0.78
47
0.43
57
0.16
7
0.17
161
0.19
47
0.17
70
0.18
34
0.22
108
DCANet-4two views0.59
81
0.28
43
1.65
287
0.44
7
0.25
8
0.48
23
0.36
55
1.15
89
1.36
258
1.13
126
1.03
97
0.56
40
0.74
134
0.77
40
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.15
4
0.24
141
tttwo views6.61
402
0.28
43
6.10
374
3.77
407
2.17
387
11.53
409
19.61
413
13.53
415
5.81
399
3.00
378
2.82
362
4.97
390
6.33
401
3.83
316
7.23
384
9.13
416
11.32
420
5.87
415
6.22
414
6.01
412
2.63
398
IPLGRtwo views0.62
92
0.28
43
1.32
253
0.50
46
0.29
51
0.65
109
0.34
40
1.47
152
1.19
185
1.21
175
1.07
108
0.70
72
0.65
116
1.05
91
0.55
127
0.18
40
0.15
112
0.20
70
0.17
70
0.21
121
0.20
70
GMOStereotwo views0.55
36
0.28
43
0.72
57
0.52
69
0.30
63
0.53
51
0.43
107
1.02
37
0.98
103
1.44
270
1.14
144
0.88
126
0.57
77
0.62
18
0.39
31
0.16
7
0.14
58
0.24
167
0.22
186
0.20
86
0.18
32
error versiontwo views0.55
36
0.28
43
0.72
57
0.52
69
0.30
63
0.53
51
0.43
107
1.02
37
0.98
103
1.44
270
1.14
144
0.88
126
0.57
77
0.62
18
0.39
31
0.16
7
0.14
58
0.24
167
0.22
186
0.20
86
0.18
32
test-vtwo views0.55
36
0.28
43
0.72
57
0.52
69
0.30
63
0.53
51
0.43
107
1.02
37
0.98
103
1.44
270
1.14
144
0.88
126
0.57
77
0.62
18
0.39
31
0.16
7
0.14
58
0.24
167
0.22
186
0.20
86
0.18
32
HHNettwo views0.64
104
0.28
43
0.69
53
0.45
8
0.46
207
0.50
38
0.57
204
1.13
76
1.03
123
1.26
198
2.21
343
0.70
72
0.59
95
1.10
105
0.51
102
0.21
120
0.13
17
0.23
146
0.19
102
0.20
86
0.31
238
FTStereotwo views0.92
235
0.28
43
0.61
28
0.57
140
0.34
122
0.65
109
1.80
372
1.09
62
0.84
58
1.75
322
4.13
379
1.04
179
1.62
330
1.59
177
0.48
88
0.21
120
0.17
161
0.23
146
0.22
186
0.19
59
0.58
337
PFNettwo views0.92
235
0.28
43
1.20
232
0.68
252
0.32
97
0.62
89
0.55
195
1.27
121
1.01
117
1.47
279
1.09
117
0.97
159
0.68
125
6.58
368
0.59
148
0.21
120
0.13
17
0.24
167
0.19
102
0.20
86
0.20
70
GrayStereotwo views0.83
202
0.28
43
0.62
31
0.66
230
0.37
144
0.76
151
1.79
369
1.19
99
0.91
71
1.98
344
1.89
322
1.07
186
1.76
345
1.43
150
0.50
100
0.20
99
0.15
112
0.19
47
0.21
164
0.18
34
0.41
289
test-2two views0.55
36
0.28
43
0.72
57
0.52
69
0.30
63
0.53
51
0.43
107
1.02
37
0.98
103
1.44
270
1.14
144
0.88
126
0.57
77
0.62
18
0.39
31
0.16
7
0.14
58
0.24
167
0.22
186
0.20
86
0.18
32
test-1two views0.56
47
0.28
43
1.13
207
0.58
150
0.34
122
0.60
83
0.38
68
1.56
167
0.98
103
0.80
55
1.02
90
0.83
111
0.52
59
0.64
24
0.46
76
0.17
18
0.16
139
0.20
70
0.17
70
0.20
86
0.26
177
iRaftStereo_RVCtwo views0.49
25
0.28
43
0.72
57
0.53
89
0.29
51
0.52
47
0.33
33
1.14
78
0.84
58
0.85
67
0.99
82
0.55
38
0.36
12
0.83
53
0.40
44
0.18
40
0.13
17
0.22
120
0.20
128
0.20
86
0.18
32
XX-Stereotwo views0.97
246
0.28
43
8.28
383
0.85
329
0.70
308
0.44
15
0.22
2
1.07
50
0.69
25
0.66
39
1.56
271
1.38
262
0.38
14
1.36
134
0.38
28
0.21
120
0.14
58
0.20
70
0.19
102
0.19
59
0.16
13
RAFT-Stereo + iAFFtwo views0.56
47
0.28
43
0.81
98
0.45
8
0.25
8
0.40
9
0.34
40
1.12
72
1.13
161
1.35
238
1.58
276
0.80
91
0.67
122
0.71
30
0.43
57
0.14
1
0.11
2
0.18
33
0.17
70
0.18
34
0.16
13
AFF-stereotwo views0.60
87
0.28
43
0.72
57
0.48
29
0.29
51
0.34
4
0.37
61
1.22
109
1.20
189
1.21
175
1.59
280
1.10
198
0.70
130
1.01
84
0.44
61
0.14
1
0.12
5
0.19
47
0.20
128
0.18
34
0.15
3
MyStereo06two views0.67
118
0.29
61
1.06
191
0.58
150
0.48
215
0.62
89
0.72
253
2.26
319
0.89
66
1.07
110
1.12
129
1.22
221
0.56
75
0.83
53
0.47
84
0.17
18
0.17
161
0.24
167
0.21
164
0.23
158
0.23
122
MyStereo05two views0.70
138
0.29
61
1.22
236
0.58
150
0.48
215
0.62
89
0.72
253
1.52
157
1.54
313
1.17
147
0.91
64
0.77
86
0.79
154
1.45
153
0.68
174
0.17
18
0.17
161
0.24
167
0.21
164
0.23
158
0.23
122
AE-Stereotwo views0.58
70
0.29
61
0.81
98
0.62
190
0.41
180
0.69
131
0.46
138
2.49
351
1.25
211
0.49
16
0.77
39
0.69
69
0.46
35
0.61
14
0.42
54
0.17
18
0.16
139
0.21
93
0.20
128
0.19
59
0.18
32
test crocotwo views0.49
25
0.29
61
1.23
238
0.51
57
0.40
170
0.35
5
0.37
61
1.04
45
0.62
16
0.44
5
0.76
36
0.42
4
0.41
16
1.17
117
0.46
76
0.23
169
0.15
112
0.24
167
0.19
102
0.25
196
0.18
32
LoS_RVCtwo views0.45
11
0.29
61
0.48
10
0.49
34
0.83
337
0.51
43
0.43
107
0.65
2
0.44
1
0.47
11
0.78
41
0.44
7
0.60
99
0.59
11
0.37
25
0.14
1
0.12
5
0.14
1
0.10
1
0.14
1
1.08
374
anonymousdsp2two views0.58
70
0.29
61
0.93
153
0.51
57
0.30
63
0.75
146
0.46
138
1.95
258
0.87
64
0.81
59
0.78
41
0.76
82
0.48
43
1.10
105
0.45
72
0.19
65
0.14
58
0.18
33
0.13
11
0.20
86
0.22
108
riskmintwo views0.62
92
0.29
61
0.73
67
0.50
46
0.34
122
0.86
191
0.44
124
1.74
208
1.07
134
0.76
51
0.76
36
1.19
214
1.01
242
0.84
56
0.60
150
0.20
99
0.16
139
0.24
167
0.16
54
0.24
187
0.29
216
Selective-RAFTtwo views0.55
36
0.29
61
0.85
130
0.58
150
0.28
40
0.91
201
0.34
40
1.00
36
0.96
96
0.59
31
0.64
20
0.80
91
0.76
140
1.34
132
0.51
102
0.21
120
0.15
112
0.17
13
0.15
30
0.19
59
0.19
51
TestStereo1two views0.66
110
0.29
61
0.95
162
0.82
319
0.32
97
0.47
18
0.43
107
1.52
157
1.22
201
0.99
86
1.32
200
0.65
59
0.76
140
1.78
204
0.44
61
0.20
99
0.16
139
0.22
120
0.19
102
0.21
121
0.20
70
RAFT_CTSACEtwo views0.66
110
0.29
61
1.14
210
0.57
140
0.51
234
0.68
123
0.44
124
0.88
18
0.98
103
1.03
101
1.83
314
1.23
225
0.67
122
1.48
159
0.38
28
0.16
7
0.16
139
0.21
93
0.20
128
0.20
86
0.17
23
SA-5Ktwo views0.66
110
0.29
61
0.95
162
0.82
319
0.32
97
0.47
18
0.43
107
1.52
157
1.22
201
0.99
86
1.32
200
0.65
59
0.76
140
1.78
204
0.44
61
0.20
99
0.16
139
0.22
120
0.19
102
0.21
121
0.20
70
IPLGtwo views0.72
149
0.29
61
1.12
206
0.53
89
0.44
197
0.79
165
0.33
33
1.35
131
1.10
147
1.32
222
1.11
126
0.52
35
0.54
68
3.13
297
0.71
181
0.17
18
0.14
58
0.20
70
0.17
70
0.18
34
0.21
87
PSM-AADtwo views0.80
183
0.29
61
0.58
18
0.58
150
0.29
51
0.76
151
1.19
334
1.08
55
0.94
88
1.65
314
1.58
276
0.81
97
2.12
365
1.67
189
0.44
61
0.19
65
0.14
58
0.38
316
0.32
302
0.22
140
0.68
352
KYRafttwo views0.77
168
0.29
61
0.68
49
0.59
162
0.29
51
0.66
115
0.83
281
1.05
48
0.89
66
1.63
312
2.22
344
1.15
211
0.99
233
1.59
177
0.41
49
0.21
120
0.14
58
0.22
120
0.28
267
0.21
121
1.01
370
ASMatchtwo views0.89
220
0.29
61
0.72
57
0.56
122
0.36
139
0.47
18
0.37
61
1.16
92
0.95
92
1.11
115
3.26
369
0.95
152
0.96
220
4.88
333
0.53
117
0.20
99
0.16
139
0.22
120
0.19
102
0.20
86
0.30
229
THIR-Stereotwo views1.02
258
0.29
61
0.73
67
0.51
57
0.29
51
0.94
213
1.31
344
1.08
55
0.98
103
1.35
238
1.91
326
1.16
212
1.54
326
6.37
366
0.79
197
0.20
99
0.14
58
0.21
93
0.22
186
0.19
59
0.25
160
Prome-Stereotwo views0.76
163
0.29
61
0.57
17
0.58
150
0.33
110
0.58
78
0.94
303
0.98
30
0.92
76
1.46
278
2.45
355
0.91
137
1.38
311
1.60
182
0.44
61
0.19
65
0.13
17
0.19
47
0.18
84
0.20
86
0.87
367
raft+_RVCtwo views0.56
47
0.29
61
0.61
28
0.65
217
0.56
257
0.53
51
0.53
179
1.40
138
1.02
120
0.78
52
1.04
101
0.70
72
0.55
70
1.00
82
0.49
97
0.18
40
0.16
139
0.19
47
0.19
102
0.18
34
0.17
23
MyStereo07two views0.50
29
0.30
79
0.58
18
0.58
150
0.48
215
0.59
79
0.78
264
1.19
99
0.60
12
0.49
16
0.54
15
0.43
6
0.55
70
1.32
130
0.36
16
0.18
40
0.18
184
0.24
167
0.21
164
0.23
158
0.23
122
MyStereo04two views0.71
144
0.30
79
1.28
247
0.58
150
0.48
215
0.59
79
0.78
264
1.74
208
1.49
306
0.94
81
0.91
64
0.74
80
0.86
182
1.59
177
0.69
175
0.18
40
0.18
184
0.24
167
0.21
164
0.23
158
0.23
122
11t1two views0.57
59
0.30
79
0.84
124
0.54
100
0.30
63
0.83
180
0.41
87
1.34
130
0.79
48
0.88
73
0.82
50
0.70
72
0.70
130
0.96
78
0.67
170
0.21
120
0.21
221
0.20
70
0.16
54
0.21
121
0.26
177
ff7two views0.45
11
0.30
79
0.64
37
0.47
24
0.33
110
0.49
28
0.42
91
0.93
20
0.59
7
0.50
19
0.53
9
0.44
7
0.48
43
1.41
143
0.36
16
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
fffftwo views0.45
11
0.30
79
0.64
37
0.47
24
0.33
110
0.49
28
0.42
91
0.93
20
0.59
7
0.50
19
0.53
9
0.44
7
0.48
43
1.41
143
0.36
16
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
11ttwo views0.45
11
0.30
79
0.64
37
0.47
24
0.33
110
0.49
28
0.42
91
0.93
20
0.59
7
0.50
19
0.53
9
0.44
7
0.48
43
1.41
143
0.36
16
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
MSKI-zero shottwo views0.56
47
0.30
79
0.61
28
0.55
110
0.28
40
0.68
123
0.28
17
1.25
116
0.68
23
0.92
77
1.33
204
0.81
97
0.33
10
1.94
227
0.36
16
0.18
40
0.13
17
0.17
13
0.13
11
0.16
11
0.19
51
anonymousdsptwo views0.45
11
0.30
79
0.60
24
0.48
29
0.34
122
0.49
28
0.42
91
0.97
26
0.60
12
0.51
26
0.53
9
0.46
15
0.47
41
1.36
134
0.35
6
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
anonymousatwo views0.78
170
0.30
79
0.85
130
0.51
57
0.96
355
1.41
295
0.47
147
1.61
181
0.94
88
1.33
227
1.77
305
1.66
303
1.11
271
0.72
32
0.63
158
0.19
65
0.18
184
0.23
146
0.25
233
0.20
86
0.22
108
ProNettwo views0.46
19
0.30
79
0.69
53
0.46
14
0.32
97
0.57
69
0.52
173
1.15
89
0.67
22
0.44
5
0.50
8
0.44
7
0.43
22
1.31
127
0.38
28
0.16
7
0.15
112
0.19
47
0.16
54
0.18
34
0.18
32
ccc-4two views0.45
11
0.30
79
0.64
37
0.47
24
0.33
110
0.49
28
0.42
91
0.93
20
0.59
7
0.50
19
0.53
9
0.44
7
0.48
43
1.41
143
0.36
16
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
DisPMtwo views0.68
127
0.30
79
0.85
130
0.66
230
0.35
137
0.60
83
0.44
124
1.10
68
1.10
147
1.56
299
1.10
119
0.80
91
0.58
92
2.37
271
0.46
76
0.25
207
0.14
58
0.23
146
0.21
164
0.20
86
0.26
177
RAFT+CT+SAtwo views0.63
101
0.30
79
0.73
67
0.69
262
0.37
144
0.40
9
0.55
195
1.93
254
1.04
129
0.72
46
1.23
169
0.62
52
0.69
128
1.69
195
0.42
54
0.19
65
0.13
17
0.22
120
0.22
186
0.21
121
0.19
51
Sa-1000two views0.76
163
0.30
79
0.92
152
0.62
190
0.31
77
0.78
161
0.37
61
2.00
268
1.38
265
1.30
214
2.04
334
0.86
119
0.74
134
1.87
217
0.40
44
0.19
65
0.14
58
0.25
203
0.24
225
0.21
121
0.19
51
IGEV-Stereopermissivetwo views0.45
11
0.30
79
0.60
24
0.48
29
0.34
122
0.49
28
0.42
91
0.98
30
0.60
12
0.51
26
0.53
9
0.46
15
0.47
41
1.36
134
0.35
6
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
LCNettwo views0.73
152
0.30
79
0.58
18
0.58
150
0.31
77
0.68
123
0.53
179
1.09
62
0.94
88
1.19
163
1.34
207
0.96
156
1.32
305
2.50
274
0.46
76
0.19
65
0.13
17
0.21
93
0.25
233
0.28
223
0.69
354
AAGNettwo views1.84
346
0.30
79
0.79
92
0.66
230
0.32
97
0.65
109
0.50
164
1.02
37
1.01
117
1.47
279
1.21
163
0.99
165
1.16
277
2.76
288
22.69
416
0.24
187
0.13
17
0.22
120
0.20
128
0.24
187
0.16
13
TransformOpticalFlowtwo views0.97
246
0.30
79
0.96
169
0.54
100
0.31
77
0.65
109
0.54
188
1.87
238
1.19
185
1.12
123
1.44
236
1.34
255
0.98
230
6.68
371
0.44
61
0.19
65
0.12
5
0.21
93
0.19
102
0.18
34
0.23
122
SST-Stereotwo views0.85
211
0.30
79
0.81
98
0.63
200
0.31
77
0.70
134
0.25
4
1.16
92
0.95
92
1.47
279
1.11
126
0.99
165
0.86
182
5.69
348
0.53
117
0.23
169
0.13
17
0.23
146
0.19
102
0.23
158
0.19
51
RAFT_R40two views0.84
206
0.30
79
0.83
115
0.63
200
0.31
77
0.66
115
0.43
107
1.15
89
0.99
110
1.47
279
1.10
119
1.00
169
0.84
170
5.44
345
0.53
117
0.23
169
0.13
17
0.23
146
0.20
128
0.23
158
0.19
51
IRAFT_RVCtwo views0.90
227
0.30
79
0.89
142
0.67
243
0.31
77
0.64
105
1.00
313
1.40
138
0.97
100
1.23
181
1.04
101
1.00
169
0.96
220
5.77
351
0.57
137
0.24
187
0.13
17
0.25
203
0.21
164
0.20
86
0.21
87
SFCPSMtwo views0.74
155
0.30
79
1.06
191
0.52
69
0.39
161
1.36
287
0.64
233
2.42
339
1.11
151
1.18
158
1.21
163
0.81
97
0.78
149
1.08
99
0.57
137
0.22
149
0.17
161
0.22
120
0.24
225
0.23
158
0.21
87
FENettwo views0.62
92
0.30
79
0.68
49
0.57
140
0.33
110
0.82
174
0.40
79
1.41
142
1.12
156
1.03
101
0.87
57
0.98
160
0.84
170
1.00
82
0.70
178
0.23
169
0.16
139
0.23
146
0.20
128
0.22
140
0.24
141
R-Stereo Traintwo views0.60
87
0.30
79
0.72
57
0.57
140
0.37
144
0.68
123
0.52
173
1.45
147
0.78
42
1.61
308
1.50
253
0.76
82
0.53
61
0.67
27
0.51
102
0.19
65
0.16
139
0.18
33
0.15
30
0.18
34
0.19
51
RAFT-Stereopermissivetwo views0.60
87
0.30
79
0.72
57
0.57
140
0.37
144
0.68
123
0.52
173
1.45
147
0.78
42
1.61
308
1.50
253
0.76
82
0.53
61
0.67
27
0.51
102
0.19
65
0.16
139
0.18
33
0.15
30
0.18
34
0.19
51
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
CoDeXtwo views0.78
170
0.31
104
1.04
186
0.56
122
0.37
144
1.13
248
0.60
223
2.77
369
1.29
233
1.17
147
1.26
177
0.91
137
0.87
188
1.42
148
0.74
184
0.21
120
0.16
139
0.21
93
0.18
84
0.21
121
0.21
87
SAtwo views0.69
136
0.31
104
0.97
170
0.64
211
0.30
63
0.56
67
0.38
68
1.84
230
1.35
251
0.99
86
1.37
217
0.69
69
0.94
213
1.88
223
0.43
57
0.20
99
0.16
139
0.25
203
0.23
213
0.22
140
0.19
51
iRaft-Stereo_5wtwo views0.89
220
0.31
104
1.04
186
0.56
122
0.47
213
0.47
18
0.68
241
1.19
99
1.08
137
0.80
55
1.35
212
1.46
274
0.90
200
5.11
336
1.16
259
0.18
40
0.15
112
0.22
120
0.19
102
0.21
121
0.24
141
MIPNettwo views0.60
87
0.31
104
1.07
195
0.51
57
0.34
122
0.68
123
0.40
79
1.67
189
1.14
167
1.11
115
0.93
66
0.60
48
0.78
149
0.77
40
0.58
142
0.18
40
0.14
58
0.19
47
0.16
54
0.18
34
0.21
87
PFNet+two views0.62
92
0.31
104
0.99
174
0.57
140
0.31
77
0.57
69
0.30
23
0.99
35
1.25
211
1.33
227
1.10
119
0.79
89
0.57
77
1.35
133
0.53
117
0.26
224
0.17
161
0.28
245
0.26
244
0.21
121
0.27
193
STrans-v2two views1.06
265
0.31
104
1.02
182
0.52
69
0.33
110
0.67
120
0.78
264
2.66
365
1.26
217
1.15
141
1.46
241
1.37
261
1.40
314
6.68
371
0.46
76
0.19
65
0.13
17
0.21
93
0.18
84
0.18
34
0.21
87
NRIStereotwo views0.62
92
0.31
104
0.78
88
0.56
122
0.28
40
0.63
97
0.33
33
1.16
92
0.92
76
1.15
141
0.87
57
0.90
134
0.58
92
2.24
259
0.56
134
0.22
149
0.14
58
0.21
93
0.19
102
0.22
140
0.18
32
Pruner-Stereotwo views0.64
104
0.31
104
0.79
92
0.66
230
0.31
77
0.61
87
0.42
91
1.22
109
1.09
144
1.53
292
1.09
117
0.94
149
0.55
70
1.37
137
0.56
134
0.25
207
0.14
58
0.24
167
0.21
164
0.21
121
0.25
160
DeepStereo_RVCtwo views0.57
59
0.31
104
0.78
88
0.53
89
0.30
63
0.57
69
0.32
29
1.11
70
0.80
52
1.17
147
0.94
68
0.83
111
0.93
211
1.01
84
0.61
153
0.23
169
0.14
58
0.21
93
0.19
102
0.24
187
0.26
177
222two views1.67
333
0.31
104
0.93
153
0.59
162
0.31
77
1.05
236
0.43
107
2.39
335
1.47
301
1.37
244
1.55
266
0.94
149
0.94
213
1.98
233
17.76
410
0.24
187
0.22
231
0.21
93
0.20
128
0.22
140
0.26
177
test_xeamplepermissivetwo views1.55
325
0.31
104
0.94
159
0.54
100
0.31
77
0.94
213
0.58
211
2.40
337
1.40
276
1.29
212
1.55
266
0.89
132
0.88
195
1.72
197
15.94
407
0.22
149
0.22
231
0.22
120
0.21
164
0.23
158
0.25
160
EAI-Stereotwo views0.76
163
0.31
104
0.74
72
0.55
110
0.28
40
0.70
134
1.72
365
2.57
358
0.90
70
0.75
50
3.03
366
0.57
42
0.43
22
1.10
105
0.49
97
0.19
65
0.14
58
0.17
13
0.18
84
0.17
20
0.21
87
GANet-RSSMtwo views0.78
170
0.31
104
0.90
147
0.67
243
0.58
263
0.80
166
0.62
227
2.04
276
1.15
171
1.11
115
1.27
184
1.26
236
1.18
287
1.68
191
0.74
184
0.26
224
0.21
221
0.22
120
0.22
186
0.23
158
0.23
122
HSM-Net_RVCpermissivetwo views0.91
232
0.31
104
0.60
24
0.54
100
0.31
77
1.15
254
0.60
223
3.76
385
1.30
235
1.57
302
1.75
302
1.67
305
1.01
242
1.61
184
0.90
219
0.23
169
0.17
161
0.19
47
0.18
84
0.20
86
0.22
108
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
MyStereo8two views0.70
138
0.32
118
1.24
241
0.63
200
0.53
242
0.90
199
0.34
40
1.60
179
1.35
251
1.20
169
1.31
195
0.89
132
0.64
112
0.77
40
1.02
247
0.18
40
0.15
112
0.20
70
0.18
84
0.22
140
0.30
229
SMFormertwo views0.79
178
0.32
118
0.95
162
0.49
34
0.27
19
0.83
180
0.43
107
2.16
301
1.45
295
1.27
203
1.50
253
0.98
160
0.96
220
1.87
217
0.99
240
0.24
187
0.22
231
0.22
120
0.21
164
0.23
158
0.27
193
ttatwo views0.79
178
0.32
118
0.95
162
0.49
34
0.27
19
0.83
180
0.43
107
2.16
301
1.45
295
1.27
203
1.50
253
0.98
160
0.96
220
1.87
217
0.99
240
0.24
187
0.22
231
0.22
120
0.21
164
0.19
59
0.22
108
qqq1two views0.76
163
0.32
118
0.95
162
0.49
34
0.27
19
0.83
180
0.43
107
2.16
301
1.45
295
1.27
203
1.50
253
0.98
160
0.96
220
1.87
217
0.48
88
0.24
187
0.22
231
0.18
33
0.15
30
0.19
59
0.22
108
fff1two views0.76
163
0.32
118
0.95
162
0.49
34
0.27
19
0.83
180
0.43
107
2.16
301
1.45
295
1.27
203
1.50
253
0.98
160
0.96
220
1.87
217
0.48
88
0.24
187
0.22
231
0.18
33
0.15
30
0.19
59
0.22
108
1111xtwo views1.96
353
0.32
118
1.54
280
0.54
100
0.30
63
1.00
228
0.69
245
2.47
347
1.33
246
1.21
175
1.44
236
1.21
217
1.11
271
8.49
391
16.14
408
0.22
149
0.23
253
0.22
120
0.23
213
0.25
196
0.26
177
knoymoustwo views0.53
34
0.32
118
0.51
14
0.46
14
0.30
63
0.57
69
0.54
188
1.10
68
0.78
42
0.99
86
0.84
52
0.95
152
0.57
77
0.89
65
0.51
102
0.21
120
0.14
58
0.26
224
0.14
22
0.23
158
0.25
160
raft_robusttwo views0.71
144
0.32
118
0.75
77
0.54
100
0.28
40
0.54
60
0.35
49
1.54
163
1.24
205
1.18
158
1.07
108
0.73
79
0.53
61
3.65
310
0.40
44
0.19
65
0.16
139
0.20
70
0.22
186
0.21
121
0.19
51
test_5two views0.70
138
0.32
118
0.99
174
0.69
262
0.50
225
0.89
196
0.51
165
1.88
243
1.14
167
0.78
52
1.13
139
1.04
179
0.89
197
1.59
177
0.46
76
0.19
65
0.14
58
0.23
146
0.22
186
0.22
140
0.20
70
CRE-IMPtwo views0.57
59
0.32
118
0.82
107
0.54
100
0.29
51
0.77
160
0.25
4
1.19
99
0.79
48
1.09
112
0.95
69
0.81
97
0.57
77
1.11
108
0.57
137
0.22
149
0.14
58
0.23
146
0.19
102
0.28
223
0.24
141
RAFTtwo views0.67
118
0.32
118
0.83
115
0.63
200
0.34
122
0.69
131
0.57
204
1.14
78
0.84
58
1.12
123
1.20
158
1.75
318
0.92
210
1.09
103
0.60
150
0.22
149
0.19
198
0.27
233
0.24
225
0.22
140
0.23
122
rafts_anoytwo views0.55
36
0.32
118
0.66
44
0.72
279
0.61
278
0.53
51
0.40
79
1.24
114
1.06
133
0.85
67
0.83
51
0.67
63
0.53
61
0.77
40
0.55
127
0.20
99
0.15
112
0.25
203
0.26
244
0.22
140
0.21
87
xxxxtwo views1.61
329
0.32
118
0.98
172
0.58
150
0.31
77
1.15
254
0.43
107
2.43
340
1.41
279
1.17
147
1.40
228
1.21
217
0.86
182
1.94
227
16.68
409
0.24
187
0.24
261
0.21
93
0.20
128
0.23
158
0.27
193
ac_64two views0.86
213
0.32
118
1.02
182
0.74
292
0.60
273
1.04
233
0.53
179
2.20
314
0.99
110
1.23
181
1.11
126
1.96
333
1.06
261
2.01
238
1.01
245
0.30
269
0.22
231
0.24
167
0.23
213
0.22
140
0.22
108
cf-rtwo views0.79
178
0.32
118
1.06
191
0.57
140
0.64
285
0.78
161
0.51
165
2.04
276
1.22
201
1.20
169
1.27
184
1.53
286
0.91
202
1.47
157
0.94
233
0.25
207
0.19
198
0.22
120
0.23
213
0.19
59
0.21
87
PSMNet-RSSMtwo views0.78
170
0.32
118
0.89
142
0.65
217
0.43
190
0.73
142
0.58
211
2.14
295
1.19
185
1.18
158
1.38
221
1.31
248
1.07
263
1.43
150
0.82
205
0.28
252
0.21
221
0.27
233
0.29
282
0.25
196
0.26
177
DIP-Stereotwo views0.64
104
0.32
118
0.91
150
0.49
34
0.36
139
0.91
201
0.33
33
2.51
354
0.77
41
1.25
188
1.00
86
0.68
65
0.51
55
0.92
70
0.65
165
0.19
65
0.15
112
0.21
93
0.17
70
0.19
59
0.22
108
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
IGEVStereo-DCAtwo views0.49
25
0.33
135
0.64
37
0.46
14
0.34
122
0.50
38
0.42
91
0.93
20
0.59
7
0.48
13
0.48
5
0.48
24
0.45
28
2.28
263
0.44
61
0.19
65
0.14
58
0.19
47
0.15
30
0.17
20
0.21
87
rrrtwo views0.57
59
0.33
135
2.43
331
0.46
14
0.34
122
0.50
38
0.38
68
0.84
13
0.55
4
0.48
13
0.48
5
0.48
24
0.45
28
2.28
263
0.44
61
0.19
65
0.14
58
0.19
47
0.15
30
0.17
20
0.18
32
IGEV_Zeroshot_testtwo views0.59
81
0.33
135
1.11
203
0.63
200
0.37
144
0.41
12
0.33
33
1.80
221
0.79
48
1.04
103
1.10
119
1.06
183
0.43
22
0.87
61
0.48
88
0.18
40
0.13
17
0.19
47
0.18
84
0.20
86
0.23
122
EKT-Stereotwo views0.56
47
0.33
135
0.84
124
0.61
182
0.64
285
0.51
43
0.48
151
1.14
78
0.95
92
0.74
48
0.89
62
0.77
86
0.42
19
1.18
118
0.42
54
0.23
169
0.17
161
0.21
93
0.18
84
0.20
86
0.26
177
HHtwo views0.68
127
0.33
135
0.83
115
0.53
89
0.34
122
0.92
208
0.45
132
1.79
217
0.74
36
0.71
43
1.13
139
1.60
295
0.83
168
1.95
230
0.39
31
0.18
40
0.14
58
0.19
47
0.17
70
0.19
59
0.19
51
HanStereotwo views0.68
127
0.33
135
0.83
115
0.53
89
0.34
122
0.92
208
0.45
132
1.79
217
0.74
36
0.71
43
1.13
139
1.60
295
0.83
168
1.95
230
0.39
31
0.18
40
0.14
58
0.19
47
0.17
70
0.19
59
0.19
51
IERtwo views0.74
155
0.33
135
1.25
243
0.50
46
0.53
242
1.32
279
0.55
195
1.31
128
1.08
137
1.30
214
1.34
207
1.11
203
1.10
269
1.05
91
0.81
204
0.20
99
0.17
161
0.21
93
0.21
164
0.20
86
0.21
87
iRaft-Stereo_20wtwo views0.71
144
0.33
135
1.25
243
0.50
46
0.36
139
0.82
174
0.31
25
3.16
378
0.89
66
1.24
185
1.14
144
0.79
89
0.65
116
1.15
112
0.43
57
0.18
40
0.13
17
0.18
33
0.17
70
0.20
86
0.23
122
GwcNet-ADLtwo views0.67
118
0.33
135
0.90
147
0.58
150
0.41
180
0.60
83
0.59
215
1.55
165
1.28
225
1.11
115
1.13
139
0.90
134
0.59
95
1.11
108
0.91
221
0.28
252
0.18
184
0.18
33
0.18
84
0.25
196
0.33
252
Patchmatch Stereo++two views0.57
59
0.33
135
0.82
107
0.52
69
0.27
19
0.63
97
0.28
17
1.14
78
0.73
29
1.13
126
0.96
71
0.82
103
0.60
99
1.40
141
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
NF-Stereotwo views0.82
193
0.33
135
0.83
115
0.65
217
0.31
77
0.63
97
0.43
107
1.35
131
0.93
83
1.30
214
1.02
90
0.81
97
0.57
77
5.37
344
0.55
127
0.26
224
0.14
58
0.24
167
0.20
128
0.20
86
0.30
229
OCTAStereotwo views0.82
193
0.33
135
0.83
115
0.65
217
0.31
77
0.62
89
0.44
124
1.35
131
0.93
83
1.30
214
1.02
90
0.81
97
0.57
77
5.32
339
0.55
127
0.26
224
0.14
58
0.24
167
0.20
128
0.20
86
0.30
229
PSM-softLosstwo views0.80
183
0.33
135
0.89
142
0.63
200
0.32
97
0.55
64
0.40
79
1.26
117
0.78
42
1.25
188
1.07
108
0.83
111
0.51
55
5.33
340
0.61
153
0.25
207
0.15
112
0.25
203
0.22
186
0.20
86
0.26
177
KMStereotwo views0.80
183
0.33
135
0.89
142
0.63
200
0.32
97
0.55
64
0.40
79
1.26
117
0.78
42
1.25
188
1.07
108
0.83
111
0.51
55
5.33
340
0.61
153
0.25
207
0.15
112
0.25
203
0.22
186
0.20
86
0.26
177
PSM-adaLosstwo views0.56
47
0.33
135
0.81
98
0.52
69
0.27
19
0.63
97
0.41
87
1.14
78
0.73
29
1.13
126
0.96
71
0.82
103
0.60
99
1.09
103
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
ROB_FTStereo_v2two views0.57
59
0.33
135
0.81
98
0.52
69
0.27
19
0.62
89
0.42
91
1.14
78
0.73
29
1.13
126
0.97
78
0.82
103
0.60
99
1.15
112
0.53
117
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
ROB_FTStereotwo views0.56
47
0.33
135
0.82
107
0.52
69
0.27
19
0.62
89
0.25
4
1.14
78
0.74
36
1.13
126
0.96
71
0.82
103
0.60
99
1.18
118
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
HUI-Stereotwo views0.54
35
0.33
135
0.81
98
0.52
69
0.27
19
0.62
89
0.29
21
1.14
78
0.74
36
1.13
126
0.96
71
0.82
103
0.60
99
0.83
53
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
RE-Stereotwo views0.82
193
0.33
135
0.84
124
0.65
217
0.31
77
0.63
97
0.44
124
1.35
131
0.93
83
1.30
214
1.02
90
0.80
91
0.57
77
5.34
342
0.55
127
0.26
224
0.14
58
0.24
167
0.20
128
0.20
86
0.31
238
TVStereotwo views0.82
193
0.33
135
0.84
124
0.65
217
0.31
77
0.63
97
0.44
124
1.35
131
0.93
83
1.30
214
1.02
90
0.80
91
0.57
77
5.34
342
0.55
127
0.26
224
0.14
58
0.24
167
0.20
128
0.20
86
0.31
238
iGMRVCtwo views0.58
70
0.33
135
0.81
98
0.52
69
0.27
19
0.62
89
0.38
68
1.14
78
0.73
29
1.13
126
0.97
78
0.82
103
0.59
95
1.54
168
0.53
117
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
iRAFTtwo views0.57
59
0.33
135
0.82
107
0.52
69
0.27
19
0.63
97
0.28
17
1.14
78
0.73
29
1.13
126
0.96
71
0.82
103
0.60
99
1.40
141
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
CroCo-Stereocopylefttwo views0.42
8
0.33
135
0.83
115
0.59
162
0.28
40
0.26
1
0.33
33
1.22
109
0.85
61
0.43
4
0.49
7
0.65
59
0.46
35
0.40
1
0.36
16
0.19
65
0.15
112
0.16
8
0.14
22
0.20
86
0.17
23
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFT-IKPtwo views0.57
59
0.33
135
0.82
107
0.52
69
0.27
19
0.57
69
0.35
49
1.14
78
0.73
29
1.13
126
0.96
71
0.83
111
0.61
109
1.26
124
0.53
117
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
test_xeample3two views0.57
59
0.33
135
3.11
348
0.46
14
0.34
122
0.55
64
0.38
68
0.86
17
0.49
2
0.54
29
0.46
3
0.44
7
0.44
26
1.49
165
0.45
72
0.18
40
0.14
58
0.19
47
0.15
30
0.17
20
0.18
32
ACVNettwo views0.66
110
0.33
135
0.74
72
0.55
110
0.37
144
0.80
166
0.47
147
1.46
149
1.11
151
1.01
93
1.31
195
1.07
186
0.91
202
0.82
50
1.09
252
0.22
149
0.19
198
0.21
93
0.18
84
0.23
158
0.19
51
acv_fttwo views0.78
170
0.33
135
1.10
201
0.73
286
0.86
342
1.23
272
0.57
204
1.65
188
1.11
151
1.31
220
1.31
195
1.07
186
0.91
202
0.82
50
1.35
284
0.22
149
0.19
198
0.21
93
0.18
84
0.22
140
0.19
51
ACVNet-DCAtwo views0.59
81
0.34
162
0.63
32
0.60
169
0.27
19
1.16
257
0.51
165
1.58
172
0.91
71
0.60
34
0.80
46
0.47
20
0.87
188
1.48
159
0.35
6
0.21
120
0.13
17
0.25
203
0.15
30
0.23
158
0.25
160
xx1two views0.70
138
0.34
162
0.63
32
0.60
169
0.27
19
1.16
257
0.51
165
1.07
50
3.23
381
0.60
34
0.80
46
0.95
152
0.79
154
1.48
159
0.35
6
0.21
120
0.13
17
0.24
167
0.23
213
0.23
158
0.25
160
1test111two views0.58
70
0.34
162
0.63
32
0.60
169
0.27
19
1.16
257
0.51
165
1.58
172
0.91
71
0.60
34
0.80
46
0.47
20
0.87
188
0.99
80
0.67
170
0.21
120
0.13
17
0.25
203
0.15
30
0.23
158
0.25
160
cc1two views0.68
127
0.34
162
0.63
32
0.60
169
0.27
19
1.16
257
0.51
165
1.07
50
3.23
381
0.60
34
0.80
46
0.47
20
0.87
188
1.48
159
0.35
6
0.21
120
0.13
17
0.25
203
0.15
30
0.19
59
0.23
122
tt1two views0.65
108
0.34
162
0.65
42
0.60
169
0.27
19
1.14
251
0.48
151
1.08
55
2.62
369
0.59
31
0.79
43
0.49
28
0.80
160
1.57
171
0.35
6
0.21
120
0.13
17
0.25
203
0.16
54
0.20
86
0.23
122
PCWNet_CMDtwo views0.68
127
0.34
162
0.93
153
0.51
57
0.38
154
0.80
166
0.42
91
1.51
155
1.34
248
1.17
147
1.31
195
1.23
225
0.65
116
0.94
71
0.62
156
0.21
120
0.17
161
0.27
233
0.19
102
0.43
300
0.28
204
CFNet_ucstwo views0.73
152
0.34
162
0.94
159
0.53
89
0.44
197
0.76
151
0.46
138
1.73
207
1.34
248
1.24
185
1.54
263
1.08
196
0.64
112
1.05
91
0.64
161
0.26
224
0.20
208
0.37
312
0.22
186
0.42
298
0.30
229
xtwo views0.59
81
0.34
162
0.79
92
0.51
57
0.32
97
0.69
131
0.46
138
1.64
185
0.97
100
0.86
71
0.86
55
0.83
111
0.74
134
0.75
38
0.70
178
0.21
120
0.22
231
0.22
120
0.20
128
0.21
121
0.24
141
BUStwo views0.78
170
0.34
162
0.77
82
0.55
110
0.45
200
2.30
358
0.42
91
2.65
362
1.04
129
1.25
188
1.12
129
1.02
175
0.70
130
0.94
71
0.75
187
0.25
207
0.18
184
0.25
203
0.22
186
0.23
158
0.24
141
BSDual-CNNtwo views0.75
158
0.34
162
0.77
82
0.55
110
0.45
200
1.25
274
0.66
237
2.65
362
1.04
129
1.25
188
1.12
129
1.11
203
0.77
144
0.94
71
0.76
190
0.25
207
0.18
184
0.25
203
0.22
186
0.23
158
0.24
141
hknettwo views0.82
193
0.34
162
1.15
212
0.55
110
0.39
161
1.25
274
0.66
237
2.65
362
1.10
147
1.25
188
1.12
129
1.58
294
0.85
175
1.41
143
0.79
197
0.23
169
0.18
184
0.25
203
0.22
186
0.23
158
0.24
141
psmgtwo views0.75
158
0.34
162
0.77
82
0.52
69
0.45
200
1.46
300
0.73
256
2.15
299
1.04
129
1.25
188
1.33
204
1.11
203
0.77
144
0.94
71
0.76
190
0.25
207
0.20
208
0.25
203
0.26
244
0.23
158
0.24
141
IIG-Stereotwo views0.97
246
0.34
162
0.80
97
0.90
343
0.33
110
0.61
87
0.26
10
1.27
121
1.08
137
1.69
318
1.37
217
1.44
269
0.74
134
6.94
375
0.53
117
0.21
120
0.14
58
0.23
146
0.18
84
0.20
86
0.15
3
CFNet_pseudotwo views0.68
127
0.34
162
0.93
153
0.50
46
0.39
161
0.72
139
0.42
91
1.44
145
1.25
211
1.17
147
1.35
212
1.22
221
0.66
120
1.04
88
0.64
161
0.21
120
0.17
161
0.33
286
0.19
102
0.39
286
0.28
204
RALCasStereoNettwo views0.58
70
0.34
162
0.77
82
0.65
217
0.64
285
0.64
105
0.51
165
1.06
49
0.99
110
0.71
43
1.06
106
0.77
86
0.44
26
1.38
138
0.52
108
0.20
99
0.18
184
0.18
33
0.16
54
0.20
86
0.22
108
delettwo views0.90
227
0.34
162
1.15
212
0.69
262
0.66
294
1.63
316
0.81
276
1.95
258
1.49
306
1.42
263
1.38
221
1.29
244
0.91
202
1.78
204
1.18
260
0.22
149
0.22
231
0.24
167
0.25
233
0.22
140
0.24
141
UPFNettwo views0.84
206
0.34
162
1.09
198
0.62
190
0.74
313
1.25
274
0.78
264
1.69
199
1.20
189
1.39
251
1.13
139
1.30
246
0.87
188
1.73
198
1.22
267
0.24
187
0.26
279
0.24
167
0.23
213
0.26
206
0.20
70
GwcNet-RSSMtwo views0.83
202
0.34
162
1.29
250
0.65
217
0.55
253
0.78
161
0.62
227
1.89
245
1.27
221
1.18
158
1.39
223
1.56
291
0.91
202
1.60
182
1.22
267
0.26
224
0.20
208
0.23
146
0.24
225
0.21
121
0.21
87
RASNettwo views1.16
281
0.34
162
1.11
203
0.73
286
0.86
342
1.00
228
0.60
223
1.56
167
1.43
288
1.07
110
1.37
217
2.08
346
1.44
319
7.00
376
1.56
305
0.20
99
0.17
161
0.17
13
0.19
102
0.19
59
0.19
51
MSMDNettwo views0.68
127
0.34
162
0.93
153
0.52
69
0.38
154
0.80
166
0.42
91
1.52
157
1.35
251
1.17
147
1.31
195
1.23
225
0.65
116
0.94
71
0.62
156
0.21
120
0.17
161
0.26
224
0.19
102
0.41
294
0.28
204
ccs_robtwo views0.68
127
0.34
162
0.93
153
0.50
46
0.39
161
0.72
139
0.42
91
1.43
144
1.25
211
1.17
147
1.34
207
1.22
221
0.66
120
1.04
88
0.64
161
0.21
120
0.17
161
0.35
300
0.20
128
0.40
290
0.29
216
HSMtwo views1.22
292
0.34
162
0.81
98
0.61
182
0.39
161
1.22
270
0.63
232
2.45
342
1.25
211
1.32
222
1.26
177
1.91
323
1.08
264
9.21
396
0.75
187
0.23
169
0.17
161
0.20
70
0.16
54
0.22
140
0.24
141
ToySttwo views0.73
152
0.35
184
1.64
286
0.54
100
0.37
144
0.92
208
0.81
276
1.21
107
1.03
123
0.86
71
1.12
129
1.31
248
1.01
242
1.04
88
0.88
214
0.19
65
0.20
208
0.24
167
0.24
225
0.27
208
0.28
204
OMP-Stereotwo views0.95
241
0.35
184
0.79
92
0.92
345
0.32
97
0.49
28
0.35
49
1.22
109
1.11
151
1.58
303
1.12
129
1.44
269
0.69
128
6.92
374
0.51
102
0.20
99
0.15
112
0.24
167
0.19
102
0.21
121
0.16
13
ICVPtwo views0.66
110
0.35
184
0.71
56
0.63
200
0.41
180
0.85
190
0.56
201
1.78
214
0.96
96
0.92
77
1.24
173
0.88
126
0.75
139
0.76
39
0.93
228
0.31
273
0.22
231
0.22
120
0.21
164
0.24
187
0.28
204
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
MMNettwo views0.89
220
0.35
184
1.44
264
0.64
211
0.59
269
1.83
335
0.48
151
1.70
202
1.38
265
1.45
276
1.19
157
1.25
230
1.16
277
1.77
202
1.27
275
0.20
99
0.19
198
0.23
146
0.22
186
0.25
196
0.24
141
DualNettwo views1.46
317
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
1.08
55
2.62
369
1.19
163
1.49
246
1.07
186
0.85
175
1.57
171
13.82
400
0.21
120
0.13
17
0.31
266
0.28
267
0.20
86
0.23
122
ffmtwo views0.79
178
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
1.08
55
2.62
369
1.19
163
1.49
246
1.07
186
0.85
175
1.57
171
0.35
6
0.21
120
0.13
17
0.31
266
0.28
267
0.20
86
0.23
122
ff1two views1.88
347
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
1.08
55
2.62
369
1.19
163
1.49
246
1.07
186
0.85
175
9.88
404
13.82
400
0.21
120
0.13
17
0.31
266
0.28
267
0.20
86
0.23
122
mmxtwo views1.89
350
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
2.32
327
1.41
279
1.19
163
1.49
246
1.07
186
0.85
175
9.88
404
13.82
400
0.25
207
0.21
221
0.31
266
0.28
267
0.32
256
0.29
216
ttttwo views1.26
301
0.36
188
0.79
92
0.65
217
0.42
187
0.94
213
0.57
204
2.33
332
1.38
265
1.25
188
1.65
288
0.92
142
0.78
149
2.64
281
8.73
388
0.30
269
0.28
291
0.26
224
0.25
233
0.29
233
0.32
246
xxxcopylefttwo views1.89
350
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
2.32
327
1.41
279
1.19
163
1.49
246
1.07
186
0.85
175
9.88
404
13.82
400
0.25
207
0.21
221
0.31
266
0.28
267
0.32
256
0.29
216
LL-Strereo2two views0.56
47
0.36
188
0.77
82
0.56
122
0.40
170
0.68
123
0.37
61
1.21
107
0.83
56
0.96
84
0.79
43
0.91
137
0.41
16
1.08
99
0.48
88
0.18
40
0.17
161
0.29
253
0.25
233
0.22
140
0.19
51
CASStwo views0.67
118
0.36
188
0.84
124
0.57
140
0.28
40
0.82
174
0.43
107
1.62
184
0.92
76
1.39
251
1.28
189
0.87
120
0.84
170
0.88
63
0.59
148
0.36
305
0.19
198
0.26
224
0.22
186
0.29
233
0.43
299
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
qqqtwo views0.62
92
0.36
188
0.88
139
0.50
46
0.28
40
0.64
105
0.62
227
1.58
172
0.91
71
0.83
62
0.96
71
0.95
152
0.79
154
0.99
80
0.67
170
0.21
120
0.23
253
0.24
167
0.23
213
0.23
158
0.25
160
PSMNet-ADLtwo views0.75
158
0.36
188
0.69
53
0.71
274
0.47
213
1.13
248
0.46
138
1.47
152
1.07
134
0.85
67
1.18
154
1.31
248
0.94
213
1.56
169
1.06
250
0.34
290
0.22
231
0.22
120
0.23
213
0.27
208
0.36
270
UNettwo views0.86
213
0.36
188
1.52
276
0.62
190
0.74
313
1.56
309
0.49
159
1.55
165
1.12
156
1.28
208
1.10
119
1.52
285
1.10
269
1.69
195
1.14
257
0.24
187
0.18
184
0.25
203
0.21
164
0.25
196
0.25
160
CFNet-ftpermissivetwo views0.78
170
0.36
188
0.74
72
0.67
243
0.56
257
0.86
191
0.54
188
1.46
149
1.17
180
1.01
93
1.28
189
1.68
307
1.03
249
1.57
171
0.95
235
0.27
241
0.21
221
0.33
286
0.26
244
0.31
248
0.26
177
DMCAtwo views0.71
144
0.36
188
1.17
226
0.53
89
0.45
200
0.84
187
0.46
138
1.52
157
1.09
144
1.20
169
1.12
129
1.21
217
0.74
134
0.87
61
1.09
252
0.25
207
0.20
208
0.27
233
0.19
102
0.24
187
0.29
216
CFNet_RVCtwo views0.78
170
0.36
188
0.74
72
0.67
243
0.56
257
0.86
191
0.54
188
1.46
149
1.17
180
1.01
93
1.28
189
1.68
307
1.03
249
1.57
171
0.95
235
0.27
241
0.21
221
0.33
286
0.26
244
0.31
248
0.26
177
iResNet_ROBtwo views0.82
193
0.36
188
1.13
207
0.60
169
0.37
144
0.91
201
0.38
68
2.41
338
1.61
324
1.35
238
1.35
212
1.25
230
0.97
227
1.75
200
0.88
214
0.21
120
0.14
58
0.17
13
0.12
9
0.19
59
0.30
229
DN-CSS_ROBtwo views0.67
118
0.36
188
1.36
258
0.59
162
0.41
180
0.54
60
0.45
132
1.30
127
0.95
92
1.05
105
1.47
243
0.69
69
0.64
112
1.80
211
0.60
150
0.19
65
0.15
112
0.25
203
0.23
213
0.22
140
0.23
122
mmmtwo views0.68
127
0.37
204
0.91
150
0.54
100
0.34
122
0.86
191
0.58
211
1.72
206
1.02
120
1.13
126
1.41
231
0.83
111
0.78
149
0.95
77
0.67
170
0.22
149
0.20
208
0.29
253
0.26
244
0.27
208
0.27
193
StereoVisiontwo views0.67
118
0.37
204
1.02
182
0.60
169
0.41
180
0.50
38
0.41
87
1.32
129
0.96
96
0.73
47
2.48
357
0.82
103
0.57
77
1.06
95
0.50
100
0.26
224
0.28
291
0.29
253
0.28
267
0.37
276
0.22
108
CBFPSMtwo views0.95
241
0.37
204
2.10
316
0.51
57
0.39
161
1.73
323
0.87
291
1.59
177
1.13
161
1.11
115
1.00
86
2.34
355
1.64
335
1.42
148
1.44
292
0.19
65
0.18
184
0.20
70
0.20
128
0.22
140
0.36
270
gwcnet-sptwo views0.80
183
0.37
204
1.94
304
0.62
190
0.45
200
1.38
288
0.53
179
1.68
190
1.20
189
1.37
244
1.08
114
0.93
144
0.82
165
1.45
153
0.79
197
0.22
149
0.22
231
0.22
120
0.21
164
0.23
158
0.25
160
scenettwo views0.80
183
0.37
204
1.94
304
0.62
190
0.45
200
1.38
288
0.53
179
1.68
190
1.20
189
1.37
244
1.08
114
0.93
144
0.82
165
1.45
153
0.79
197
0.22
149
0.22
231
0.22
120
0.21
164
0.23
158
0.25
160
ssnettwo views0.80
183
0.37
204
1.94
304
0.62
190
0.45
200
1.38
288
0.53
179
1.68
190
1.20
189
1.37
244
1.08
114
0.93
144
0.82
165
1.45
153
0.79
197
0.22
149
0.22
231
0.22
120
0.21
164
0.23
158
0.25
160
CroCo-Stereo Lap2two views0.46
19
0.37
204
0.87
137
0.62
190
0.79
328
0.28
2
0.35
49
0.81
6
0.73
29
0.39
3
0.54
15
0.71
78
0.54
68
0.60
13
0.48
88
0.18
40
0.18
184
0.19
47
0.16
54
0.21
121
0.21
87
CIPLGtwo views0.67
118
0.37
204
1.17
226
0.60
169
0.51
234
0.75
146
0.48
151
1.26
117
1.11
151
1.43
267
1.58
276
0.64
58
0.48
43
0.94
71
0.78
193
0.24
187
0.15
112
0.19
47
0.16
54
0.19
59
0.29
216
DAStwo views0.89
220
0.37
204
1.20
232
0.66
230
0.69
302
0.82
174
0.62
227
1.79
217
1.26
217
1.93
339
1.55
266
0.96
156
1.17
280
2.72
286
0.69
175
0.22
149
0.16
139
0.25
203
0.18
84
0.29
233
0.24
141
SepStereotwo views0.87
216
0.37
204
1.20
232
0.66
230
0.69
302
0.82
174
0.62
227
1.79
217
1.26
217
1.93
339
1.55
266
0.96
156
1.17
280
2.34
266
0.69
175
0.22
149
0.16
139
0.25
203
0.18
84
0.29
233
0.24
141
ACREtwo views0.66
110
0.37
204
1.27
246
0.60
169
0.50
225
0.74
144
0.47
147
1.26
117
1.10
147
1.40
257
1.56
271
0.62
52
0.46
35
0.88
63
0.78
193
0.24
187
0.15
112
0.19
47
0.16
54
0.19
59
0.29
216
ADLNet2two views0.92
235
0.37
204
1.25
243
0.80
312
0.65
291
1.12
247
0.75
258
1.95
258
1.42
287
1.26
198
1.67
291
1.68
307
1.04
255
1.80
211
1.23
270
0.25
207
0.22
231
0.21
93
0.22
186
0.27
208
0.31
238
RALAANettwo views0.62
92
0.37
204
0.97
170
0.66
230
0.50
225
0.67
120
0.31
25
1.27
121
1.09
144
1.11
115
1.17
152
0.88
126
0.46
35
1.27
126
0.45
72
0.20
99
0.15
112
0.21
93
0.18
84
0.27
208
0.19
51
GEStwo views0.70
138
0.37
204
1.05
188
0.62
190
0.38
154
0.94
213
0.57
204
2.37
334
0.92
76
1.05
105
1.12
129
0.67
63
0.77
144
1.02
86
0.65
165
0.28
252
0.20
208
0.20
70
0.20
128
0.22
140
0.31
238
psm_uptwo views0.83
202
0.37
204
0.88
139
0.68
252
0.59
269
1.05
236
0.92
298
1.68
190
1.17
180
1.41
259
1.22
165
1.30
246
1.31
303
1.39
140
0.89
216
0.27
241
0.30
303
0.31
266
0.27
258
0.28
223
0.28
204
UCFNet_RVCtwo views0.72
149
0.37
204
0.59
22
0.66
230
0.41
180
0.89
196
0.68
241
1.78
214
1.15
171
1.01
93
1.20
158
1.22
221
0.95
218
1.07
97
0.66
169
0.28
252
0.21
221
0.34
294
0.31
297
0.33
261
0.29
216
DISCOtwo views1.06
265
0.37
204
1.19
231
0.73
286
0.46
207
2.04
349
0.84
283
2.26
319
1.54
313
1.25
188
1.36
216
2.38
357
1.08
264
2.60
280
1.62
311
0.24
187
0.19
198
0.22
120
0.20
128
0.32
256
0.29
216
IPLGR_Ctwo views0.67
118
0.38
221
1.20
232
0.60
169
0.50
225
0.75
146
0.48
151
1.28
125
1.13
161
1.42
263
1.57
275
0.62
52
0.48
43
0.85
59
0.80
202
0.24
187
0.15
112
0.19
47
0.16
54
0.19
59
0.29
216
GANet-ADLtwo views0.63
101
0.38
221
0.82
107
0.67
243
0.41
180
0.68
123
0.51
165
1.64
185
1.16
176
0.98
85
1.10
119
0.90
134
0.58
92
0.81
48
0.63
158
0.27
241
0.18
184
0.18
33
0.16
54
0.23
158
0.27
193
hitnet-ftcopylefttwo views0.84
206
0.38
221
0.75
77
0.59
162
0.44
197
0.99
227
0.47
147
1.61
181
1.38
265
1.21
175
1.22
165
1.82
321
0.99
233
1.87
217
1.09
252
0.33
283
0.29
299
0.34
294
0.27
258
0.36
271
0.33
252
DSFCAtwo views0.95
241
0.38
221
1.23
238
0.55
110
0.66
294
1.50
302
0.93
301
1.58
172
1.24
205
1.59
306
1.16
150
1.48
277
0.95
218
2.96
293
1.20
262
0.31
273
0.28
291
0.25
203
0.26
244
0.29
233
0.26
177
ssnet_v2two views0.92
235
0.39
225
1.22
236
0.66
230
0.39
161
1.31
278
0.96
307
2.32
327
1.45
295
1.48
284
1.17
152
1.53
286
0.91
202
1.16
114
1.71
323
0.31
273
0.27
287
0.30
262
0.29
282
0.28
223
0.29
216
AASNettwo views0.80
183
0.39
225
1.16
225
0.84
327
0.80
330
1.14
251
0.59
215
2.12
290
1.21
195
1.26
198
1.26
177
0.93
144
0.77
144
0.84
56
1.23
270
0.28
252
0.24
261
0.24
167
0.20
128
0.28
223
0.27
193
pcwnet_v2two views0.91
232
0.39
225
2.74
340
0.64
211
0.55
253
0.81
173
0.49
159
2.19
311
1.63
325
1.44
270
1.64
287
1.09
197
0.79
154
1.31
127
0.70
178
0.32
280
0.25
274
0.29
253
0.27
258
0.37
276
0.37
273
ADLNettwo views0.89
220
0.39
225
1.09
198
0.88
335
0.73
309
1.24
273
0.75
258
2.02
270
1.41
279
1.58
303
1.37
217
1.26
236
1.00
239
1.31
127
1.18
260
0.28
252
0.21
221
0.26
224
0.26
244
0.29
233
0.36
270
MLCVtwo views0.77
168
0.39
225
1.31
251
0.55
110
0.25
8
0.91
201
0.39
77
1.48
154
1.28
225
1.49
286
1.54
263
1.02
175
0.68
125
2.12
251
0.93
228
0.19
65
0.13
17
0.19
47
0.14
22
0.19
59
0.22
108
NINENettwo views0.81
191
0.40
230
0.89
142
0.65
217
0.53
242
2.30
358
0.42
91
2.12
290
1.13
161
1.20
169
1.27
184
1.02
175
0.70
130
1.26
124
0.75
187
0.29
264
0.24
261
0.31
266
0.21
164
0.27
208
0.26
177
AACVNettwo views0.90
227
0.40
230
0.98
172
0.86
332
0.40
170
0.80
166
0.49
159
1.81
224
0.86
63
1.11
115
1.34
207
1.32
252
0.99
233
4.23
319
0.86
210
0.26
224
0.22
231
0.28
245
0.22
186
0.30
243
0.28
204
GEStereo_RVCtwo views0.93
240
0.40
230
1.15
212
0.67
243
0.50
225
0.95
219
0.78
264
2.73
367
1.21
195
1.20
169
1.12
129
1.25
230
0.91
202
3.21
300
0.95
235
0.31
273
0.20
208
0.23
146
0.20
128
0.28
223
0.31
238
HCRNettwo views0.72
149
0.40
230
0.86
135
0.61
182
0.57
261
0.75
146
0.35
49
1.39
137
1.21
195
1.11
115
0.99
82
1.01
173
0.76
140
2.18
255
0.73
182
0.28
252
0.19
198
0.28
245
0.23
213
0.25
196
0.26
177
ARAFTtwo views0.82
193
0.40
230
1.77
292
0.53
89
0.31
77
0.89
196
0.81
276
2.32
327
1.08
137
1.66
315
1.25
175
1.04
179
0.64
112
1.91
224
0.52
108
0.20
99
0.15
112
0.28
245
0.27
258
0.17
20
0.18
32
CFNettwo views0.99
251
0.40
230
1.23
238
0.65
217
0.43
190
1.03
232
0.49
159
2.01
269
1.35
251
1.02
97
1.39
223
1.10
198
0.86
182
5.47
346
0.89
216
0.24
187
0.18
184
0.28
245
0.27
258
0.27
208
0.22
108
MDST_ROBtwo views1.88
347
0.40
230
1.71
289
0.93
350
0.60
273
4.27
395
1.23
339
3.99
388
1.44
290
4.61
395
2.63
359
1.44
269
1.03
249
9.78
401
1.62
311
0.33
283
0.26
279
0.37
312
0.33
311
0.31
248
0.34
259
SGM_RVCbinarytwo views1.88
347
0.40
230
0.90
147
0.63
200
0.30
63
2.81
371
1.26
342
2.73
367
1.81
341
4.09
387
2.85
363
3.88
381
3.19
382
8.42
390
2.44
346
0.33
283
0.31
308
0.30
262
0.28
267
0.31
248
0.31
238
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
SGM-Foresttwo views1.29
305
0.40
230
0.74
72
0.54
100
0.37
144
1.55
307
1.26
342
1.82
227
1.39
274
2.22
353
1.81
313
1.64
301
1.02
247
7.65
383
1.20
262
0.39
315
0.37
335
0.39
320
0.34
316
0.37
276
0.34
259
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
CSP-Nettwo views1.00
254
0.41
239
0.99
174
0.56
122
0.43
190
1.62
315
0.76
260
2.16
301
1.16
176
1.33
227
1.22
165
1.32
252
0.89
197
4.67
330
0.93
228
0.35
298
0.24
261
0.20
70
0.20
128
0.23
158
0.30
229
Anonymoustwo views0.56
47
0.41
239
1.05
188
0.67
243
0.73
309
0.65
109
0.68
241
1.12
72
0.79
48
0.48
13
0.60
19
0.42
4
0.60
99
0.81
48
0.55
127
0.26
224
0.24
261
0.21
93
0.21
164
0.41
294
0.30
229
CRFU-Nettwo views0.90
227
0.42
241
1.10
201
0.69
262
0.59
269
1.76
327
0.84
283
2.33
332
0.92
76
1.45
276
1.20
158
1.62
297
1.25
294
1.38
138
0.94
233
0.28
252
0.23
253
0.22
120
0.19
102
0.24
187
0.27
193
TestStereotwo views0.65
108
0.42
241
0.83
115
0.52
69
0.27
19
0.57
69
0.44
124
1.07
50
0.92
76
0.85
67
1.01
88
0.68
65
0.56
75
3.22
301
0.47
84
0.23
169
0.15
112
0.24
167
0.18
84
0.28
223
0.18
32
HGLStereotwo views0.89
220
0.42
241
1.15
212
0.82
319
1.03
359
1.16
257
0.57
204
1.68
190
1.28
225
1.26
198
1.62
282
1.13
207
1.31
303
1.85
213
1.11
256
0.25
207
0.24
261
0.24
167
0.22
186
0.24
187
0.29
216
HITNettwo views0.71
144
0.42
241
1.07
195
0.52
69
0.25
8
1.05
236
0.48
151
2.12
290
1.08
137
1.21
175
1.23
169
0.91
137
0.84
170
0.90
68
0.91
221
0.17
18
0.12
5
0.21
93
0.17
70
0.29
233
0.18
32
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
sCroCo_RVCtwo views0.51
31
0.43
245
1.15
212
0.66
230
0.60
273
0.52
47
0.40
79
0.93
20
0.64
19
0.45
9
0.76
36
0.49
28
0.49
53
0.65
25
0.49
97
0.27
241
0.28
291
0.23
146
0.22
186
0.29
233
0.28
204
FAT-Stereotwo views1.10
273
0.43
245
1.46
266
0.74
292
0.60
273
1.13
248
0.92
298
2.06
281
1.71
331
1.75
322
2.00
332
2.02
339
1.47
322
2.02
240
1.26
274
0.44
333
0.36
331
0.34
294
0.29
282
0.36
271
0.57
334
iResNetv2_ROBtwo views0.88
218
0.43
245
2.62
339
0.60
169
0.38
154
0.94
213
0.67
239
1.88
243
1.38
265
1.27
203
1.45
239
1.26
236
1.05
260
1.92
225
0.64
161
0.24
187
0.15
112
0.19
47
0.14
22
0.24
187
0.21
87
StereoDRNet-Refinedtwo views0.84
206
0.43
245
1.01
180
0.66
230
0.43
190
1.32
279
0.49
159
1.64
185
1.24
205
1.53
292
1.45
239
1.49
279
0.97
227
1.32
130
1.31
277
0.21
120
0.17
161
0.27
233
0.25
233
0.25
196
0.34
259
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
DLCB_ROBtwo views0.92
235
0.43
245
0.95
162
0.71
274
0.55
253
1.11
245
0.83
281
1.61
181
1.32
244
1.67
316
1.66
289
1.70
310
0.93
211
1.96
232
1.34
282
0.26
224
0.25
274
0.27
233
0.28
267
0.28
223
0.28
204
LL-Strereotwo views1.42
313
0.44
250
2.02
311
0.62
190
1.07
361
0.73
142
0.65
235
2.02
270
1.21
195
1.60
307
1.62
282
2.02
339
2.10
362
9.67
400
1.07
251
0.22
149
0.20
208
0.27
233
0.24
225
0.23
158
0.33
252
stereogantwo views1.22
292
0.45
251
2.03
313
0.87
333
0.85
341
2.52
363
0.72
253
1.98
263
1.78
338
1.92
337
1.94
328
2.31
354
1.42
316
2.10
249
1.14
257
0.38
308
0.36
331
0.39
320
0.32
302
0.52
328
0.49
311
NVstereo2Dtwo views0.99
251
0.45
251
2.21
324
0.79
311
0.75
316
1.20
268
0.86
289
1.98
263
1.41
279
1.02
97
1.18
154
1.31
248
0.97
227
2.25
260
0.93
228
0.45
336
0.22
231
0.39
320
0.25
233
0.59
343
0.68
352
iResNettwo views0.80
183
0.45
251
1.47
267
0.72
279
0.31
77
0.96
224
0.64
233
1.80
221
1.28
225
1.31
220
1.48
245
0.94
149
0.78
149
1.77
202
0.99
240
0.19
65
0.14
58
0.18
33
0.15
30
0.22
140
0.27
193
Wz-Net-LNSev-Reftwo views1.09
272
0.46
254
2.61
338
0.71
274
0.65
291
2.00
346
0.78
264
2.07
283
1.47
301
1.62
310
1.47
243
1.53
286
1.29
299
2.10
249
1.65
317
0.24
187
0.14
58
0.20
70
0.16
54
0.28
223
0.28
204
DMCA-RVCcopylefttwo views0.83
202
0.46
254
2.19
323
0.68
252
0.49
221
0.84
187
0.48
151
1.44
145
1.07
134
1.56
299
1.04
101
1.29
244
0.86
182
1.49
165
0.92
225
0.27
241
0.22
231
0.35
300
0.28
267
0.32
256
0.28
204
NLCA_NET_v2_RVCtwo views0.84
206
0.46
254
1.40
263
0.69
262
0.61
278
0.95
219
0.52
173
1.68
190
1.21
195
1.39
251
1.15
149
1.42
265
0.88
195
1.78
204
0.93
228
0.26
224
0.23
253
0.27
233
0.27
258
0.30
243
0.39
282
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
CBMV_ROBtwo views0.99
251
0.46
254
0.68
49
0.53
89
0.39
161
1.40
293
0.48
151
2.09
286
1.30
235
1.53
292
2.29
347
1.36
257
1.23
290
2.46
272
1.04
249
0.44
333
0.42
351
0.47
342
0.44
341
0.41
294
0.39
282
pmcnntwo views2.84
380
0.46
254
5.19
372
0.68
252
0.42
187
1.55
307
1.16
331
2.32
327
1.60
323
2.72
368
7.49
398
17.96
412
1.48
323
6.04
357
6.64
381
0.18
40
0.15
112
0.15
3
0.12
9
0.20
86
0.20
70
Anonymous3two views0.64
104
0.47
259
1.31
251
0.59
162
0.50
225
0.93
211
0.69
245
1.11
70
0.83
56
0.74
48
0.89
62
0.65
59
0.68
125
1.08
99
0.54
126
0.40
317
0.31
308
0.26
224
0.26
244
0.31
248
0.30
229
RAFT + AFFtwo views1.07
269
0.47
259
1.36
258
0.68
252
0.50
225
1.20
268
1.22
337
2.58
359
1.26
217
1.33
227
1.56
271
1.19
214
1.49
324
3.89
317
1.01
245
0.22
149
0.26
279
0.30
262
0.27
258
0.29
233
0.32
246
LE_ROBtwo views8.35
406
0.47
259
27.42
420
0.83
323
0.34
122
2.84
373
3.36
402
4.03
389
27.04
420
25.20
420
8.72
404
8.55
403
27.35
420
7.37
380
22.13
413
0.22
149
0.20
208
0.20
70
0.21
164
0.25
196
0.25
160
fast-acv-fttwo views1.00
254
0.48
262
1.85
300
0.61
182
0.52
237
1.77
329
0.69
245
1.52
157
1.47
301
1.34
234
1.85
318
1.73
313
1.24
293
1.62
185
1.56
305
0.27
241
0.28
291
0.28
245
0.28
267
0.28
223
0.31
238
S-Stereotwo views1.17
283
0.48
262
2.25
327
0.83
323
0.81
334
1.22
270
1.17
332
2.12
290
2.08
355
1.47
279
2.13
339
1.55
289
1.16
277
2.09
248
1.46
295
0.42
324
0.40
345
0.35
300
0.32
302
0.45
312
0.73
356
AdaStereotwo views0.74
155
0.48
262
0.86
135
0.75
299
0.38
154
0.94
213
0.56
201
2.05
280
1.24
205
1.15
141
1.22
165
1.07
186
0.67
122
1.05
91
0.73
182
0.33
283
0.16
139
0.32
278
0.22
186
0.29
233
0.23
122
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
SGM-ForestMtwo views7.81
405
0.48
262
11.02
394
0.74
292
0.40
170
16.83
413
12.72
411
7.91
408
8.13
402
11.53
411
10.25
406
22.44
420
14.01
410
17.02
414
20.52
412
0.38
308
0.39
343
0.37
312
0.36
322
0.37
276
0.38
279
CBMVpermissivetwo views1.04
261
0.48
262
0.88
139
0.56
122
0.36
139
1.52
304
1.55
356
1.87
238
1.59
321
2.11
350
1.67
291
1.46
274
1.35
308
1.92
225
1.31
277
0.35
298
0.35
327
0.39
320
0.33
311
0.34
266
0.34
259
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
CVANet_RVCtwo views1.10
273
0.49
267
1.15
212
0.65
217
0.54
249
0.93
211
1.00
313
1.69
199
1.36
258
1.42
263
1.39
223
1.24
229
1.17
280
6.22
360
0.80
202
0.35
298
0.24
261
0.35
300
0.30
293
0.44
310
0.32
246
DRN-Testtwo views1.07
269
0.49
267
1.95
308
0.75
299
0.81
334
1.61
313
0.78
264
2.26
319
1.53
311
1.84
331
1.35
212
1.42
265
1.04
255
2.26
261
1.61
309
0.28
252
0.23
253
0.31
266
0.30
293
0.33
261
0.33
252
NOSS_ROBtwo views1.29
305
0.49
267
0.68
49
0.60
169
0.40
170
1.09
244
0.77
261
1.94
255
1.44
290
1.04
103
1.46
241
1.10
198
0.81
164
10.57
409
0.78
193
0.46
337
0.43
352
0.48
343
0.45
344
0.45
312
0.43
299
iinet-ftwo views1.04
261
0.50
270
4.24
365
0.58
150
0.43
190
1.78
332
0.70
251
1.29
126
1.16
176
1.25
188
1.42
232
1.57
293
1.42
316
1.47
157
1.70
321
0.26
224
0.23
253
0.20
70
0.20
128
0.26
206
0.26
177
LMCR-Stereopermissivemany views0.87
216
0.50
270
0.99
174
0.80
312
0.43
190
1.32
279
0.55
195
2.79
372
1.03
123
1.55
298
1.49
246
0.74
80
1.01
242
1.76
201
0.99
240
0.30
269
0.17
161
0.22
120
0.18
84
0.31
248
0.22
108
GMStereopermissivetwo views0.58
70
0.50
270
1.09
198
0.52
69
0.32
97
0.80
166
0.43
107
1.02
37
1.41
279
0.89
74
0.77
39
0.52
35
0.46
35
0.89
65
0.56
134
0.25
207
0.16
139
0.20
70
0.22
186
0.31
248
0.27
193
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
TDLMtwo views1.08
271
0.50
270
1.01
180
0.69
262
0.54
249
0.91
201
1.40
349
1.60
179
1.36
258
1.17
147
1.40
228
1.07
186
1.00
239
6.19
358
0.85
209
0.34
290
0.22
231
0.35
300
0.26
244
0.38
282
0.29
216
whm_ethtwo views0.69
136
0.51
274
1.32
253
0.56
122
0.64
285
0.67
120
0.45
132
1.59
177
1.33
246
1.02
97
1.92
327
0.48
24
0.48
43
0.71
30
0.53
117
0.24
187
0.20
208
0.25
203
0.24
225
0.25
196
0.35
267
ddtwo views0.62
92
0.51
274
1.17
226
0.56
122
0.33
110
0.74
144
0.46
138
1.03
43
1.40
276
0.80
55
0.87
57
0.60
48
0.57
77
1.02
86
0.86
210
0.28
252
0.18
184
0.26
224
0.19
102
0.35
267
0.27
193
SACVNettwo views0.89
220
0.51
274
1.08
197
0.83
323
0.58
263
0.83
180
0.78
264
1.84
230
1.17
180
1.39
251
1.33
204
1.25
230
1.01
242
2.31
265
0.92
225
0.35
298
0.26
279
0.31
266
0.29
282
0.35
267
0.48
310
FADNet-RVC-Resampletwo views0.91
232
0.51
274
2.92
343
0.64
211
0.46
207
1.07
241
0.60
223
1.76
211
1.24
205
1.10
114
0.98
81
1.06
183
0.98
230
2.17
254
0.95
235
0.24
187
0.22
231
0.30
262
0.32
302
0.36
271
0.40
286
RYNettwo views1.24
299
0.52
278
1.57
283
0.73
286
0.97
356
1.74
325
0.95
306
2.09
286
1.54
313
1.44
270
1.18
154
1.94
331
1.29
299
4.57
327
1.93
331
0.27
241
0.23
253
0.35
300
0.27
258
0.57
340
0.59
339
GANettwo views1.41
311
0.52
278
1.18
230
0.74
292
0.48
215
1.40
293
1.69
361
1.87
238
1.28
225
1.56
299
2.39
351
1.56
291
1.25
294
9.13
394
1.20
262
0.31
273
0.32
318
0.34
294
0.29
282
0.40
290
0.33
252
STTStereotwo views0.82
193
0.53
280
1.53
279
0.68
252
0.56
257
0.88
195
0.56
201
1.57
170
1.14
167
1.39
251
1.10
119
1.26
236
0.84
170
1.49
165
0.90
219
0.29
264
0.28
291
0.33
286
0.40
331
0.33
261
0.37
273
Nwc_Nettwo views1.19
287
0.53
280
2.34
329
0.92
345
0.81
334
1.49
301
0.70
251
2.28
325
1.32
244
1.41
259
2.27
345
2.03
342
1.76
345
2.05
245
1.46
295
0.43
325
0.30
303
0.43
332
0.46
346
0.39
286
0.40
286
StereoDRNettwo views1.05
264
0.53
280
2.21
324
0.80
312
0.93
349
1.50
302
0.90
294
2.06
281
1.44
290
1.68
317
1.20
158
1.48
277
0.99
233
1.86
216
1.60
308
0.29
264
0.24
261
0.29
253
0.28
267
0.35
267
0.33
252
BEATNet_4xtwo views0.82
193
0.54
283
2.02
311
0.56
122
0.28
40
1.04
233
0.55
195
2.14
295
1.13
161
1.24
185
1.26
177
1.00
169
0.94
213
1.13
110
1.23
270
0.21
120
0.14
58
0.24
167
0.20
128
0.37
276
0.23
122
RPtwo views1.17
283
0.54
283
1.48
268
0.93
350
1.05
360
1.14
251
0.85
288
1.99
267
1.70
329
1.72
320
2.07
336
1.91
323
1.93
354
2.00
237
1.37
286
0.55
356
0.37
335
0.48
343
0.37
326
0.46
316
0.46
309
edge stereotwo views1.15
280
0.54
283
1.50
270
0.73
286
0.66
294
1.18
266
0.84
283
2.13
294
1.41
279
1.73
321
1.84
315
2.53
362
1.46
320
2.46
272
1.35
284
0.43
325
0.41
346
0.54
353
0.36
322
0.43
300
0.50
314
SDNRtwo views1.66
332
0.55
286
2.36
330
0.56
122
0.58
263
3.79
389
0.45
132
1.78
214
1.40
276
1.38
249
2.45
355
1.13
207
0.96
220
11.03
410
1.31
277
0.67
366
0.64
378
0.43
332
0.32
302
0.71
360
0.76
360
DeepPruner_ROBtwo views0.79
178
0.55
286
1.14
210
0.61
182
0.46
207
0.78
161
0.54
188
1.83
229
1.00
114
1.42
263
1.27
184
1.23
225
0.77
144
1.56
169
0.89
216
0.35
298
0.28
291
0.27
233
0.26
244
0.32
256
0.34
259
WCMA_ROBtwo views2.05
355
0.55
286
1.77
292
0.74
292
0.61
278
2.24
355
1.56
357
2.17
308
1.79
339
4.16
391
6.36
393
5.66
392
4.66
396
3.19
299
2.77
351
0.55
356
0.45
355
0.40
326
0.43
339
0.48
321
0.50
314
Anonymous_2two views1.37
307
0.56
289
0.94
159
0.57
140
0.62
282
1.04
233
0.65
235
1.82
227
1.01
117
1.00
90
0.79
43
1.42
265
1.27
297
1.06
95
0.83
206
0.62
361
0.67
380
1.05
379
9.88
416
1.09
375
0.55
329
FADNet_RVCtwo views0.88
218
0.56
289
2.15
320
0.57
140
0.43
190
1.17
264
0.46
138
1.68
190
1.12
156
0.91
76
1.24
173
0.91
137
0.94
213
2.22
257
1.20
262
0.28
252
0.22
231
0.32
278
0.28
267
0.46
316
0.42
295
AF-Nettwo views1.23
296
0.56
289
2.31
328
0.88
335
0.93
349
1.41
295
0.73
256
2.27
323
1.71
331
1.76
326
2.42
353
2.00
336
1.70
339
1.98
233
1.62
311
0.50
349
0.29
299
0.49
345
0.33
311
0.40
290
0.34
259
ADCP+two views2.12
360
0.56
289
10.01
390
0.68
252
0.91
345
2.25
356
1.04
316
1.92
253
1.50
308
1.58
303
1.34
207
1.73
313
1.62
330
2.27
262
13.20
397
0.25
207
0.22
231
0.32
278
0.29
282
0.38
282
0.34
259
XPNet_ROBtwo views1.02
258
0.56
289
1.33
255
0.75
299
0.58
263
1.11
245
1.13
325
1.77
212
1.29
233
1.88
334
1.43
234
1.63
300
1.13
276
2.04
241
1.69
319
0.40
317
0.31
308
0.33
286
0.29
282
0.37
276
0.37
273
PSMNet_ROBtwo views0.95
241
0.57
294
1.45
265
0.75
299
0.64
285
1.28
277
1.12
323
1.84
230
1.15
171
1.16
145
1.29
193
1.44
269
0.89
197
1.74
199
1.70
321
0.33
283
0.25
274
0.37
312
0.39
329
0.36
271
0.32
246
APVNettwo views1.11
275
0.59
295
1.95
308
0.87
333
0.77
322
1.90
339
0.82
280
2.03
274
1.15
171
1.14
139
1.43
234
1.55
289
1.12
275
3.03
294
1.62
311
0.32
280
0.34
323
0.42
331
0.36
322
0.36
271
0.41
289
HBP-ISPtwo views1.00
254
0.60
296
0.85
130
0.64
211
0.48
215
1.63
316
0.77
261
2.24
318
1.30
235
1.33
227
1.53
262
0.87
120
0.99
233
3.26
303
0.76
190
0.46
337
0.44
353
0.54
353
0.48
350
0.48
321
0.42
295
NCC-stereotwo views1.20
289
0.60
296
1.84
298
0.88
335
0.95
353
1.32
279
0.94
303
2.14
295
1.36
258
1.43
267
1.79
307
1.93
327
2.13
366
2.54
277
1.41
289
0.49
345
0.38
338
0.45
336
0.59
366
0.43
300
0.45
304
Abc-Nettwo views1.20
289
0.60
296
1.84
298
0.88
335
0.95
353
1.32
279
0.94
303
2.14
295
1.36
258
1.43
267
1.79
307
1.93
327
2.13
366
2.54
277
1.41
289
0.49
345
0.38
338
0.45
336
0.59
366
0.43
300
0.45
304
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
AANet_RVCtwo views1.22
292
0.60
296
1.94
304
0.69
262
0.46
207
0.75
146
0.69
245
1.51
155
1.57
319
1.36
243
1.90
324
1.51
283
0.87
188
7.23
378
1.89
330
0.26
224
0.19
198
0.19
47
0.16
54
0.23
158
0.37
273
MeshStereopermissivetwo views2.36
367
0.60
296
1.05
188
0.63
200
0.51
234
2.58
365
0.99
311
3.46
382
2.21
360
7.38
407
5.06
389
7.50
397
3.10
381
7.02
377
2.54
348
0.44
333
0.44
353
0.45
336
0.40
331
0.43
300
0.45
304
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
sAnonymous2two views0.59
81
0.61
301
1.82
296
0.61
182
0.52
237
0.51
43
0.54
188
0.97
26
0.70
26
0.50
19
0.68
24
0.46
15
0.63
110
0.61
14
0.41
49
0.22
149
0.17
161
0.23
146
0.21
164
0.85
365
0.56
331
CroCo_RVCtwo views0.59
81
0.61
301
1.82
296
0.61
182
0.52
237
0.51
43
0.54
188
0.97
26
0.70
26
0.50
19
0.68
24
0.46
15
0.63
110
0.61
14
0.41
49
0.22
149
0.17
161
0.23
146
0.21
164
0.85
365
0.56
331
ADCReftwo views1.50
321
0.61
301
3.83
360
0.76
305
0.77
322
1.91
340
0.77
261
2.16
301
1.34
248
1.63
312
1.59
280
1.35
256
1.40
314
1.79
209
8.32
387
0.25
207
0.21
221
0.32
278
0.31
297
0.31
248
0.32
246
FC-DCNNcopylefttwo views2.88
383
0.61
301
1.15
212
0.75
299
0.57
261
2.85
374
1.05
317
3.44
381
2.64
373
6.93
404
7.63
399
9.86
406
7.02
404
5.76
350
4.31
367
0.54
353
0.48
362
0.51
347
0.50
354
0.53
333
0.52
321
MSMD_ROBtwo views2.08
357
0.61
301
1.15
212
0.71
274
0.62
282
4.00
391
0.93
301
1.94
255
1.79
339
4.71
397
4.60
383
8.14
401
3.87
392
3.75
314
1.65
317
0.54
353
0.48
362
0.55
357
0.58
364
0.53
333
0.52
321
PS-NSSStwo views1.02
258
0.62
306
1.17
226
0.61
182
0.58
263
0.91
201
0.79
272
2.02
270
1.19
185
1.17
147
1.68
293
1.00
169
0.85
175
4.43
324
0.86
210
0.38
308
0.31
308
0.52
348
0.32
302
0.52
328
0.45
304
GwcNetcopylefttwo views1.26
301
0.63
307
5.13
371
0.81
315
1.15
369
1.73
323
0.69
245
1.84
230
1.53
311
1.51
287
1.71
298
1.72
311
1.09
266
2.20
256
1.61
309
0.31
273
0.30
303
0.29
253
0.27
258
0.30
243
0.41
289
PA-Nettwo views1.14
278
0.63
307
2.12
318
0.67
243
0.75
316
1.19
267
0.91
296
1.91
249
1.46
300
1.18
158
1.23
169
1.33
254
1.17
280
4.31
322
1.41
289
0.29
264
0.46
359
0.33
286
0.50
354
0.33
261
0.57
334
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NaN_ROBtwo views1.23
296
0.63
307
1.76
291
0.67
243
0.50
225
1.59
312
2.00
376
1.87
238
1.52
309
2.14
352
1.26
177
1.40
264
1.09
266
4.60
328
1.75
324
0.28
252
0.34
323
0.28
245
0.29
282
0.30
243
0.37
273
GMStereo_Zeroshotpermissivetwo views0.70
138
0.64
310
1.11
203
0.65
217
0.38
154
0.84
187
0.37
61
1.09
62
1.16
176
1.14
139
1.07
108
1.26
236
0.55
70
1.23
122
0.65
165
0.34
290
0.17
161
0.31
266
0.18
84
0.57
340
0.23
122
FADNettwo views0.98
249
0.64
310
2.57
335
0.66
230
0.55
253
0.95
219
0.57
204
1.91
249
1.38
265
0.94
81
1.02
90
1.36
257
1.00
239
2.69
284
0.97
239
0.34
290
0.34
323
0.31
266
0.34
316
0.61
349
0.42
295
MANEtwo views7.50
404
0.64
310
7.97
381
1.40
375
2.10
386
16.86
414
12.56
410
12.91
414
17.51
416
8.50
409
11.60
407
14.66
411
13.33
408
12.02
411
13.28
398
0.62
361
0.52
368
0.52
348
1.90
402
0.56
338
0.58
337
DANettwo views1.16
281
0.64
310
1.52
276
0.88
335
0.74
313
1.52
304
0.52
173
1.68
190
1.21
195
1.81
328
1.55
266
2.02
339
1.11
271
3.30
305
2.28
341
0.34
290
0.31
308
0.40
326
0.30
293
0.46
316
0.54
324
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
DPSNettwo views1.91
352
0.64
310
5.95
373
0.73
286
0.59
269
2.04
349
1.61
360
3.84
386
1.96
350
1.54
295
1.39
223
2.27
350
3.32
385
4.95
334
4.79
370
0.50
349
0.31
308
0.29
253
0.26
244
0.67
355
0.54
324
NCCL2two views1.06
265
0.64
310
1.35
256
0.78
310
0.58
263
1.32
279
1.69
361
1.89
245
1.38
265
1.52
289
1.20
158
1.91
323
1.17
280
1.79
209
1.50
299
0.35
298
0.31
308
0.45
336
0.44
341
0.41
294
0.45
304
FCDSN-DCtwo views2.47
371
0.65
316
1.00
179
0.85
329
0.75
316
2.26
357
0.97
308
2.31
326
1.83
342
5.52
403
7.65
400
7.72
400
7.70
405
4.43
324
2.64
349
0.52
351
0.48
362
0.52
348
0.52
357
0.57
340
0.59
339
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
Wz-Net-MNSevtwo views1.21
291
0.66
317
3.44
355
0.69
262
0.73
309
1.93
342
1.44
351
2.16
301
1.59
321
1.85
333
1.49
246
1.50
281
1.34
307
2.05
245
1.54
304
0.27
241
0.24
261
0.28
245
0.28
267
0.35
267
0.32
246
FBW_ROBtwo views1.78
340
0.66
317
1.90
303
0.72
279
0.66
294
1.79
333
1.07
319
2.79
372
1.77
335
1.84
331
1.79
307
1.98
334
1.37
310
12.42
412
2.22
339
0.36
305
0.38
338
0.57
361
0.39
329
0.46
316
0.51
319
LALA_ROBtwo views1.06
265
0.66
317
1.37
261
0.70
271
0.53
242
1.61
313
1.25
341
1.81
224
1.48
305
1.82
330
1.40
228
1.93
327
1.03
249
1.68
191
1.69
319
0.38
308
0.28
291
0.43
332
0.37
326
0.43
300
0.38
279
FINETtwo views1.54
324
0.67
320
7.28
379
0.76
305
0.97
356
1.42
298
1.38
348
2.80
374
3.12
380
1.23
181
1.68
293
1.04
179
1.11
271
3.35
306
1.78
328
0.43
325
0.37
335
0.32
278
0.29
282
0.43
300
0.41
289
G-Nettwo views1.71
338
0.67
320
2.09
315
1.14
369
0.75
316
2.96
376
0.89
293
1.58
172
1.30
235
2.76
370
8.12
403
2.29
352
2.51
375
1.94
227
2.23
340
0.49
345
0.45
355
0.45
336
0.31
297
0.62
350
0.59
339
CSANtwo views1.61
329
0.67
320
3.24
352
0.74
292
0.52
237
1.77
329
1.74
366
1.98
263
1.94
348
2.47
364
2.33
349
1.93
327
2.04
359
6.45
367
1.95
333
0.43
325
0.36
331
0.41
330
0.42
336
0.43
300
0.44
302
ETE_ROBtwo views1.01
257
0.69
323
1.49
269
0.72
279
0.50
225
1.15
254
1.12
323
1.91
249
1.24
205
1.94
341
1.50
253
1.73
313
1.06
261
1.78
204
1.33
281
0.33
283
0.26
279
0.38
316
0.34
316
0.40
290
0.44
302
ADCLtwo views1.82
344
0.70
324
4.57
368
0.70
271
0.63
284
2.56
364
1.77
368
2.08
284
1.77
335
1.95
343
1.89
322
2.04
344
1.88
352
2.36
268
9.55
392
0.27
241
0.25
274
0.35
300
0.32
302
0.39
286
0.39
282
SANettwo views2.26
365
0.70
324
6.94
378
0.69
262
0.46
207
2.76
370
1.76
367
2.61
360
5.84
400
2.45
361
3.52
373
3.71
378
3.38
387
5.90
352
2.14
337
0.34
290
0.31
308
0.32
278
0.29
282
0.54
335
0.43
299
TRStereotwo views0.67
118
0.71
326
1.06
191
0.77
307
0.68
299
0.53
51
0.38
68
2.52
355
0.96
96
0.81
59
0.84
52
0.87
120
0.39
15
1.16
114
0.46
76
0.24
187
0.17
161
0.23
146
0.24
225
0.18
34
0.20
70
XX-TBDtwo views0.47
22
0.71
326
0.39
1
0.81
315
0.25
8
0.57
69
0.26
10
0.73
3
1.30
235
0.78
52
1.01
88
0.45
14
0.33
10
0.49
3
0.39
31
0.20
99
0.15
112
0.15
3
0.11
6
0.17
20
0.15
3
ccnettwo views1.19
287
0.71
326
1.36
258
0.81
315
0.75
316
1.72
320
1.13
325
1.98
263
1.31
242
1.52
289
1.84
315
1.75
318
1.36
309
2.01
238
2.04
334
0.57
358
0.54
370
0.57
361
0.56
362
0.60
346
0.60
342
Wz-Net-LNSevtwo views1.17
283
0.72
329
4.71
369
0.66
230
0.84
340
1.72
320
1.13
325
1.97
262
1.43
288
1.34
234
1.32
200
1.66
303
1.30
302
1.44
152
1.51
301
0.29
264
0.26
279
0.24
167
0.23
213
0.33
261
0.35
267
FADNet-RVCtwo views0.96
245
0.72
329
2.96
344
0.64
211
0.49
221
0.90
199
0.59
215
1.85
236
1.27
221
0.92
77
0.97
78
1.36
257
0.90
200
2.36
268
1.31
277
0.30
269
0.29
299
0.32
278
0.32
302
0.42
298
0.37
273
SuperBtwo views2.50
372
0.72
329
18.07
408
0.72
279
0.53
242
1.85
336
0.86
289
1.80
221
2.40
363
1.54
295
1.42
232
1.13
207
1.17
280
4.18
318
4.80
372
0.25
207
0.20
208
0.23
146
0.19
102
7.64
415
0.38
279
dadtwo views0.90
227
0.73
332
1.28
247
0.59
162
0.39
161
0.83
180
0.45
132
1.24
114
1.54
313
1.52
289
1.28
189
1.36
257
0.86
182
2.54
277
0.91
221
0.43
325
0.27
287
0.82
371
0.26
244
0.44
310
0.34
259
PDISCO_ROBtwo views1.41
311
0.73
332
2.04
314
1.40
375
1.46
380
2.83
372
1.07
319
2.64
361
2.11
357
1.41
259
1.50
253
1.73
313
0.99
233
2.83
291
1.46
295
1.03
376
0.27
287
0.54
353
0.47
348
0.77
362
0.84
366
psmorigintwo views1.69
337
0.74
334
13.13
398
0.70
271
0.60
273
1.16
257
0.79
272
1.69
199
1.25
211
2.07
349
1.77
305
2.23
347
1.51
325
2.14
252
1.45
293
0.39
315
0.41
346
0.34
294
0.33
311
0.45
312
0.63
346
ADCPNettwo views1.97
354
0.78
335
9.38
389
0.74
292
0.61
278
2.73
369
1.36
347
2.11
289
1.66
327
1.92
337
1.70
296
2.45
360
2.07
360
2.50
274
6.84
382
0.38
308
0.38
338
0.38
316
0.43
339
0.47
320
0.50
314
Syn2CoExtwo views1.23
296
0.80
336
3.07
347
0.83
323
0.68
299
1.39
291
0.87
291
2.23
316
1.57
319
1.28
208
1.58
276
1.42
265
1.57
328
3.79
315
1.48
298
0.36
305
0.32
318
0.34
294
0.30
293
0.30
243
0.41
289
ELAS_RVCcopylefttwo views2.87
382
0.80
336
3.22
351
1.16
371
1.12
363
2.92
375
5.33
404
2.98
376
4.18
392
5.04
399
4.82
386
4.71
386
8.23
406
4.25
321
4.79
370
0.67
366
0.57
374
0.57
361
0.53
359
0.66
354
0.74
357
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views2.67
373
0.80
336
2.13
319
1.13
366
1.15
369
6.25
402
2.56
396
3.50
383
3.68
388
5.36
401
4.92
388
3.79
379
5.56
398
3.65
310
5.22
374
0.66
365
0.57
374
0.56
359
0.54
360
0.65
353
0.75
359
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
SHDtwo views1.42
313
0.81
339
2.79
342
0.98
357
0.92
346
1.97
343
0.68
241
2.43
340
2.55
366
2.54
365
1.72
299
2.01
338
1.62
330
2.14
252
2.70
350
0.40
317
0.33
321
0.39
320
0.40
331
0.48
321
0.54
324
RGCtwo views1.22
292
0.82
340
1.71
289
0.95
355
0.98
358
1.53
306
0.80
275
2.18
309
1.35
251
1.69
318
1.94
328
2.03
342
1.66
336
2.36
268
1.50
299
0.46
337
0.36
331
0.59
364
0.48
350
0.49
324
0.49
311
DeepPrunerFtwo views1.68
335
0.82
340
6.82
377
0.94
353
1.20
373
0.91
201
0.97
308
2.50
352
5.19
398
1.22
180
1.30
194
1.18
213
1.29
299
4.96
335
1.75
324
0.43
325
0.35
327
0.52
348
0.48
350
0.43
300
0.42
295
DGSMNettwo views1.24
299
0.84
342
3.20
349
0.91
344
0.92
346
1.39
291
1.34
345
2.46
346
1.44
290
1.34
234
1.66
289
1.50
281
1.03
249
1.85
213
1.30
276
0.48
343
0.48
362
0.55
357
0.51
356
0.78
363
0.79
362
aanetorigintwo views1.26
301
0.85
343
3.00
345
0.72
279
0.80
330
1.08
242
1.05
317
1.12
72
1.39
274
3.53
385
2.60
358
1.72
311
1.73
343
1.98
233
1.77
327
0.26
224
0.24
261
0.26
224
0.25
233
0.38
282
0.51
319
RTSCtwo views1.43
316
0.89
344
3.62
358
0.94
353
0.64
285
1.85
336
0.69
245
2.20
314
2.04
354
2.22
353
1.70
296
1.67
305
1.27
297
2.53
276
4.48
369
0.33
283
0.25
274
0.27
233
0.29
282
0.38
282
0.40
286
SAMSARAtwo views1.80
342
0.90
345
3.37
354
1.28
374
1.13
365
3.71
385
2.33
390
2.53
356
1.93
347
3.17
383
1.73
300
2.99
371
1.68
338
3.53
309
2.46
347
0.47
341
0.54
370
0.43
332
0.47
348
0.59
343
0.64
347
ADCMidtwo views2.11
359
0.90
345
8.39
385
0.75
299
0.69
302
1.98
344
1.14
328
2.18
309
1.67
328
2.85
372
1.85
318
2.35
356
2.02
358
2.35
267
10.58
395
0.34
290
0.32
318
0.39
320
0.44
341
0.51
327
0.53
323
GANetREF_RVCpermissivetwo views1.11
275
0.90
345
1.56
281
0.88
335
0.53
242
1.41
295
1.35
346
1.91
249
1.54
313
1.28
208
1.32
200
1.46
274
1.23
290
2.04
241
1.00
244
0.57
358
0.45
355
0.67
366
0.52
357
0.91
368
0.62
344
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
Anonymous Stereotwo views1.42
313
0.90
345
3.93
361
0.81
315
0.83
337
1.06
239
1.90
375
1.81
224
1.52
309
1.75
322
1.44
236
1.28
242
0.87
188
5.94
355
1.94
332
0.38
308
0.39
343
0.38
316
0.41
335
0.45
312
0.50
314
PVDtwo views1.82
344
0.91
349
3.02
346
1.03
360
0.94
352
2.61
366
1.14
328
2.78
371
3.40
385
3.08
381
2.75
360
2.39
359
2.49
374
2.81
289
3.66
362
0.48
343
0.49
366
0.59
364
0.49
353
0.60
346
0.81
364
PWCDC_ROBbinarytwo views1.39
309
0.91
349
2.10
316
1.08
363
0.92
346
1.72
320
0.58
211
2.03
274
3.30
383
1.32
222
4.87
387
1.21
217
1.71
341
1.98
233
1.75
324
0.65
364
0.26
279
0.29
253
0.25
233
0.56
338
0.41
289
PWC_ROBbinarytwo views1.39
309
0.93
351
4.07
363
0.77
307
0.83
337
1.16
257
0.53
179
1.87
238
2.01
352
2.36
357
3.06
367
1.65
302
1.60
329
2.65
283
2.29
343
0.34
290
0.23
253
0.36
310
0.25
233
0.39
286
0.49
311
SQANettwo views1.38
308
0.95
352
1.37
261
1.89
384
1.47
381
1.44
299
0.81
276
1.89
245
1.13
161
1.34
234
1.26
177
1.28
242
1.02
247
1.64
186
0.91
221
2.55
390
0.35
327
1.47
382
0.56
362
2.48
385
1.74
385
MFN_U_SF_RVCtwo views1.62
331
0.96
353
4.36
367
0.92
345
0.69
302
2.62
367
1.10
321
2.50
352
1.74
334
1.99
345
1.86
320
2.45
360
1.78
347
3.08
296
2.84
352
0.54
353
0.50
367
0.56
359
0.60
368
0.60
346
0.67
349
anonymitytwo views1.14
278
0.98
354
1.24
241
1.09
364
1.13
365
1.08
242
0.90
294
2.02
270
1.23
204
1.32
222
1.27
184
1.27
241
1.09
266
1.16
114
1.03
248
1.02
375
1.01
398
0.97
375
0.97
382
0.98
370
1.01
370
XQCtwo views1.51
322
0.98
354
3.20
349
0.92
345
0.76
321
2.01
347
1.17
332
2.53
356
1.99
351
2.01
346
1.54
263
2.00
336
1.54
326
3.16
298
3.46
360
0.49
345
0.31
308
0.45
336
0.40
331
0.71
360
0.62
344
Consistency-Rafttwo views1.27
304
1.01
356
2.17
321
1.04
361
1.20
373
0.96
224
1.00
313
1.84
230
1.95
349
1.38
249
2.11
338
1.44
269
1.03
249
1.18
118
1.40
288
0.73
369
0.83
384
0.89
373
0.99
385
1.33
378
0.95
369
MaskLacGwcNet_RVCtwo views1.17
283
1.06
357
1.28
247
0.88
335
0.69
302
1.92
341
0.92
298
1.71
203
1.14
167
1.17
147
1.26
177
1.49
279
0.80
160
2.04
241
0.86
210
2.02
385
0.34
323
0.79
370
0.36
322
1.38
380
1.33
381
WZ-Nettwo views2.14
361
1.08
358
11.68
397
0.89
342
0.78
326
1.76
327
1.59
359
2.39
335
2.03
353
2.11
350
1.95
330
2.30
353
2.28
369
5.94
355
3.86
365
0.35
298
0.27
287
0.29
253
0.32
302
0.52
328
0.50
314
PASMtwo views1.48
320
1.08
358
3.96
362
0.93
350
0.93
349
1.17
264
1.19
334
1.77
212
1.65
326
1.90
335
1.52
261
1.75
318
1.42
316
4.54
326
1.52
303
0.64
363
0.68
382
0.69
368
0.79
375
0.70
358
0.74
357
SPS-STEREOcopylefttwo views1.78
340
1.09
360
1.52
276
1.22
372
1.14
367
1.87
338
1.11
322
2.27
323
1.70
329
3.17
383
2.39
351
2.84
370
1.93
354
4.41
323
2.93
353
1.04
378
0.99
397
0.97
375
0.94
380
1.03
373
1.05
372
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
GASNettwo views1.13
277
1.10
361
3.29
353
1.00
359
0.68
299
0.82
174
0.67
239
1.85
236
1.38
265
1.39
251
1.25
175
1.25
230
1.20
289
2.72
286
1.62
311
0.46
337
0.26
279
0.36
310
0.34
316
0.55
337
0.33
252
MFN_U_SF_DS_RVCtwo views1.80
342
1.11
362
4.33
366
0.84
327
0.77
322
3.70
384
2.41
395
2.04
276
1.85
343
1.75
322
1.90
324
1.92
326
1.25
294
7.33
379
1.45
293
0.47
341
0.47
360
0.53
352
0.77
374
0.50
325
0.55
329
AnonymousMtwo views0.63
101
1.14
363
0.43
5
0.46
14
0.32
97
0.43
13
0.46
138
1.27
121
0.78
42
1.00
90
0.66
21
0.68
65
0.45
28
0.61
14
0.46
76
0.21
120
0.16
139
1.84
386
0.98
383
0.15
4
0.15
3
EDNetEfficienttwo views2.40
370
1.14
363
8.59
386
0.77
307
0.73
309
1.06
239
1.53
355
1.54
163
4.06
391
4.87
398
2.81
361
2.23
347
3.53
388
3.04
295
9.65
393
0.27
241
0.24
261
0.27
233
0.31
297
0.70
358
0.67
349
otakutwo views1.67
333
1.18
365
1.56
281
2.27
386
1.59
382
1.98
344
1.23
339
2.23
316
1.37
263
1.48
284
1.63
286
1.73
313
1.23
290
1.85
213
1.09
252
2.96
393
0.58
376
1.74
383
0.61
369
2.94
391
2.15
389
NVStereoNet_ROBtwo views2.17
363
1.18
365
3.51
356
1.14
369
1.26
376
1.57
310
1.51
352
2.19
311
2.11
357
2.04
347
4.80
385
3.17
376
2.11
364
7.97
386
2.10
335
1.12
381
0.94
394
1.10
380
1.34
392
0.95
369
1.31
379
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
MFMNet_retwo views1.47
318
1.20
367
2.50
333
1.46
380
1.08
362
1.58
311
1.51
352
1.96
261
1.87
344
2.31
356
2.20
342
1.51
283
1.88
352
1.57
171
1.34
282
0.94
373
0.83
384
0.84
372
0.80
376
1.00
371
1.06
373
Ntrotwo views1.72
339
1.21
368
1.62
285
2.54
391
1.86
384
2.09
352
1.14
328
2.08
284
1.38
265
1.23
181
1.62
282
1.62
297
1.33
306
2.04
241
1.21
266
3.09
394
0.56
373
1.82
385
0.65
370
2.97
394
2.25
391
UDGNettwo views0.75
158
1.23
369
0.99
174
0.82
319
0.42
187
0.76
151
0.38
68
0.98
30
1.37
263
0.83
62
0.88
60
0.70
72
0.60
99
1.25
123
0.57
137
0.57
358
0.19
198
1.03
378
0.26
244
0.79
364
0.35
267
ADCStwo views2.35
366
1.26
370
6.54
376
0.85
329
0.77
322
2.18
353
1.79
369
2.47
347
2.20
359
2.80
371
2.14
341
2.38
357
2.09
361
2.81
289
13.83
404
0.43
325
0.41
346
0.40
326
0.45
344
0.59
343
0.67
349
LSMtwo views6.55
401
1.26
370
15.64
403
1.79
382
68.74
429
1.67
319
2.08
382
2.26
319
2.59
367
3.13
382
3.08
368
1.90
322
1.81
348
2.89
292
2.16
338
0.43
325
0.59
377
0.50
346
0.58
364
0.64
351
17.24
420
SGM+DAISYtwo views5.38
396
1.28
372
8.24
382
1.27
373
1.16
371
10.62
407
16.01
412
2.93
375
2.53
365
8.64
410
13.03
408
8.26
402
13.38
409
6.34
365
7.59
385
1.07
379
1.05
400
1.00
377
0.98
383
1.02
372
1.12
376
MSC_U_SF_DS_RVCtwo views2.22
364
1.29
373
4.14
364
1.10
365
0.78
326
5.00
398
2.38
394
2.47
347
2.67
374
1.94
341
2.28
346
2.66
367
1.70
339
9.10
393
2.29
343
0.68
368
0.52
368
0.68
367
0.71
372
1.17
376
0.81
364
CC-Net-ROBtwo views1.53
323
1.31
374
1.68
288
0.92
345
0.80
330
1.75
326
0.99
311
2.04
276
1.27
221
1.12
123
1.62
282
1.20
216
0.98
230
7.82
384
0.92
225
1.15
383
0.41
346
2.20
387
0.46
346
1.37
379
0.56
331
ACVNet-4btwo views3.05
385
1.42
375
18.09
409
2.85
393
2.33
394
2.32
361
1.22
337
2.47
347
2.21
360
1.26
198
2.36
350
2.64
366
1.46
320
6.32
364
1.23
270
3.29
397
0.45
355
2.37
391
1.02
388
3.03
395
2.61
396
Wz-Net-SNSevtwo views1.68
335
1.45
376
8.71
387
0.71
274
0.67
298
1.35
286
1.51
352
2.15
299
1.47
301
1.51
287
1.68
293
2.27
350
1.38
311
4.23
319
2.36
345
0.32
280
0.29
299
0.31
266
0.33
311
0.43
300
0.39
282
AnyNet_C32two views2.14
361
1.45
376
7.38
380
0.95
355
1.12
363
2.23
354
2.34
391
2.10
288
1.54
313
2.44
360
1.79
307
2.04
344
1.66
336
2.69
284
10.48
394
0.38
308
0.35
327
0.35
300
0.42
336
0.50
325
0.60
342
ACVNet_2two views2.86
381
1.47
378
8.28
383
2.68
392
2.26
391
2.70
368
1.84
374
3.41
380
3.04
379
2.27
355
3.42
372
4.58
384
2.10
362
5.91
353
1.62
311
2.58
391
0.67
380
2.22
388
0.85
378
2.79
388
2.47
394
ACVNet_1two views3.08
386
1.48
379
17.70
405
2.90
396
2.35
395
2.30
358
1.43
350
3.16
378
2.26
362
1.91
336
2.05
335
3.51
377
2.32
370
3.71
313
1.58
307
3.25
396
0.66
379
2.40
395
1.06
389
3.07
396
2.59
395
EDNetEfficientorigintwo views10.59
409
1.52
380
177.33
434
0.68
252
0.54
249
1.66
318
1.20
336
1.94
255
3.39
384
4.69
396
3.37
370
3.08
374
2.79
379
3.25
302
3.63
361
0.26
224
0.24
261
0.33
286
0.28
267
0.85
365
0.87
367
WAO-7two views2.78
376
1.54
381
2.18
322
1.41
378
1.19
372
3.92
390
2.01
379
4.19
390
3.89
390
2.98
377
5.47
390
4.18
382
3.28
384
8.24
389
4.27
366
1.13
382
1.01
398
1.18
381
1.13
391
1.19
377
1.13
377
RTStwo views2.76
374
1.55
382
15.40
400
1.13
366
1.42
378
3.75
387
2.21
385
2.45
342
2.72
375
2.91
375
2.85
363
2.58
364
1.62
330
6.28
362
5.80
377
0.41
320
0.30
303
0.35
300
0.35
320
0.52
328
0.54
324
RTSAtwo views2.76
374
1.55
382
15.40
400
1.13
366
1.42
378
3.75
387
2.21
385
2.45
342
2.72
375
2.91
375
2.85
363
2.58
364
1.62
330
6.28
362
5.80
377
0.41
320
0.30
303
0.35
300
0.35
320
0.52
328
0.54
324
Deantwo views3.77
390
1.65
384
17.87
406
3.01
398
2.54
397
3.15
378
2.10
383
4.80
396
4.42
393
2.89
374
6.03
391
5.45
391
2.55
377
3.40
307
2.13
336
3.22
395
0.89
391
2.51
398
1.07
390
3.07
396
2.65
399
WAO-6two views2.98
384
1.67
385
1.88
302
2.38
390
2.30
393
3.53
383
2.37
392
4.38
393
4.64
396
2.42
358
4.50
380
4.85
387
2.99
380
5.22
337
5.37
375
1.77
384
1.16
404
2.31
390
1.47
398
2.42
384
1.99
388
LVEtwo views3.40
389
1.80
386
2.21
324
2.90
396
2.44
396
3.27
382
2.25
387
4.80
396
5.06
397
2.43
359
6.79
394
5.99
393
2.64
378
9.20
395
2.28
341
3.30
398
1.11
403
2.38
392
1.48
399
2.95
393
2.62
397
RainbowNettwo views2.06
356
1.86
387
1.97
310
2.86
394
2.25
390
2.03
348
1.79
369
2.77
369
1.92
346
1.54
295
1.84
315
1.95
332
1.73
343
2.23
258
1.38
287
3.40
400
0.86
389
2.39
394
1.00
386
2.94
391
2.42
393
IMH-64-1two views2.82
378
1.87
388
1.77
292
3.31
401
2.69
398
3.22
380
2.07
380
4.25
391
2.77
377
2.46
362
3.78
376
3.05
372
2.34
371
4.67
330
3.00
355
3.84
404
0.84
387
2.75
401
1.39
393
3.34
399
2.93
401
IMH-64two views2.82
378
1.87
388
1.77
292
3.31
401
2.69
398
3.22
380
2.07
380
4.25
391
2.77
377
2.46
362
3.78
376
3.05
372
2.34
371
4.67
330
3.00
355
3.84
404
0.84
387
2.75
401
1.39
393
3.34
399
2.93
401
IMHtwo views3.35
388
1.95
390
1.86
301
3.30
400
2.72
400
4.03
393
2.00
376
4.58
395
3.83
389
2.87
373
6.99
396
4.69
385
3.21
383
6.77
373
2.97
354
3.91
407
0.89
391
2.78
403
1.40
397
3.36
401
2.93
401
WAO-8two views4.57
394
2.01
391
2.58
336
2.37
388
2.21
388
9.75
404
1.71
363
6.04
404
16.34
408
4.11
388
7.69
401
7.41
395
3.85
390
10.02
407
3.85
363
2.05
386
1.09
401
2.44
396
1.39
393
2.56
386
1.86
386
Venustwo views4.57
394
2.01
391
2.58
336
2.37
388
2.21
388
9.75
404
1.71
363
6.04
404
16.34
408
4.11
388
7.69
401
7.41
395
3.85
390
10.02
407
3.85
363
2.05
386
1.09
401
2.44
396
1.39
393
2.56
386
1.86
386
TorneroNettwo views10.72
410
2.09
393
2.76
341
3.48
403
3.03
403
44.72
425
2.31
389
8.62
409
67.06
434
7.45
408
23.21
418
10.59
409
4.28
395
9.03
392
9.00
389
3.67
402
0.91
393
3.04
405
1.63
401
3.92
404
3.55
407
TorneroNet-64two views5.41
397
2.10
394
2.43
331
3.49
404
2.83
401
9.90
406
2.13
384
8.87
410
16.79
413
5.39
402
9.18
405
10.68
410
3.92
393
9.55
399
5.11
373
3.36
399
0.86
389
2.88
404
1.62
400
3.76
402
3.37
404
KSHMRtwo views8.76
408
2.14
395
3.59
357
3.60
406
3.13
404
4.15
394
2.67
397
5.61
402
58.90
433
3.04
379
55.71
433
4.94
388
2.54
376
4.61
329
3.05
357
3.49
401
1.57
408
3.14
406
1.98
405
3.84
403
3.49
405
AnyNet_C01two views2.38
368
2.21
396
10.17
391
0.99
358
0.79
328
3.12
377
2.37
392
2.69
366
1.89
345
2.58
367
2.44
354
2.70
368
1.86
351
3.65
310
7.12
383
0.41
320
0.41
346
0.40
326
0.42
336
0.68
356
0.79
362
PWCKtwo views3.24
387
2.37
397
10.86
393
2.14
385
1.14
367
3.71
385
4.19
403
3.02
377
3.55
387
3.05
380
3.63
374
3.09
375
2.35
373
8.16
388
3.41
359
2.17
388
0.96
395
1.77
384
1.01
387
2.84
389
1.40
382
coex-fttwo views8.35
406
2.39
398
100.24
433
0.68
252
0.54
249
1.77
329
1.57
358
1.71
203
11.00
404
18.91
418
3.76
375
3.85
380
8.23
406
3.29
304
6.58
380
0.31
273
0.31
308
0.32
278
0.31
297
0.69
357
0.57
334
ktntwo views4.56
393
2.41
399
2.54
334
3.79
408
3.25
405
4.81
397
2.91
400
5.52
400
7.36
401
4.12
390
14.55
410
7.54
398
3.70
389
7.84
385
3.35
358
4.06
408
1.86
409
3.26
409
2.22
408
3.27
398
2.86
400
notakertwo views4.29
392
2.42
400
5.06
370
3.89
409
3.29
407
4.00
391
2.25
387
4.93
398
3.47
386
4.21
393
6.79
394
7.67
399
3.37
386
9.25
397
6.47
379
4.09
409
1.42
406
3.35
410
2.13
407
4.11
406
3.54
406
JetBluetwo views4.18
391
2.45
401
10.42
392
1.40
375
2.89
402
10.68
408
10.68
406
3.91
387
2.52
364
2.74
369
3.39
371
4.50
383
4.27
394
7.97
386
7.67
386
0.89
371
0.97
396
0.89
373
0.92
379
2.26
383
2.21
390
UNDER WATERtwo views5.68
399
2.46
402
15.52
402
3.98
411
3.53
408
5.15
399
2.74
398
5.58
401
16.41
411
4.00
386
4.56
381
9.12
404
6.43
402
6.22
360
9.11
390
3.85
406
1.35
405
3.18
408
1.98
405
4.51
409
3.84
410
UNDER WATER-64two views5.84
400
2.48
403
17.93
407
3.97
410
3.58
409
7.70
403
3.03
401
5.72
403
14.13
405
4.18
392
4.00
378
9.27
405
6.80
403
6.20
359
9.22
391
3.67
402
1.52
407
3.14
406
1.95
403
4.43
408
3.83
409
UDGtwo views1.47
318
2.69
404
1.13
207
1.45
379
1.65
383
1.34
285
0.79
272
1.75
210
1.27
221
1.29
212
1.74
301
1.99
335
1.39
313
1.66
188
1.51
301
0.91
372
0.55
372
2.30
389
0.76
373
1.99
381
1.20
378
DDUNettwo views1.56
326
2.70
405
1.35
256
1.79
382
1.88
385
1.82
334
0.91
296
1.84
230
1.20
189
1.40
257
1.79
307
1.62
297
1.17
280
1.59
177
1.22
267
1.11
380
0.76
383
2.38
392
0.94
380
2.12
382
1.53
383
Wz-Net-TNSevtwo views2.10
358
2.71
406
9.30
388
0.72
279
0.65
291
2.41
362
1.81
373
2.45
342
1.77
335
1.62
310
1.56
271
2.56
363
2.01
356
5.30
338
4.46
368
0.41
320
0.38
338
0.33
286
0.37
326
0.54
335
0.64
347
DispFullNettwo views2.39
369
2.89
407
3.74
359
3.09
399
2.27
392
2.04
349
0.84
283
2.19
311
1.73
333
2.54
365
1.98
331
2.23
347
5.83
399
3.44
308
1.84
329
1.03
376
0.33
321
2.65
400
1.97
404
2.87
390
2.34
392
MADNet++two views5.41
397
3.18
408
6.43
375
4.66
413
3.95
411
6.15
401
6.75
405
4.51
394
4.51
395
5.06
400
6.27
392
4.96
389
6.14
400
9.39
398
11.70
396
4.71
410
4.19
413
3.97
412
3.33
410
4.08
405
4.25
411
MADNet+two views2.80
377
3.38
409
11.57
396
1.50
381
1.21
375
3.18
379
2.00
376
3.52
384
2.61
368
1.81
328
2.09
337
2.83
369
2.18
368
7.55
382
5.44
376
0.84
370
0.83
384
0.71
369
0.66
371
1.05
374
1.08
374
HanzoNettwo views11.92
411
5.12
410
17.18
404
4.19
412
3.59
410
5.16
400
2.82
399
7.41
407
9.96
403
33.31
429
27.60
420
22.25
419
37.31
424
18.18
415
13.57
399
8.13
415
3.44
412
3.50
411
3.44
411
7.77
416
4.52
412
SPstereotwo views26.71
419
6.90
411
11.42
395
5.86
414
6.44
412
48.17
426
80.34
433
67.41
434
34.42
429
28.80
427
27.49
419
43.68
431
37.53
428
44.96
433
54.23
434
5.06
413
4.92
414
10.92
420
6.03
413
4.54
410
5.00
414
DGTPSM_ROBtwo views13.06
412
8.27
412
22.29
411
9.53
416
18.14
413
11.53
409
31.97
418
10.82
412
16.25
406
7.14
405
19.39
416
10.12
407
16.69
412
9.85
402
22.49
414
4.77
411
8.72
415
5.37
413
10.24
417
6.15
413
11.56
415
DPSMNet_ROBtwo views13.08
413
8.28
413
22.32
412
9.54
417
18.15
414
11.53
409
31.98
419
10.83
413
16.27
407
7.17
406
19.40
417
10.12
407
16.69
412
9.87
403
22.50
415
4.78
412
8.72
415
5.38
414
10.25
418
6.16
414
11.59
416
JetRedtwo views7.02
403
8.94
414
25.72
416
2.89
395
3.27
406
14.25
412
12.27
409
6.69
406
4.45
394
4.46
394
4.56
381
6.65
394
5.43
397
7.46
381
14.41
406
2.60
392
3.31
410
2.61
399
2.30
409
4.34
407
3.79
408
DPSimNet_ROBtwo views24.77
418
9.69
415
61.46
431
3.56
405
19.46
415
25.95
415
77.56
432
5.09
399
16.60
412
21.50
419
29.82
422
25.12
422
85.69
434
13.37
413
23.07
417
7.23
414
17.79
421
8.55
416
7.57
415
4.57
411
31.84
427
Anonymous_1two views42.79
429
18.71
416
24.75
413
21.81
418
45.16
428
27.68
416
37.52
420
28.64
420
16.34
408
14.72
414
14.53
409
20.60
413
17.82
414
21.52
416
25.88
418
113.45
434
8.91
417
100.63
431
126.37
431
158.50
434
12.31
417
DPSM_ROBtwo views19.12
414
19.13
417
25.13
414
22.15
419
20.86
417
28.06
417
37.75
421
27.18
418
16.95
414
14.25
412
15.07
411
21.66
414
18.69
415
21.83
417
26.51
419
10.15
418
9.30
418
10.45
418
10.41
419
14.00
417
12.85
418
DPSMtwo views19.12
414
19.13
417
25.13
414
22.15
419
20.86
417
28.06
417
37.75
421
27.18
418
16.95
414
14.25
412
15.07
411
21.66
414
18.69
415
21.83
417
26.51
419
10.15
418
9.30
418
10.45
418
10.41
419
14.00
417
12.85
418
BEATNet-Init1two views27.39
420
21.01
419
73.65
432
1.07
362
0.80
330
56.07
427
22.82
414
33.14
425
31.71
422
51.78
433
52.93
432
65.63
433
48.54
432
48.75
434
36.36
424
0.52
351
0.47
360
0.54
353
0.54
360
0.64
351
0.72
355
xxxxx1two views54.34
432
26.72
420
27.03
417
114.14
431
99.00
431
30.68
421
47.19
423
32.52
422
26.09
417
17.85
415
17.48
413
21.86
416
20.92
417
24.38
420
33.78
421
34.73
428
41.33
429
157.67
432
175.68
432
65.82
430
71.99
432
tt_lltwo views54.34
432
26.72
420
27.03
417
114.14
431
99.00
431
30.68
421
47.19
423
32.52
422
26.09
417
17.85
415
17.48
413
21.86
416
20.92
417
24.38
420
33.78
421
34.73
428
41.33
429
157.67
432
175.68
432
65.82
430
71.99
432
fftwo views54.34
432
26.72
420
27.03
417
114.14
431
99.00
431
30.68
421
47.19
423
32.52
422
26.09
417
17.85
415
17.48
413
21.86
416
20.92
417
24.38
420
33.78
421
34.73
428
41.33
429
157.67
432
175.68
432
65.82
430
71.99
432
LRCNet_RVCtwo views22.79
416
32.09
423
22.06
410
29.83
421
26.15
419
4.40
396
0.84
283
22.64
416
2.10
356
26.93
421
29.25
421
23.03
421
15.56
411
23.91
419
18.92
411
32.00
427
20.04
428
34.68
427
32.13
427
30.66
426
28.52
426
PMLtwo views51.64
431
37.49
424
14.31
399
7.45
415
20.27
416
107.80
434
231.34
435
8.94
411
27.70
421
86.74
434
268.93
435
69.03
434
61.09
433
24.71
423
14.36
405
9.71
417
3.40
411
9.60
417
4.67
412
20.46
419
4.76
413
CasAABBNettwo views38.42
421
38.42
425
50.26
425
44.76
426
41.87
423
56.47
431
76.22
427
54.44
431
33.92
424
28.53
422
30.36
424
43.53
430
37.59
429
43.77
430
53.32
429
20.27
421
18.70
423
21.03
424
21.04
422
28.19
420
25.79
421
Selective-RAFT-Errortwo views38.47
425
38.44
426
50.38
429
44.74
425
42.01
424
56.47
431
76.24
428
54.44
431
34.02
425
28.59
423
30.30
423
43.51
429
38.10
430
43.69
426
53.24
428
20.36
425
18.72
424
21.05
425
21.02
421
28.25
424
25.87
422
MyStereo03two views38.45
422
38.46
427
50.33
426
44.93
427
42.03
425
56.44
428
76.24
428
54.16
428
34.06
426
28.68
424
30.42
425
43.46
426
37.33
425
43.76
427
53.43
430
20.29
422
18.73
425
21.02
421
21.05
423
28.19
420
25.91
423
MyStereo02two views38.45
422
38.46
427
50.33
426
44.93
427
42.03
425
56.44
428
76.24
428
54.16
428
34.06
426
28.68
424
30.42
425
43.46
426
37.33
425
43.76
427
53.43
430
20.29
422
18.73
425
21.02
421
21.05
423
28.19
420
25.91
423
MyStereotwo views38.45
422
38.46
427
50.33
426
44.93
427
42.03
425
56.44
428
76.24
428
54.16
428
34.06
426
28.68
424
30.42
425
43.46
426
37.33
425
43.76
427
53.43
430
20.29
422
18.73
425
21.02
421
21.05
423
28.19
420
25.91
423
LSM0two views42.92
430
38.72
430
50.66
430
47.49
430
110.18
434
56.77
433
75.87
426
54.87
433
33.74
423
29.48
428
31.12
428
43.77
432
37.12
423
43.85
431
53.44
433
20.50
426
18.67
422
21.05
425
21.07
426
28.37
425
41.73
428
HaxPigtwo views39.02
426
41.39
431
41.59
421
30.10
422
32.36
420
29.49
419
27.65
416
30.56
421
37.94
430
43.75
430
43.81
429
33.42
423
35.69
421
41.51
424
40.33
426
43.91
431
47.48
433
45.87
428
47.14
429
42.29
427
44.06
430
AVERAGE_ROBtwo views40.42
427
42.30
432
42.61
422
36.91
424
35.54
422
30.42
420
27.59
415
37.45
427
38.45
431
44.87
431
44.27
430
37.55
425
36.69
422
41.82
425
40.25
425
45.36
432
46.73
432
47.09
429
46.32
428
42.47
428
43.74
429
MEDIAN_ROBtwo views42.01
428
44.30
433
44.14
424
35.08
423
34.90
421
31.33
424
29.90
417
36.77
426
40.11
432
47.14
432
46.55
431
37.49
424
38.50
431
44.30
432
42.32
427
47.93
433
49.31
434
49.68
430
49.00
430
44.98
429
46.46
431
DLNR_Zeroshot_testpermissivetwo views23.23
417
48.25
434
43.77
423
177.04
434
78.39
430
0.35
5
0.21
1
23.33
417
0.82
53
0.67
41
0.86
55
0.58
43
0.30
4
1.64
186
0.48
88
10.69
420
0.13
17
0.18
33
0.14
22
76.63
433
0.23
122
test_example2two views192.91
435
210.59
435
206.44
435
199.86
435
204.90
435
172.02
435
182.95
434
138.34
435
134.89
435
193.14
435
200.54
434
186.77
435
177.82
435
204.95
435
207.57
435
221.83
435
238.70
435
186.02
435
190.07
435
226.94
435
173.78
435