This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
DLNR_Zeroshot_testpermissivetwo views20.09
419
36.28
427
38.04
424
169.85
435
61.80
431
0.23
5
0.20
1
13.88
418
0.37
31
0.44
42
0.66
74
0.43
55
0.21
5
0.62
139
0.28
43
5.46
417
0.10
9
0.15
42
0.11
15
72.60
434
0.11
9
EGLCR-Stereotwo views0.25
2
0.16
8
0.33
20
0.34
11
0.20
20
0.35
78
0.20
1
0.52
19
0.36
21
0.28
4
0.27
4
0.41
43
0.18
1
0.45
30
0.26
25
0.14
32
0.10
9
0.16
60
0.14
72
0.13
20
0.11
9
XX-Stereotwo views0.37
80
0.17
19
0.45
130
0.55
322
0.36
277
0.38
98
0.20
1
0.60
46
0.30
3
0.46
46
1.30
303
0.73
196
0.26
17
0.56
79
0.26
25
0.16
110
0.11
57
0.17
85
0.16
123
0.14
45
0.10
3
IIG-Stereotwo views0.43
143
0.21
101
0.44
119
0.50
285
0.25
112
0.44
126
0.21
4
0.71
128
0.76
150
0.83
213
0.95
190
0.83
228
0.43
123
0.90
272
0.35
111
0.15
79
0.12
98
0.19
155
0.14
72
0.15
77
0.11
9
ROB_FTStereotwo views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.25
15
0.21
4
0.59
37
0.36
21
0.63
90
0.73
89
0.58
109
0.38
92
0.57
89
0.35
111
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
SST-Stereotwo views0.40
120
0.19
49
0.45
130
0.42
169
0.25
112
0.25
15
0.21
4
0.66
81
0.47
59
1.08
320
0.79
122
0.72
187
0.43
123
0.77
227
0.35
111
0.16
110
0.11
57
0.20
179
0.16
123
0.19
191
0.15
106
CRE-IMPtwo views0.36
65
0.23
145
0.49
182
0.42
169
0.24
86
0.41
115
0.21
4
0.57
31
0.41
42
0.65
106
0.72
85
0.53
87
0.37
89
0.61
133
0.38
147
0.17
143
0.11
57
0.19
155
0.15
94
0.21
222
0.18
176
MSKI-zero shottwo views0.32
28
0.17
19
0.34
26
0.39
85
0.21
29
0.32
63
0.22
8
0.61
52
0.43
48
0.52
59
0.64
68
0.61
132
0.20
4
0.74
213
0.25
9
0.14
32
0.10
9
0.14
16
0.10
10
0.12
8
0.12
33
Any-RAFTtwo views0.35
47
0.16
8
0.30
11
0.34
11
0.21
29
0.52
149
0.22
8
0.88
191
0.73
137
0.53
62
0.73
89
0.64
146
0.28
32
0.46
37
0.24
6
0.15
79
0.10
9
0.13
9
0.10
10
0.13
20
0.12
33
test-3two views0.34
35
0.16
8
0.43
109
0.39
85
0.21
29
0.43
122
0.22
8
0.63
61
0.78
163
0.71
141
0.45
21
0.64
146
0.27
23
0.43
24
0.31
66
0.12
4
0.09
2
0.17
85
0.13
50
0.12
8
0.10
3
Patchmatch Stereo++two views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.24
7
0.22
8
0.59
37
0.36
21
0.63
90
0.73
89
0.58
109
0.38
92
0.58
106
0.36
127
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
HUI-Stereotwo views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.24
7
0.22
8
0.60
46
0.36
21
0.63
90
0.73
89
0.58
109
0.38
92
0.50
52
0.35
111
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
DeepStereo_RVCtwo views0.36
65
0.21
101
0.47
156
0.40
108
0.24
86
0.26
17
0.22
8
0.60
46
0.38
35
0.69
129
0.67
78
0.57
101
0.51
161
0.56
79
0.39
153
0.16
110
0.12
98
0.18
119
0.15
94
0.19
191
0.18
176
iRAFTtwo views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.24
7
0.22
8
0.59
37
0.36
21
0.63
90
0.73
89
0.58
109
0.38
92
0.58
106
0.36
127
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
CREStereo++_RVCtwo views0.32
28
0.15
3
0.23
1
0.31
6
0.24
86
0.27
25
0.22
8
0.46
8
0.88
211
0.46
46
0.80
124
0.30
5
0.26
17
0.36
5
0.33
86
0.13
12
0.09
2
0.13
9
0.51
373
0.13
20
0.09
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
Gwc-CoAtRStwo views0.34
35
0.17
19
0.44
119
0.39
85
0.23
69
0.34
73
0.22
8
0.70
123
0.75
144
0.60
77
0.59
59
0.58
109
0.29
42
0.45
30
0.26
25
0.14
32
0.11
57
0.14
16
0.12
29
0.12
8
0.12
33
PMTNettwo views0.32
28
0.16
8
0.24
3
0.29
2
0.18
7
0.45
131
0.22
8
0.56
28
0.63
98
0.46
46
0.54
46
0.39
38
0.34
75
0.48
49
0.24
6
0.75
380
0.10
9
0.12
2
0.08
1
0.12
8
0.11
9
MIF-Stereo (partial)two views0.31
26
0.18
34
0.37
44
0.41
132
0.31
241
0.28
32
0.23
18
0.47
9
0.42
46
0.31
8
0.63
65
0.36
31
0.35
77
0.57
89
0.31
66
0.17
143
0.13
152
0.19
155
0.17
163
0.18
157
0.14
87
RAFT-Testtwo views0.34
35
0.18
34
0.37
44
0.38
66
0.23
69
0.50
142
0.23
18
0.69
109
0.40
39
0.60
77
0.85
152
0.61
132
0.28
32
0.46
37
0.27
33
0.14
32
0.11
57
0.14
16
0.11
15
0.13
20
0.12
33
test_1two views0.34
35
0.16
8
0.43
109
0.39
85
0.21
29
0.43
122
0.23
18
0.63
61
0.78
163
0.68
124
0.45
21
0.64
146
0.27
23
0.43
24
0.31
66
0.12
4
0.09
2
0.17
85
0.13
50
0.12
8
0.10
3
PFNet+two views0.40
120
0.19
49
0.49
182
0.39
85
0.25
112
0.28
32
0.23
18
0.64
71
0.70
121
0.85
221
0.79
122
0.64
146
0.35
77
0.72
202
0.34
96
0.19
200
0.14
178
0.23
244
0.20
231
0.16
108
0.20
224
TANstereotwo views0.30
24
0.15
3
0.31
13
0.30
4
0.17
3
0.55
164
0.23
18
0.44
6
0.55
77
0.59
73
0.68
80
0.37
33
0.26
17
0.35
4
0.27
33
0.15
79
0.16
229
0.12
2
0.10
10
0.13
20
0.14
87
CFNet-RSSMtwo views0.34
35
0.17
19
0.45
130
0.39
85
0.22
42
0.35
78
0.23
18
0.73
139
0.84
186
0.65
106
0.54
46
0.57
101
0.28
32
0.46
37
0.26
25
0.13
12
0.10
9
0.14
16
0.12
29
0.13
20
0.11
9
MIM_Stereotwo views0.38
94
0.17
19
0.53
212
0.37
45
0.24
86
0.27
25
0.24
24
0.70
123
0.54
73
0.72
152
1.00
216
0.63
139
0.29
42
0.64
156
0.38
147
0.13
12
0.14
178
0.17
85
0.16
123
0.14
45
0.11
9
CASnettwo views0.30
24
0.20
70
0.33
20
0.41
132
0.16
2
0.26
17
0.24
24
0.52
19
0.53
69
0.52
59
0.54
46
0.39
38
0.24
10
0.40
16
0.26
25
0.14
32
0.10
9
0.22
230
0.18
185
0.18
157
0.11
9
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
LL-Strereo2two views0.35
47
0.24
180
0.48
172
0.41
132
0.26
148
0.35
78
0.24
24
0.67
91
0.44
52
0.54
64
0.51
38
0.66
161
0.25
11
0.66
168
0.30
59
0.14
32
0.12
98
0.23
244
0.20
231
0.18
157
0.13
58
iRaft-Stereo_20wtwo views0.39
108
0.19
49
0.57
229
0.37
45
0.27
172
0.31
53
0.24
24
1.44
356
0.29
2
0.69
129
0.53
44
0.60
128
0.42
116
0.83
247
0.27
33
0.14
32
0.11
57
0.14
16
0.13
50
0.15
77
0.13
58
Pruner-Stereotwo views0.38
94
0.20
70
0.45
130
0.40
108
0.25
112
0.22
4
0.24
24
0.67
91
0.55
77
0.89
245
0.76
101
0.68
167
0.29
42
0.62
139
0.35
111
0.18
171
0.12
98
0.20
179
0.17
163
0.17
139
0.18
176
RAFT-RH_RVCtwo views0.56
252
0.17
19
0.41
81
0.37
45
0.23
69
0.57
183
0.24
24
0.60
46
0.70
121
1.19
333
3.94
399
0.56
96
0.38
92
0.65
163
0.36
127
0.13
12
0.11
57
0.20
179
0.14
72
0.12
8
0.13
58
XX-TBDtwo views0.32
28
0.53
340
0.26
7
0.51
297
0.20
20
0.37
86
0.24
24
0.40
3
0.73
137
0.54
64
0.69
81
0.31
8
0.25
11
0.32
3
0.27
33
0.16
110
0.10
9
0.12
2
0.09
6
0.13
20
0.11
9
IGEV_Zeroshot_testtwo views0.34
35
0.18
34
0.67
271
0.39
85
0.28
191
0.30
43
0.25
31
0.74
141
0.31
5
0.62
83
0.57
54
0.54
91
0.25
11
0.53
66
0.27
33
0.14
32
0.10
9
0.15
42
0.14
72
0.14
45
0.12
33
Selective-IGEVtwo views0.24
1
0.18
34
0.35
29
0.35
29
0.19
9
0.27
25
0.25
31
0.55
27
0.23
1
0.27
2
0.25
2
0.34
21
0.19
2
0.58
106
0.22
1
0.12
4
0.10
9
0.14
16
0.11
15
0.12
8
0.10
3
OMP-Stereotwo views0.42
137
0.22
128
0.46
146
0.52
308
0.24
86
0.36
84
0.25
31
0.71
128
0.78
163
0.77
177
0.64
68
0.89
250
0.39
104
0.91
279
0.35
111
0.15
79
0.12
98
0.20
179
0.15
94
0.15
77
0.12
33
raftrobusttwo views0.34
35
0.19
49
0.36
34
0.41
132
0.27
172
0.30
43
0.25
31
0.71
128
0.63
98
0.58
71
0.55
51
0.45
61
0.46
138
0.51
56
0.29
54
0.16
110
0.12
98
0.14
16
0.12
29
0.12
8
0.13
58
RALAANettwo views0.38
94
0.23
145
0.48
172
0.42
169
0.29
214
0.35
78
0.25
31
0.86
180
0.64
105
0.67
118
0.65
70
0.60
128
0.29
42
0.60
126
0.34
96
0.15
79
0.12
98
0.17
85
0.15
94
0.21
222
0.13
58
CREStereotwo views0.28
8
0.15
3
0.24
3
0.27
1
0.17
3
0.37
86
0.25
31
0.51
16
0.72
132
0.42
37
0.51
38
0.32
10
0.26
17
0.38
12
0.25
9
0.16
110
0.11
57
0.12
2
0.08
1
0.12
8
0.11
9
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
MC-Stereotwo views0.28
8
0.17
19
0.32
17
0.38
66
0.20
20
0.26
17
0.26
37
0.49
13
0.37
31
0.37
17
0.61
63
0.41
43
0.31
57
0.55
71
0.25
9
0.13
12
0.09
2
0.14
16
0.12
29
0.12
8
0.11
9
GLC_STEREOtwo views0.29
12
0.19
49
0.27
8
0.44
202
0.19
9
0.31
53
0.26
37
0.47
9
0.43
48
0.37
17
0.47
29
0.41
43
0.23
7
0.50
52
0.34
96
0.14
32
0.18
254
0.19
155
0.16
123
0.16
108
0.13
58
NRIStereotwo views0.36
65
0.20
70
0.45
130
0.41
132
0.23
69
0.34
73
0.26
37
0.65
72
0.55
77
0.64
99
0.63
65
0.56
96
0.37
89
0.65
163
0.37
139
0.15
79
0.11
57
0.18
119
0.15
94
0.17
139
0.14
87
ASMatchtwo views0.48
182
0.19
49
0.45
130
0.39
85
0.28
191
0.37
86
0.26
37
0.74
141
0.68
116
0.76
172
2.34
368
0.61
132
0.52
163
0.62
139
0.37
139
0.14
32
0.12
98
0.17
85
0.15
94
0.14
45
0.21
237
RAFT_R40two views0.40
120
0.19
49
0.44
119
0.43
187
0.25
112
0.23
5
0.26
37
0.67
91
0.67
115
0.98
286
0.78
113
0.72
187
0.43
123
0.76
220
0.35
111
0.16
110
0.11
57
0.20
179
0.16
123
0.18
157
0.14
87
RAFT-345two views0.40
120
0.18
34
0.40
77
0.38
66
0.22
42
0.33
67
0.26
37
0.61
52
0.51
63
0.74
165
1.79
353
0.45
61
0.33
69
0.66
168
0.36
127
0.14
32
0.11
57
0.18
119
0.14
72
0.13
20
0.13
58
StereoIMtwo views0.26
3
0.18
34
0.36
34
0.36
37
0.26
148
0.27
25
0.27
43
0.43
5
0.35
16
0.27
2
0.26
3
0.41
43
0.28
32
0.40
16
0.28
43
0.16
110
0.14
178
0.16
60
0.13
50
0.14
45
0.12
33
4D-IteraStereotwo views0.33
34
0.18
34
0.40
77
0.40
108
0.24
86
0.32
63
0.27
43
0.58
35
0.72
132
0.65
106
0.54
46
0.42
49
0.23
7
0.45
30
0.28
43
0.14
32
0.09
2
0.19
155
0.16
123
0.16
108
0.11
9
CEStwo views0.28
8
0.14
2
0.23
1
0.30
4
0.70
370
0.37
86
0.27
43
0.48
11
0.46
56
0.34
14
0.48
30
0.27
2
0.22
6
0.39
14
0.23
4
0.13
12
0.11
57
0.12
2
0.08
1
0.13
20
0.17
162
Selective-RAFTtwo views0.35
47
0.23
145
0.51
201
0.44
202
0.21
29
0.64
222
0.27
43
0.59
37
0.63
98
0.40
31
0.38
18
0.55
94
0.40
109
0.57
89
0.35
111
0.13
12
0.11
57
0.14
16
0.12
29
0.16
108
0.13
58
IPLGtwo views0.39
108
0.20
70
0.59
234
0.40
108
0.24
86
0.54
159
0.27
43
0.75
147
0.63
98
0.84
220
0.81
131
0.32
10
0.32
61
0.60
126
0.45
188
0.13
12
0.11
57
0.16
60
0.13
50
0.13
20
0.12
33
DIP-Stereotwo views0.39
108
0.21
101
0.50
194
0.41
132
0.28
191
0.62
207
0.27
43
0.77
155
0.40
39
0.64
99
0.86
155
0.52
83
0.33
69
0.66
168
0.42
165
0.15
79
0.13
152
0.17
85
0.14
72
0.15
77
0.15
106
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
DN-CSS_ROBtwo views0.43
143
0.26
212
0.62
244
0.40
108
0.29
214
0.44
126
0.27
43
0.77
155
0.75
144
0.72
152
1.09
255
0.48
73
0.43
123
0.69
189
0.37
139
0.15
79
0.12
98
0.21
218
0.19
209
0.18
157
0.16
145
MIF-Stereotwo views0.27
5
0.17
19
0.37
44
0.40
108
0.27
172
0.30
43
0.28
50
0.39
2
0.31
5
0.29
6
0.46
24
0.27
2
0.25
11
0.47
44
0.34
96
0.17
143
0.13
152
0.13
9
0.12
29
0.14
45
0.12
33
AEACVtwo views0.27
5
0.17
19
0.31
13
0.34
11
0.45
329
0.26
17
0.28
50
0.37
1
0.32
7
0.30
7
0.46
24
0.31
8
0.37
89
0.36
5
0.24
6
0.14
32
0.10
9
0.15
42
0.12
29
0.13
20
0.11
9
HBP-ISPtwo views0.59
270
0.45
318
0.43
109
0.45
223
0.33
262
0.70
240
0.28
50
1.11
268
1.00
270
0.83
213
1.18
282
0.65
156
0.68
248
0.88
265
0.52
223
0.35
343
0.38
361
0.47
357
0.41
358
0.38
329
0.31
306
MIPNettwo views0.37
80
0.21
101
0.59
234
0.39
85
0.25
112
0.50
142
0.28
50
0.77
155
0.70
121
0.65
106
0.60
60
0.40
41
0.49
148
0.44
29
0.37
139
0.14
32
0.11
57
0.16
60
0.13
50
0.14
45
0.13
58
RAFT-IKPtwo views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.24
7
0.28
50
0.59
37
0.36
21
0.63
90
0.73
89
0.57
101
0.38
92
0.58
106
0.36
127
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
111two views0.40
120
0.17
19
0.41
81
0.34
11
0.19
9
0.52
149
0.28
50
0.74
141
1.16
318
0.50
54
0.91
175
0.63
139
0.48
145
0.61
133
0.35
111
0.14
32
0.10
9
0.14
16
0.12
29
0.13
20
0.13
58
CBMV_ROBtwo views0.59
270
0.37
286
0.38
53
0.39
85
0.28
191
0.74
250
0.28
50
1.00
228
0.98
258
0.94
269
1.25
295
0.81
226
0.78
287
0.87
262
0.50
208
0.36
346
0.37
359
0.43
350
0.40
353
0.33
308
0.30
300
MyStereo8two views0.40
120
0.20
70
0.54
215
0.41
132
0.29
214
0.53
155
0.29
57
0.65
72
0.49
61
0.71
141
0.98
209
0.58
109
0.43
123
0.50
52
0.51
216
0.15
79
0.12
98
0.16
60
0.14
72
0.19
191
0.19
204
11t1two views0.36
65
0.21
101
0.42
100
0.35
29
0.22
42
0.62
207
0.29
57
0.69
109
0.43
48
0.60
77
0.53
44
0.53
87
0.48
145
0.56
79
0.40
158
0.18
171
0.14
178
0.16
60
0.13
50
0.17
139
0.17
162
GMStereo_Zeroshotpermissivetwo views0.49
198
0.44
314
0.74
294
0.49
271
0.27
172
0.56
179
0.29
57
0.73
139
0.76
150
0.86
226
0.94
183
0.91
256
0.36
86
0.74
213
0.43
170
0.26
287
0.14
178
0.26
283
0.15
94
0.36
323
0.18
176
LoStwo views0.29
12
0.15
3
0.30
11
0.29
2
0.18
7
0.33
67
0.29
57
0.51
16
0.72
132
0.34
14
0.52
42
0.41
43
0.28
32
0.47
44
0.28
43
0.15
79
0.11
57
0.13
9
0.09
6
0.11
1
0.11
9
knoymoustwo views0.36
65
0.20
70
0.31
13
0.31
6
0.22
42
0.36
84
0.29
57
0.61
52
0.64
105
0.67
118
0.70
83
0.60
128
0.40
109
0.58
106
0.34
96
0.17
143
0.11
57
0.20
179
0.11
15
0.17
139
0.18
176
IPLGRtwo views0.39
108
0.21
101
0.63
252
0.39
85
0.22
42
0.49
141
0.29
57
0.76
152
0.74
142
0.78
180
0.77
105
0.44
60
0.42
116
0.47
44
0.38
147
0.13
12
0.12
98
0.16
60
0.14
72
0.15
77
0.13
58
LCNettwo views0.41
131
0.20
70
0.32
17
0.44
202
0.24
86
0.47
135
0.29
57
0.67
91
0.53
69
0.72
152
1.03
231
0.66
161
0.60
202
0.58
106
0.34
96
0.14
32
0.10
9
0.19
155
0.19
209
0.21
222
0.36
325
CroCo-Stereocopylefttwo views0.26
3
0.22
128
0.36
34
0.48
256
0.22
42
0.20
1
0.29
57
0.51
16
0.44
52
0.28
4
0.23
1
0.42
49
0.26
17
0.29
1
0.26
25
0.15
79
0.13
152
0.13
9
0.11
15
0.16
108
0.12
33
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
iRaftStereo_RVCtwo views0.32
28
0.19
49
0.37
44
0.39
85
0.22
42
0.31
53
0.29
57
0.68
100
0.51
63
0.49
51
0.66
74
0.37
33
0.23
7
0.45
30
0.33
86
0.14
32
0.10
9
0.18
119
0.17
163
0.15
77
0.12
33
s12784htwo views0.36
65
0.15
3
0.24
3
0.34
11
0.15
1
0.77
256
0.29
57
0.80
166
0.83
183
0.56
68
0.57
54
0.43
55
0.40
109
0.57
89
0.33
86
0.12
4
0.10
9
0.14
16
0.09
6
0.14
45
0.09
1
HCRNettwo views0.44
149
0.34
274
0.41
81
0.53
313
0.26
148
0.53
155
0.29
57
0.83
171
0.63
98
0.71
141
0.81
131
0.77
214
0.50
158
0.66
168
0.36
127
0.24
267
0.16
229
0.24
258
0.20
231
0.21
222
0.18
176
RAFT-Stereo + iAFFtwo views0.36
65
0.17
19
0.41
81
0.35
29
0.19
9
0.33
67
0.29
57
0.65
72
0.73
137
0.68
124
1.01
219
0.56
96
0.40
109
0.42
21
0.30
59
0.11
1
0.09
2
0.15
42
0.14
72
0.13
20
0.10
3
iResNet_ROBtwo views0.52
227
0.21
101
0.53
212
0.37
45
0.21
29
0.61
200
0.29
57
1.51
365
1.32
343
0.90
252
1.02
227
0.80
224
0.62
212
0.76
220
0.43
170
0.16
110
0.12
98
0.13
9
0.09
6
0.15
77
0.18
176
Former-RAFT_DAM_RVCtwo views0.34
35
0.27
226
0.45
130
0.36
37
0.25
112
0.48
137
0.30
70
0.58
35
0.90
223
0.42
37
0.36
17
0.30
5
0.29
42
0.49
50
0.30
59
0.16
110
0.14
178
0.18
119
0.15
94
0.18
157
0.15
106
test crocotwo views0.31
26
0.20
70
0.50
194
0.39
85
0.29
214
0.27
25
0.30
70
0.44
6
0.35
16
0.31
8
0.66
74
0.30
5
0.31
57
0.65
163
0.31
66
0.17
143
0.13
152
0.20
179
0.15
94
0.17
139
0.12
33
PCWNet_CMDtwo views0.48
182
0.24
180
0.52
206
0.39
85
0.27
172
0.63
216
0.30
70
0.95
214
0.96
251
0.86
226
1.07
248
0.79
216
0.44
131
0.57
89
0.43
170
0.17
143
0.12
98
0.21
218
0.16
123
0.24
257
0.19
204
riskmintwo views0.38
94
0.20
70
0.39
70
0.32
8
0.23
69
0.53
155
0.30
70
0.63
61
0.80
171
0.49
51
0.56
53
0.73
196
0.58
192
0.55
71
0.36
127
0.17
143
0.11
57
0.19
155
0.13
50
0.19
191
0.20
224
DCANet-4two views0.36
65
0.20
70
0.48
172
0.34
11
0.19
9
0.29
36
0.30
70
0.66
81
0.92
233
0.69
129
0.78
113
0.40
41
0.47
141
0.45
30
0.34
96
0.14
32
0.10
9
0.14
16
0.11
15
0.11
1
0.13
58
ffftwo views0.37
80
0.16
8
0.41
81
0.34
11
0.19
9
0.29
36
0.30
70
0.69
109
1.06
298
0.69
129
0.78
113
0.42
49
0.63
218
0.46
37
0.34
96
0.14
32
0.10
9
0.14
16
0.11
15
0.11
1
0.13
58
ADStereo(finetuned)two views0.37
80
0.16
8
0.49
182
0.34
11
0.19
9
0.30
43
0.30
70
0.68
100
0.91
228
0.70
135
0.77
105
0.43
55
0.69
252
0.45
30
0.33
86
0.14
32
0.10
9
0.14
16
0.11
15
0.13
20
0.12
33
TRStereotwo views0.37
80
0.27
226
0.59
234
0.47
251
0.41
307
0.29
36
0.30
70
0.84
174
0.59
84
0.52
59
0.41
19
0.52
83
0.26
17
0.73
207
0.27
33
0.17
143
0.12
98
0.19
155
0.19
209
0.13
20
0.11
9
iGMRVCtwo views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.24
7
0.30
70
0.59
37
0.36
21
0.63
90
0.73
89
0.58
109
0.38
92
0.58
106
0.36
127
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
CFNet_pseudotwo views0.46
165
0.24
180
0.52
206
0.37
45
0.27
172
0.58
185
0.30
70
0.86
180
0.88
211
0.82
201
1.03
231
0.75
202
0.47
141
0.58
106
0.44
182
0.17
143
0.12
98
0.24
258
0.16
123
0.24
257
0.19
204
DCANettwo views0.36
65
0.16
8
0.41
81
0.34
11
0.19
9
0.30
43
0.30
70
0.68
100
0.91
228
0.70
135
0.77
105
0.43
55
0.57
185
0.45
30
0.34
96
0.14
32
0.10
9
0.14
16
0.11
15
0.13
20
0.12
33
csctwo views0.37
80
0.16
8
0.41
81
0.34
11
0.19
9
0.29
36
0.30
70
0.69
109
1.06
298
0.69
129
0.78
113
0.42
49
0.63
218
0.46
37
0.34
96
0.14
32
0.10
9
0.14
16
0.11
15
0.11
1
0.13
58
cscssctwo views0.37
80
0.16
8
0.41
81
0.34
11
0.19
9
0.29
36
0.30
70
0.69
109
1.06
298
0.69
129
0.78
113
0.42
49
0.63
218
0.46
37
0.34
96
0.14
32
0.10
9
0.14
16
0.11
15
0.11
1
0.13
58
EAI-Stereotwo views0.34
35
0.19
49
0.44
119
0.39
85
0.21
29
0.31
53
0.30
70
1.15
282
0.30
3
0.49
51
0.75
99
0.36
31
0.28
32
0.62
139
0.27
33
0.14
32
0.11
57
0.14
16
0.13
50
0.13
20
0.12
33
MSMDNettwo views0.48
182
0.24
180
0.52
206
0.39
85
0.27
172
0.63
216
0.30
70
0.96
216
0.96
251
0.86
226
1.07
248
0.79
216
0.44
131
0.57
89
0.43
170
0.17
143
0.12
98
0.20
179
0.16
123
0.23
247
0.19
204
HITNettwo views0.41
131
0.26
212
0.45
130
0.33
10
0.17
3
0.63
216
0.30
70
0.93
204
0.64
105
0.71
141
0.82
134
0.64
146
0.52
163
0.59
120
0.43
170
0.14
32
0.10
9
0.15
42
0.13
50
0.19
191
0.12
33
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
EKT-Stereotwo views0.35
47
0.23
145
0.39
70
0.43
187
0.29
214
0.38
98
0.31
86
0.69
109
0.64
105
0.45
44
0.63
65
0.49
77
0.27
23
0.56
79
0.33
86
0.18
171
0.14
178
0.18
119
0.15
94
0.16
108
0.16
145
HHtwo views0.35
47
0.20
70
0.47
156
0.40
108
0.25
112
0.33
67
0.31
86
0.76
152
0.38
35
0.43
39
0.57
54
0.79
216
0.44
131
0.71
197
0.25
9
0.15
79
0.11
57
0.15
42
0.14
72
0.14
45
0.12
33
HanStereotwo views0.35
47
0.20
70
0.47
156
0.40
108
0.25
112
0.33
67
0.31
86
0.76
152
0.38
35
0.43
39
0.57
54
0.79
216
0.44
131
0.71
197
0.25
9
0.15
79
0.11
57
0.15
42
0.14
72
0.14
45
0.12
33
anonymousdsp2two views0.35
47
0.20
70
0.43
109
0.37
45
0.24
86
0.48
137
0.31
86
0.86
180
0.65
110
0.55
66
0.50
33
0.50
78
0.34
75
0.56
79
0.31
66
0.14
32
0.10
9
0.14
16
0.10
10
0.16
108
0.14
87
CroCo-Stereo Lap2two views0.28
8
0.24
180
0.39
70
0.50
285
0.29
214
0.20
1
0.31
86
0.49
13
0.38
35
0.24
1
0.27
4
0.46
67
0.31
57
0.39
14
0.30
59
0.14
32
0.15
202
0.16
60
0.13
50
0.16
108
0.15
106
DisPMtwo views0.39
108
0.19
49
0.44
119
0.41
132
0.27
172
0.24
7
0.31
86
0.65
72
0.57
82
0.87
233
0.87
159
0.60
128
0.32
61
0.76
220
0.32
74
0.18
171
0.12
98
0.19
155
0.17
163
0.15
77
0.20
224
AAGNettwo views1.43
372
0.20
70
0.48
172
0.44
202
0.25
112
0.29
36
0.31
86
0.65
72
0.68
116
0.97
282
0.86
155
0.67
166
0.62
212
0.64
156
20.63
417
0.16
110
0.11
57
0.19
155
0.15
94
0.19
191
0.12
33
NF-Stereotwo views0.38
94
0.20
70
0.45
130
0.41
132
0.25
112
0.26
17
0.31
86
0.69
109
0.70
121
0.65
106
0.77
105
0.57
101
0.30
53
0.67
178
0.35
111
0.18
171
0.12
98
0.20
179
0.16
123
0.16
108
0.27
280
OCTAStereotwo views0.38
94
0.20
70
0.46
146
0.41
132
0.25
112
0.26
17
0.31
86
0.69
109
0.70
121
0.65
106
0.77
105
0.58
109
0.30
53
0.67
178
0.35
111
0.18
171
0.12
98
0.20
179
0.16
123
0.16
108
0.27
280
PSM-adaLosstwo views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.24
7
0.31
86
0.59
37
0.36
21
0.63
90
0.73
89
0.58
109
0.38
92
0.56
79
0.35
111
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
ROB_FTStereo_v2two views0.35
47
0.23
145
0.47
156
0.41
132
0.22
42
0.24
7
0.31
86
0.59
37
0.36
21
0.63
90
0.73
89
0.57
101
0.38
92
0.57
89
0.36
127
0.18
171
0.12
98
0.20
179
0.16
123
0.20
204
0.15
106
RE-Stereotwo views0.38
94
0.20
70
0.46
146
0.41
132
0.25
112
0.26
17
0.31
86
0.69
109
0.70
121
0.65
106
0.77
105
0.58
109
0.30
53
0.67
178
0.35
111
0.18
171
0.12
98
0.20
179
0.16
123
0.16
108
0.27
280
TVStereotwo views0.38
94
0.20
70
0.46
146
0.41
132
0.25
112
0.26
17
0.31
86
0.69
109
0.70
121
0.65
106
0.77
105
0.58
109
0.30
53
0.67
178
0.35
111
0.18
171
0.12
98
0.20
179
0.16
123
0.16
108
0.27
280
sCroCo_RVCtwo views0.35
47
0.28
240
0.69
280
0.51
297
0.39
295
0.41
115
0.31
86
0.49
13
0.45
55
0.31
8
0.48
30
0.38
37
0.32
61
0.46
37
0.32
74
0.21
235
0.22
289
0.19
155
0.19
209
0.21
222
0.20
224
AFF-stereotwo views0.38
94
0.19
49
0.39
70
0.37
45
0.21
29
0.27
25
0.31
86
0.65
72
0.66
113
0.64
99
1.13
266
0.76
208
0.39
104
0.55
71
0.33
86
0.11
1
0.09
2
0.16
60
0.16
123
0.13
20
0.11
9
ccs_robtwo views0.46
165
0.24
180
0.52
206
0.37
45
0.27
172
0.58
185
0.31
86
0.86
180
0.88
211
0.82
201
1.02
227
0.75
202
0.47
141
0.58
106
0.44
182
0.17
143
0.12
98
0.24
258
0.16
123
0.24
257
0.19
204
rrrtwo views0.29
12
0.22
128
0.41
81
0.35
29
0.27
172
0.37
86
0.32
102
0.52
19
0.42
46
0.38
21
0.30
6
0.35
26
0.27
23
0.51
56
0.22
1
0.15
79
0.12
98
0.16
60
0.13
50
0.13
20
0.14
87
xtwo views0.39
108
0.24
180
0.41
81
0.34
11
0.23
69
0.52
149
0.32
102
0.86
180
0.52
66
0.57
70
0.70
83
0.59
123
0.50
158
0.49
50
0.46
198
0.17
143
0.15
202
0.17
85
0.15
94
0.17
139
0.16
145
PFNettwo views0.42
137
0.18
34
0.58
233
0.43
187
0.24
86
0.43
122
0.32
102
0.74
141
0.78
163
1.00
293
0.74
98
0.68
167
0.39
104
0.72
202
0.37
139
0.16
110
0.10
9
0.20
179
0.15
94
0.16
108
0.13
58
test_xeample3two views0.29
12
0.21
101
0.41
81
0.35
29
0.26
148
0.35
78
0.32
102
0.56
28
0.36
21
0.43
39
0.32
9
0.34
21
0.28
32
0.54
69
0.23
4
0.14
32
0.11
57
0.16
60
0.12
29
0.14
45
0.13
58
FENettwo views0.42
137
0.22
128
0.38
53
0.39
85
0.24
86
0.55
164
0.32
102
0.79
162
0.70
121
0.71
141
0.72
85
0.63
139
0.57
185
0.62
139
0.44
182
0.19
200
0.13
152
0.19
155
0.17
163
0.18
157
0.19
204
R-Stereo Traintwo views0.39
108
0.18
34
0.42
100
0.42
169
0.26
148
0.40
102
0.32
102
0.72
132
0.34
9
0.89
245
1.28
299
0.57
101
0.35
77
0.42
21
0.32
74
0.15
79
0.12
98
0.14
16
0.12
29
0.14
45
0.13
58
RAFT-Stereopermissivetwo views0.39
108
0.18
34
0.42
100
0.42
169
0.26
148
0.40
102
0.32
102
0.72
132
0.34
9
0.89
245
1.28
299
0.57
101
0.35
77
0.42
21
0.32
74
0.15
79
0.12
98
0.14
16
0.12
29
0.14
45
0.13
58
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
CFNettwo views0.51
218
0.29
248
0.46
146
0.41
132
0.27
172
0.70
240
0.32
102
1.13
273
1.00
270
0.72
152
1.07
248
0.85
234
0.60
202
0.76
220
0.52
223
0.19
200
0.14
178
0.23
244
0.23
274
0.21
222
0.16
145
AdaStereotwo views0.50
211
0.32
261
0.47
156
0.48
256
0.25
112
0.67
234
0.32
102
1.17
290
0.88
211
0.75
167
0.99
214
0.75
202
0.49
148
0.67
178
0.46
198
0.27
294
0.12
98
0.28
302
0.18
185
0.23
247
0.18
176
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
CFNet_ucstwo views0.50
211
0.24
180
0.55
220
0.38
66
0.31
241
0.58
185
0.33
111
0.98
223
0.93
238
0.88
241
1.19
286
0.80
224
0.49
148
0.63
149
0.43
170
0.21
235
0.15
202
0.26
283
0.18
185
0.26
269
0.22
250
SDNRtwo views0.86
323
0.37
286
1.47
371
0.40
108
0.38
290
3.38
400
0.33
111
0.90
197
0.98
258
0.99
288
2.09
365
0.59
123
0.71
266
1.29
340
0.70
264
0.51
368
0.56
382
0.36
335
0.26
306
0.43
342
0.46
357
raft_robusttwo views0.41
131
0.23
145
0.36
34
0.42
169
0.21
29
0.40
102
0.33
111
0.79
162
0.98
258
0.79
182
0.87
159
0.39
38
0.33
69
0.84
252
0.29
54
0.13
12
0.12
98
0.16
60
0.17
163
0.15
77
0.12
33
CIPLGtwo views0.41
131
0.21
101
0.63
252
0.45
223
0.33
262
0.52
149
0.33
111
0.65
72
0.60
86
0.82
201
0.96
194
0.46
67
0.32
61
0.55
71
0.44
182
0.16
110
0.12
98
0.15
42
0.14
72
0.13
20
0.14
87
ACREtwo views0.40
120
0.21
101
0.65
262
0.45
223
0.33
262
0.51
146
0.33
111
0.66
81
0.63
98
0.80
184
0.92
179
0.45
61
0.32
61
0.52
61
0.45
188
0.16
110
0.12
98
0.15
42
0.14
72
0.13
20
0.14
87
rafts_anoytwo views0.37
80
0.21
101
0.36
34
0.41
132
0.26
148
0.30
43
0.33
111
0.67
91
0.90
223
0.58
71
0.66
74
0.45
61
0.33
69
0.47
44
0.39
153
0.16
110
0.11
57
0.21
218
0.23
274
0.17
139
0.14
87
MLCVtwo views0.47
175
0.24
180
0.61
241
0.37
45
0.17
3
0.61
200
0.33
111
0.80
166
0.87
207
0.94
269
1.13
266
0.72
187
0.43
123
0.89
270
0.51
216
0.13
12
0.10
9
0.13
9
0.11
15
0.14
45
0.12
33
SMFormertwo views0.51
218
0.23
145
0.62
244
0.34
11
0.20
20
0.62
207
0.34
118
1.21
301
1.02
277
0.81
192
1.01
219
0.71
177
0.65
234
0.84
252
0.55
233
0.19
200
0.15
202
0.18
119
0.16
123
0.18
157
0.18
176
ttatwo views0.51
218
0.23
145
0.62
244
0.34
11
0.20
20
0.62
207
0.34
118
1.21
301
1.02
277
0.81
192
1.01
219
0.71
177
0.65
234
0.84
252
0.55
233
0.19
200
0.15
202
0.18
119
0.16
123
0.15
77
0.14
87
qqq1two views0.49
198
0.23
145
0.62
244
0.34
11
0.20
20
0.62
207
0.34
118
1.21
301
1.02
277
0.81
192
1.01
219
0.71
177
0.65
234
0.84
252
0.34
96
0.19
200
0.15
202
0.14
16
0.12
29
0.15
77
0.14
87
fff1two views0.49
198
0.23
145
0.62
244
0.34
11
0.20
20
0.62
207
0.34
118
1.21
301
1.02
277
0.81
192
1.01
219
0.71
177
0.65
234
0.84
252
0.34
96
0.19
200
0.15
202
0.14
16
0.12
29
0.15
77
0.14
87
LoS_RVCtwo views0.27
5
0.16
8
0.27
8
0.32
8
0.30
224
0.44
126
0.34
118
0.41
4
0.33
8
0.31
8
0.51
38
0.29
4
0.32
61
0.36
5
0.28
43
0.11
1
0.10
9
0.11
1
0.08
1
0.11
1
0.19
204
CASStwo views0.45
159
0.27
226
0.42
100
0.48
256
0.22
42
0.61
200
0.34
118
0.97
220
0.62
88
0.71
141
0.85
152
0.61
132
0.55
179
0.57
89
0.41
161
0.29
306
0.16
229
0.22
230
0.18
185
0.22
238
0.28
287
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
RCA-Stereotwo views0.35
47
0.17
19
0.34
26
0.38
66
0.22
42
0.31
53
0.34
118
0.68
100
1.24
331
0.45
44
0.65
70
0.47
69
0.43
123
0.38
12
0.27
33
0.13
12
0.10
9
0.14
16
0.11
15
0.11
1
0.11
9
BUStwo views0.45
159
0.25
198
0.43
109
0.45
223
0.28
191
0.70
240
0.34
118
0.94
208
0.76
150
0.75
167
0.80
124
0.65
156
0.49
148
0.64
156
0.51
216
0.20
221
0.14
178
0.22
230
0.19
209
0.18
157
0.18
176
NINENettwo views0.50
211
0.29
248
0.51
201
0.45
223
0.32
253
0.70
240
0.34
118
1.10
263
0.88
211
0.80
184
0.94
183
0.65
156
0.49
148
0.73
207
0.51
216
0.22
253
0.20
276
0.25
269
0.18
185
0.22
238
0.21
237
Sa-1000two views0.48
182
0.24
180
0.41
81
0.45
223
0.25
112
0.59
194
0.34
118
0.81
169
0.93
238
0.82
201
1.50
333
0.53
87
0.45
135
0.92
282
0.30
59
0.15
79
0.12
98
0.21
218
0.19
209
0.15
77
0.13
58
test_4two views0.36
65
0.18
34
0.31
13
0.44
202
0.25
112
0.20
1
0.34
118
0.56
28
0.41
42
0.59
73
1.45
329
0.43
55
0.25
11
0.63
149
0.28
43
0.12
4
0.10
9
0.17
85
0.19
209
0.15
77
0.11
9
UDGNettwo views0.48
182
0.77
363
0.50
194
0.48
256
0.31
241
0.41
115
0.34
118
0.70
123
0.92
233
0.65
106
0.60
60
0.58
109
0.43
123
0.63
149
0.41
161
0.32
327
0.15
202
0.66
374
0.19
209
0.36
323
0.21
237
IPLGR_Ctwo views0.40
120
0.21
101
0.64
257
0.45
223
0.33
262
0.52
149
0.34
118
0.66
81
0.62
88
0.82
201
0.92
179
0.45
61
0.32
61
0.52
61
0.46
198
0.17
143
0.12
98
0.15
42
0.14
72
0.13
20
0.14
87
HHNettwo views0.41
131
0.17
19
0.41
81
0.34
11
0.37
282
0.33
67
0.34
118
0.69
109
0.75
144
0.86
226
1.30
303
0.52
83
0.32
61
0.52
61
0.35
111
0.15
79
0.11
57
0.19
155
0.15
94
0.15
77
0.24
263
DEmStereotwo views0.48
182
0.17
19
0.50
194
0.38
66
0.25
112
0.59
194
0.34
118
0.63
61
0.74
142
0.89
245
1.66
344
0.58
109
1.06
337
0.60
126
0.42
165
0.14
32
0.11
57
0.16
60
0.16
123
0.14
45
0.15
106
DMCAtwo views0.45
159
0.26
212
0.50
194
0.38
66
0.28
191
0.51
146
0.34
118
0.93
204
0.68
116
0.75
167
0.83
139
0.79
216
0.53
166
0.51
56
0.54
229
0.21
235
0.16
229
0.21
218
0.16
123
0.19
191
0.21
237
FADNet_RVCtwo views0.55
241
0.37
286
1.17
346
0.44
202
0.31
241
0.56
179
0.34
118
1.06
253
0.88
211
0.67
118
0.90
173
0.61
132
0.65
234
0.93
287
0.70
264
0.21
235
0.18
254
0.26
283
0.23
274
0.31
298
0.28
287
AE-Stereotwo views0.34
35
0.21
101
0.42
100
0.48
256
0.31
241
0.48
137
0.35
135
0.61
52
0.62
88
0.32
12
0.55
51
0.52
83
0.27
23
0.47
44
0.29
54
0.13
12
0.13
152
0.18
119
0.16
123
0.15
77
0.12
33
mmmtwo views0.44
149
0.27
226
0.46
146
0.38
66
0.24
86
0.61
200
0.35
135
0.94
208
0.53
69
0.72
152
1.05
239
0.63
139
0.50
158
0.57
89
0.45
188
0.18
171
0.15
202
0.23
244
0.20
231
0.20
204
0.18
176
ff7two views0.29
12
0.21
101
0.38
53
0.36
37
0.26
148
0.31
53
0.35
135
0.62
56
0.34
9
0.38
21
0.33
10
0.32
10
0.29
42
0.58
106
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
IGEVStereo-DCAtwo views0.29
12
0.22
128
0.38
53
0.35
29
0.27
172
0.37
86
0.35
135
0.62
56
0.34
9
0.38
21
0.30
6
0.35
26
0.27
23
0.51
56
0.22
1
0.15
79
0.12
98
0.16
60
0.12
29
0.13
20
0.15
106
fffftwo views0.29
12
0.21
101
0.38
53
0.36
37
0.26
148
0.31
53
0.35
135
0.62
56
0.34
9
0.38
21
0.33
10
0.32
10
0.29
42
0.58
106
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
11ttwo views0.29
12
0.21
101
0.38
53
0.36
37
0.26
148
0.31
53
0.35
135
0.62
56
0.34
9
0.38
21
0.33
10
0.32
10
0.29
42
0.58
106
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
anonymousdsptwo views0.29
12
0.21
101
0.38
53
0.37
45
0.25
112
0.30
43
0.35
135
0.63
61
0.35
16
0.39
29
0.33
10
0.33
18
0.28
32
0.59
120
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
anonymousatwo views0.49
198
0.20
70
0.42
100
0.38
66
0.23
69
0.91
291
0.35
135
0.75
147
0.62
88
0.85
221
1.54
337
1.06
291
0.66
239
0.51
56
0.43
170
0.16
110
0.13
152
0.19
155
0.21
248
0.16
108
0.14
87
ccc-4two views0.29
12
0.21
101
0.38
53
0.36
37
0.26
148
0.31
53
0.35
135
0.62
56
0.34
9
0.38
21
0.33
10
0.32
10
0.29
42
0.58
106
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
IERtwo views0.46
165
0.23
145
0.50
194
0.38
66
0.28
191
0.69
238
0.35
135
0.80
166
0.66
113
0.83
213
0.94
183
0.75
202
0.77
282
0.60
126
0.42
165
0.17
143
0.14
178
0.17
85
0.17
163
0.17
139
0.15
106
IGEV-Stereopermissivetwo views0.29
12
0.21
101
0.38
53
0.37
45
0.25
112
0.30
43
0.35
135
0.63
61
0.35
16
0.39
29
0.33
10
0.33
18
0.28
32
0.59
120
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
GANet-ADLtwo views0.42
137
0.25
198
0.45
130
0.43
187
0.29
214
0.54
159
0.35
135
0.89
193
0.86
198
0.63
90
0.72
85
0.68
167
0.42
116
0.52
61
0.41
161
0.21
235
0.14
178
0.15
42
0.13
50
0.18
157
0.19
204
PSM-softLosstwo views0.38
94
0.20
70
0.48
172
0.41
132
0.26
148
0.30
43
0.35
135
0.69
109
0.46
56
0.62
83
0.82
134
0.59
123
0.33
69
0.70
192
0.39
153
0.19
200
0.12
98
0.20
179
0.18
185
0.16
108
0.22
250
KMStereotwo views0.38
94
0.20
70
0.48
172
0.41
132
0.26
148
0.30
43
0.35
135
0.69
109
0.46
56
0.62
83
0.82
134
0.59
123
0.33
69
0.70
192
0.39
153
0.19
200
0.12
98
0.20
179
0.18
185
0.16
108
0.22
250
cross-rafttwo views0.34
35
0.20
70
0.37
44
0.44
202
0.23
69
0.32
63
0.35
135
0.74
141
0.40
39
0.60
77
0.77
105
0.57
101
0.27
23
0.43
24
0.28
43
0.12
4
0.10
9
0.15
42
0.13
50
0.15
77
0.11
9
pcwnet_v2two views0.58
263
0.28
240
0.84
311
0.45
223
0.35
275
0.61
200
0.35
135
1.27
326
1.21
326
0.99
288
1.27
297
0.72
187
0.58
192
0.67
178
0.48
205
0.27
294
0.21
283
0.24
258
0.23
274
0.29
284
0.29
293
BEATNet_4xtwo views0.46
165
0.32
261
0.56
226
0.37
45
0.19
9
0.63
216
0.35
135
1.01
235
0.72
132
0.77
177
0.83
139
0.70
173
0.59
198
0.68
186
0.53
226
0.16
110
0.12
98
0.16
60
0.14
72
0.24
257
0.16
145
iResNetv2_ROBtwo views0.52
227
0.27
226
0.69
280
0.38
66
0.25
112
0.62
207
0.35
135
1.17
290
1.01
274
0.99
288
1.06
245
0.88
246
0.67
242
0.66
168
0.39
153
0.19
200
0.13
152
0.15
42
0.11
15
0.18
157
0.16
145
CoDeXtwo views0.47
175
0.20
70
0.49
182
0.42
169
0.25
112
0.75
253
0.36
153
1.27
326
0.80
171
0.82
201
0.96
194
0.62
138
0.57
185
0.60
126
0.36
127
0.17
143
0.12
98
0.17
85
0.15
94
0.16
108
0.14
87
qqqtwo views0.40
120
0.26
212
0.44
119
0.36
37
0.22
42
0.46
133
0.36
153
0.85
177
0.54
73
0.56
68
0.69
81
0.65
156
0.53
166
0.55
71
0.45
188
0.17
143
0.16
229
0.20
179
0.19
209
0.18
157
0.17
162
SAtwo views0.44
149
0.25
198
0.46
146
0.46
242
0.24
86
0.43
122
0.36
153
0.75
147
0.96
251
0.59
73
1.03
231
0.48
73
0.52
163
0.94
294
0.32
74
0.16
110
0.12
98
0.21
218
0.19
209
0.15
77
0.13
58
dadtwo views0.58
263
0.50
328
0.64
257
0.43
187
0.30
224
0.59
194
0.36
153
0.78
160
1.25
335
1.01
298
1.17
280
1.15
311
0.53
166
0.68
186
0.50
208
0.35
343
0.23
299
0.37
339
0.21
248
0.29
284
0.20
224
test_3two views0.36
65
0.19
49
0.44
119
0.44
202
0.23
69
0.48
137
0.36
153
0.66
81
0.82
178
0.64
99
0.45
21
0.68
167
0.25
11
0.41
19
0.31
66
0.12
4
0.10
9
0.18
119
0.16
123
0.15
77
0.11
9
test-1two views0.36
65
0.19
49
0.71
287
0.46
242
0.26
148
0.44
126
0.36
153
0.60
46
0.59
84
0.48
50
0.67
78
0.53
87
0.36
86
0.40
16
0.29
54
0.14
32
0.11
57
0.16
60
0.14
72
0.15
77
0.16
145
LMCR-Stereopermissivemany views0.53
230
0.30
254
0.53
212
0.58
332
0.30
224
0.83
281
0.36
153
1.19
295
0.76
150
0.88
241
1.04
235
0.56
96
0.62
212
0.82
240
0.67
257
0.19
200
0.15
202
0.19
155
0.14
72
0.23
247
0.17
162
GEStwo views0.44
149
0.23
145
0.57
229
0.40
108
0.30
224
0.59
194
0.36
153
0.96
216
0.68
116
0.74
165
0.83
139
0.47
69
0.48
145
0.67
178
0.43
170
0.22
253
0.16
229
0.17
85
0.16
123
0.18
157
0.23
257
xxxxtwo views1.01
340
0.22
128
0.43
109
0.36
37
0.21
29
0.82
279
0.36
153
1.32
334
0.88
211
0.71
141
0.94
183
0.97
267
0.63
218
0.64
156
10.58
409
0.20
221
0.16
229
0.18
119
0.17
163
0.19
191
0.19
204
GMStereopermissivetwo views0.39
108
0.37
286
0.54
215
0.40
108
0.26
148
0.42
120
0.36
153
0.59
37
1.04
286
0.55
66
0.51
38
0.37
33
0.35
77
0.54
69
0.41
161
0.19
200
0.13
152
0.16
60
0.17
163
0.24
257
0.18
176
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
GANet-RSSMtwo views0.47
175
0.21
101
0.37
44
0.38
66
0.25
112
0.58
185
0.36
153
1.07
254
0.78
163
0.68
124
1.01
219
0.86
236
0.67
242
0.62
139
0.44
182
0.21
235
0.15
202
0.18
119
0.18
185
0.18
157
0.17
162
UCFNet_RVCtwo views0.49
198
0.26
212
0.35
29
0.39
85
0.26
148
0.64
222
0.36
153
1.15
282
0.84
186
0.67
118
0.88
166
0.88
246
0.59
198
0.58
106
0.45
188
0.24
267
0.17
243
0.27
295
0.27
311
0.25
265
0.23
257
DualNettwo views0.47
175
0.26
212
0.49
182
0.37
45
0.25
112
0.55
164
0.37
165
0.68
100
1.04
286
0.73
159
0.96
194
0.71
177
0.53
166
0.57
89
0.88
301
0.16
110
0.10
9
0.25
269
0.21
248
0.16
108
0.16
145
ffmtwo views0.44
149
0.26
212
0.49
182
0.37
45
0.25
112
0.55
164
0.37
165
0.68
100
1.04
286
0.73
159
0.96
194
0.71
177
0.53
166
0.57
89
0.25
9
0.16
110
0.10
9
0.25
269
0.21
248
0.16
108
0.16
145
ff1two views0.49
198
0.26
212
0.49
182
0.37
45
0.25
112
0.55
164
0.37
165
0.68
100
1.04
286
0.73
159
0.96
194
0.71
177
0.53
166
1.01
300
0.88
301
0.16
110
0.10
9
0.25
269
0.21
248
0.16
108
0.16
145
mmxtwo views0.53
230
0.26
212
0.49
182
0.37
45
0.25
112
0.55
164
0.37
165
1.16
285
1.03
282
0.73
159
0.96
194
0.71
177
0.53
166
1.01
300
0.88
301
0.20
221
0.15
202
0.25
269
0.21
248
0.22
238
0.20
224
whm_ethtwo views0.48
182
0.30
254
0.74
294
0.46
242
0.38
290
0.37
86
0.37
165
0.79
162
0.78
163
0.82
201
1.74
350
0.37
33
0.38
92
0.60
126
0.38
147
0.18
171
0.16
229
0.20
179
0.20
231
0.19
191
0.22
250
xxxcopylefttwo views0.53
230
0.26
212
0.49
182
0.37
45
0.25
112
0.55
164
0.37
165
1.16
285
1.03
282
0.73
159
0.96
194
0.71
177
0.53
166
1.01
300
0.88
301
0.20
221
0.15
202
0.25
269
0.21
248
0.22
238
0.20
224
DCREtwo views0.37
80
0.18
34
0.46
146
0.45
223
0.32
253
0.42
120
0.37
165
0.63
61
0.51
63
0.47
49
0.94
183
0.56
96
0.36
86
0.52
61
0.32
74
0.14
32
0.13
152
0.15
42
0.14
72
0.14
45
0.13
58
GwcNet-ADLtwo views0.44
149
0.22
128
0.48
172
0.45
223
0.30
224
0.40
102
0.37
165
0.92
202
0.97
254
0.71
141
0.78
113
0.61
132
0.42
116
0.62
139
0.50
208
0.19
200
0.14
178
0.15
42
0.14
72
0.18
157
0.18
176
PSMNet-ADLtwo views0.48
182
0.27
226
0.40
77
0.48
256
0.30
224
0.68
236
0.37
165
0.90
197
0.80
171
0.61
82
0.80
124
0.92
258
0.62
212
0.72
202
0.63
249
0.23
258
0.18
254
0.18
119
0.20
231
0.22
238
0.20
224
KYRafttwo views0.48
182
0.20
70
0.38
53
0.44
202
0.23
69
0.44
126
0.37
165
0.66
81
0.41
42
0.94
269
1.73
348
0.79
216
0.41
115
0.63
149
0.31
66
0.16
110
0.11
57
0.18
119
0.22
263
0.16
108
0.78
378
TestStereotwo views0.38
94
0.31
259
0.40
77
0.45
223
0.20
20
0.40
102
0.37
165
0.66
81
0.65
110
0.53
62
0.78
113
0.47
69
0.40
109
0.55
71
0.37
139
0.18
171
0.13
152
0.20
179
0.15
94
0.22
238
0.13
58
raft+_RVCtwo views0.38
94
0.19
49
0.35
29
0.37
45
0.25
112
0.45
131
0.37
165
0.78
160
0.89
221
0.51
56
0.78
113
0.50
78
0.29
42
0.53
66
0.40
158
0.15
79
0.12
98
0.17
85
0.15
94
0.14
45
0.12
33
222two views1.18
359
0.22
128
0.44
119
0.37
45
0.22
42
0.79
263
0.37
165
1.31
333
0.89
221
0.92
265
1.08
251
0.72
187
0.71
266
0.66
168
13.89
413
0.20
221
0.15
202
0.17
85
0.16
123
0.18
157
0.19
204
SFCPSMtwo views0.47
175
0.21
101
0.55
220
0.40
108
0.27
172
0.87
289
0.37
165
1.33
336
0.77
157
0.80
184
0.84
144
0.54
91
0.49
148
0.57
89
0.37
139
0.18
171
0.13
152
0.18
119
0.20
231
0.16
108
0.15
106
cf-rtwo views0.47
175
0.23
145
0.41
81
0.39
85
0.23
69
0.59
194
0.37
165
0.88
191
0.85
193
0.72
152
1.05
239
0.94
261
0.62
212
0.56
79
0.54
229
0.21
235
0.14
178
0.17
85
0.19
209
0.15
77
0.15
106
PSMNet-RSSMtwo views0.48
182
0.22
128
0.38
53
0.42
169
0.25
112
0.50
142
0.37
165
1.10
263
0.77
157
0.70
135
1.06
245
0.84
232
0.64
228
0.62
139
0.47
202
0.23
258
0.15
202
0.23
244
0.25
296
0.20
204
0.19
204
CFNet-ftpermissivetwo views0.48
182
0.23
145
0.36
34
0.40
108
0.26
148
0.64
222
0.37
165
0.87
187
0.85
193
0.64
99
1.00
216
1.01
277
0.64
228
0.61
133
0.53
226
0.23
258
0.15
202
0.24
258
0.21
248
0.23
247
0.18
176
HSM-Net_RVCpermissivetwo views0.53
230
0.22
128
0.35
29
0.37
45
0.21
29
0.85
285
0.37
165
1.23
313
0.93
238
0.90
252
1.15
273
1.26
317
0.63
218
0.72
202
0.48
205
0.17
143
0.13
152
0.16
60
0.15
94
0.17
139
0.15
106
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
CFNet_RVCtwo views0.48
182
0.23
145
0.36
34
0.40
108
0.26
148
0.64
222
0.37
165
0.87
187
0.85
193
0.64
99
1.00
216
1.01
277
0.64
228
0.61
133
0.53
226
0.23
258
0.15
202
0.24
258
0.21
248
0.23
247
0.18
176
PWC_ROBbinarytwo views0.87
324
0.52
337
1.28
355
0.50
285
0.32
253
0.91
291
0.37
165
1.36
344
1.46
356
1.61
359
2.59
377
1.16
312
1.01
334
1.34
346
1.40
359
0.25
277
0.18
254
0.28
302
0.20
231
0.29
284
0.28
287
ACVNet-DCAtwo views0.35
47
0.23
145
0.33
20
0.41
132
0.22
42
0.55
164
0.38
185
0.85
177
0.54
73
0.41
32
0.50
33
0.34
21
0.49
148
0.57
89
0.25
9
0.16
110
0.10
9
0.19
155
0.13
50
0.18
157
0.17
162
xx1two views0.39
108
0.23
145
0.33
20
0.41
132
0.22
42
0.55
164
0.38
185
0.67
91
1.06
298
0.41
32
0.50
33
0.65
156
0.53
166
0.57
89
0.25
9
0.16
110
0.10
9
0.20
179
0.19
209
0.18
157
0.17
162
1test111two views0.36
65
0.23
145
0.33
20
0.41
132
0.22
42
0.55
164
0.38
185
0.85
177
0.54
73
0.41
32
0.50
33
0.34
21
0.49
148
0.55
71
0.45
188
0.16
110
0.10
9
0.19
155
0.13
50
0.18
157
0.17
162
cc1two views0.37
80
0.23
145
0.33
20
0.41
132
0.22
42
0.55
164
0.38
185
0.67
91
1.06
298
0.41
32
0.50
33
0.34
21
0.49
148
0.57
89
0.25
9
0.16
110
0.10
9
0.19
155
0.13
50
0.16
108
0.15
106
tt1two views0.36
65
0.24
180
0.32
17
0.41
132
0.22
42
0.54
159
0.38
185
0.68
100
1.04
286
0.41
32
0.46
24
0.35
26
0.45
135
0.57
89
0.25
9
0.16
110
0.10
9
0.19
155
0.13
50
0.16
108
0.16
145
ttttwo views0.51
218
0.25
198
0.43
109
0.38
66
0.24
86
0.65
227
0.38
185
1.18
293
1.05
291
0.72
152
1.08
251
0.63
139
0.49
148
0.84
252
0.59
240
0.24
267
0.21
283
0.22
230
0.20
231
0.24
257
0.24
263
StereoVisiontwo views0.42
137
0.28
240
0.45
130
0.49
271
0.28
191
0.38
98
0.38
185
0.72
132
0.62
88
0.44
42
1.14
268
0.54
91
0.39
104
0.56
79
0.34
96
0.21
235
0.24
306
0.25
269
0.24
287
0.26
269
0.16
145
CAStwo views0.34
35
0.13
1
0.25
6
1.28
386
0.30
224
0.46
133
0.38
185
0.48
11
0.47
59
0.34
14
0.52
42
0.24
1
0.19
2
0.29
1
0.27
33
0.69
378
0.08
1
0.12
2
0.08
1
0.12
8
0.15
106
ddtwo views0.43
143
0.38
295
0.55
220
0.44
202
0.25
112
0.47
135
0.38
185
0.70
123
1.05
291
0.59
73
0.65
70
0.42
49
0.39
104
0.66
168
0.50
208
0.24
267
0.15
202
0.21
218
0.15
94
0.22
238
0.18
176
GMOStereotwo views0.37
80
0.19
49
0.38
53
0.43
187
0.24
86
0.37
86
0.38
185
0.52
19
0.62
88
0.87
233
0.84
144
0.64
146
0.35
77
0.37
8
0.28
43
0.13
12
0.11
57
0.20
179
0.18
185
0.15
77
0.11
9
error versiontwo views0.37
80
0.19
49
0.38
53
0.43
187
0.24
86
0.37
86
0.38
185
0.52
19
0.62
88
0.87
233
0.84
144
0.64
146
0.35
77
0.37
8
0.28
43
0.13
12
0.11
57
0.20
179
0.18
185
0.15
77
0.11
9
test-vtwo views0.37
80
0.19
49
0.38
53
0.43
187
0.24
86
0.37
86
0.38
185
0.52
19
0.62
88
0.87
233
0.84
144
0.64
146
0.35
77
0.37
8
0.28
43
0.13
12
0.11
57
0.20
179
0.18
185
0.15
77
0.11
9
AACVNettwo views0.50
211
0.23
145
0.49
182
0.46
242
0.29
214
0.52
149
0.38
185
0.90
197
0.55
77
0.81
192
1.03
231
1.00
274
0.70
262
0.83
247
0.54
229
0.21
235
0.18
254
0.24
258
0.18
185
0.23
247
0.20
224
AnonymousMtwo views0.41
131
0.81
366
0.29
10
0.34
11
0.22
42
0.28
32
0.38
185
0.53
26
0.41
42
0.70
135
0.49
32
0.47
69
0.27
23
0.41
19
0.31
66
0.15
79
0.12
98
1.51
386
0.26
306
0.12
8
0.10
3
test-2two views0.37
80
0.19
49
0.38
53
0.43
187
0.24
86
0.37
86
0.38
185
0.52
19
0.62
88
0.87
233
0.84
144
0.64
146
0.35
77
0.37
8
0.28
43
0.13
12
0.11
57
0.20
179
0.18
185
0.15
77
0.11
9
RALCasStereoNettwo views0.36
65
0.21
101
0.37
44
0.42
169
0.26
148
0.35
78
0.38
185
0.63
61
0.64
105
0.50
54
0.72
85
0.51
81
0.29
42
0.59
120
0.36
127
0.16
110
0.14
178
0.15
42
0.13
50
0.17
139
0.16
145
GwcNet-RSSMtwo views0.49
198
0.24
180
0.42
100
0.40
108
0.23
69
0.55
164
0.38
185
0.93
204
0.93
238
0.71
141
1.16
278
0.86
236
0.60
202
0.62
139
0.66
254
0.21
235
0.14
178
0.19
155
0.20
231
0.16
108
0.15
106
DMCA-RVCcopylefttwo views0.51
218
0.30
254
0.59
234
0.50
285
0.32
253
0.54
159
0.38
185
0.86
180
0.68
116
0.94
269
0.86
155
0.91
256
0.68
248
0.70
192
0.59
240
0.23
258
0.18
254
0.31
318
0.23
274
0.26
269
0.19
204
RASNettwo views0.53
230
0.22
128
0.52
206
0.38
66
0.22
42
0.68
236
0.38
185
0.97
220
0.88
211
0.73
159
1.04
235
1.03
284
0.92
318
0.90
272
0.86
295
0.16
110
0.14
178
0.14
16
0.17
163
0.15
77
0.13
58
RAFT_CTSACEtwo views0.45
159
0.20
70
0.44
119
0.45
223
0.27
172
0.34
73
0.39
204
0.60
46
0.73
137
0.76
172
1.44
326
0.83
228
0.38
92
1.08
315
0.26
25
0.12
4
0.13
152
0.18
119
0.16
123
0.15
77
0.11
9
test_xeamplepermissivetwo views1.01
340
0.21
101
0.42
100
0.35
29
0.21
29
0.71
245
0.39
204
1.23
313
0.86
198
0.81
192
1.04
235
0.69
171
0.61
207
0.69
189
10.93
410
0.19
200
0.15
202
0.18
119
0.17
163
0.18
157
0.17
162
MMNettwo views0.55
241
0.25
198
0.61
241
0.43
187
0.34
269
1.07
321
0.39
204
0.87
187
0.91
228
0.91
257
0.93
182
0.86
236
0.76
278
0.81
238
0.76
276
0.15
79
0.14
178
0.18
119
0.19
209
0.20
204
0.16
145
acv_fttwo views0.51
218
0.23
145
0.56
226
0.44
202
0.28
191
0.86
288
0.39
204
0.91
201
0.80
171
0.97
282
0.96
194
0.79
216
0.59
198
0.63
149
0.87
299
0.17
143
0.15
202
0.16
60
0.15
94
0.17
139
0.15
106
FADNet-RVCtwo views0.60
273
0.53
340
1.14
341
0.46
242
0.39
295
0.61
200
0.39
204
1.12
272
0.87
207
0.70
135
0.84
144
1.04
286
0.55
179
0.94
294
0.69
261
0.26
287
0.25
314
0.28
302
0.28
316
0.31
298
0.31
306
PWCDC_ROBbinarytwo views0.89
328
0.49
324
0.80
309
0.74
368
0.40
300
1.03
315
0.39
204
1.33
336
2.35
385
1.02
300
3.77
394
0.81
226
0.92
318
1.20
329
0.90
314
0.34
339
0.22
289
0.24
258
0.20
231
0.34
315
0.29
293
TestStereo1two views0.43
143
0.23
145
0.41
81
0.51
297
0.24
86
0.34
73
0.40
210
0.77
155
0.90
223
0.68
124
0.96
194
0.48
73
0.46
138
0.91
279
0.32
74
0.16
110
0.13
152
0.18
119
0.15
94
0.14
45
0.13
58
BSDual-CNNtwo views0.46
165
0.25
198
0.43
109
0.45
223
0.28
191
0.77
256
0.40
210
0.94
208
0.76
150
0.75
167
0.80
124
0.76
208
0.54
177
0.64
156
0.43
170
0.20
221
0.14
178
0.22
230
0.19
209
0.18
157
0.18
176
hknettwo views0.49
198
0.25
198
0.51
201
0.45
223
0.29
214
0.77
256
0.40
210
0.94
208
0.83
183
0.75
167
0.80
124
0.97
267
0.61
207
0.73
207
0.45
188
0.18
171
0.14
178
0.22
230
0.19
209
0.18
157
0.18
176
SA-5Ktwo views0.43
143
0.23
145
0.41
81
0.51
297
0.24
86
0.34
73
0.40
210
0.77
155
0.90
223
0.68
124
0.96
194
0.48
73
0.46
138
0.91
279
0.32
74
0.16
110
0.13
152
0.18
119
0.15
94
0.14
45
0.13
58
AASNettwo views0.53
230
0.25
198
0.52
206
0.49
271
0.32
253
0.74
250
0.40
210
1.50
362
0.86
198
0.86
226
0.92
179
0.64
146
0.59
198
0.59
120
0.79
281
0.23
258
0.19
268
0.20
179
0.16
123
0.21
222
0.19
204
DRafttwo views0.49
198
0.17
19
0.47
156
0.37
45
0.25
112
0.58
185
0.40
210
0.65
72
0.85
193
1.02
300
1.75
352
0.50
78
0.82
297
0.63
149
0.40
158
0.13
12
0.11
57
0.16
60
0.16
123
0.14
45
0.15
106
ACVNettwo views0.46
165
0.23
145
0.36
34
0.39
85
0.28
191
0.58
185
0.40
210
0.87
187
0.80
171
0.64
99
0.96
194
0.79
216
0.60
202
0.63
149
0.67
257
0.17
143
0.15
202
0.16
60
0.15
94
0.18
157
0.15
106
hitnet-ftcopylefttwo views0.55
241
0.27
226
0.39
70
0.41
132
0.28
191
0.78
260
0.40
210
0.92
202
0.90
223
0.82
201
1.01
219
1.13
308
0.70
262
0.78
231
0.67
257
0.28
300
0.20
276
0.28
302
0.22
263
0.29
284
0.26
273
DANettwo views0.71
294
0.45
318
0.91
321
0.59
335
0.40
300
0.81
271
0.40
210
0.97
220
0.84
186
1.20
336
1.22
288
1.33
331
0.88
312
1.16
324
1.24
350
0.27
294
0.23
299
0.31
318
0.25
296
0.35
319
0.32
310
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
HSMtwo views0.51
218
0.24
180
0.41
81
0.39
85
0.24
86
0.75
253
0.40
210
1.22
309
0.75
144
0.81
192
0.91
175
1.21
313
0.69
252
0.87
262
0.46
198
0.17
143
0.13
152
0.17
85
0.14
72
0.17
139
0.17
162
StereoDRNet-Refinedtwo views0.58
263
0.32
261
0.54
215
0.46
242
0.30
224
0.96
302
0.40
210
1.00
228
0.94
245
1.12
326
1.08
251
0.96
265
0.67
242
0.90
272
0.89
312
0.17
143
0.13
152
0.22
230
0.21
248
0.20
204
0.19
204
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
iResNettwo views0.49
198
0.29
248
0.79
307
0.42
169
0.21
29
0.61
200
0.40
210
0.82
170
0.99
263
0.87
233
1.12
260
0.69
171
0.53
166
0.78
231
0.51
216
0.15
79
0.11
57
0.14
16
0.12
29
0.17
139
0.15
106
gwcnet-sptwo views0.48
182
0.23
145
0.70
284
0.40
108
0.26
148
0.81
271
0.41
222
0.89
193
0.84
186
0.91
257
0.76
101
0.66
161
0.61
207
0.66
168
0.50
208
0.18
171
0.17
243
0.18
119
0.18
185
0.18
157
0.18
176
scenettwo views0.48
182
0.23
145
0.70
284
0.40
108
0.26
148
0.81
271
0.41
222
0.89
193
0.84
186
0.91
257
0.76
101
0.66
161
0.61
207
0.66
168
0.50
208
0.18
171
0.17
243
0.18
119
0.18
185
0.18
157
0.18
176
ssnettwo views0.48
182
0.23
145
0.70
284
0.40
108
0.26
148
0.81
271
0.41
222
0.89
193
0.84
186
0.91
257
0.76
101
0.66
161
0.61
207
0.66
168
0.50
208
0.18
171
0.17
243
0.18
119
0.18
185
0.18
157
0.18
176
DAStwo views0.51
218
0.25
198
0.60
239
0.48
256
0.31
241
0.58
185
0.41
222
0.83
171
0.97
254
0.89
245
1.12
260
0.70
173
0.75
275
0.82
240
0.43
170
0.17
143
0.13
152
0.18
119
0.15
94
0.20
204
0.18
176
SepStereotwo views0.51
218
0.25
198
0.60
239
0.48
256
0.31
241
0.58
185
0.41
222
0.83
171
0.97
254
0.89
245
1.12
260
0.70
173
0.75
275
0.93
287
0.43
170
0.17
143
0.13
152
0.18
119
0.15
94
0.20
204
0.18
176
UNettwo views0.54
240
0.26
212
0.66
267
0.44
202
0.40
300
0.99
308
0.41
222
0.98
223
0.75
144
0.83
213
0.89
170
1.04
286
0.72
270
0.73
207
0.62
246
0.19
200
0.14
178
0.20
179
0.17
163
0.20
204
0.17
162
FADNettwo views0.61
275
0.51
331
1.10
336
0.45
223
0.44
325
0.65
227
0.41
222
1.19
295
1.05
291
0.70
135
0.84
144
0.98
270
0.66
239
0.82
240
0.50
208
0.29
306
0.30
333
0.27
295
0.30
322
0.46
350
0.35
323
test_5two views0.43
143
0.24
180
0.43
109
0.52
308
0.28
191
0.28
32
0.42
229
0.72
132
0.82
178
0.62
83
0.91
175
0.72
187
0.55
179
0.79
234
0.35
111
0.14
32
0.11
57
0.18
119
0.18
185
0.18
157
0.16
145
1111xtwo views0.55
241
0.22
128
0.46
146
0.38
66
0.20
20
0.66
230
0.43
230
1.23
313
0.99
263
0.71
141
0.99
214
0.95
263
0.69
252
0.90
272
1.08
338
0.18
171
0.17
243
0.18
119
0.19
209
0.20
204
0.18
176
ProNettwo views0.29
12
0.21
101
0.38
53
0.35
29
0.24
86
0.32
63
0.43
230
0.57
31
0.37
31
0.33
13
0.30
6
0.32
10
0.28
32
0.57
89
0.26
25
0.13
12
0.11
57
0.16
60
0.13
50
0.13
20
0.13
58
psmgtwo views0.49
198
0.25
198
0.43
109
0.41
132
0.28
191
0.85
285
0.43
230
0.99
225
0.76
150
0.91
257
0.94
183
0.76
208
0.54
177
0.64
156
0.43
170
0.20
221
0.15
202
0.20
179
0.20
231
0.18
157
0.18
176
ICVPtwo views0.46
165
0.25
198
0.38
53
0.48
256
0.28
191
0.58
185
0.43
230
1.00
228
0.70
121
0.67
118
0.95
190
0.75
202
0.55
179
0.53
66
0.54
229
0.23
258
0.17
243
0.19
155
0.17
163
0.19
191
0.20
224
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
FADNet-RVC-Resampletwo views0.56
252
0.33
269
1.16
342
0.49
271
0.34
269
0.71
245
0.43
230
1.01
235
0.93
238
0.82
201
0.87
159
0.74
201
0.67
242
0.73
207
0.45
188
0.18
171
0.18
254
0.26
283
0.27
311
0.26
269
0.27
280
DeepPruner_ROBtwo views0.53
230
0.34
274
0.59
234
0.41
132
0.30
224
0.50
142
0.43
230
1.19
295
0.70
121
0.85
221
1.05
239
0.86
236
0.55
179
0.84
252
0.51
216
0.29
306
0.23
299
0.22
230
0.22
263
0.26
269
0.25
269
STTStereotwo views0.55
241
0.37
286
0.76
302
0.44
202
0.31
241
0.60
199
0.44
236
0.96
216
0.86
198
0.99
288
0.90
173
0.96
265
0.58
192
0.71
197
0.61
244
0.25
277
0.23
299
0.26
283
0.32
335
0.24
257
0.23
257
NLCA_NET_v2_RVCtwo views0.53
230
0.32
261
0.64
257
0.44
202
0.30
224
0.66
230
0.44
236
1.04
245
0.88
211
0.91
257
0.91
175
0.99
271
0.60
202
0.68
186
0.60
243
0.21
235
0.17
243
0.22
230
0.22
263
0.21
222
0.21
237
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
Prome-Stereotwo views0.46
165
0.19
49
0.35
29
0.44
202
0.26
148
0.40
102
0.45
238
0.68
100
0.44
52
0.96
277
1.84
355
0.59
123
0.67
242
0.61
133
0.32
74
0.14
32
0.11
57
0.16
60
0.14
72
0.16
108
0.29
293
ac_64two views0.52
227
0.22
128
0.50
194
0.45
223
0.28
191
0.80
266
0.45
238
1.02
238
0.61
87
0.91
257
0.83
139
1.07
296
0.68
248
0.74
213
0.70
264
0.21
235
0.18
254
0.20
179
0.19
209
0.18
157
0.15
106
HGLStereotwo views0.56
252
0.28
240
0.57
229
0.50
285
0.37
282
0.80
266
0.45
238
1.02
238
0.78
163
0.86
226
1.14
268
0.89
250
0.82
297
0.76
220
0.73
271
0.21
235
0.20
276
0.19
155
0.18
185
0.19
191
0.21
237
RAFT+CT+SAtwo views0.39
108
0.23
145
0.36
34
0.51
297
0.27
172
0.29
36
0.46
241
0.75
147
0.80
171
0.51
56
0.89
170
0.41
43
0.40
109
0.78
231
0.32
74
0.14
32
0.11
57
0.18
119
0.18
185
0.15
77
0.14
87
sAnonymous2two views0.40
120
0.39
299
0.85
312
0.48
256
0.37
282
0.40
102
0.46
241
0.57
31
0.52
66
0.38
21
0.46
24
0.35
26
0.42
116
0.43
24
0.30
59
0.19
200
0.14
178
0.18
119
0.17
163
0.57
368
0.44
352
CroCo_RVCtwo views0.40
120
0.39
299
0.85
312
0.48
256
0.37
282
0.40
102
0.46
241
0.57
31
0.52
66
0.38
21
0.46
24
0.35
26
0.42
116
0.43
24
0.30
59
0.19
200
0.14
178
0.18
119
0.17
163
0.57
368
0.44
352
ADLNettwo views0.55
241
0.27
226
0.51
201
0.44
202
0.35
275
0.78
260
0.46
241
1.08
258
0.86
198
0.99
288
0.98
209
0.92
258
0.63
218
0.69
189
0.81
286
0.22
253
0.16
229
0.22
230
0.22
263
0.21
222
0.21
237
SuperBtwo views1.04
345
0.37
286
4.81
401
0.43
187
0.31
241
0.99
308
0.46
241
1.02
238
2.09
378
1.09
322
1.09
255
0.75
202
0.81
293
1.06
310
1.76
366
0.19
200
0.15
202
0.17
85
0.15
94
2.82
408
0.26
273
SQANettwo views0.82
316
0.74
361
0.67
271
1.13
381
0.98
380
1.11
327
0.47
246
1.07
254
0.83
183
0.91
257
1.05
239
1.03
284
0.74
273
1.01
300
0.64
251
0.61
375
0.24
306
1.03
382
0.35
342
1.18
385
0.58
373
GASNettwo views0.67
283
0.72
359
0.96
325
0.70
364
0.48
337
0.62
207
0.47
246
1.08
258
1.03
282
0.94
269
0.82
134
0.93
260
0.83
301
1.33
344
0.80
283
0.31
315
0.22
289
0.29
310
0.28
316
0.44
343
0.24
263
TransformOpticalFlowtwo views0.44
149
0.20
70
0.47
156
0.41
132
0.23
69
0.37
86
0.47
246
0.94
208
0.76
150
0.65
106
1.14
268
0.73
196
0.56
184
0.76
220
0.32
74
0.15
79
0.10
9
0.17
85
0.15
94
0.14
45
0.13
58
RAFTtwo views0.45
159
0.22
128
0.45
130
0.47
251
0.26
148
0.54
159
0.47
246
0.66
81
0.58
83
0.80
184
0.82
134
0.94
261
0.57
185
0.75
217
0.34
96
0.17
143
0.15
202
0.22
230
0.20
231
0.16
108
0.12
33
GMM-Stereotwo views0.44
149
0.19
49
0.36
34
0.42
169
0.25
112
0.51
146
0.47
246
0.71
128
0.53
69
0.76
172
1.37
312
0.76
208
0.38
92
0.60
126
0.33
86
0.15
79
0.10
9
0.20
179
0.19
209
0.16
108
0.27
280
DispFullNettwo views1.60
378
2.63
412
2.75
390
2.56
405
1.79
397
1.24
344
0.47
246
1.37
346
1.45
355
1.87
370
1.50
333
1.55
356
2.46
391
2.04
382
1.04
335
0.59
374
0.18
254
2.32
401
0.68
382
2.29
401
1.14
394
LL-Strereotwo views0.57
257
0.27
226
0.68
274
0.48
256
0.34
269
0.39
101
0.48
252
0.94
208
0.97
254
0.83
213
0.78
113
1.10
301
1.18
349
1.33
344
0.49
207
0.17
143
0.14
178
0.22
230
0.19
209
0.16
108
0.17
162
SACVNettwo views0.58
263
0.34
274
0.55
220
0.55
322
0.36
277
0.63
216
0.48
252
1.13
273
0.77
157
1.02
300
1.06
245
1.02
282
0.74
273
0.90
272
0.51
216
0.27
294
0.21
283
0.25
269
0.24
287
0.29
284
0.36
325
stereogantwo views0.80
312
0.31
259
0.71
287
0.59
335
0.50
340
1.72
373
0.48
252
1.35
341
1.37
346
1.00
293
1.46
331
1.56
357
0.95
327
1.29
340
0.84
290
0.28
300
0.29
330
0.29
310
0.25
296
0.38
329
0.38
337
SHDtwo views0.93
335
0.50
328
1.18
347
0.59
335
0.46
336
0.97
303
0.48
252
1.70
378
2.15
379
1.58
356
1.37
312
1.42
343
1.19
351
1.31
342
1.60
361
0.31
315
0.26
319
0.32
323
0.33
338
0.40
332
0.42
346
AANet_RVCtwo views0.57
257
0.32
261
0.54
215
0.45
223
0.27
172
0.57
183
0.48
252
1.00
228
1.28
339
0.86
226
1.33
307
0.87
241
0.58
192
1.07
313
0.75
275
0.18
171
0.12
98
0.15
42
0.13
50
0.18
157
0.18
176
NVstereo2Dtwo views0.60
273
0.30
254
0.75
297
0.48
256
0.43
318
0.89
290
0.48
252
1.05
250
1.15
317
0.66
117
0.86
155
0.88
246
0.70
262
0.99
297
0.65
252
0.32
327
0.15
202
0.28
302
0.20
231
0.40
332
0.36
325
fast-acv-fttwo views0.64
278
0.30
254
0.73
290
0.45
223
0.34
269
1.17
336
0.49
258
0.86
180
0.98
258
1.02
300
1.36
309
1.29
321
0.85
304
0.76
220
0.81
286
0.21
235
0.23
299
0.23
244
0.23
274
0.21
222
0.20
224
ToySttwo views0.49
198
0.27
226
0.75
297
0.40
108
0.27
172
0.64
222
0.49
258
0.84
174
0.77
157
0.60
77
0.83
139
0.88
246
0.66
239
0.70
192
0.56
235
0.16
110
0.17
243
0.21
218
0.20
231
0.21
222
0.19
204
Anonymoustwo views0.39
108
0.27
226
0.66
267
0.53
313
0.43
318
0.55
164
0.49
258
0.63
61
0.50
62
0.37
17
0.42
20
0.33
18
0.42
116
0.56
79
0.38
147
0.20
221
0.19
268
0.17
85
0.18
185
0.30
293
0.24
263
UPFNettwo views0.53
230
0.24
180
0.51
201
0.45
223
0.38
290
0.84
284
0.49
258
0.99
225
0.75
144
0.87
233
0.88
166
0.86
236
0.64
228
0.80
235
0.71
268
0.20
221
0.20
276
0.20
179
0.20
231
0.19
191
0.15
106
MyStereo07two views0.32
28
0.22
128
0.34
26
0.42
169
0.28
191
0.40
102
0.50
262
0.72
132
0.37
31
0.37
17
0.34
16
0.32
10
0.31
57
0.59
120
0.27
33
0.14
32
0.13
152
0.18
119
0.17
163
0.17
139
0.16
145
MyStereo06two views0.38
94
0.21
101
0.61
241
0.41
132
0.28
191
0.41
115
0.50
262
0.95
214
0.35
16
0.62
83
0.54
46
0.76
208
0.27
23
0.50
52
0.29
54
0.14
32
0.13
152
0.18
119
0.17
163
0.17
139
0.15
106
MyStereo05two views0.44
149
0.21
101
0.45
130
0.41
132
0.28
191
0.41
115
0.50
262
0.93
204
1.09
309
0.76
172
0.61
63
0.51
81
0.57
185
0.73
207
0.42
165
0.14
32
0.13
152
0.18
119
0.17
163
0.17
139
0.15
106
MyStereo04two views0.44
149
0.22
128
0.44
119
0.42
169
0.28
191
0.40
102
0.50
262
1.00
228
1.08
307
0.62
83
0.58
58
0.55
94
0.57
185
0.71
197
0.44
182
0.14
32
0.13
152
0.18
119
0.17
163
0.17
139
0.16
145
CSP-Nettwo views0.56
252
0.27
226
0.49
182
0.41
132
0.28
191
1.22
341
0.50
262
1.23
313
0.72
132
0.95
276
0.95
190
0.89
250
0.62
212
0.83
247
0.62
246
0.26
287
0.17
243
0.17
85
0.17
163
0.18
157
0.17
162
ADLNet2two views0.55
241
0.25
198
0.65
262
0.47
251
0.30
224
0.83
281
0.50
262
1.05
250
0.95
250
0.80
184
0.98
209
0.99
271
0.69
252
0.77
227
0.73
271
0.20
221
0.16
229
0.17
85
0.18
185
0.21
222
0.21
237
STrans-v2two views0.46
165
0.20
70
0.48
172
0.40
108
0.24
86
0.55
164
0.50
262
1.07
254
0.73
137
0.65
106
1.05
239
0.72
187
0.69
252
0.72
202
0.33
86
0.14
32
0.10
9
0.17
85
0.14
72
0.13
20
0.12
33
PSM-AADtwo views0.48
182
0.20
70
0.37
44
0.43
187
0.23
69
0.56
179
0.50
262
0.65
72
0.70
121
1.07
317
1.12
260
0.58
109
0.92
318
0.61
133
0.32
74
0.15
79
0.11
57
0.25
269
0.26
306
0.18
157
0.43
351
Anonymous3two views0.46
165
0.34
274
0.86
317
0.50
285
0.37
282
0.81
271
0.50
262
0.72
132
0.65
110
0.51
56
0.65
70
0.45
61
0.45
135
0.64
156
0.38
147
0.24
267
0.24
306
0.22
230
0.21
248
0.23
247
0.23
257
delettwo views0.55
241
0.24
180
0.55
220
0.44
202
0.33
262
1.07
321
0.50
262
1.00
228
0.86
198
0.85
221
0.96
194
0.90
254
0.63
218
0.83
247
0.74
274
0.18
171
0.18
254
0.20
179
0.21
248
0.16
108
0.15
106
psmorigintwo views0.82
316
0.51
331
2.09
384
0.49
271
0.41
307
0.85
285
0.50
262
1.04
245
0.88
211
1.45
351
1.43
324
1.50
351
1.06
337
1.22
332
0.97
324
0.31
315
0.32
346
0.27
295
0.27
311
0.33
308
0.42
346
GwcNetcopylefttwo views0.69
288
0.36
283
1.10
336
0.51
297
0.42
313
1.08
325
0.50
262
1.21
301
1.16
318
1.00
293
1.37
312
1.06
291
0.79
289
0.92
282
0.94
318
0.25
277
0.24
306
0.24
258
0.22
263
0.23
247
0.26
273
RTSCtwo views0.87
324
0.48
321
1.23
352
0.52
308
0.37
282
1.13
330
0.50
262
1.34
338
1.79
372
1.51
353
1.24
293
1.12
305
0.81
293
1.62
363
2.16
376
0.25
277
0.19
268
0.23
244
0.24
287
0.30
293
0.31
306
DLCB_ROBtwo views0.58
263
0.28
240
0.47
156
0.49
271
0.32
253
0.77
256
0.50
262
0.99
225
0.92
233
1.04
309
1.14
268
1.21
313
0.69
252
0.88
265
0.69
261
0.20
221
0.20
276
0.22
230
0.22
263
0.21
222
0.18
176
AF-Nettwo views0.81
315
0.39
299
0.68
274
0.64
347
0.54
349
0.91
291
0.51
276
1.61
373
1.31
342
0.96
277
2.02
362
1.46
345
1.26
357
1.11
320
0.99
328
0.32
327
0.24
306
0.39
344
0.27
311
0.30
293
0.25
269
ADCReftwo views0.80
312
0.43
310
1.32
360
0.50
285
0.45
329
1.07
321
0.51
276
1.07
254
0.98
258
1.17
331
1.42
321
0.87
241
0.91
315
0.85
259
3.19
387
0.18
171
0.16
229
0.23
244
0.23
274
0.22
238
0.21
237
DISCOtwo views0.70
290
0.26
212
0.68
274
0.44
202
0.31
241
1.14
331
0.51
276
1.23
313
1.23
329
0.81
192
1.05
239
1.50
351
0.85
304
1.82
374
1.03
332
0.19
200
0.15
202
0.18
119
0.16
123
0.24
257
0.23
257
Anonymous_2two views0.82
316
0.44
314
0.63
252
0.40
108
0.43
318
0.80
266
0.52
279
0.72
132
0.77
157
0.71
141
0.60
60
0.87
241
0.76
278
0.75
217
0.58
236
0.52
369
0.54
381
0.54
368
4.82
416
0.56
366
0.40
342
CRFU-Nettwo views0.57
257
0.27
226
0.57
229
0.46
242
0.30
224
1.20
340
0.52
279
1.10
263
0.56
81
1.00
293
0.98
209
1.06
291
0.79
289
0.81
238
0.71
268
0.21
235
0.19
268
0.18
119
0.16
123
0.18
157
0.19
204
DSFCAtwo views0.55
241
0.25
198
0.62
244
0.40
108
0.36
277
0.74
250
0.52
279
1.04
245
0.82
178
1.06
314
0.84
144
0.89
250
0.63
218
0.99
297
0.58
236
0.25
277
0.21
283
0.21
218
0.21
248
0.21
222
0.19
204
Syn2CoExtwo views0.71
294
0.51
331
0.95
323
0.64
347
0.45
329
0.91
291
0.53
282
1.48
359
1.13
314
0.93
266
1.35
308
1.02
282
0.99
331
0.92
282
0.80
283
0.30
312
0.27
323
0.28
302
0.24
287
0.23
247
0.24
263
MaskLacGwcNet_RVCtwo views0.67
283
0.81
366
0.73
290
0.53
313
0.37
282
1.40
352
0.53
282
1.04
245
0.79
170
0.88
241
0.94
183
0.95
263
0.53
166
0.93
287
0.58
236
0.39
352
0.30
333
0.57
370
0.31
329
0.53
362
0.30
300
edge stereotwo views0.76
304
0.38
295
0.74
294
0.52
308
0.43
318
0.80
266
0.53
282
1.28
328
1.06
298
1.28
343
1.38
317
1.81
364
1.11
342
1.08
315
0.85
294
0.33
333
0.32
346
0.41
348
0.28
316
0.32
303
0.36
325
StereoDRNettwo views0.64
278
0.33
269
0.68
274
0.51
297
0.43
318
1.03
315
0.53
282
1.47
358
0.99
263
1.10
324
0.87
159
1.07
296
0.71
266
0.82
240
0.88
301
0.23
258
0.19
268
0.25
269
0.23
274
0.27
279
0.19
204
iRaft-Stereo_5wtwo views0.45
159
0.21
101
0.48
172
0.42
169
0.28
191
0.31
53
0.54
286
0.63
61
0.62
88
0.62
83
0.89
170
1.01
277
0.69
252
0.75
217
0.66
254
0.13
12
0.12
98
0.17
85
0.15
94
0.14
45
0.15
106
IRAFT_RVCtwo views0.42
137
0.20
70
0.48
172
0.44
202
0.24
86
0.27
25
0.54
286
0.74
141
0.77
157
0.76
172
0.80
124
0.73
196
0.51
161
0.70
192
0.36
127
0.17
143
0.10
9
0.21
218
0.16
123
0.16
108
0.14
87
GEStereo_RVCtwo views0.55
241
0.29
248
0.63
252
0.49
271
0.31
241
0.70
240
0.54
286
1.22
309
0.92
233
0.82
201
0.85
152
0.85
234
0.63
218
0.90
272
0.65
252
0.24
267
0.16
229
0.19
155
0.16
123
0.21
222
0.22
250
NOSS_ROBtwo views0.57
257
0.39
299
0.39
70
0.44
202
0.30
224
0.73
249
0.54
286
1.03
242
1.08
307
0.67
118
0.87
159
0.76
208
0.57
185
0.77
227
0.47
202
0.38
350
0.38
361
0.44
352
0.42
359
0.37
325
0.34
318
ARAFTtwo views0.47
175
0.24
180
0.79
307
0.42
169
0.25
112
0.55
164
0.55
290
0.75
147
0.81
177
0.89
245
0.75
99
0.73
196
0.47
141
0.88
265
0.37
139
0.15
79
0.12
98
0.23
244
0.22
263
0.14
45
0.13
58
RPtwo views0.76
304
0.36
283
0.63
252
0.66
355
0.58
360
0.80
266
0.55
290
1.14
279
1.22
328
0.97
282
1.65
342
1.43
344
1.32
359
1.01
300
0.84
290
0.33
333
0.30
333
0.36
335
0.30
322
0.34
315
0.34
318
Nwc_Nettwo views0.78
308
0.38
295
0.73
290
0.60
340
0.55
351
1.05
320
0.55
290
1.67
377
1.05
291
0.88
241
1.86
357
1.40
342
1.09
340
1.10
318
0.87
299
0.30
312
0.25
314
0.36
335
0.38
347
0.29
284
0.29
293
ADCP+two views1.06
348
0.35
278
1.51
373
0.49
271
0.51
343
1.45
358
0.55
290
1.25
323
1.03
282
1.16
330
1.15
273
1.10
301
1.07
339
1.56
359
6.75
406
0.19
200
0.16
229
0.23
244
0.21
248
0.28
281
0.21
237
SGM-Foresttwo views0.62
276
0.32
261
0.39
70
0.43
187
0.30
224
1.02
312
0.55
290
1.09
262
1.05
291
1.06
314
1.18
282
1.10
301
0.67
242
0.88
265
0.62
246
0.31
315
0.33
352
0.33
328
0.30
322
0.30
293
0.28
287
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
iinet-ftwo views0.67
283
0.26
212
2.15
386
0.39
85
0.31
241
1.19
339
0.56
295
0.84
174
0.84
186
0.80
184
1.17
280
1.05
290
0.84
303
0.71
197
1.21
348
0.20
221
0.18
254
0.17
85
0.15
94
0.20
204
0.20
224
Wz-Net-LNSev-Reftwo views0.63
277
0.28
240
0.99
328
0.40
108
0.30
224
1.03
315
0.56
295
1.10
263
0.99
263
0.97
282
1.22
288
1.06
291
0.69
252
1.07
313
0.95
321
0.19
200
0.11
57
0.16
60
0.13
50
0.22
238
0.21
237
psm_uptwo views0.55
241
0.26
212
0.47
156
0.49
271
0.32
253
0.65
227
0.56
295
1.04
245
0.82
178
0.82
201
0.88
166
1.01
277
0.94
324
0.74
213
0.61
244
0.21
235
0.25
314
0.26
283
0.23
274
0.21
222
0.20
224
UDGtwo views0.88
326
0.82
369
0.67
271
1.00
378
0.96
377
1.02
312
0.57
298
1.13
273
0.99
263
0.90
252
0.97
208
1.31
324
0.99
331
0.85
259
0.84
290
0.54
373
0.32
346
1.77
389
0.40
353
0.94
378
0.66
375
RGCtwo views0.79
311
0.59
348
0.71
287
0.65
352
0.65
365
0.92
295
0.58
299
1.29
329
1.05
291
1.07
317
1.45
329
1.47
348
1.03
335
1.21
331
0.88
301
0.32
327
0.30
333
0.48
360
0.40
353
0.37
325
0.37
331
PS-NSSStwo views0.58
263
0.44
314
0.62
244
0.42
169
0.33
262
0.66
230
0.58
299
1.02
238
0.86
198
0.77
177
1.28
299
0.72
187
0.64
228
0.82
240
0.59
240
0.31
315
0.26
319
0.40
347
0.27
311
0.33
308
0.26
273
ssnet_v2two views0.58
263
0.28
240
0.56
226
0.43
187
0.29
214
0.95
299
0.59
301
1.13
273
0.99
263
0.93
266
0.80
124
0.99
271
0.64
228
0.82
240
0.94
318
0.25
277
0.22
289
0.23
244
0.24
287
0.20
204
0.19
204
FAT-Stereotwo views0.73
300
0.33
269
0.75
297
0.49
271
0.37
282
0.71
245
0.59
301
1.36
344
1.30
341
1.03
308
1.40
318
1.59
360
1.15
345
0.87
262
0.86
295
0.28
300
0.28
325
0.28
302
0.23
274
0.28
281
0.38
337
LRCNet_RVCtwo views21.24
420
31.15
426
21.41
416
28.98
423
23.82
421
3.13
399
0.60
303
20.96
423
1.59
364
25.58
423
28.15
426
21.99
423
14.79
413
21.94
424
16.41
415
28.89
432
14.87
423
33.53
428
31.28
428
29.51
430
26.16
428
RAFT + AFFtwo views0.53
230
0.29
248
0.75
297
0.51
297
0.32
253
0.63
216
0.60
303
1.00
228
0.91
228
0.78
180
0.87
159
0.83
228
0.58
192
0.80
235
0.47
202
0.17
143
0.20
276
0.23
244
0.22
263
0.18
157
0.18
176
MFN_U_SF_RVCtwo views1.09
352
0.59
348
1.97
383
0.67
358
0.44
325
1.93
377
0.60
303
1.85
380
1.36
344
1.61
359
1.54
337
1.95
370
1.37
361
1.64
366
1.73
364
0.40
356
0.37
359
0.45
353
0.48
366
0.44
343
0.44
352
S-Stereotwo views0.74
301
0.35
278
0.96
325
0.56
325
0.45
329
0.82
279
0.60
303
1.24
320
1.60
367
0.96
277
1.41
320
1.12
305
0.94
324
0.80
235
1.04
335
0.26
287
0.31
343
0.28
302
0.25
296
0.32
303
0.47
361
MeshStereopermissivetwo views1.34
366
0.43
310
0.54
215
0.44
202
0.34
269
1.66
369
0.60
303
1.94
381
1.37
346
4.47
407
3.25
386
4.71
398
1.94
384
1.92
377
1.17
345
0.35
343
0.35
356
0.37
339
0.31
329
0.32
303
0.32
310
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
CVANet_RVCtwo views0.57
257
0.33
269
0.44
119
0.47
251
0.32
253
0.67
234
0.61
308
1.05
250
0.93
238
0.85
221
1.04
235
1.01
277
0.73
271
0.83
247
0.52
223
0.29
306
0.19
268
0.27
295
0.25
296
0.31
298
0.21
237
DRN-Testtwo views0.66
282
0.32
261
0.66
267
0.50
285
0.39
295
1.15
333
0.61
308
1.49
361
1.01
274
1.12
326
1.08
251
1.06
291
0.69
252
0.77
227
0.94
318
0.23
258
0.17
243
0.26
283
0.25
296
0.25
265
0.21
237
FCDSN-DCtwo views1.39
371
0.56
344
0.65
262
0.74
368
0.59
361
1.38
351
0.63
310
1.35
341
1.39
349
3.26
401
4.50
405
4.61
396
2.63
395
1.58
361
1.03
332
0.46
360
0.42
370
0.48
360
0.47
364
0.50
356
0.50
367
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
PDISCO_ROBtwo views0.91
332
0.48
321
1.06
333
0.99
376
0.97
378
1.67
371
0.63
310
1.64
375
1.59
364
1.06
314
1.18
282
1.31
324
0.79
289
1.55
357
0.97
324
0.49
365
0.22
289
0.45
353
0.40
353
0.45
347
0.37
331
G-Nettwo views0.95
336
0.46
320
1.04
331
0.64
347
0.48
337
2.12
380
0.64
312
1.01
235
0.87
207
1.75
367
2.82
384
1.30
323
1.64
375
1.06
310
0.96
323
0.36
346
0.29
330
0.35
332
0.25
296
0.45
347
0.42
346
CBFPSMtwo views0.59
270
0.22
128
1.31
358
0.38
66
0.27
172
1.12
329
0.65
313
0.79
162
0.82
178
0.80
184
0.81
131
1.35
337
0.87
309
0.67
178
0.76
276
0.16
110
0.15
202
0.15
42
0.16
123
0.17
139
0.22
250
ccnettwo views0.82
316
0.57
346
0.75
297
0.54
319
0.59
361
1.09
326
0.66
314
1.38
347
0.94
245
1.12
326
1.44
326
1.29
321
0.92
318
0.95
296
1.24
350
0.49
365
0.42
370
0.50
365
0.47
364
0.51
357
0.46
357
aanetorigintwo views0.83
321
0.56
344
1.87
381
0.49
271
0.38
290
0.56
179
0.66
314
0.70
123
1.00
270
2.42
386
2.02
362
1.31
324
1.18
349
0.93
287
1.13
344
0.20
221
0.18
254
0.20
179
0.19
209
0.27
279
0.30
300
THIR-Stereotwo views0.50
211
0.18
34
0.45
130
0.38
66
0.23
69
0.75
253
0.67
316
0.66
81
0.87
207
1.02
300
1.40
318
0.72
187
0.76
278
0.62
139
0.42
165
0.15
79
0.11
57
0.17
85
0.18
185
0.14
45
0.15
106
GrayStereotwo views0.49
198
0.19
49
0.42
100
0.46
242
0.28
191
0.53
155
0.67
316
0.69
109
0.63
98
1.02
300
1.47
332
0.78
215
0.76
278
0.56
79
0.33
86
0.14
32
0.12
98
0.17
85
0.17
163
0.15
77
0.29
293
RYNettwo views0.72
298
0.35
278
0.64
257
0.53
313
0.67
366
1.31
348
0.67
316
1.20
299
1.18
321
1.05
311
0.87
159
1.27
318
0.93
323
0.93
287
1.27
354
0.22
253
0.16
229
0.26
283
0.23
274
0.40
332
0.39
339
MSMD_ROBtwo views1.21
361
0.49
324
0.62
244
0.59
335
0.50
340
1.62
368
0.67
316
1.23
313
1.24
331
2.45
387
3.77
394
3.09
387
2.98
400
1.32
343
0.81
286
0.45
359
0.41
368
0.49
363
0.51
373
0.47
352
0.44
352
WCMA_ROBtwo views1.14
354
0.36
283
0.76
302
0.49
271
0.44
325
1.23
343
0.67
316
1.11
268
1.23
329
2.84
394
3.95
400
3.28
390
1.83
381
1.25
335
0.99
328
0.44
358
0.34
354
0.34
330
0.37
344
0.41
338
0.40
342
APVNettwo views0.71
294
0.37
286
0.89
320
0.56
325
0.45
329
1.18
338
0.68
321
1.41
352
0.85
193
0.81
192
1.15
273
1.04
286
0.81
293
1.10
318
1.17
345
0.26
287
0.28
325
0.32
323
0.31
329
0.29
284
0.30
300
EDNetEfficientorigintwo views9.93
413
1.15
384
175.16
435
0.48
256
0.36
277
1.04
319
0.68
321
1.24
320
2.69
389
3.17
400
2.50
373
2.30
375
2.07
388
1.76
371
2.21
377
0.20
221
0.18
254
0.24
258
0.19
209
0.51
357
0.50
367
XQCtwo views0.89
328
0.65
356
1.31
358
0.67
358
0.52
346
1.22
341
0.68
321
1.26
324
1.52
359
1.14
329
1.11
258
1.28
320
1.04
336
1.40
354
1.77
367
0.38
350
0.24
306
0.37
339
0.31
329
0.53
362
0.47
361
PA-Nettwo views0.67
283
0.43
310
0.83
310
0.50
285
0.53
347
0.94
296
0.68
321
1.10
263
1.14
316
0.80
184
0.88
166
0.87
241
0.77
282
1.02
305
0.88
301
0.24
267
0.41
368
0.29
310
0.44
360
0.26
269
0.34
318
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
Wz-Net-LNSevtwo views0.71
294
0.51
331
1.36
366
0.50
285
0.41
307
1.15
333
0.69
325
1.21
301
1.07
304
1.02
300
1.12
260
1.08
298
0.87
309
0.89
270
0.89
312
0.24
267
0.22
289
0.21
218
0.19
209
0.26
269
0.26
273
DDUNettwo views1.06
348
2.56
411
0.68
274
1.21
383
1.26
387
1.03
315
0.69
325
1.11
268
0.94
245
0.96
277
1.22
288
1.27
318
0.82
297
0.93
287
0.72
270
0.84
383
0.38
361
1.99
392
0.60
378
1.10
384
0.85
382
NCC-stereotwo views0.78
308
0.40
303
0.76
302
0.61
342
0.67
366
0.81
271
0.69
325
1.54
369
1.11
311
0.90
252
1.36
309
1.33
331
1.16
346
1.19
327
0.88
301
0.31
315
0.30
333
0.37
339
0.48
366
0.33
308
0.33
314
Abc-Nettwo views0.78
308
0.40
303
0.76
302
0.61
342
0.67
366
0.81
271
0.69
325
1.54
369
1.11
311
0.90
252
1.36
309
1.33
331
1.16
346
1.19
327
0.88
301
0.31
315
0.30
333
0.37
339
0.48
366
0.33
308
0.33
314
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
pmcnntwo views1.23
362
0.29
248
0.96
325
0.40
108
0.23
69
0.95
299
0.69
325
1.16
285
1.28
339
1.67
365
2.33
367
11.15
414
0.86
306
0.93
287
0.88
301
0.15
79
0.12
98
0.12
2
0.10
10
0.15
77
0.15
106
otakutwo views1.04
345
0.93
374
0.88
319
1.33
387
1.05
384
1.66
369
0.70
330
1.40
351
1.18
321
1.08
320
1.32
306
1.33
331
0.91
315
1.23
333
0.76
276
0.72
379
0.46
378
1.24
384
0.50
371
1.40
386
0.75
376
DGSMNettwo views0.76
304
0.55
343
1.29
357
0.58
332
0.62
363
0.94
296
0.70
330
1.26
324
1.11
311
0.83
213
1.24
293
1.00
274
0.71
266
1.03
307
0.81
286
0.34
339
0.29
330
0.41
348
0.40
353
0.57
368
0.55
372
CC-Net-ROBtwo views0.82
316
0.96
377
0.85
312
0.58
332
0.45
329
1.27
346
0.70
330
1.17
290
1.02
277
0.83
213
1.23
292
0.90
254
0.77
282
1.06
310
0.69
261
0.46
360
0.34
354
1.71
388
0.38
347
0.59
371
0.36
325
FC-DCNNcopylefttwo views1.59
377
0.51
331
0.66
267
0.61
342
0.49
339
1.56
364
0.70
330
1.66
376
1.53
360
4.64
408
4.62
406
5.85
405
3.34
403
1.84
375
1.11
340
0.46
360
0.42
370
0.47
357
0.46
361
0.48
353
0.46
357
MDST_ROBtwo views0.91
332
0.27
226
0.85
312
0.63
346
0.41
307
2.53
384
0.71
334
1.60
372
1.13
314
2.83
393
1.73
348
0.97
267
0.69
252
1.61
362
0.73
271
0.25
277
0.22
289
0.32
323
0.28
316
0.25
265
0.24
263
DeepPrunerFtwo views0.89
328
0.52
337
3.43
394
0.68
361
0.81
371
0.72
248
0.72
335
1.22
309
1.99
377
0.93
266
1.01
219
0.87
241
0.86
306
1.08
315
0.95
321
0.34
339
0.28
325
0.43
350
0.39
351
0.30
293
0.32
310
TDLMtwo views0.57
257
0.33
269
0.49
182
0.51
297
0.30
224
0.66
230
0.73
336
1.03
242
1.01
274
0.82
201
1.10
257
0.84
232
0.70
262
0.86
261
0.58
236
0.28
300
0.17
243
0.25
269
0.22
263
0.26
269
0.19
204
SGM_RVCbinarytwo views0.97
337
0.28
240
0.41
81
0.39
85
0.22
42
1.55
363
0.73
336
1.51
365
1.25
335
2.25
383
1.92
358
2.58
381
1.56
370
2.02
381
1.19
347
0.27
294
0.27
323
0.27
295
0.25
296
0.25
265
0.25
269
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
ADCMidtwo views1.14
354
0.52
337
2.23
387
0.53
313
0.43
318
1.07
321
0.75
338
1.23
313
1.05
291
2.15
380
1.44
326
1.50
351
1.43
365
1.56
359
5.01
400
0.26
287
0.24
306
0.29
310
0.31
329
0.37
325
0.33
314
ADCPNettwo views1.03
344
0.48
321
2.70
389
0.54
319
0.42
313
1.40
352
0.75
338
1.13
273
1.07
304
1.22
338
1.42
321
1.68
362
1.09
340
1.36
351
3.45
391
0.30
312
0.28
325
0.29
310
0.32
335
0.37
325
0.35
323
ACVNet-4btwo views1.35
368
1.31
388
1.10
336
1.90
395
1.59
390
1.92
376
0.77
340
1.52
368
1.62
368
1.05
311
1.60
341
2.11
372
0.94
324
1.64
366
0.77
280
1.30
394
0.35
356
2.03
396
0.67
381
1.88
395
0.84
381
CBMVpermissivetwo views0.64
278
0.35
278
0.41
81
0.42
169
0.25
112
1.01
310
0.77
340
1.13
273
1.09
309
1.17
331
1.22
288
1.04
286
0.75
275
0.88
265
0.63
249
0.28
300
0.30
333
0.34
330
0.30
322
0.26
269
0.26
273
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
FBW_ROBtwo views0.88
326
0.50
328
0.85
312
0.55
322
0.40
300
1.17
336
0.78
342
1.50
362
1.37
346
1.33
347
1.27
297
1.48
349
1.00
333
2.57
393
0.98
327
0.25
277
0.32
346
0.45
353
0.30
322
0.34
315
0.28
287
FTStereotwo views0.56
252
0.20
70
0.37
44
0.41
132
0.25
112
0.40
102
0.79
343
0.66
81
0.43
48
1.09
322
3.27
388
0.70
173
0.73
271
0.55
71
0.33
86
0.14
32
0.13
152
0.19
155
0.17
163
0.15
77
0.30
300
Ntrotwo views1.09
352
0.97
380
0.91
321
1.44
388
1.19
386
1.69
372
0.80
344
1.35
341
1.25
335
1.00
293
1.29
302
1.31
324
0.97
329
1.26
336
0.84
290
0.84
383
0.43
373
1.36
385
0.50
371
1.56
387
0.78
378
anonymitytwo views0.97
337
0.89
372
1.05
332
0.92
374
1.03
382
0.97
303
0.81
345
1.29
329
0.91
228
1.07
317
0.98
209
1.00
274
0.95
327
1.02
305
0.92
317
0.96
386
0.95
404
0.90
379
0.91
392
0.92
377
0.94
385
Wz-Net-MNSevtwo views0.76
304
0.40
303
1.34
361
0.50
285
0.40
300
1.44
357
0.83
346
1.15
282
1.16
318
1.25
342
1.20
287
1.13
308
0.81
293
1.16
324
1.00
331
0.22
253
0.19
268
0.24
258
0.23
274
0.28
281
0.26
273
EDNetEfficienttwo views1.46
373
0.80
365
6.12
403
0.47
251
0.39
295
0.69
238
0.83
346
0.90
197
2.77
390
3.50
403
1.96
360
1.66
361
2.03
387
1.26
336
4.18
396
0.21
235
0.18
254
0.21
218
0.20
231
0.41
338
0.39
339
PSMNet_ROBtwo views0.64
278
0.37
286
0.65
262
0.56
325
0.42
313
0.97
303
0.83
346
1.21
301
0.92
233
0.79
182
1.02
227
1.08
298
0.63
218
0.82
240
0.91
316
0.29
306
0.20
276
0.31
318
0.31
329
0.26
269
0.23
257
Consistency-Rafttwo views1.01
340
0.81
366
1.24
353
0.84
371
0.97
378
0.81
271
0.84
349
1.30
332
1.59
364
1.05
311
1.68
347
1.12
305
0.91
315
0.92
282
1.11
340
0.65
376
0.74
389
0.79
377
0.90
389
1.06
383
0.79
380
PVDtwo views1.28
365
0.67
358
1.28
355
0.74
368
0.62
363
1.50
360
0.84
349
1.99
383
2.96
391
2.18
381
2.36
370
1.85
367
1.95
385
1.92
377
1.94
371
0.39
352
0.36
358
0.49
363
0.37
344
0.51
357
0.64
374
PASMtwo views0.90
331
0.64
355
1.69
375
0.69
363
0.69
369
0.78
260
0.84
349
1.03
242
1.26
338
1.19
333
1.15
273
1.31
324
0.98
330
1.24
334
1.03
332
0.52
369
0.56
382
0.59
373
0.66
380
0.56
366
0.54
371
XPNet_ROBtwo views0.70
290
0.35
278
0.68
274
0.52
308
0.40
300
0.79
263
0.85
352
1.16
285
0.94
245
1.33
347
1.15
273
1.38
339
0.83
301
1.03
307
0.90
314
0.32
327
0.25
314
0.26
283
0.24
287
0.31
298
0.28
287
ETE_ROBtwo views0.70
290
0.49
324
0.73
290
0.56
325
0.36
277
0.79
263
0.87
353
1.14
279
0.93
238
1.19
333
1.18
282
1.39
340
0.82
297
0.99
297
0.80
283
0.26
287
0.21
283
0.31
318
0.26
306
0.33
308
0.34
318
FINETtwo views0.67
283
0.42
308
1.00
329
0.46
242
0.43
318
0.83
281
0.89
354
1.08
258
1.50
358
0.87
233
1.14
268
0.71
177
0.68
248
0.92
282
0.70
264
0.36
346
0.30
333
0.26
283
0.24
287
0.35
319
0.33
314
ADCLtwo views1.04
345
0.38
295
1.35
362
0.50
285
0.39
295
1.61
367
0.89
354
1.29
329
1.39
349
1.29
344
1.50
333
1.24
316
1.24
354
1.37
352
4.87
399
0.21
235
0.19
268
0.25
269
0.25
296
0.29
284
0.27
280
LE_ROBtwo views4.42
406
0.24
180
2.75
390
0.42
169
0.23
69
1.57
365
0.90
356
1.71
379
17.88
420
16.56
422
4.88
407
5.17
403
18.85
422
1.63
365
14.62
414
0.17
143
0.14
178
0.16
60
0.16
123
0.19
191
0.17
162
SPS-STEREOcopylefttwo views1.25
364
0.93
374
1.06
333
1.04
379
1.03
382
1.41
354
0.91
357
1.51
365
1.19
323
2.09
378
1.83
354
1.94
369
1.39
362
1.62
363
1.39
358
0.97
387
0.94
403
0.90
379
0.89
388
0.96
380
0.96
388
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
SANettwo views1.07
350
0.41
306
1.06
333
0.48
256
0.30
224
1.41
354
0.94
358
1.42
353
3.36
396
1.58
356
2.43
371
2.33
377
1.70
376
1.34
346
1.07
337
0.28
300
0.24
306
0.26
283
0.23
274
0.34
315
0.30
300
LALA_ROBtwo views0.74
301
0.43
310
0.69
280
0.54
319
0.40
300
1.01
310
0.95
359
1.21
301
1.07
304
1.22
338
1.12
260
1.56
357
0.79
289
1.04
309
0.86
295
0.33
333
0.22
289
0.35
332
0.30
322
0.35
319
0.31
306
GANettwo views0.70
290
0.37
286
0.55
220
0.51
297
0.34
269
0.94
296
0.96
360
1.08
258
0.94
245
1.04
309
1.98
361
1.13
308
0.88
312
1.12
321
0.66
254
0.25
277
0.26
319
0.27
295
0.22
263
0.31
298
0.22
250
ACVNet_1two views1.46
373
1.33
389
1.12
339
1.91
396
1.62
391
1.83
375
0.98
361
2.00
384
1.85
374
1.39
350
1.53
336
2.32
376
1.53
367
1.34
346
1.11
340
1.30
394
0.50
380
2.06
398
0.58
377
1.93
397
0.95
387
GANetREF_RVCpermissivetwo views0.80
312
0.75
362
0.86
317
0.66
355
0.42
313
1.15
333
0.98
361
1.14
279
1.19
323
1.01
298
1.02
227
1.10
301
0.90
314
1.15
323
0.76
276
0.48
363
0.39
365
0.57
370
0.38
347
0.63
372
0.46
357
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
MANEtwo views4.13
405
0.51
331
0.64
257
0.66
355
0.56
354
6.89
410
0.99
363
7.55
412
12.04
409
6.68
412
8.57
413
10.69
413
9.45
412
7.59
412
6.39
404
0.49
365
0.43
373
0.48
360
0.98
393
0.49
354
0.48
363
NVStereoNet_ROBtwo views1.24
363
0.90
373
1.13
340
0.86
372
0.88
372
1.11
327
0.99
363
1.42
353
1.53
360
1.59
358
2.48
372
2.24
374
1.53
367
1.96
380
1.30
355
0.76
381
0.70
386
0.78
376
1.00
394
0.71
374
0.88
383
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
LSMtwo views4.74
408
0.77
363
10.16
408
0.70
364
56.56
430
1.02
312
1.00
365
1.24
320
1.62
368
2.04
376
2.34
368
1.33
331
1.17
348
1.38
353
1.09
339
0.33
333
0.49
379
0.39
344
0.46
361
0.51
357
10.09
417
SGM+DAISYtwo views1.35
368
0.94
376
1.25
354
0.96
375
1.00
381
1.52
362
1.02
366
1.34
338
1.21
326
2.64
389
2.65
379
2.44
378
1.56
370
1.64
366
1.26
352
0.97
387
0.95
404
0.90
379
0.90
389
0.94
378
0.96
388
NaN_ROBtwo views0.69
288
0.44
314
0.69
280
0.51
297
0.33
262
0.97
303
1.06
367
1.22
309
1.19
323
1.24
341
0.96
194
1.08
298
0.78
287
1.20
329
0.67
257
0.24
267
0.30
333
0.23
244
0.24
287
0.23
247
0.25
269
CSANtwo views0.83
321
0.49
324
0.77
306
0.60
340
0.41
307
1.14
331
1.06
367
1.19
295
1.46
356
1.32
345
1.43
324
1.37
338
1.19
351
1.27
338
0.86
295
0.39
352
0.31
343
0.36
335
0.37
344
0.35
319
0.34
318
RainbowNettwo views1.35
368
1.49
392
1.19
348
1.88
394
1.45
388
1.48
359
1.07
369
1.61
373
1.55
362
1.20
336
1.59
340
1.54
355
1.13
343
1.34
346
0.97
324
1.36
397
0.70
386
1.82
390
0.79
386
1.71
389
1.07
393
ADCStwo views1.51
375
0.61
351
3.42
393
0.59
335
0.51
343
1.27
346
1.08
370
1.59
371
1.81
373
1.91
374
1.66
344
1.51
354
1.42
364
1.94
379
8.60
408
0.33
333
0.32
346
0.33
328
0.36
343
0.44
343
0.42
346
Wz-Net-TNSevtwo views1.14
354
1.06
383
4.32
400
0.49
271
0.42
313
1.51
361
1.11
371
1.48
359
1.40
351
1.22
338
1.26
296
1.58
359
1.43
365
1.76
371
1.70
363
0.32
327
0.31
343
0.26
283
0.30
322
0.41
338
0.41
345
Wz-Net-SNSevtwo views0.91
332
0.73
360
2.13
385
0.56
325
0.45
329
0.95
299
1.13
372
1.34
338
1.24
331
1.02
300
1.30
303
1.46
345
0.86
306
1.81
373
1.50
360
0.25
277
0.23
299
0.25
269
0.26
306
0.32
303
0.29
293
CrosDoStereotwo views0.50
211
0.18
34
0.45
130
0.38
66
0.24
86
0.40
102
1.18
373
0.67
91
0.86
198
0.94
269
1.37
312
0.63
139
0.77
282
0.65
163
0.45
188
0.15
79
0.12
98
0.17
85
0.18
185
0.14
45
0.14
87
DeepStereo_LLtwo views0.50
211
0.18
34
0.45
130
0.38
66
0.24
86
0.40
102
1.18
373
0.67
91
0.86
198
0.94
269
1.37
312
0.63
139
0.77
282
0.65
163
0.45
188
0.15
79
0.12
98
0.17
85
0.18
185
0.14
45
0.14
87
ACVNet_2two views1.65
381
1.27
387
1.41
369
1.75
391
1.62
391
2.22
381
1.20
375
2.30
388
2.62
387
1.78
368
2.56
374
3.03
384
1.61
372
1.54
356
1.12
343
1.06
390
0.58
384
1.82
390
0.70
383
1.82
391
0.96
388
NCCL2two views0.72
298
0.41
306
0.65
262
0.64
347
0.44
325
0.98
307
1.20
375
1.11
268
1.00
270
0.98
286
0.96
194
1.49
350
0.87
309
0.90
272
0.79
281
0.31
315
0.26
319
0.39
344
0.39
351
0.32
303
0.32
310
coex-fttwo views6.43
411
1.51
394
87.33
434
0.49
271
0.38
290
1.34
349
1.21
377
1.16
285
8.09
407
12.12
414
2.79
381
2.77
383
3.31
402
1.16
324
3.15
386
0.24
267
0.23
299
0.27
295
0.24
287
0.45
347
0.37
331
WAO-8two views2.92
396
1.55
395
1.35
362
1.79
392
1.63
393
5.23
406
1.22
378
4.58
407
12.56
411
2.84
394
4.07
402
4.83
399
2.72
397
3.49
398
2.25
380
1.27
391
0.91
399
1.99
392
1.15
402
1.86
392
1.15
395
Venustwo views2.92
396
1.55
395
1.35
362
1.79
392
1.63
393
5.23
406
1.22
378
4.58
407
12.56
411
2.84
394
4.06
401
4.83
399
2.72
397
3.49
398
2.25
380
1.27
391
0.91
399
1.99
392
1.15
402
1.86
392
1.15
395
MFMNet_retwo views1.14
354
0.97
380
1.19
348
0.99
376
0.95
376
1.25
345
1.22
378
1.39
348
1.55
362
1.69
366
1.67
346
1.21
313
1.53
367
1.12
321
0.99
328
0.87
385
0.75
393
0.79
377
0.75
384
0.90
376
0.94
385
Anonymous Stereotwo views0.75
303
0.54
342
1.78
379
0.57
330
0.56
354
0.62
207
1.25
381
0.96
216
0.99
263
0.96
277
0.95
190
0.83
228
0.58
192
1.27
338
1.21
348
0.31
315
0.30
333
0.31
318
0.33
338
0.33
308
0.36
325
DPSNettwo views0.99
339
0.42
308
1.88
382
0.53
313
0.41
307
1.59
366
1.26
382
2.21
387
1.43
352
1.10
324
1.11
258
1.46
345
1.95
385
1.34
346
1.26
352
0.34
339
0.25
314
0.25
269
0.21
248
0.46
350
0.37
331
IMH-64-1two views1.86
382
1.62
397
1.16
342
2.20
399
1.89
399
2.33
382
1.30
383
2.89
392
2.29
382
1.66
363
2.80
382
2.49
379
1.61
372
2.10
383
1.78
368
1.60
398
0.74
389
2.43
402
1.02
395
2.12
398
1.17
397
IMH-64two views1.86
382
1.62
397
1.16
342
2.20
399
1.89
399
2.33
382
1.30
383
2.89
392
2.29
382
1.66
363
2.80
382
2.49
379
1.61
372
2.10
383
1.78
368
1.60
398
0.74
389
2.43
402
1.02
395
2.12
398
1.17
397
IMHtwo views2.04
389
1.62
397
1.20
351
2.20
399
1.89
399
2.91
397
1.30
383
3.11
395
3.03
392
1.81
369
3.35
392
3.03
384
1.90
382
2.48
390
1.80
370
1.66
401
0.77
395
2.45
404
1.04
398
2.15
400
1.19
400
WZ-Nettwo views1.19
360
0.59
348
4.07
398
0.62
345
0.51
343
1.34
349
1.31
386
1.32
334
1.74
371
1.53
355
1.65
342
1.74
363
1.28
358
2.25
387
2.01
373
0.27
294
0.21
283
0.23
244
0.25
296
0.40
332
0.39
339
AnyNet_C32two views1.16
358
0.62
354
2.40
388
0.57
330
0.55
351
1.41
354
1.34
387
1.18
293
1.24
331
1.49
352
1.42
321
1.39
340
1.20
353
1.55
357
4.82
398
0.29
306
0.28
325
0.29
310
0.34
340
0.38
329
0.42
346
Deantwo views1.98
386
1.36
390
1.36
366
2.12
398
1.81
398
2.74
387
1.36
388
3.37
401
3.80
400
2.08
377
3.32
390
3.21
389
1.82
379
1.71
370
1.67
362
1.27
391
0.77
395
1.99
392
0.90
389
1.86
392
1.03
392
AnyNet_C01two views1.56
376
1.05
382
7.45
406
0.64
347
0.54
349
1.99
378
1.38
389
1.43
355
1.36
344
1.63
362
1.92
358
1.84
365
1.33
360
2.40
389
4.03
393
0.33
333
0.32
346
0.32
323
0.34
340
0.44
343
0.45
356
RTStwo views1.98
386
0.96
377
11.36
410
0.65
352
0.57
358
2.77
390
1.40
390
1.39
348
2.26
380
1.89
371
2.56
374
1.32
329
1.25
355
5.20
406
4.05
394
0.31
315
0.22
289
0.29
310
0.29
320
0.40
332
0.37
331
RTSAtwo views1.98
386
0.96
377
11.36
410
0.65
352
0.57
358
2.77
390
1.40
390
1.39
348
2.26
380
1.89
371
2.56
374
1.32
329
1.25
355
5.20
406
4.05
394
0.31
315
0.22
289
0.29
310
0.29
320
0.40
332
0.37
331
MADNet+two views2.23
392
2.43
408
10.85
409
1.22
384
0.91
374
2.76
389
1.40
390
2.12
386
1.67
370
1.32
345
1.74
350
1.86
368
1.74
377
6.25
408
4.41
397
0.65
376
0.64
385
0.58
372
0.54
375
0.80
375
0.76
377
WAO-6two views2.04
389
1.50
393
1.16
342
1.70
390
1.67
395
2.69
386
1.44
393
3.06
394
3.63
399
1.98
375
3.27
388
3.54
394
2.07
388
2.36
388
2.22
379
1.31
396
0.91
399
2.04
397
1.22
404
1.73
390
1.27
401
SGM-ForestMtwo views4.04
404
0.32
261
0.46
146
0.43
187
0.27
172
7.50
411
1.45
394
3.84
404
4.24
402
8.19
413
6.76
411
19.00
420
9.08
411
10.74
415
6.62
405
0.31
315
0.33
352
0.32
323
0.32
335
0.29
284
0.29
293
ELAScopylefttwo views1.63
380
0.61
351
0.95
323
0.68
361
0.55
351
3.01
398
1.55
395
2.39
389
2.33
384
3.64
404
3.89
398
2.75
382
2.90
399
2.15
385
2.27
382
0.52
369
0.45
376
0.50
365
0.48
366
0.54
364
0.52
369
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
WAO-7two views1.90
384
1.20
385
1.35
362
1.27
385
1.06
385
2.84
392
1.56
396
3.23
397
3.06
394
2.23
382
3.33
391
3.17
388
2.28
390
3.12
394
2.21
377
1.02
389
0.91
399
1.06
383
1.03
397
1.04
382
0.97
391
MFN_U_SF_DS_RVCtwo views1.02
343
0.57
346
1.51
373
0.67
358
0.50
340
2.57
385
1.66
397
1.20
299
1.43
352
1.38
349
1.57
339
1.33
331
0.92
318
1.64
366
0.88
301
0.37
349
0.39
365
0.46
356
0.60
378
0.41
338
0.40
342
TorneroNet-64two views3.44
399
1.86
401
1.42
370
2.58
406
2.28
404
6.87
409
1.68
398
4.70
409
12.03
408
2.31
384
5.59
410
8.25
410
2.55
394
3.97
403
2.73
384
1.81
403
0.74
389
2.57
406
1.07
399
2.35
402
1.44
403
TorneroNettwo views4.53
407
1.89
402
1.48
372
2.55
404
2.27
403
13.78
417
1.69
399
4.84
411
23.73
425
2.89
397
7.70
412
7.06
409
2.69
396
4.26
405
3.42
390
1.84
404
0.77
395
2.68
408
1.13
400
2.42
403
1.47
404
notakertwo views2.76
394
2.29
407
1.80
380
2.96
409
2.58
410
2.90
396
1.75
400
3.24
398
3.05
393
2.78
392
4.24
403
6.15
408
2.51
393
3.34
396
2.75
385
2.31
409
1.18
407
3.00
412
1.65
408
2.84
409
1.97
406
SAMSARAtwo views1.07
350
0.65
356
1.19
348
1.06
380
0.90
373
1.76
374
1.76
401
1.46
357
1.44
354
1.51
353
1.16
278
2.00
371
1.14
344
1.48
355
1.31
356
0.39
352
0.44
375
0.35
332
0.38
347
0.49
354
0.49
366
LVEtwo views2.12
391
1.44
391
1.36
366
1.99
397
1.78
396
2.75
388
1.79
402
2.82
391
3.95
401
1.90
373
4.33
404
3.52
393
1.81
378
2.24
386
1.74
365
1.74
402
0.87
398
2.06
398
1.13
400
1.91
396
1.35
402
MSC_U_SF_DS_RVCtwo views1.34
366
0.87
371
1.76
378
0.86
372
0.56
354
4.29
404
1.79
402
1.50
362
1.98
376
1.61
359
1.85
356
1.84
365
1.41
363
1.89
376
1.36
357
0.48
363
0.40
367
0.56
369
0.57
376
0.69
373
0.48
363
ELAS_RVCcopylefttwo views1.60
378
0.61
351
1.01
330
0.70
364
0.56
354
2.00
379
1.89
404
1.96
382
2.65
388
3.33
402
3.26
387
3.03
384
3.41
404
2.49
391
2.09
375
0.52
369
0.45
376
0.50
365
0.48
366
0.54
364
0.52
369
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
KSHMRtwo views2.57
393
1.93
403
1.69
375
2.63
407
2.42
406
2.86
394
2.07
405
3.27
399
6.50
405
2.49
388
3.36
393
3.41
392
1.92
383
2.49
391
1.94
371
2.13
407
1.40
409
2.79
411
1.50
407
2.73
406
1.77
405
ktntwo views2.98
398
2.25
406
1.73
377
2.84
408
2.53
409
3.76
403
2.15
406
3.70
403
5.47
404
2.75
391
5.17
409
5.94
406
2.48
392
3.23
395
2.46
383
2.34
411
1.44
410
2.78
410
2.03
410
2.45
404
2.01
408
PWCKtwo views1.92
385
1.66
400
3.12
392
1.65
389
0.91
374
2.84
392
2.26
407
2.10
385
2.41
386
2.36
385
2.31
366
2.22
373
1.82
379
3.43
397
2.03
374
1.61
400
0.71
388
1.51
386
0.82
387
1.69
388
0.91
384
HanzoNettwo views6.76
412
2.45
409
4.22
399
3.19
411
2.94
412
3.62
401
2.28
408
4.79
410
7.20
406
14.00
418
13.19
417
17.49
418
22.30
423
13.25
416
6.19
403
4.20
414
1.93
411
3.10
413
2.56
412
3.35
412
2.88
413
UNDER WATERtwo views3.46
400
2.07
405
3.64
396
3.09
410
2.48
407
3.75
402
2.42
409
3.31
400
13.77
413
2.90
398
2.95
385
5.84
404
3.69
405
3.69
400
3.48
392
2.07
406
1.11
406
2.70
409
1.40
405
2.84
409
1.98
407
UNDER WATER-64two views3.53
401
2.01
404
3.94
397
3.22
412
2.49
408
5.41
408
2.60
410
3.43
402
12.41
410
3.03
399
2.68
380
6.07
407
4.04
406
3.79
402
3.33
388
2.02
405
1.24
408
2.63
407
1.46
406
2.78
407
2.08
409
MADNet++two views4.03
403
2.70
413
3.44
395
3.72
414
3.44
413
4.44
405
3.52
411
3.95
405
3.61
398
4.46
406
4.98
408
4.10
395
4.58
408
7.00
411
5.89
402
3.74
412
3.67
415
3.27
414
2.71
413
3.70
414
3.66
415
DPSimNet_ROBtwo views3.58
402
2.45
409
8.57
407
2.53
403
2.37
405
2.88
395
3.77
412
3.14
396
3.23
395
4.71
409
3.86
397
4.68
397
4.87
409
4.07
404
5.62
401
2.33
410
2.33
412
2.47
405
2.52
411
2.51
405
2.64
411
JetBluetwo views2.78
395
1.26
386
7.04
405
1.16
382
1.48
389
8.00
412
6.02
413
2.60
390
1.92
375
2.12
379
2.64
378
3.34
391
3.05
401
6.49
409
3.39
389
0.78
382
0.76
394
0.75
375
0.76
385
0.97
381
1.18
399
BEATNet-Init1two views15.13
416
0.82
369
50.86
433
0.72
367
0.53
347
38.10
427
7.03
414
11.83
417
14.25
414
29.78
431
30.17
431
48.21
434
22.64
424
26.78
425
18.11
416
0.42
357
0.38
361
0.47
357
0.46
361
0.51
357
0.48
363
JetRedtwo views5.27
409
5.84
415
12.81
413
2.36
402
2.83
411
12.23
416
10.50
415
4.46
406
3.60
397
3.86
405
3.83
396
4.85
401
4.18
407
6.78
410
11.96
411
2.17
408
2.96
414
2.18
400
1.97
409
3.38
413
2.68
412
tttwo views6.20
410
0.20
70
5.89
402
3.55
413
2.07
402
11.26
415
19.21
416
11.74
416
5.46
403
2.69
390
2.04
364
4.87
402
6.25
410
3.70
401
7.09
407
8.32
418
11.17
422
4.93
415
5.41
417
5.74
415
2.37
410
HaxPigtwo views31.96
422
37.24
428
34.27
423
24.37
422
24.88
422
18.26
418
19.86
417
20.64
422
28.52
426
35.97
432
38.75
432
25.57
424
28.72
426
33.88
426
34.39
426
35.94
433
38.87
433
37.80
429
40.48
429
39.68
431
41.15
433
MEDIAN_ROBtwo views37.38
432
40.85
436
40.60
426
32.31
424
31.85
423
27.20
422
24.55
418
29.10
427
33.19
433
42.09
434
41.76
434
33.35
425
34.39
434
39.78
428
37.07
427
43.64
435
44.10
435
44.12
431
43.40
431
41.51
433
42.76
435
AVERAGE_ROBtwo views37.58
433
40.13
435
40.15
425
34.81
425
33.82
424
28.55
426
25.10
419
32.02
428
34.06
435
41.28
433
40.66
433
34.46
426
34.81
435
39.18
427
37.57
428
42.78
434
43.44
434
43.82
430
43.03
430
40.47
432
41.51
434
DGTPSM_ROBtwo views12.07
414
8.00
416
20.99
414
8.93
417
16.78
416
10.67
413
30.87
420
9.01
414
15.16
415
6.50
410
15.41
421
9.04
411
14.85
414
9.25
413
21.67
418
4.57
415
8.57
417
5.08
416
9.28
418
5.90
416
10.95
418
DPSMNet_ROBtwo views12.08
415
8.00
416
21.00
415
8.97
418
16.79
417
10.67
413
30.89
421
9.02
415
15.17
416
6.51
411
15.41
421
9.04
411
14.85
414
9.27
414
21.67
418
4.58
416
8.57
417
5.09
417
9.29
419
5.90
416
10.95
418
Anonymous_1two views33.25
423
18.26
419
23.92
417
20.54
419
21.28
420
25.59
419
35.94
422
22.01
426
15.57
417
13.33
415
13.49
418
18.08
419
15.29
416
20.36
417
24.60
420
16.28
425
8.84
419
66.59
432
118.00
432
155.73
435
11.23
420
DPSM_ROBtwo views17.78
417
18.63
420
24.31
421
20.90
420
19.47
418
25.97
420
36.21
423
21.23
424
16.24
418
13.38
416
14.06
419
19.18
421
16.30
417
20.78
418
25.67
421
9.38
420
9.23
420
9.49
420
9.82
420
13.51
419
11.91
421
DPSMtwo views17.78
417
18.63
420
24.31
421
20.90
420
19.47
418
25.97
420
36.21
423
21.23
424
16.24
418
13.38
416
14.06
419
19.18
421
16.30
417
20.78
418
25.67
421
9.38
420
9.23
420
9.49
420
9.82
420
13.51
419
11.91
421
xxxxx1two views36.64
429
19.51
422
24.21
418
61.66
432
64.63
432
27.28
423
40.10
425
20.25
419
18.63
421
14.07
419
12.97
414
17.26
415
17.36
419
21.70
421
27.93
423
13.18
422
18.50
425
111.26
433
133.37
433
29.24
427
39.73
430
tt_lltwo views36.64
429
19.51
422
24.21
418
61.66
432
64.63
432
27.28
423
40.10
425
20.25
419
18.63
421
14.07
419
12.97
414
17.26
415
17.36
419
21.70
421
27.93
423
13.18
422
18.50
425
111.26
433
133.37
433
29.24
427
39.73
430
fftwo views36.64
429
19.51
422
24.21
418
61.66
432
64.63
432
27.28
423
40.10
425
20.25
419
18.63
421
14.07
419
12.97
414
17.26
415
17.36
419
21.70
421
27.93
423
13.18
422
18.50
425
111.26
433
133.37
433
29.24
427
39.73
430
LSM0two views38.95
434
37.60
434
48.58
427
43.57
431
91.06
435
52.57
434
72.57
428
43.17
434
32.63
432
26.97
426
27.97
425
38.65
431
32.94
431
41.86
434
51.78
435
18.89
431
18.41
424
19.13
425
19.63
422
27.29
426
33.77
429
Selective-RAFT-Errortwo views35.84
428
37.49
430
48.83
432
42.26
430
39.24
429
52.30
433
73.09
429
42.66
433
32.61
427
26.80
425
28.30
427
38.84
432
33.51
432
41.68
433
51.59
430
18.82
430
18.58
429
19.17
427
19.80
424
27.28
425
24.05
427
CasAABBNettwo views35.74
424
37.43
429
48.72
428
42.22
429
39.20
428
52.24
429
73.12
430
42.61
432
32.62
431
26.78
424
27.95
424
38.58
430
32.60
427
41.67
432
51.65
434
18.74
426
18.57
428
19.15
426
19.77
423
27.20
424
23.98
426
MyStereo03two views35.77
425
37.55
431
48.75
429
42.19
426
39.18
425
52.27
430
73.13
431
42.32
429
32.61
427
27.03
427
28.40
428
38.50
427
32.89
428
41.62
429
51.63
431
18.78
427
18.59
430
19.11
422
19.80
424
27.18
421
23.95
423
MyStereo02two views35.77
425
37.55
431
48.75
429
42.19
426
39.18
425
52.27
430
73.13
431
42.32
429
32.61
427
27.03
427
28.40
428
38.50
427
32.89
428
41.62
429
51.63
431
18.78
427
18.59
430
19.11
422
19.80
424
27.18
421
23.95
423
MyStereotwo views35.77
425
37.55
431
48.75
429
42.19
426
39.18
425
52.27
430
73.13
431
42.32
429
32.61
427
27.03
427
28.40
428
38.50
427
32.89
428
41.62
429
51.63
431
18.78
427
18.59
430
19.11
422
19.80
424
27.18
421
23.95
423
SPstereotwo views24.26
421
4.19
414
6.66
404
4.29
415
3.79
414
45.68
428
78.09
434
63.52
435
33.36
434
27.50
430
26.65
423
39.53
433
33.55
433
42.77
435
51.02
429
3.90
413
3.72
416
5.95
418
4.66
415
3.15
411
3.30
414
test_example2two views176.61
436
205.14
437
198.86
436
188.60
436
190.98
436
152.67
436
170.61
435
94.86
436
123.55
436
178.88
436
179.48
435
158.94
436
141.34
436
192.61
436
198.96
436
203.76
436
236.37
436
164.13
436
173.55
436
218.58
436
160.41
436
PMLtwo views40.80
435
29.24
425
11.87
412
7.20
416
14.47
415
92.13
435
213.69
436
7.63
413
23.35
424
74.72
435
190.14
436
50.17
435
26.15
425
21.39
420
12.70
412
8.76
419
2.92
413
8.45
419
3.25
414
13.26
418
4.42
416
ASD4two views8.86
418