This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CAStwo views0.37
60
0.13
1
0.27
7
1.34
385
0.31
227
0.46
131
0.38
170
0.50
11
0.48
56
0.35
15
0.52
39
0.24
1
0.19
3
0.30
1
0.28
29
1.03
387
0.08
1
0.12
2
0.08
1
0.12
2
0.28
279
CEStwo views0.29
9
0.15
2
0.25
1
0.31
4
0.71
368
0.36
78
0.27
42
0.51
12
0.47
54
0.34
13
0.48
27
0.27
2
0.23
7
0.40
14
0.24
2
0.13
9
0.11
39
0.12
2
0.08
1
0.13
14
0.32
298
s12784htwo views0.37
60
0.15
2
0.26
4
0.34
9
0.15
1
0.80
263
0.29
57
0.83
158
0.87
190
0.58
68
0.58
54
0.43
51
0.41
111
0.59
78
0.35
89
0.12
4
0.10
8
0.14
13
0.09
4
0.14
36
0.10
1
LoStwo views0.30
12
0.16
4
0.32
12
0.30
3
0.19
8
0.32
60
0.29
57
0.54
18
0.73
127
0.35
15
0.52
39
0.42
45
0.29
41
0.48
41
0.29
37
0.15
67
0.11
39
0.13
8
0.09
4
0.12
2
0.12
10
CREStereo++_RVCtwo views0.32
26
0.16
4
0.25
1
0.32
6
0.24
77
0.27
25
0.22
11
0.48
8
0.89
204
0.47
45
0.80
123
0.29
4
0.25
12
0.37
5
0.34
82
0.14
18
0.09
2
0.13
8
0.52
373
0.14
36
0.10
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
TANstereotwo views0.31
23
0.16
4
0.34
13
0.31
4
0.17
2
0.55
164
0.23
20
0.46
6
0.56
67
0.60
71
0.69
79
0.37
32
0.26
17
0.36
4
0.28
29
0.16
99
0.16
211
0.13
8
0.10
10
0.14
36
0.15
78
CREStereotwo views0.28
6
0.16
4
0.25
1
0.28
1
0.17
2
0.38
91
0.25
30
0.52
13
0.76
137
0.43
37
0.51
36
0.32
13
0.28
27
0.39
8
0.27
23
0.16
99
0.11
39
0.12
2
0.09
4
0.12
2
0.12
10
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
Any-RAFTtwo views0.36
42
0.17
8
0.31
10
0.35
12
0.21
25
0.51
143
0.21
5
0.93
188
0.75
134
0.56
63
0.73
85
0.66
161
0.29
41
0.48
41
0.25
3
0.15
67
0.10
8
0.13
8
0.10
10
0.13
14
0.13
31
LoS_RVCtwo views0.28
6
0.17
8
0.29
9
0.33
8
0.32
244
0.43
121
0.34
116
0.42
4
0.34
5
0.33
11
0.51
36
0.29
4
0.38
89
0.37
5
0.28
29
0.11
1
0.10
8
0.11
1
0.08
1
0.11
1
0.26
262
EGLCR-Stereotwo views0.27
2
0.17
8
0.36
25
0.35
12
0.21
25
0.37
86
0.20
1
0.58
27
0.37
14
0.29
4
0.28
4
0.42
45
0.18
1
0.47
34
0.27
23
0.14
18
0.10
8
0.16
57
0.14
69
0.13
14
0.12
10
test-3two views0.35
36
0.17
8
0.48
115
0.40
86
0.22
30
0.42
117
0.22
11
0.66
55
0.80
153
0.72
133
0.45
20
0.63
138
0.29
41
0.45
25
0.32
63
0.13
9
0.09
2
0.17
85
0.13
49
0.13
14
0.11
3
test_1two views0.35
36
0.17
8
0.48
115
0.40
86
0.22
30
0.42
117
0.22
11
0.66
55
0.80
153
0.70
123
0.45
20
0.63
138
0.29
41
0.45
25
0.32
63
0.13
9
0.09
2
0.17
85
0.13
49
0.13
14
0.11
3
PMTNettwo views0.33
30
0.17
8
0.26
4
0.29
2
0.18
5
0.44
127
0.22
11
0.57
26
0.66
96
0.46
43
0.54
44
0.38
35
0.34
70
0.50
49
0.25
3
0.75
376
0.10
8
0.12
2
0.09
4
0.13
14
0.12
10
MIF-Stereotwo views0.27
2
0.18
14
0.40
45
0.40
86
0.28
179
0.30
39
0.28
50
0.40
1
0.33
4
0.30
6
0.46
22
0.27
2
0.25
12
0.48
41
0.35
89
0.17
125
0.13
141
0.14
13
0.12
26
0.14
36
0.13
31
MIM_Stereotwo views0.39
88
0.18
14
0.59
201
0.38
44
0.25
101
0.27
25
0.24
23
0.72
109
0.56
67
0.72
133
1.00
211
0.62
134
0.29
41
0.67
155
0.39
127
0.13
9
0.14
172
0.17
85
0.16
115
0.14
36
0.12
10
AEACVtwo views0.28
6
0.18
14
0.34
13
0.36
27
0.45
323
0.27
25
0.27
42
0.41
2
0.39
21
0.31
7
0.46
22
0.31
6
0.36
78
0.38
7
0.25
3
0.14
18
0.11
39
0.15
41
0.13
49
0.13
14
0.13
31
Selective-IGEVtwo views0.25
1
0.18
14
0.37
27
0.37
35
0.20
18
0.27
25
0.25
30
0.59
29
0.25
1
0.27
2
0.26
1
0.34
21
0.18
1
0.62
116
0.23
1
0.12
4
0.10
8
0.14
13
0.11
15
0.13
14
0.11
3
MC-Stereotwo views0.29
9
0.18
14
0.35
19
0.40
86
0.21
25
0.26
18
0.26
40
0.53
16
0.40
29
0.38
18
0.61
61
0.41
43
0.31
53
0.57
69
0.27
23
0.14
18
0.10
8
0.14
13
0.12
26
0.12
2
0.12
10
RCA-Stereotwo views0.36
42
0.18
14
0.37
27
0.38
44
0.23
56
0.31
51
0.33
108
0.70
92
1.25
325
0.45
39
0.65
69
0.46
64
0.43
119
0.40
14
0.29
37
0.14
18
0.10
8
0.14
13
0.12
26
0.12
2
0.12
10
ffftwo views0.39
88
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
122
1.08
288
0.70
123
0.79
113
0.44
54
0.62
199
0.47
34
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
ADStereo(finetuned)two views0.39
88
0.18
14
0.58
193
0.35
12
0.19
8
0.30
39
0.30
69
0.72
109
0.96
239
0.72
133
0.77
101
0.45
61
0.68
236
0.46
29
0.36
98
0.14
18
0.10
8
0.14
13
0.11
15
0.13
14
0.15
78
DEmStereotwo views0.49
179
0.18
14
0.53
165
0.39
60
0.26
129
0.57
179
0.33
108
0.65
53
0.75
134
0.90
238
1.65
341
0.57
99
1.02
326
0.63
125
0.44
164
0.14
18
0.12
86
0.16
57
0.16
115
0.14
36
0.17
134
DRafttwo views0.49
179
0.18
14
0.50
131
0.38
44
0.25
101
0.57
179
0.39
183
0.67
66
0.86
186
1.02
287
1.75
349
0.50
76
0.79
279
0.65
138
0.42
155
0.14
18
0.11
39
0.16
57
0.16
115
0.14
36
0.17
134
RAFT-RH_RVCtwo views0.57
239
0.18
14
0.44
79
0.38
44
0.23
56
0.56
169
0.24
23
0.61
34
0.73
127
1.18
327
3.90
396
0.55
90
0.40
107
0.67
155
0.38
119
0.14
18
0.11
39
0.20
176
0.15
90
0.12
2
0.14
49
XX-Stereotwo views0.38
76
0.18
14
0.52
158
0.58
327
0.38
282
0.39
96
0.20
1
0.62
36
0.31
2
0.47
45
1.29
299
0.72
188
0.25
12
0.59
78
0.28
29
0.16
99
0.11
39
0.17
85
0.16
115
0.14
36
0.11
3
DCANettwo views0.38
76
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.72
109
0.96
239
0.72
133
0.77
101
0.45
61
0.56
174
0.47
34
0.36
98
0.14
18
0.10
8
0.14
13
0.11
15
0.13
14
0.15
78
csctwo views0.39
88
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
122
1.08
288
0.70
123
0.79
113
0.44
54
0.62
199
0.47
34
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
cscssctwo views0.39
88
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
122
1.08
288
0.70
123
0.79
113
0.44
54
0.62
199
0.47
34
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
111two views0.42
123
0.18
14
0.46
91
0.35
12
0.19
8
0.52
150
0.28
50
0.76
135
1.16
310
0.52
53
0.92
175
0.65
149
0.51
155
0.65
138
0.37
106
0.15
67
0.10
8
0.14
13
0.12
26
0.13
14
0.16
98
RAFT-Stereo + iAFFtwo views0.37
60
0.18
14
0.45
84
0.36
27
0.19
8
0.33
66
0.28
50
0.67
66
0.77
139
0.72
133
0.99
207
0.56
96
0.39
102
0.44
22
0.31
57
0.11
1
0.09
2
0.15
41
0.14
69
0.13
14
0.11
3
CFNet-RSSMtwo views0.35
36
0.18
14
0.47
102
0.39
60
0.22
30
0.35
74
0.23
20
0.78
143
0.86
186
0.67
109
0.54
44
0.56
96
0.28
27
0.49
47
0.28
29
0.14
18
0.10
8
0.14
13
0.12
26
0.13
14
0.12
10
Gwc-CoAtRStwo views0.35
36
0.18
14
0.46
91
0.39
60
0.23
56
0.34
72
0.22
11
0.74
128
0.77
139
0.62
77
0.60
58
0.58
114
0.29
41
0.47
34
0.29
37
0.14
18
0.11
39
0.14
13
0.12
26
0.13
14
0.13
31
StereoIMtwo views0.27
2
0.19
33
0.39
36
0.37
35
0.26
129
0.28
31
0.28
50
0.45
5
0.37
14
0.27
2
0.27
2
0.40
39
0.27
22
0.40
14
0.30
48
0.16
99
0.14
172
0.16
57
0.13
49
0.15
66
0.12
10
IGEV_Zeroshot_testtwo views0.36
42
0.19
33
0.71
251
0.41
104
0.29
198
0.30
39
0.25
30
0.86
165
0.40
29
0.64
94
0.57
52
0.56
96
0.25
12
0.56
65
0.29
37
0.15
67
0.11
39
0.16
57
0.14
69
0.14
36
0.14
49
MSKI-zero shottwo views0.33
30
0.19
33
0.36
25
0.41
104
0.22
30
0.32
60
0.22
11
0.65
53
0.45
47
0.52
53
0.64
67
0.60
126
0.19
3
0.78
215
0.27
23
0.14
18
0.11
39
0.14
13
0.10
10
0.13
14
0.13
31
MIF-Stereo (partial)two views0.32
26
0.19
33
0.41
50
0.41
104
0.32
244
0.29
35
0.24
23
0.49
9
0.44
43
0.31
7
0.63
64
0.37
32
0.36
78
0.60
88
0.32
63
0.17
125
0.13
141
0.19
147
0.17
157
0.18
151
0.15
78
RAFT-Testtwo views0.35
36
0.19
33
0.42
58
0.39
60
0.24
77
0.50
138
0.23
20
0.74
128
0.44
43
0.62
77
0.85
145
0.64
145
0.28
27
0.48
41
0.30
48
0.14
18
0.11
39
0.14
13
0.11
15
0.13
14
0.13
31
4D-IteraStereotwo views0.33
30
0.19
33
0.43
74
0.40
86
0.24
77
0.32
60
0.27
42
0.59
29
0.72
118
0.66
102
0.53
41
0.42
45
0.22
6
0.46
29
0.30
48
0.14
18
0.09
2
0.20
176
0.16
115
0.16
103
0.12
10
DCREtwo views0.38
76
0.19
33
0.47
102
0.45
199
0.33
255
0.45
130
0.40
193
0.66
55
0.53
65
0.49
48
0.95
184
0.57
99
0.39
102
0.53
53
0.32
63
0.14
18
0.13
141
0.15
41
0.14
69
0.14
36
0.15
78
test_4two views0.37
60
0.19
33
0.34
13
0.45
199
0.26
129
0.20
2
0.34
116
0.58
27
0.42
38
0.60
71
1.45
326
0.43
51
0.26
17
0.67
155
0.29
37
0.12
4
0.10
8
0.17
85
0.19
207
0.15
66
0.12
10
GMOStereotwo views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
error versiontwo views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
test-vtwo views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
test_3two views0.37
60
0.19
33
0.50
131
0.45
199
0.24
77
0.47
133
0.36
145
0.69
82
0.84
176
0.66
102
0.46
22
0.68
168
0.25
12
0.45
25
0.32
63
0.12
4
0.10
8
0.18
116
0.16
115
0.15
66
0.12
10
CrosDoStereotwo views0.51
200
0.19
33
0.46
91
0.39
60
0.24
77
0.39
96
1.14
367
0.69
82
0.87
190
0.94
253
1.36
308
0.62
134
0.75
264
0.68
163
0.46
173
0.15
67
0.12
86
0.17
85
0.18
183
0.14
36
0.16
98
HHNettwo views0.42
123
0.19
33
0.43
74
0.35
12
0.38
282
0.33
66
0.33
108
0.71
99
0.78
142
0.87
216
1.30
301
0.52
82
0.36
78
0.53
53
0.37
106
0.16
99
0.11
39
0.19
147
0.15
90
0.15
66
0.25
257
DeepStereo_LLtwo views0.51
200
0.19
33
0.46
91
0.39
60
0.24
77
0.39
96
1.14
367
0.69
82
0.87
190
0.94
253
1.36
308
0.62
134
0.75
264
0.68
163
0.46
173
0.15
67
0.12
86
0.17
85
0.18
183
0.14
36
0.16
98
THIR-Stereotwo views0.51
200
0.19
33
0.47
102
0.39
60
0.23
56
0.74
245
0.64
309
0.68
71
0.88
200
1.03
290
1.40
314
0.71
173
0.75
264
0.64
132
0.43
157
0.16
99
0.11
39
0.17
85
0.18
183
0.15
66
0.17
134
PFNettwo views0.43
135
0.19
33
0.61
207
0.44
187
0.24
77
0.42
117
0.31
87
0.76
135
0.81
162
1.01
283
0.74
96
0.67
165
0.41
111
0.75
192
0.39
127
0.16
99
0.10
8
0.20
176
0.15
90
0.16
103
0.14
49
RAFT-345two views0.41
116
0.19
33
0.42
58
0.39
60
0.23
56
0.32
60
0.25
30
0.62
36
0.56
67
0.74
147
1.77
350
0.44
54
0.35
73
0.67
155
0.37
106
0.14
18
0.11
39
0.18
116
0.14
69
0.14
36
0.13
31
test-2two views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
R-Stereo Traintwo views0.40
102
0.19
33
0.47
102
0.43
166
0.27
158
0.41
110
0.31
87
0.74
128
0.38
17
0.90
238
1.28
295
0.58
114
0.35
73
0.43
20
0.35
89
0.15
67
0.13
141
0.14
13
0.12
26
0.14
36
0.14
49
RAFT-Stereopermissivetwo views0.40
102
0.19
33
0.47
102
0.43
166
0.27
158
0.41
110
0.31
87
0.74
128
0.38
17
0.90
238
1.28
295
0.58
114
0.35
73
0.43
20
0.35
89
0.15
67
0.13
141
0.14
13
0.12
26
0.14
36
0.14
49
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
CASnettwo views0.30
12
0.20
54
0.34
13
0.42
129
0.17
2
0.25
16
0.24
23
0.53
16
0.56
67
0.54
60
0.54
44
0.39
38
0.24
10
0.41
17
0.26
8
0.15
67
0.10
8
0.22
229
0.18
183
0.18
151
0.12
10
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
DisPMtwo views0.40
102
0.20
54
0.50
131
0.42
129
0.27
158
0.24
7
0.30
69
0.68
71
0.61
83
0.88
224
0.87
155
0.59
123
0.32
59
0.80
219
0.34
82
0.19
191
0.12
86
0.19
147
0.17
157
0.16
103
0.21
208
RAFT_CTSACEtwo views0.46
152
0.20
54
0.48
115
0.46
222
0.27
158
0.34
72
0.39
183
0.62
36
0.74
132
0.78
174
1.44
323
0.86
234
0.38
89
1.09
301
0.27
23
0.13
9
0.13
141
0.18
116
0.16
115
0.16
103
0.12
10
iRaft-Stereo_20wtwo views0.42
123
0.20
54
0.63
216
0.39
60
0.27
158
0.33
66
0.25
30
1.76
375
0.37
14
0.73
140
0.53
41
0.63
138
0.42
116
0.86
238
0.29
37
0.14
18
0.11
39
0.14
13
0.13
49
0.15
66
0.15
78
GLC_STEREOtwo views0.30
12
0.20
54
0.28
8
0.44
187
0.19
8
0.31
51
0.25
30
0.49
9
0.43
41
0.37
17
0.47
26
0.40
39
0.23
7
0.51
50
0.37
106
0.15
67
0.18
246
0.19
147
0.16
115
0.16
103
0.14
49
PFNet+two views0.41
116
0.20
54
0.53
165
0.40
86
0.25
101
0.28
31
0.22
11
0.66
55
0.76
137
0.85
204
0.79
113
0.63
138
0.34
70
0.75
192
0.37
106
0.20
210
0.14
172
0.23
243
0.20
226
0.17
127
0.21
208
AAGNettwo views1.40
367
0.20
54
0.52
158
0.45
199
0.26
129
0.29
35
0.29
57
0.67
66
0.71
116
0.97
273
0.86
149
0.66
161
0.60
193
0.66
146
19.98
416
0.17
125
0.11
39
0.19
147
0.15
90
0.20
199
0.13
31
ASMatchtwo views0.48
170
0.20
54
0.47
102
0.39
60
0.28
179
0.37
86
0.26
40
0.76
135
0.72
118
0.77
163
2.29
365
0.61
128
0.51
155
0.64
132
0.39
127
0.15
67
0.12
86
0.17
85
0.15
90
0.14
36
0.22
223
SST-Stereotwo views0.41
116
0.20
54
0.48
115
0.43
166
0.25
101
0.25
16
0.21
5
0.68
71
0.50
60
1.08
311
0.79
113
0.71
173
0.42
116
0.81
223
0.38
119
0.17
125
0.11
39
0.20
176
0.16
115
0.19
184
0.15
78
RAFT_R40two views0.41
116
0.20
54
0.47
102
0.44
187
0.25
101
0.23
6
0.25
30
0.69
82
0.70
110
0.98
276
0.78
109
0.72
188
0.43
119
0.80
219
0.39
127
0.17
125
0.11
39
0.20
176
0.16
115
0.18
151
0.15
78
GrayStereotwo views0.49
179
0.20
54
0.44
79
0.47
240
0.29
198
0.51
143
0.62
304
0.71
99
0.66
96
1.04
296
1.46
327
0.77
211
0.73
259
0.58
73
0.35
89
0.15
67
0.12
86
0.17
85
0.17
157
0.15
66
0.30
288
IRAFT_RVCtwo views0.43
135
0.20
54
0.52
158
0.45
199
0.24
77
0.26
18
0.51
264
0.76
135
0.78
142
0.77
163
0.80
123
0.73
192
0.50
150
0.74
187
0.39
127
0.18
156
0.10
8
0.21
217
0.17
157
0.17
127
0.15
78
cross-rafttwo views0.34
35
0.20
54
0.38
33
0.45
199
0.24
77
0.32
60
0.35
138
0.77
140
0.42
38
0.62
77
0.77
101
0.58
114
0.27
22
0.46
29
0.31
57
0.12
4
0.10
8
0.15
41
0.13
49
0.15
66
0.12
10
test-1two views0.37
60
0.20
54
0.76
268
0.47
240
0.27
158
0.44
127
0.36
145
0.63
42
0.65
93
0.49
48
0.67
77
0.54
88
0.35
73
0.42
18
0.30
48
0.14
18
0.12
86
0.16
57
0.14
69
0.15
66
0.18
156
GMM-Stereotwo views0.44
141
0.20
54
0.39
36
0.42
129
0.25
101
0.50
138
0.44
231
0.72
109
0.57
71
0.77
163
1.37
311
0.76
206
0.38
89
0.62
116
0.34
82
0.15
67
0.10
8
0.20
176
0.19
207
0.17
127
0.28
279
Prome-Stereotwo views0.46
152
0.20
54
0.37
27
0.45
199
0.26
129
0.40
101
0.42
218
0.69
82
0.49
57
0.96
270
1.84
353
0.58
114
0.64
211
0.63
125
0.32
63
0.15
67
0.11
39
0.16
57
0.14
69
0.17
127
0.30
288
iRaftStereo_RVCtwo views0.33
30
0.20
54
0.40
45
0.40
86
0.23
56
0.31
51
0.29
57
0.70
92
0.55
66
0.49
48
0.66
72
0.37
32
0.23
7
0.47
34
0.33
73
0.14
18
0.11
39
0.19
147
0.17
157
0.16
103
0.13
31
raft+_RVCtwo views0.38
76
0.20
54
0.38
33
0.39
60
0.27
158
0.44
127
0.35
138
0.81
152
0.90
208
0.52
53
0.78
109
0.50
76
0.29
41
0.56
65
0.41
152
0.15
67
0.12
86
0.17
85
0.15
90
0.14
36
0.13
31
raftrobusttwo views0.35
36
0.20
54
0.39
36
0.43
166
0.29
198
0.31
51
0.25
30
0.73
122
0.66
96
0.59
69
0.56
51
0.44
54
0.45
131
0.55
61
0.31
57
0.16
99
0.12
86
0.14
13
0.12
26
0.12
2
0.14
49
AFF-stereotwo views0.39
88
0.20
54
0.42
58
0.37
35
0.22
30
0.27
25
0.31
87
0.67
66
0.72
118
0.66
102
1.12
256
0.75
200
0.38
89
0.57
69
0.35
89
0.11
1
0.09
2
0.16
57
0.16
115
0.14
36
0.12
10
MyStereo8two views0.42
123
0.21
74
0.64
220
0.43
166
0.29
198
0.55
164
0.28
50
0.72
109
0.50
60
0.73
140
1.01
215
0.57
99
0.44
124
0.52
51
0.52
200
0.15
67
0.12
86
0.16
57
0.14
69
0.19
184
0.21
208
AE-Stereotwo views0.36
42
0.21
74
0.47
102
0.49
257
0.31
227
0.50
138
0.34
116
0.72
109
0.73
127
0.34
13
0.55
49
0.52
82
0.28
27
0.48
41
0.31
57
0.13
9
0.13
141
0.18
116
0.16
115
0.15
66
0.14
49
CoDeXtwo views0.48
170
0.21
74
0.53
165
0.43
166
0.25
101
0.74
245
0.38
170
1.36
329
0.82
170
0.84
194
0.96
188
0.63
138
0.57
183
0.63
125
0.40
147
0.17
125
0.13
141
0.17
85
0.15
90
0.16
103
0.15
78
test crocotwo views0.32
26
0.21
74
0.59
201
0.40
86
0.29
198
0.27
25
0.30
69
0.46
6
0.36
11
0.32
10
0.66
72
0.31
6
0.33
64
0.68
163
0.32
63
0.18
156
0.13
141
0.20
176
0.15
90
0.18
151
0.13
31
anonymousdsp2two views0.37
60
0.21
74
0.49
122
0.38
44
0.24
77
0.48
137
0.31
87
0.91
178
0.68
103
0.57
65
0.51
36
0.51
79
0.34
70
0.59
78
0.33
73
0.14
18
0.11
39
0.14
13
0.10
10
0.16
103
0.16
98
anonymousatwo views0.51
200
0.21
74
0.47
102
0.39
60
0.25
101
0.89
288
0.36
145
0.78
143
0.63
84
0.88
224
1.54
334
1.09
300
0.67
228
0.53
53
0.46
173
0.17
125
0.14
172
0.19
147
0.21
243
0.16
103
0.16
98
riskmintwo views0.41
116
0.21
74
0.44
79
0.34
9
0.24
77
0.58
183
0.32
99
0.70
92
0.86
186
0.52
53
0.57
52
0.78
213
0.60
193
0.58
73
0.39
127
0.17
125
0.12
86
0.19
147
0.13
49
0.19
184
0.22
223
IPLGtwo views0.40
102
0.21
74
0.64
220
0.41
104
0.25
101
0.54
159
0.27
42
0.77
140
0.68
103
0.85
204
0.82
131
0.33
18
0.32
59
0.64
132
0.49
192
0.13
9
0.11
39
0.16
57
0.14
69
0.14
36
0.14
49
LCNettwo views0.42
123
0.21
74
0.34
13
0.44
187
0.24
77
0.47
133
0.28
50
0.69
82
0.57
71
0.72
133
1.03
228
0.66
161
0.58
186
0.60
88
0.35
89
0.15
67
0.10
8
0.19
147
0.19
207
0.22
226
0.37
321
STrans-v2two views0.47
161
0.21
74
0.49
122
0.41
104
0.25
101
0.54
159
0.49
258
1.16
262
0.82
170
0.67
109
1.05
234
0.71
173
0.67
228
0.74
187
0.34
82
0.15
67
0.11
39
0.17
85
0.15
90
0.14
36
0.14
49
TransformOpticalFlowtwo views0.46
152
0.21
74
0.49
122
0.42
129
0.24
77
0.36
78
0.46
238
1.04
222
0.84
176
0.67
109
1.14
264
0.73
192
0.56
174
0.78
215
0.33
73
0.15
67
0.10
8
0.17
85
0.15
90
0.14
36
0.15
78
NF-Stereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.57
99
0.31
53
0.69
169
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
OCTAStereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.58
114
0.31
53
0.69
169
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
PSM-softLosstwo views0.40
102
0.21
74
0.53
165
0.42
129
0.26
129
0.29
35
0.34
116
0.70
92
0.49
57
0.63
84
0.82
131
0.59
123
0.33
64
0.75
192
0.43
157
0.20
210
0.12
86
0.20
176
0.18
183
0.17
127
0.22
223
KMStereotwo views0.40
102
0.21
74
0.53
165
0.42
129
0.26
129
0.29
35
0.34
116
0.70
92
0.49
57
0.63
84
0.82
131
0.59
123
0.33
64
0.75
192
0.43
157
0.20
210
0.12
86
0.20
176
0.18
183
0.17
127
0.22
223
NRIStereotwo views0.37
60
0.21
74
0.49
122
0.42
129
0.23
56
0.33
66
0.25
30
0.68
71
0.59
74
0.65
98
0.63
64
0.55
90
0.37
82
0.67
155
0.40
147
0.16
99
0.12
86
0.18
116
0.15
90
0.17
127
0.15
78
PSM-AADtwo views0.48
170
0.21
74
0.39
36
0.44
187
0.23
56
0.56
169
0.47
243
0.67
66
0.73
127
1.08
311
1.12
256
0.58
114
0.87
303
0.63
125
0.33
73
0.15
67
0.11
39
0.25
267
0.26
303
0.18
151
0.42
338
FTStereotwo views0.56
235
0.21
74
0.39
36
0.42
129
0.25
101
0.39
96
0.73
328
0.69
82
0.45
47
1.09
315
3.23
385
0.69
170
0.71
248
0.55
61
0.34
82
0.15
67
0.13
141
0.19
147
0.17
157
0.15
66
0.32
298
KYRafttwo views0.48
170
0.21
74
0.41
50
0.45
199
0.23
56
0.43
121
0.36
145
0.68
71
0.45
47
0.94
253
1.72
347
0.78
213
0.40
107
0.65
138
0.32
63
0.16
99
0.11
39
0.18
116
0.22
261
0.17
127
0.76
375
RE-Stereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.57
99
0.31
53
0.70
176
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
Pruner-Stereotwo views0.39
88
0.21
74
0.51
139
0.41
104
0.25
101
0.22
4
0.24
23
0.71
99
0.59
74
0.90
238
0.75
98
0.67
165
0.30
50
0.64
132
0.39
127
0.19
191
0.12
86
0.20
176
0.17
157
0.17
127
0.19
165
TVStereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.57
99
0.31
53
0.70
176
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
EAI-Stereotwo views0.36
42
0.21
74
0.46
91
0.40
86
0.22
30
0.33
66
0.36
145
1.22
285
0.32
3
0.52
53
0.75
98
0.35
25
0.28
27
0.65
138
0.30
48
0.14
18
0.11
39
0.14
13
0.14
69
0.14
36
0.13
31
MyStereo06two views0.40
102
0.22
97
0.65
225
0.42
129
0.29
198
0.43
121
0.48
248
1.05
228
0.43
41
0.64
94
0.54
44
0.78
213
0.27
22
0.53
53
0.31
57
0.14
18
0.13
141
0.18
116
0.17
157
0.17
127
0.17
134
MyStereo05two views0.46
152
0.22
97
0.51
139
0.42
129
0.29
198
0.43
121
0.48
248
0.96
200
1.12
296
0.77
163
0.62
63
0.51
79
0.57
183
0.79
217
0.43
157
0.14
18
0.13
141
0.18
116
0.17
157
0.17
127
0.17
134
ff7two views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
fffftwo views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
11ttwo views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
HHtwo views0.37
60
0.22
97
0.49
122
0.41
104
0.26
129
0.36
78
0.30
69
0.87
166
0.41
34
0.45
39
0.59
56
0.78
213
0.43
119
0.77
207
0.26
8
0.15
67
0.11
39
0.15
41
0.14
69
0.14
36
0.14
49
HanStereotwo views0.37
60
0.22
97
0.49
122
0.41
104
0.26
129
0.36
78
0.30
69
0.87
166
0.41
34
0.45
39
0.59
56
0.78
213
0.43
119
0.77
207
0.26
8
0.15
67
0.11
39
0.15
41
0.14
69
0.14
36
0.14
49
anonymousdsptwo views0.30
12
0.22
97
0.41
50
0.38
44
0.26
129
0.31
51
0.35
138
0.68
71
0.36
11
0.40
29
0.33
10
0.32
13
0.28
27
0.62
116
0.26
8
0.14
18
0.10
8
0.17
85
0.12
26
0.15
66
0.16
98
knoymoustwo views0.37
60
0.22
97
0.34
13
0.32
6
0.22
30
0.38
91
0.29
57
0.63
42
0.65
93
0.69
119
0.69
79
0.60
126
0.40
107
0.61
94
0.36
98
0.17
125
0.11
39
0.20
176
0.12
26
0.18
151
0.19
165
ProNettwo views0.30
12
0.22
97
0.41
50
0.36
27
0.25
101
0.33
66
0.42
218
0.62
36
0.41
34
0.33
11
0.31
6
0.32
13
0.28
27
0.60
88
0.28
29
0.13
9
0.11
39
0.16
57
0.13
49
0.13
14
0.14
49
DCANet-4two views0.38
76
0.22
97
0.58
193
0.35
12
0.19
8
0.30
39
0.30
69
0.69
82
0.97
244
0.70
123
0.79
113
0.40
39
0.46
137
0.46
29
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
ccc-4two views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
tttwo views6.21
409
0.22
97
5.88
400
3.55
412
2.07
401
11.25
414
19.19
415
11.84
415
5.47
403
2.71
388
2.18
364
4.87
398
6.25
408
3.71
397
7.09
402
8.31
417
11.17
421
4.91
414
5.39
416
5.72
414
2.42
407
IGEV-Stereopermissivetwo views0.30
12
0.22
97
0.41
50
0.38
44
0.26
129
0.30
39
0.35
138
0.68
71
0.36
11
0.40
29
0.33
10
0.32
13
0.28
27
0.62
116
0.26
8
0.14
18
0.10
8
0.17
85
0.12
26
0.15
66
0.16
98
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
iRaft-Stereo_5wtwo views0.46
152
0.22
97
0.53
165
0.43
166
0.30
217
0.30
39
0.53
273
0.66
55
0.71
116
0.62
77
0.89
161
1.01
275
0.67
228
0.76
200
0.67
245
0.13
9
0.12
86
0.17
85
0.15
90
0.15
66
0.17
134
MIPNettwo views0.39
88
0.22
97
0.66
227
0.40
86
0.25
101
0.53
153
0.29
57
0.78
143
0.74
132
0.68
116
0.60
58
0.40
39
0.48
144
0.45
25
0.39
127
0.14
18
0.11
39
0.16
57
0.13
49
0.14
36
0.14
49
IPLGRtwo views0.40
102
0.22
97
0.70
248
0.40
86
0.22
30
0.51
143
0.29
57
0.78
143
0.78
142
0.80
178
0.77
101
0.44
54
0.41
111
0.48
41
0.40
147
0.14
18
0.12
86
0.16
57
0.14
69
0.16
103
0.14
49
IIG-Stereotwo views0.45
147
0.22
97
0.48
115
0.51
280
0.26
129
0.43
121
0.21
5
0.73
122
0.80
153
0.84
194
0.95
184
0.82
227
0.46
137
0.95
267
0.37
106
0.16
99
0.12
86
0.19
147
0.15
90
0.15
66
0.12
10
DeepStereo_RVCtwo views0.37
60
0.22
97
0.51
139
0.41
104
0.24
77
0.26
18
0.22
11
0.64
52
0.40
29
0.69
119
0.67
77
0.57
99
0.50
150
0.58
73
0.42
155
0.17
125
0.12
86
0.18
116
0.16
115
0.19
184
0.19
165
rafts_anoytwo views0.38
76
0.22
97
0.38
33
0.43
166
0.28
179
0.32
60
0.32
99
0.70
92
0.91
214
0.59
69
0.66
72
0.45
61
0.33
64
0.49
47
0.41
152
0.16
99
0.12
86
0.21
217
0.23
270
0.18
151
0.16
98
SFCPSMtwo views0.48
170
0.22
97
0.59
201
0.41
104
0.27
158
0.85
280
0.36
145
1.39
331
0.79
148
0.81
182
0.85
145
0.54
88
0.50
150
0.60
88
0.39
127
0.18
156
0.14
172
0.18
116
0.20
226
0.17
127
0.16
98
GANet-RSSMtwo views0.49
179
0.22
97
0.42
58
0.39
60
0.26
129
0.58
183
0.41
213
1.12
249
0.82
170
0.73
140
1.02
217
0.88
241
0.75
264
0.67
155
0.48
185
0.22
241
0.16
211
0.18
116
0.19
207
0.18
151
0.18
156
DIP-Stereotwo views0.40
102
0.22
97
0.58
193
0.42
129
0.29
198
0.62
195
0.27
42
0.87
166
0.42
38
0.65
98
0.86
149
0.52
82
0.35
73
0.67
155
0.43
157
0.15
67
0.13
141
0.17
85
0.14
69
0.15
66
0.17
134
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
MyStereo07two views0.33
30
0.23
120
0.37
27
0.43
166
0.29
198
0.40
101
0.48
248
0.78
143
0.38
17
0.38
18
0.34
16
0.32
13
0.30
50
0.63
125
0.28
29
0.14
18
0.13
141
0.19
147
0.17
157
0.18
151
0.17
134
MyStereo04two views0.45
147
0.23
120
0.52
158
0.43
166
0.29
198
0.40
101
0.48
248
1.02
216
1.12
296
0.62
77
0.58
54
0.55
90
0.56
174
0.77
207
0.45
169
0.14
18
0.13
141
0.19
147
0.17
157
0.18
151
0.17
134
11t1two views0.38
76
0.23
120
0.49
122
0.36
27
0.23
56
0.61
191
0.31
87
0.74
128
0.47
54
0.62
77
0.55
49
0.55
90
0.49
148
0.58
73
0.45
169
0.18
156
0.15
190
0.16
57
0.13
49
0.17
127
0.19
165
1111xtwo views0.64
274
0.23
120
0.61
207
0.39
60
0.21
25
0.68
232
0.46
238
1.32
319
1.03
266
0.76
155
1.02
217
0.95
260
0.72
255
1.13
305
2.15
371
0.18
156
0.18
246
0.18
116
0.19
207
0.20
199
0.19
165
Selective-RAFTtwo views0.36
42
0.23
120
0.54
177
0.45
199
0.22
30
0.64
208
0.27
42
0.62
36
0.65
93
0.41
31
0.38
17
0.55
90
0.39
102
0.59
78
0.36
98
0.14
18
0.12
86
0.14
13
0.12
26
0.16
103
0.14
49
CIPLGtwo views0.42
123
0.23
120
0.71
251
0.45
199
0.33
255
0.51
143
0.33
108
0.68
71
0.68
103
0.84
194
0.96
188
0.47
68
0.33
64
0.56
65
0.52
200
0.17
125
0.12
86
0.16
57
0.14
69
0.13
14
0.16
98
IPLGR_Ctwo views0.42
123
0.23
120
0.71
251
0.46
222
0.33
255
0.51
143
0.34
116
0.69
82
0.69
108
0.84
194
0.92
175
0.46
64
0.33
64
0.53
53
0.53
209
0.17
125
0.12
86
0.16
57
0.14
69
0.13
14
0.16
98
ACREtwo views0.42
123
0.23
120
0.73
261
0.45
199
0.33
255
0.50
138
0.33
108
0.68
71
0.70
110
0.82
183
0.92
175
0.46
64
0.32
59
0.53
53
0.52
200
0.17
125
0.12
86
0.15
41
0.14
69
0.13
14
0.16
98
OMP-Stereotwo views0.43
135
0.23
120
0.50
131
0.53
301
0.25
101
0.36
78
0.24
23
0.73
122
0.81
162
0.78
174
0.64
67
0.88
241
0.41
111
0.95
267
0.36
98
0.15
67
0.12
86
0.20
176
0.15
90
0.16
103
0.13
31
CRE-IMPtwo views0.37
60
0.23
120
0.53
165
0.42
129
0.24
77
0.40
101
0.21
5
0.61
34
0.45
47
0.65
98
0.73
85
0.53
86
0.37
82
0.63
125
0.40
147
0.18
156
0.11
39
0.19
147
0.16
115
0.21
208
0.19
165
CroCo-Stereocopylefttwo views0.27
2
0.23
120
0.40
45
0.49
257
0.22
30
0.20
2
0.29
57
0.55
19
0.45
47
0.29
4
0.27
2
0.42
45
0.26
17
0.30
1
0.26
8
0.15
67
0.13
141
0.13
8
0.12
26
0.16
103
0.13
31
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.46
152
0.23
120
0.52
158
0.48
248
0.27
158
0.55
164
0.47
243
0.68
71
0.60
81
0.83
188
0.82
131
1.00
271
0.56
174
0.76
200
0.37
106
0.18
156
0.16
211
0.22
229
0.20
226
0.16
103
0.14
49
RALCasStereoNettwo views0.37
60
0.23
120
0.41
50
0.44
187
0.28
179
0.36
78
0.38
170
0.66
55
0.67
102
0.51
51
0.74
96
0.51
79
0.29
41
0.64
132
0.38
119
0.17
125
0.14
172
0.15
41
0.13
49
0.17
127
0.17
134
222two views1.25
357
0.23
120
0.53
165
0.38
44
0.23
56
0.78
251
0.37
157
1.41
337
0.93
221
0.97
273
1.13
262
0.74
196
0.71
248
0.74
187
14.86
412
0.20
210
0.16
211
0.17
85
0.16
115
0.18
151
0.20
192
test_xeample3two views0.31
23
0.23
120
0.56
184
0.36
27
0.26
129
0.35
74
0.32
99
0.60
31
0.38
17
0.44
38
0.32
9
0.33
18
0.28
27
0.66
146
0.27
23
0.14
18
0.12
86
0.16
57
0.12
26
0.14
36
0.14
49
xxxxtwo views1.07
342
0.23
120
0.53
165
0.38
44
0.22
30
0.83
274
0.36
145
1.41
337
0.95
232
0.75
150
0.99
207
0.97
264
0.64
211
0.70
176
11.37
408
0.20
210
0.17
237
0.18
116
0.17
157
0.19
184
0.20
192
test_xeamplepermissivetwo views1.06
340
0.23
120
0.51
139
0.37
35
0.22
30
0.71
237
0.39
183
1.31
314
0.92
220
0.87
216
1.08
248
0.70
172
0.64
211
0.75
192
11.43
409
0.19
191
0.16
211
0.18
116
0.17
157
0.18
151
0.19
165
FENettwo views0.43
135
0.23
120
0.40
45
0.40
86
0.24
77
0.54
159
0.33
108
0.83
158
0.72
118
0.74
147
0.73
85
0.63
138
0.56
174
0.65
138
0.45
169
0.19
191
0.13
141
0.19
147
0.17
157
0.18
151
0.20
192
HSM-Net_RVCpermissivetwo views0.55
226
0.23
120
0.37
27
0.38
44
0.22
30
0.86
282
0.40
193
1.31
314
0.93
221
0.92
246
1.15
266
1.26
316
0.71
248
0.75
192
0.53
209
0.17
125
0.14
172
0.16
57
0.15
90
0.17
127
0.17
134
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
SMFormertwo views0.53
216
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.60
228
0.19
191
0.16
211
0.18
116
0.17
157
0.19
184
0.20
192
ttatwo views0.53
216
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.60
228
0.19
191
0.16
211
0.18
116
0.17
157
0.15
66
0.16
98
qqq1two views0.51
200
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.36
98
0.19
191
0.16
211
0.14
13
0.12
26
0.15
66
0.16
98
fff1two views0.51
200
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.36
98
0.19
191
0.16
211
0.14
13
0.12
26
0.15
66
0.16
98
IGEVStereo-DCAtwo views0.30
12
0.24
139
0.42
58
0.36
27
0.27
158
0.38
91
0.34
116
0.66
55
0.35
6
0.39
21
0.31
6
0.35
25
0.27
22
0.62
116
0.25
3
0.16
99
0.12
86
0.16
57
0.12
26
0.14
36
0.16
98
rrrtwo views0.31
23
0.24
139
0.56
184
0.36
27
0.27
158
0.38
91
0.31
87
0.56
24
0.44
43
0.39
21
0.31
6
0.35
25
0.27
22
0.62
116
0.25
3
0.16
99
0.12
86
0.16
57
0.13
49
0.14
36
0.14
49
EKT-Stereotwo views0.36
42
0.24
139
0.44
79
0.44
187
0.30
217
0.37
86
0.30
69
0.72
109
0.68
103
0.47
45
0.63
64
0.49
75
0.28
27
0.59
78
0.34
82
0.19
191
0.14
172
0.18
116
0.15
90
0.16
103
0.18
156
TestStereo1two views0.44
141
0.24
139
0.45
84
0.52
294
0.25
101
0.35
74
0.40
193
0.81
152
0.94
228
0.70
123
0.96
188
0.48
71
0.45
131
0.94
262
0.33
73
0.16
99
0.13
141
0.18
116
0.16
115
0.15
66
0.14
49
raft_robusttwo views0.41
116
0.24
139
0.39
36
0.43
166
0.22
30
0.40
101
0.33
108
0.80
150
0.98
248
0.80
178
0.88
158
0.41
43
0.32
59
0.89
247
0.30
48
0.14
18
0.12
86
0.16
57
0.18
183
0.15
66
0.13
31
RAFT+CT+SAtwo views0.40
102
0.24
139
0.40
45
0.53
301
0.27
158
0.28
31
0.45
235
0.79
148
0.81
162
0.51
51
0.90
163
0.42
45
0.39
102
0.81
223
0.33
73
0.15
67
0.11
39
0.18
116
0.18
183
0.15
66
0.15
78
SA-5Ktwo views0.44
141
0.24
139
0.45
84
0.52
294
0.25
101
0.35
74
0.40
193
0.81
152
0.94
228
0.70
123
0.96
188
0.48
71
0.45
131
0.94
262
0.33
73
0.16
99
0.13
141
0.18
116
0.16
115
0.15
66
0.14
49
GwcNet-ADLtwo views0.45
147
0.24
139
0.51
139
0.46
222
0.30
217
0.41
110
0.40
193
0.95
196
0.98
248
0.73
140
0.78
109
0.61
128
0.41
111
0.67
155
0.55
214
0.20
210
0.14
172
0.15
41
0.14
69
0.19
184
0.22
223
Patchmatch Stereo++two views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.21
5
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.31
87
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.59
78
0.38
119
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
ROB_FTStereo_v2two views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.31
87
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.60
88
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
ROB_FTStereotwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.20
1
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.60
88
0.38
119
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
HUI-Stereotwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.22
11
0.63
42
0.40
29
0.64
94
0.73
85
0.58
114
0.38
89
0.53
53
0.38
119
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
iGMRVCtwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.29
57
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
iRAFTtwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.21
5
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
RAFT-IKPtwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.27
42
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
RALAANettwo views0.40
102
0.24
139
0.56
184
0.43
166
0.30
217
0.36
78
0.25
30
0.89
172
0.69
108
0.69
119
0.65
69
0.61
128
0.30
50
0.63
125
0.35
89
0.16
99
0.13
141
0.18
116
0.15
90
0.21
208
0.14
49
ac_64two views0.54
221
0.24
139
0.58
193
0.46
222
0.28
179
0.79
257
0.44
231
1.11
248
0.63
84
0.94
253
0.85
145
1.06
290
0.70
243
0.76
200
0.72
255
0.22
241
0.18
246
0.20
176
0.19
207
0.18
151
0.16
98
ACVNettwo views0.47
161
0.24
139
0.39
36
0.40
86
0.28
179
0.58
183
0.40
193
0.91
178
0.81
162
0.67
109
0.96
188
0.79
219
0.66
219
0.65
138
0.71
252
0.18
156
0.15
190
0.16
57
0.15
90
0.18
151
0.15
78
acv_fttwo views0.52
210
0.24
139
0.64
220
0.45
199
0.28
179
0.85
280
0.40
193
0.95
196
0.81
162
1.00
281
0.96
188
0.79
219
0.62
199
0.65
138
0.88
281
0.18
156
0.15
190
0.16
57
0.15
90
0.18
151
0.15
78
cf-rtwo views0.49
179
0.24
139
0.49
122
0.40
86
0.23
56
0.58
183
0.38
170
0.92
186
0.87
190
0.77
163
1.06
240
0.98
266
0.67
228
0.59
78
0.61
232
0.21
225
0.14
172
0.17
85
0.19
207
0.15
66
0.16
98
PSMNet-RSSMtwo views0.50
190
0.24
139
0.41
50
0.43
166
0.26
129
0.51
143
0.40
193
1.16
262
0.79
148
0.75
150
1.07
242
0.87
238
0.69
238
0.66
146
0.52
200
0.24
261
0.16
211
0.23
243
0.26
303
0.20
199
0.20
192
RASNettwo views0.57
239
0.24
139
0.61
207
0.39
60
0.23
56
0.71
237
0.40
193
1.02
216
0.93
221
0.77
163
1.05
234
1.05
286
0.98
324
0.99
283
1.03
314
0.16
99
0.14
172
0.14
13
0.17
157
0.15
66
0.14
49
iResNet_ROBtwo views0.55
226
0.24
139
0.61
207
0.38
44
0.22
30
0.66
219
0.30
69
1.59
363
1.33
339
0.94
253
1.05
234
0.81
225
0.69
238
0.84
234
0.46
173
0.17
125
0.12
86
0.14
13
0.09
4
0.15
66
0.20
192
ACVNet-DCAtwo views0.36
42
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.91
178
0.59
74
0.42
32
0.50
31
0.34
21
0.47
141
0.61
94
0.26
8
0.17
125
0.11
39
0.19
147
0.13
49
0.18
151
0.19
165
xx1two views0.40
102
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.71
99
1.17
313
0.42
32
0.50
31
0.65
149
0.56
174
0.61
94
0.26
8
0.17
125
0.11
39
0.20
176
0.19
207
0.18
151
0.19
165
1test111two views0.37
60
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.91
178
0.59
74
0.42
32
0.50
31
0.34
21
0.47
141
0.59
78
0.48
185
0.17
125
0.11
39
0.19
147
0.13
49
0.18
151
0.19
165
cc1two views0.38
76
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.71
99
1.17
313
0.42
32
0.50
31
0.34
21
0.47
141
0.61
94
0.26
8
0.17
125
0.11
39
0.19
147
0.13
49
0.16
103
0.17
134
tt1two views0.37
60
0.25
167
0.35
19
0.43
166
0.23
56
0.52
150
0.37
157
0.72
109
1.13
301
0.42
32
0.46
22
0.35
25
0.44
124
0.61
94
0.26
8
0.17
125
0.11
39
0.19
147
0.13
49
0.16
103
0.17
134
PCWNet_CMDtwo views0.49
179
0.25
167
0.56
184
0.40
86
0.27
158
0.64
208
0.32
99
0.98
204
0.99
251
0.87
216
1.07
242
0.78
213
0.46
137
0.61
94
0.44
164
0.17
125
0.13
141
0.21
217
0.16
115
0.26
263
0.20
192
CFNet_ucstwo views0.51
200
0.25
167
0.58
193
0.39
60
0.31
227
0.59
189
0.35
138
1.04
222
0.95
232
0.89
231
1.19
279
0.80
223
0.49
148
0.66
146
0.45
169
0.21
225
0.16
211
0.26
281
0.18
183
0.27
272
0.23
242
LL-Strereo2two views0.36
42
0.25
167
0.52
158
0.43
166
0.27
158
0.36
78
0.27
42
0.70
92
0.46
52
0.55
61
0.53
41
0.65
149
0.24
10
0.69
169
0.32
63
0.14
18
0.13
141
0.23
243
0.20
226
0.19
184
0.14
49
CBFPSMtwo views0.61
264
0.25
167
1.41
351
0.39
60
0.27
158
1.10
321
0.67
311
0.83
158
0.84
176
0.82
183
0.81
129
1.33
328
0.85
296
0.72
185
0.86
279
0.16
99
0.15
190
0.15
41
0.17
157
0.17
127
0.23
242
gwcnet-sptwo views0.50
190
0.25
167
0.84
288
0.41
104
0.27
158
0.79
257
0.40
193
0.93
188
0.85
180
0.95
258
0.79
113
0.65
149
0.63
204
0.69
169
0.52
200
0.18
156
0.17
237
0.18
116
0.18
183
0.18
151
0.19
165
scenettwo views0.50
190
0.25
167
0.84
288
0.41
104
0.27
158
0.79
257
0.40
193
0.93
188
0.85
180
0.95
258
0.79
113
0.65
149
0.63
204
0.69
169
0.52
200
0.18
156
0.17
237
0.18
116
0.18
183
0.18
151
0.19
165
ssnettwo views0.50
190
0.25
167
0.84
288
0.41
104
0.27
158
0.79
257
0.40
193
0.93
188
0.85
180
0.95
258
0.79
113
0.65
149
0.63
204
0.69
169
0.52
200
0.18
156
0.17
237
0.18
116
0.18
183
0.18
151
0.19
165
CroCo-Stereo Lap2two views0.29
9
0.25
167
0.44
79
0.50
268
0.30
217
0.19
1
0.31
87
0.52
13
0.41
34
0.25
1
0.28
4
0.46
64
0.31
53
0.39
8
0.30
48
0.15
67
0.15
190
0.16
57
0.13
49
0.17
127
0.16
98
xtwo views0.41
116
0.25
167
0.46
91
0.36
27
0.24
77
0.54
159
0.31
87
0.94
193
0.58
73
0.60
71
0.72
83
0.61
128
0.53
159
0.52
51
0.50
194
0.18
156
0.16
211
0.17
85
0.16
115
0.17
127
0.18
156
IERtwo views0.48
170
0.25
167
0.60
206
0.38
44
0.28
179
0.67
228
0.38
170
0.82
156
0.68
103
0.88
224
0.95
184
0.74
196
0.79
279
0.62
116
0.46
173
0.17
125
0.14
172
0.17
85
0.17
157
0.17
127
0.16
98
test_5two views0.44
141
0.25
167
0.48
115
0.53
301
0.28
179
0.28
31
0.42
218
0.77
140
0.87
190
0.63
84
0.91
169
0.73
192
0.53
159
0.82
228
0.36
98
0.14
18
0.11
39
0.18
116
0.18
183
0.18
151
0.16
98
Sa-1000two views0.49
179
0.25
167
0.45
84
0.46
222
0.25
101
0.64
208
0.34
116
0.85
163
0.95
232
0.85
204
1.51
333
0.55
90
0.44
124
0.94
262
0.31
57
0.16
99
0.12
86
0.21
217
0.20
226
0.15
66
0.14
49
AACVNettwo views0.52
210
0.25
167
0.56
184
0.48
248
0.29
198
0.55
164
0.38
170
0.96
200
0.59
74
0.83
188
1.03
228
1.03
279
0.77
277
0.91
254
0.58
225
0.22
241
0.18
246
0.24
256
0.18
183
0.24
248
0.22
223
CFNet_pseudotwo views0.47
161
0.25
167
0.55
180
0.38
44
0.28
179
0.58
183
0.32
99
0.89
172
0.90
208
0.83
188
1.03
228
0.75
200
0.48
144
0.61
94
0.46
173
0.17
125
0.13
141
0.24
256
0.16
115
0.26
263
0.21
208
GEStwo views0.46
152
0.25
167
0.62
212
0.41
104
0.30
217
0.62
195
0.37
157
1.06
233
0.70
110
0.75
150
0.83
136
0.47
68
0.52
158
0.69
169
0.46
173
0.23
255
0.17
237
0.17
85
0.16
115
0.18
151
0.24
250
ARAFTtwo views0.48
170
0.25
167
0.82
281
0.42
129
0.25
101
0.56
169
0.54
279
0.82
156
0.82
170
0.92
246
0.75
98
0.75
200
0.48
144
0.89
247
0.37
106
0.15
67
0.12
86
0.23
243
0.22
261
0.14
36
0.14
49
delettwo views0.57
239
0.25
167
0.63
216
0.46
222
0.34
265
1.05
318
0.51
264
1.04
222
0.94
228
0.90
238
0.99
207
0.90
248
0.68
236
0.87
240
0.78
263
0.18
156
0.18
246
0.20
176
0.21
243
0.17
127
0.17
134
GwcNet-RSSMtwo views0.51
200
0.25
167
0.51
139
0.41
104
0.24
77
0.56
169
0.41
213
0.97
202
0.96
239
0.75
150
1.17
274
0.89
246
0.66
219
0.66
146
0.74
257
0.22
241
0.15
190
0.19
147
0.21
243
0.17
127
0.16
98
CFNet-ftpermissivetwo views0.50
190
0.25
167
0.39
36
0.41
104
0.26
129
0.66
219
0.37
157
0.91
178
0.87
190
0.67
109
1.00
211
1.05
286
0.70
243
0.68
163
0.57
220
0.23
255
0.16
211
0.24
256
0.21
243
0.24
248
0.19
165
MSMDNettwo views0.49
179
0.25
167
0.56
184
0.40
86
0.27
158
0.64
208
0.32
99
0.99
207
0.99
251
0.87
216
1.07
242
0.79
219
0.46
137
0.61
94
0.44
164
0.17
125
0.13
141
0.20
176
0.16
115
0.25
257
0.20
192
CFNet_RVCtwo views0.50
190
0.25
167
0.39
36
0.41
104
0.26
129
0.66
219
0.37
157
0.91
178
0.87
190
0.67
109
1.00
211
1.05
286
0.70
243
0.68
163
0.57
220
0.23
255
0.16
211
0.24
256
0.21
243
0.24
248
0.19
165
ccs_robtwo views0.47
161
0.25
167
0.55
180
0.38
44
0.28
179
0.58
183
0.32
99
0.89
172
0.90
208
0.83
188
1.02
217
0.75
200
0.48
144
0.61
94
0.46
173
0.17
125
0.12
86
0.24
256
0.16
115
0.26
263
0.21
208
HSMtwo views0.53
216
0.25
167
0.46
91
0.40
86
0.25
101
0.74
245
0.44
231
1.29
311
0.78
142
0.82
183
0.92
175
1.21
312
0.75
264
0.90
252
0.48
185
0.18
156
0.14
172
0.17
85
0.14
69
0.17
127
0.18
156
BUStwo views0.47
161
0.26
195
0.47
102
0.46
222
0.29
198
0.78
251
0.34
116
0.99
207
0.80
153
0.77
163
0.80
123
0.64
145
0.54
163
0.66
146
0.56
216
0.21
225
0.15
190
0.22
229
0.19
207
0.18
151
0.19
165
BSDual-CNNtwo views0.48
170
0.26
195
0.47
102
0.46
222
0.29
198
0.75
248
0.46
238
0.99
207
0.80
153
0.77
163
0.80
123
0.76
206
0.59
190
0.66
146
0.48
185
0.21
225
0.15
190
0.22
229
0.19
207
0.18
151
0.19
165
hknettwo views0.51
200
0.26
195
0.58
193
0.46
222
0.29
198
0.75
248
0.46
238
0.99
207
0.89
204
0.77
163
0.80
123
0.96
263
0.67
228
0.75
192
0.50
194
0.19
191
0.15
190
0.22
229
0.19
207
0.18
151
0.19
165
SAtwo views0.45
147
0.26
195
0.50
131
0.47
240
0.24
77
0.46
131
0.36
145
0.79
148
1.00
255
0.61
75
1.04
231
0.50
76
0.50
150
0.98
279
0.33
73
0.16
99
0.13
141
0.21
217
0.19
207
0.15
66
0.14
49
psmgtwo views0.50
190
0.26
195
0.47
102
0.42
129
0.29
198
0.82
271
0.42
218
1.07
235
0.80
153
0.95
258
0.94
180
0.76
206
0.59
190
0.66
146
0.48
185
0.21
225
0.16
211
0.20
176
0.20
226
0.19
184
0.19
165
DAStwo views0.54
221
0.26
195
0.66
227
0.49
257
0.31
227
0.61
191
0.43
225
0.89
172
1.01
257
0.95
258
1.16
269
0.71
173
0.85
296
0.89
247
0.47
182
0.18
156
0.14
172
0.18
116
0.15
90
0.22
226
0.19
165
SepStereotwo views0.54
221
0.26
195
0.66
227
0.49
257
0.31
227
0.61
191
0.43
225
0.89
172
1.01
257
0.95
258
1.16
269
0.71
173
0.85
296
0.97
277
0.47
182
0.18
156
0.14
172
0.18
116
0.15
90
0.22
226
0.19
165
ADLNet2two views0.57
239
0.26
195
0.71
251
0.48
248
0.31
227
0.83
274
0.51
264
1.10
247
0.99
251
0.85
204
0.99
207
0.99
270
0.70
243
0.79
217
0.78
263
0.21
225
0.17
237
0.18
116
0.18
183
0.22
226
0.22
223
ICVPtwo views0.48
170
0.26
195
0.42
58
0.49
257
0.28
179
0.63
200
0.43
225
1.05
228
0.72
118
0.68
116
0.95
184
0.75
200
0.56
174
0.55
61
0.61
232
0.24
261
0.18
246
0.19
147
0.17
157
0.19
184
0.21
208
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
MMNettwo views0.57
239
0.26
195
0.67
231
0.45
199
0.35
270
1.04
316
0.39
183
0.93
188
0.98
248
0.96
270
0.97
195
0.86
234
0.80
283
0.83
230
0.80
271
0.16
99
0.15
190
0.19
147
0.19
207
0.20
199
0.17
134
UPFNettwo views0.55
226
0.26
195
0.59
201
0.46
222
0.38
282
0.83
274
0.48
248
1.03
221
0.80
153
0.92
246
0.91
169
0.85
230
0.67
228
0.87
240
0.78
263
0.20
210
0.21
277
0.20
176
0.20
226
0.20
199
0.15
78
MLCVtwo views0.49
179
0.26
195
0.73
261
0.38
44
0.18
5
0.64
208
0.33
108
0.84
162
0.89
204
0.96
270
1.12
256
0.72
188
0.45
131
1.00
288
0.59
227
0.14
18
0.10
8
0.14
13
0.11
15
0.14
36
0.14
49
ttttwo views0.56
235
0.27
207
0.49
122
0.39
60
0.25
101
0.65
214
0.42
218
1.24
289
1.08
288
0.76
155
1.10
250
0.63
138
0.51
155
0.95
267
1.03
314
0.25
273
0.22
286
0.22
229
0.21
243
0.25
257
0.25
257
ToySttwo views0.52
210
0.27
207
0.93
305
0.42
129
0.28
179
0.67
228
0.56
286
0.88
171
0.79
148
0.61
75
0.85
145
0.92
257
0.70
243
0.72
185
0.61
232
0.16
99
0.17
237
0.21
217
0.21
243
0.22
226
0.21
208
AASNettwo views0.55
226
0.27
207
0.62
212
0.51
280
0.32
244
0.73
241
0.44
231
1.55
355
0.88
200
0.88
224
0.94
180
0.64
145
0.63
204
0.62
116
0.84
276
0.23
255
0.20
271
0.20
176
0.16
115
0.22
226
0.20
192
GANet-ADLtwo views0.44
141
0.27
207
0.48
115
0.44
187
0.30
217
0.54
159
0.36
145
0.94
193
0.88
200
0.64
94
0.72
83
0.68
168
0.44
124
0.55
61
0.44
164
0.22
241
0.15
190
0.15
41
0.13
49
0.18
151
0.21
208
psm_uptwo views0.57
239
0.27
207
0.52
158
0.50
268
0.33
255
0.65
214
0.60
300
1.07
235
0.84
176
0.87
216
0.91
169
1.00
271
1.06
331
0.80
219
0.66
242
0.22
241
0.25
309
0.26
281
0.23
270
0.22
226
0.21
208
UNettwo views0.55
226
0.27
207
0.72
257
0.45
199
0.41
299
0.97
299
0.40
193
1.01
214
0.80
153
0.87
216
0.90
163
1.03
279
0.75
264
0.76
200
0.67
245
0.19
191
0.15
190
0.20
176
0.17
157
0.21
208
0.18
156
DSFCAtwo views0.57
239
0.27
207
0.71
251
0.41
104
0.36
275
0.78
251
0.53
273
1.08
240
0.85
180
1.08
311
0.84
138
0.90
248
0.66
219
1.05
296
0.63
239
0.26
278
0.22
286
0.21
217
0.21
243
0.22
226
0.20
192
DMCAtwo views0.47
161
0.27
207
0.59
201
0.39
60
0.29
198
0.53
153
0.34
116
0.98
204
0.70
110
0.78
174
0.83
136
0.79
219
0.55
166
0.54
60
0.57
220
0.21
225
0.16
211
0.21
217
0.16
115
0.19
184
0.22
223
UCFNet_RVCtwo views0.50
190
0.27
207
0.37
27
0.40
86
0.27
158
0.66
219
0.42
218
1.18
270
0.86
186
0.70
123
0.89
161
0.91
254
0.60
193
0.62
116
0.48
185
0.24
261
0.18
246
0.28
299
0.27
307
0.25
257
0.24
250
HITNettwo views0.43
135
0.27
207
0.50
131
0.34
9
0.18
5
0.65
214
0.32
99
0.99
207
0.70
110
0.73
140
0.86
149
0.66
161
0.56
174
0.61
94
0.47
182
0.14
18
0.10
8
0.15
41
0.13
49
0.18
151
0.13
31
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
DISCOtwo views0.72
286
0.27
207
0.72
257
0.45
199
0.31
227
1.12
326
0.53
273
1.32
319
1.25
325
0.84
194
1.07
242
1.52
353
0.87
303
1.82
367
1.08
326
0.20
210
0.15
190
0.18
116
0.16
115
0.24
248
0.24
250
LE_ROBtwo views4.86
406
0.27
207
9.43
405
0.45
199
0.24
77
1.61
361
0.96
357
2.05
379
17.75
419
16.36
421
4.84
406
5.17
401
19.48
421
2.05
374
15.49
413
0.17
125
0.15
190
0.16
57
0.16
115
0.20
199
0.19
165
DN-CSS_ROBtwo views0.45
147
0.27
207
0.74
265
0.41
104
0.29
198
0.43
121
0.29
57
0.80
150
0.78
142
0.73
140
1.08
248
0.48
71
0.45
131
0.81
223
0.40
147
0.15
67
0.12
86
0.21
217
0.19
207
0.18
151
0.17
134
mmmtwo views0.47
161
0.28
220
0.51
139
0.39
60
0.25
101
0.61
191
0.38
170
1.00
213
0.60
81
0.77
163
1.07
242
0.65
149
0.53
159
0.61
94
0.49
192
0.18
156
0.15
190
0.23
243
0.20
226
0.21
208
0.20
192
DualNettwo views0.53
216
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
0.72
109
1.13
301
0.76
155
0.98
198
0.71
173
0.55
166
0.61
94
1.46
348
0.17
125
0.11
39
0.25
267
0.21
243
0.16
103
0.17
134
ffmtwo views0.47
161
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
0.72
109
1.13
301
0.76
155
0.98
198
0.71
173
0.55
166
0.61
94
0.26
8
0.17
125
0.11
39
0.25
267
0.21
243
0.16
103
0.17
134
ff1two views0.56
235
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
0.72
109
1.13
301
0.76
155
0.98
198
0.71
173
0.55
166
1.25
320
1.46
348
0.17
125
0.11
39
0.25
267
0.21
243
0.16
103
0.17
134
mmxtwo views0.59
254
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
1.24
289
1.06
276
0.76
155
0.98
198
0.71
173
0.55
166
1.25
320
1.46
348
0.21
225
0.16
211
0.25
267
0.21
243
0.24
248
0.22
223
xxxcopylefttwo views0.59
254
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
1.24
289
1.06
276
0.76
155
0.98
198
0.71
173
0.55
166
1.25
320
1.46
348
0.21
225
0.16
211
0.25
267
0.21
243
0.24
248
0.22
223
CASStwo views0.46
152
0.28
220
0.45
84
0.48
248
0.22
30
0.63
200
0.34
116
0.99
207
0.66
96
0.76
155
0.86
149
0.61
128
0.58
186
0.58
73
0.44
164
0.29
302
0.16
211
0.22
229
0.18
183
0.23
240
0.28
279
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
qqqtwo views0.42
123
0.28
220
0.50
131
0.37
35
0.22
30
0.47
133
0.39
183
0.91
178
0.59
74
0.57
65
0.71
82
0.65
149
0.56
174
0.59
78
0.48
185
0.17
125
0.17
237
0.20
176
0.19
207
0.18
151
0.19
165
PSMNet-ADLtwo views0.50
190
0.28
220
0.43
74
0.49
257
0.31
227
0.70
234
0.38
170
0.94
193
0.81
162
0.62
77
0.80
123
0.91
254
0.62
199
0.76
200
0.68
248
0.24
261
0.18
246
0.19
147
0.20
226
0.22
226
0.22
223
StereoVisiontwo views0.43
135
0.29
229
0.54
177
0.50
268
0.28
179
0.37
86
0.38
170
0.75
133
0.63
84
0.46
43
1.11
254
0.53
86
0.38
89
0.57
69
0.34
82
0.21
225
0.24
301
0.25
267
0.24
284
0.26
263
0.17
134
LL-Strereotwo views0.58
250
0.29
229
0.83
285
0.48
248
0.35
270
0.39
96
0.48
248
1.04
222
0.99
251
0.87
216
0.79
113
1.08
295
1.15
343
1.35
337
0.51
196
0.18
156
0.15
190
0.22
229
0.19
207
0.17
127
0.21
208
iinet-ftwo views0.69
282
0.29
229
2.34
382
0.41
104
0.31
227
1.16
332
0.58
295
0.87
166
0.85
180
0.86
214
1.17
274
1.04
283
0.83
289
0.76
200
1.26
337
0.21
225
0.18
246
0.17
85
0.16
115
0.21
208
0.21
208
ssnet_v2two views0.61
264
0.29
229
0.69
246
0.45
199
0.30
217
0.93
292
0.62
304
1.20
276
1.03
266
0.97
273
0.81
129
0.98
266
0.67
228
0.84
234
0.97
305
0.26
278
0.23
293
0.23
243
0.24
284
0.20
199
0.21
208
CRFU-Nettwo views0.59
254
0.29
229
0.62
212
0.47
240
0.31
227
1.20
338
0.51
264
1.19
273
0.59
74
1.05
301
1.00
211
1.06
290
0.87
303
0.83
230
0.77
262
0.22
241
0.19
263
0.18
116
0.16
115
0.19
184
0.20
192
CSP-Nettwo views0.57
239
0.29
229
0.55
180
0.42
129
0.29
198
1.20
338
0.49
258
1.29
311
0.75
134
0.98
276
0.97
195
0.88
241
0.69
238
0.85
236
0.66
242
0.27
287
0.18
246
0.17
85
0.17
157
0.18
151
0.19
165
pcwnet_v2two views0.60
261
0.29
229
0.89
301
0.46
222
0.36
275
0.62
195
0.38
170
1.33
322
1.24
323
1.02
287
1.27
294
0.71
173
0.59
190
0.71
181
0.51
196
0.28
295
0.21
277
0.24
256
0.23
270
0.29
281
0.30
288
sCroCo_RVCtwo views0.36
42
0.29
229
0.73
261
0.52
294
0.39
291
0.42
117
0.31
87
0.52
13
0.46
52
0.31
7
0.48
27
0.38
35
0.32
59
0.46
29
0.33
73
0.22
241
0.23
293
0.19
147
0.19
207
0.21
208
0.22
223
Anonymoustwo views0.40
102
0.29
229
0.70
248
0.54
310
0.44
316
0.56
169
0.54
279
0.68
71
0.52
62
0.38
18
0.44
19
0.33
18
0.42
116
0.57
69
0.39
127
0.20
210
0.20
271
0.18
116
0.18
183
0.30
288
0.24
250
ADLNettwo views0.57
239
0.29
229
0.58
193
0.46
222
0.35
270
0.80
263
0.46
238
1.14
257
0.88
200
1.03
290
0.98
198
0.92
257
0.66
219
0.71
181
0.83
275
0.22
241
0.16
211
0.22
229
0.22
261
0.22
226
0.23
242
hitnet-ftcopylefttwo views0.57
239
0.29
229
0.43
74
0.42
129
0.29
198
0.81
268
0.40
193
0.98
204
0.91
214
0.84
194
1.01
215
1.13
306
0.72
255
0.83
230
0.71
252
0.28
295
0.21
277
0.28
299
0.22
261
0.29
281
0.27
270
iResNetv2_ROBtwo views0.55
226
0.29
229
0.86
292
0.39
60
0.25
101
0.67
228
0.37
157
1.21
279
1.02
262
1.02
287
1.10
250
0.89
246
0.79
279
0.74
187
0.43
157
0.19
191
0.13
141
0.15
41
0.11
15
0.19
184
0.16
98
MDST_ROBtwo views0.97
332
0.29
229
1.02
319
0.64
344
0.43
311
2.64
384
0.82
342
1.68
371
1.18
317
2.89
390
1.82
352
0.97
264
0.75
264
1.83
368
0.89
283
0.26
278
0.22
286
0.32
322
0.28
313
0.26
263
0.26
262
DLCB_ROBtwo views0.60
261
0.29
229
0.53
165
0.50
268
0.33
255
0.76
250
0.51
264
1.02
216
0.94
228
1.07
310
1.16
269
1.21
312
0.73
259
0.98
279
0.75
259
0.21
225
0.20
271
0.22
229
0.23
270
0.22
226
0.20
192
Wz-Net-LNSev-Reftwo views0.67
277
0.30
243
1.20
331
0.42
129
0.31
227
1.00
306
0.58
295
1.16
262
1.07
283
1.01
283
1.25
287
1.08
295
0.75
264
1.18
314
1.03
314
0.20
210
0.12
86
0.16
57
0.13
49
0.22
226
0.22
223
NINENettwo views0.52
210
0.30
243
0.55
180
0.46
222
0.33
255
0.78
251
0.34
116
1.18
270
0.91
214
0.84
194
0.97
195
0.64
145
0.54
163
0.74
187
0.56
216
0.23
255
0.20
271
0.25
267
0.18
183
0.22
226
0.22
223
GEStereo_RVCtwo views0.56
235
0.30
243
0.70
248
0.51
280
0.31
227
0.70
234
0.54
279
1.31
314
0.93
221
0.85
204
0.86
149
0.84
228
0.63
204
0.92
256
0.67
245
0.24
261
0.16
211
0.19
147
0.17
157
0.21
208
0.23
242
RAFT + AFFtwo views0.54
221
0.30
243
0.84
288
0.51
280
0.32
244
0.63
200
0.57
288
1.05
228
0.95
232
0.80
178
0.87
155
0.85
230
0.57
183
0.87
240
0.51
196
0.18
156
0.21
277
0.23
243
0.22
261
0.19
184
0.19
165
HGLStereotwo views0.58
250
0.30
243
0.65
225
0.51
280
0.38
282
0.78
251
0.45
235
1.07
235
0.82
170
0.89
231
1.16
269
0.88
241
0.91
312
0.80
219
0.74
257
0.21
225
0.21
277
0.20
176
0.18
183
0.19
184
0.22
223
CFNettwo views0.53
216
0.30
243
0.53
165
0.42
129
0.28
179
0.73
241
0.35
138
1.21
279
1.01
257
0.74
147
1.07
242
0.85
230
0.60
193
0.83
230
0.58
225
0.19
191
0.15
190
0.23
243
0.23
270
0.21
208
0.17
134
SGM_RVCbinarytwo views1.04
339
0.30
243
0.47
102
0.41
104
0.23
56
1.73
369
0.77
334
1.63
367
1.30
335
2.39
383
1.99
359
2.64
379
1.78
374
2.22
381
1.40
345
0.28
295
0.27
319
0.27
289
0.25
295
0.25
257
0.25
257
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
iResNettwo views0.52
210
0.31
250
0.86
292
0.44
187
0.22
30
0.66
219
0.47
243
0.92
186
1.02
262
0.89
231
1.12
256
0.69
170
0.55
166
0.86
238
0.60
228
0.15
67
0.11
39
0.15
41
0.12
26
0.17
127
0.17
134
pmcnntwo views1.27
359
0.31
250
1.14
328
0.41
104
0.23
56
0.97
299
0.71
319
1.23
288
1.32
337
1.83
367
2.34
367
11.25
412
0.89
309
1.04
295
0.96
302
0.15
67
0.12
86
0.12
2
0.10
10
0.15
66
0.16
98
whm_ethtwo views0.49
179
0.32
252
0.79
274
0.47
240
0.38
282
0.37
86
0.37
157
0.83
158
0.83
175
0.82
183
1.73
348
0.36
31
0.39
102
0.61
94
0.38
119
0.19
191
0.17
237
0.20
176
0.20
226
0.20
199
0.25
257
fast-acv-fttwo views0.66
276
0.32
252
0.80
275
0.46
222
0.34
265
1.26
341
0.50
261
0.91
178
1.00
255
1.05
301
1.36
308
1.28
317
0.84
292
0.81
223
0.90
289
0.22
241
0.24
301
0.23
243
0.23
270
0.21
208
0.22
223
TRStereotwo views0.39
88
0.32
252
0.64
220
0.49
257
0.41
299
0.30
39
0.30
69
0.97
202
0.63
84
0.53
59
0.43
18
0.52
82
0.26
17
0.77
207
0.29
37
0.18
156
0.12
86
0.19
147
0.19
207
0.13
14
0.13
31
TestStereotwo views0.39
88
0.32
252
0.42
58
0.45
199
0.20
18
0.41
110
0.38
170
0.69
82
0.66
96
0.56
63
0.78
109
0.48
71
0.43
119
0.59
78
0.37
106
0.18
156
0.13
141
0.20
176
0.15
90
0.23
240
0.14
49
DMCA-RVCcopylefttwo views0.54
221
0.32
252
0.83
285
0.51
280
0.32
244
0.59
189
0.38
170
0.89
172
0.70
110
0.95
258
0.88
158
0.90
248
0.69
238
0.75
192
0.63
239
0.23
255
0.18
246
0.31
317
0.24
284
0.27
272
0.21
208
NVstereo2Dtwo views0.62
270
0.32
252
0.82
281
0.50
268
0.44
316
0.88
285
0.48
248
1.12
249
1.17
313
0.67
109
0.90
163
0.90
248
0.69
238
1.02
292
0.69
249
0.33
325
0.16
211
0.29
307
0.20
226
0.43
337
0.46
352
LMCR-Stereopermissivemany views0.55
226
0.33
258
0.57
191
0.60
331
0.30
217
0.80
263
0.36
145
1.30
313
0.79
148
0.90
238
1.04
231
0.57
99
0.64
211
0.87
240
0.73
256
0.20
210
0.15
190
0.19
147
0.14
69
0.25
257
0.18
156
stereogantwo views0.83
312
0.33
258
0.89
301
0.61
335
0.51
340
1.80
370
0.50
261
1.41
337
1.39
344
1.05
301
1.47
329
1.56
357
1.04
329
1.32
334
0.87
280
0.29
302
0.29
326
0.29
307
0.25
295
0.39
327
0.40
330
NLCA_NET_v2_RVCtwo views0.55
226
0.33
258
0.71
251
0.46
222
0.31
227
0.66
219
0.43
225
1.07
235
0.89
204
0.93
249
0.91
169
0.98
266
0.61
197
0.76
200
0.64
241
0.22
241
0.18
246
0.22
229
0.22
261
0.22
226
0.24
250
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
StereoDRNet-Refinedtwo views0.61
264
0.33
258
0.63
216
0.47
240
0.31
227
0.94
294
0.41
213
1.04
222
0.97
244
1.15
325
1.13
262
1.00
271
0.74
261
0.93
259
0.93
295
0.18
156
0.13
141
0.22
229
0.21
243
0.20
199
0.21
208
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
SGM-Foresttwo views0.65
275
0.33
258
0.43
74
0.44
187
0.30
217
1.01
310
0.54
279
1.13
255
1.09
294
1.11
321
1.21
281
1.10
301
0.76
273
0.99
283
0.71
252
0.32
317
0.33
349
0.33
327
0.30
318
0.30
288
0.28
279
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
FAT-Stereotwo views0.75
296
0.34
263
0.81
280
0.51
280
0.38
282
0.78
251
0.63
307
1.39
331
1.32
337
1.05
301
1.40
314
1.58
358
1.14
341
0.92
256
0.91
291
0.29
302
0.28
324
0.28
299
0.23
270
0.28
279
0.41
335
AdaStereotwo views0.52
210
0.34
263
0.53
165
0.49
257
0.25
101
0.71
237
0.36
145
1.24
289
0.91
214
0.77
163
0.98
198
0.75
200
0.50
150
0.71
181
0.51
196
0.27
287
0.13
141
0.28
299
0.18
183
0.23
240
0.18
156
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
SGM-ForestMtwo views4.73
403
0.34
263
1.05
321
0.46
222
0.28
179
10.26
410
3.48
409
4.52
404
5.16
401
8.68
412
7.48
410
18.87
419
10.80
411
11.26
414
10.01
407
0.32
317
0.34
352
0.32
322
0.32
330
0.29
281
0.30
288
DRN-Testtwo views0.68
280
0.34
263
0.77
271
0.52
294
0.40
294
1.14
328
0.61
302
1.56
359
1.04
270
1.18
327
1.10
250
1.05
286
0.72
255
0.82
228
1.01
309
0.24
261
0.18
246
0.26
281
0.25
295
0.26
263
0.23
242
Anonymous3two views0.47
161
0.35
267
0.91
304
0.50
268
0.38
282
0.81
268
0.55
283
0.76
135
0.66
96
0.52
53
0.65
69
0.44
54
0.45
131
0.66
146
0.39
127
0.25
273
0.25
309
0.22
229
0.21
243
0.23
240
0.24
250
HCRNettwo views0.46
152
0.35
267
0.45
84
0.54
310
0.26
129
0.52
150
0.29
57
0.87
166
0.64
88
0.75
150
0.82
131
0.76
206
0.53
159
0.70
176
0.38
119
0.24
261
0.16
211
0.24
256
0.20
226
0.21
208
0.20
192
FADNet-RVC-Resampletwo views0.58
250
0.35
267
1.34
346
0.50
268
0.34
265
0.73
241
0.43
225
1.09
243
0.96
239
0.83
188
0.87
155
0.76
206
0.66
219
0.77
207
0.52
200
0.19
191
0.18
246
0.26
281
0.27
307
0.28
279
0.29
284
BEATNet_4xtwo views0.49
179
0.35
267
0.72
257
0.38
44
0.20
18
0.65
214
0.36
145
1.08
240
0.78
142
0.78
174
0.88
158
0.73
192
0.64
211
0.71
181
0.60
228
0.16
99
0.12
86
0.16
57
0.15
90
0.24
248
0.18
156
TDLMtwo views0.59
254
0.35
267
0.57
191
0.53
301
0.32
244
0.67
228
0.72
323
1.09
243
1.03
266
0.84
194
1.11
254
0.84
228
0.71
248
0.96
270
0.61
232
0.28
295
0.18
246
0.26
281
0.22
261
0.27
272
0.21
208
CVANet_RVCtwo views0.59
254
0.35
267
0.54
177
0.49
257
0.33
255
0.70
234
0.67
311
1.12
249
0.97
244
0.88
224
1.05
234
1.01
275
0.72
255
0.94
262
0.55
214
0.30
309
0.20
271
0.28
299
0.26
303
0.32
298
0.23
242
AANet_RVCtwo views0.59
254
0.35
267
0.68
238
0.47
240
0.28
179
0.57
179
0.47
243
1.04
222
1.28
330
0.87
216
1.33
303
0.86
234
0.63
204
1.16
311
0.89
283
0.19
191
0.13
141
0.15
41
0.14
69
0.18
151
0.20
192
StereoDRNettwo views0.67
277
0.35
267
0.82
281
0.53
301
0.44
316
1.03
314
0.53
273
1.51
352
1.06
276
1.13
323
0.91
169
1.07
294
0.74
261
0.87
240
0.95
300
0.24
261
0.19
263
0.25
267
0.23
270
0.27
272
0.22
223
SACVNettwo views0.61
264
0.36
275
0.67
231
0.57
322
0.37
277
0.65
214
0.47
243
1.16
262
0.80
153
1.04
296
1.06
240
1.02
277
0.81
286
0.99
283
0.57
220
0.28
295
0.21
277
0.25
267
0.24
284
0.30
288
0.39
324
S-Stereotwo views0.76
299
0.36
275
1.10
323
0.57
322
0.46
331
0.83
274
0.59
298
1.31
314
1.62
363
0.98
276
1.41
316
1.11
303
0.93
316
0.85
236
1.07
324
0.27
287
0.31
338
0.28
299
0.25
295
0.33
302
0.50
359
ADCP+two views1.18
353
0.37
277
3.09
385
0.50
268
0.52
342
1.48
353
0.61
302
1.32
319
1.07
283
1.21
330
1.16
269
1.08
295
1.11
336
1.63
356
7.17
403
0.20
210
0.16
211
0.24
256
0.22
261
0.29
281
0.22
223
RYNettwo views0.76
299
0.37
277
0.74
265
0.54
310
0.67
365
1.35
345
0.68
314
1.28
307
1.21
322
1.10
318
0.90
163
1.31
321
0.94
319
1.01
289
1.30
339
0.22
241
0.16
211
0.27
289
0.23
270
0.43
337
0.45
348
DeepPruner_ROBtwo views0.55
226
0.37
277
0.67
231
0.42
129
0.31
227
0.50
138
0.43
225
1.22
285
0.73
127
0.86
214
1.05
234
0.85
230
0.58
186
0.90
252
0.56
216
0.29
302
0.23
293
0.22
229
0.22
261
0.26
263
0.26
262
CBMVpermissivetwo views0.68
280
0.37
277
0.50
131
0.43
166
0.26
129
1.00
306
0.71
319
1.17
268
1.16
310
1.24
336
1.29
299
1.06
290
0.86
300
0.98
279
0.75
259
0.29
302
0.30
330
0.34
329
0.30
318
0.26
263
0.27
270
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
GMStereopermissivetwo views0.40
102
0.38
281
0.61
207
0.41
104
0.27
158
0.47
133
0.35
138
0.62
36
1.04
270
0.57
65
0.54
44
0.38
35
0.36
78
0.56
65
0.41
152
0.20
210
0.13
141
0.16
57
0.17
157
0.24
248
0.20
192
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
RPtwo views0.80
303
0.38
281
0.73
261
0.67
350
0.59
355
0.82
271
0.57
288
1.21
279
1.28
330
1.03
290
1.68
343
1.45
342
1.49
364
1.08
300
0.90
289
0.36
339
0.31
338
0.37
337
0.30
318
0.36
318
0.36
315
GANettwo views0.74
292
0.38
281
0.63
216
0.54
310
0.35
270
1.01
310
0.95
355
1.15
260
0.95
232
1.09
315
2.00
360
1.14
307
0.92
314
1.29
327
0.75
259
0.25
273
0.27
319
0.27
289
0.23
270
0.32
298
0.24
250
XPNet_ROBtwo views0.73
287
0.38
281
0.80
275
0.53
301
0.40
294
0.80
263
0.83
344
1.21
279
0.96
239
1.37
345
1.17
274
1.37
335
0.87
303
1.14
307
0.99
307
0.33
325
0.25
309
0.27
289
0.24
284
0.31
292
0.29
284
SDNRtwo views0.89
322
0.39
285
1.66
370
0.42
129
0.39
291
3.35
397
0.32
99
0.95
196
1.05
272
1.05
301
2.12
363
0.62
134
0.71
248
1.40
338
0.78
263
0.53
367
0.56
381
0.36
333
0.27
307
0.46
344
0.50
359
APVNettwo views0.73
287
0.39
285
1.01
318
0.58
327
0.45
323
1.16
332
0.68
314
1.47
348
0.87
190
0.84
194
1.15
266
1.04
283
0.84
292
1.14
307
1.18
332
0.27
287
0.28
324
0.32
322
0.31
327
0.29
281
0.32
298
GwcNetcopylefttwo views0.73
287
0.39
285
1.37
348
0.53
301
0.43
311
1.10
321
0.52
270
1.27
302
1.19
318
1.05
301
1.41
316
1.06
290
0.86
300
0.98
279
1.01
309
0.26
278
0.24
301
0.24
256
0.23
270
0.23
240
0.28
279
FADNet_RVCtwo views0.58
250
0.39
285
1.26
335
0.45
199
0.32
244
0.55
164
0.34
116
1.12
249
0.90
208
0.68
116
0.90
163
0.61
128
0.71
248
1.03
294
0.80
271
0.21
225
0.18
246
0.27
289
0.23
270
0.33
302
0.30
288
STTStereotwo views0.57
239
0.39
285
0.87
297
0.45
199
0.32
244
0.62
195
0.45
235
1.01
214
0.87
190
1.01
283
0.91
169
0.95
260
0.58
186
0.77
207
0.66
242
0.25
273
0.24
301
0.27
289
0.33
336
0.25
257
0.26
262
CBMV_ROBtwo views0.62
270
0.39
285
0.41
50
0.41
104
0.28
179
0.86
282
0.28
50
1.06
233
1.02
262
0.95
258
1.33
303
0.81
225
0.84
292
0.94
262
0.56
216
0.37
343
0.37
357
0.43
349
0.40
351
0.33
302
0.32
298
WCMA_ROBtwo views1.22
354
0.39
285
0.93
305
0.51
280
0.45
323
1.44
350
0.79
338
1.20
276
1.30
335
2.99
396
3.94
397
3.30
389
2.17
386
1.42
342
1.31
340
0.46
357
0.35
354
0.35
330
0.37
343
0.41
331
0.42
338
PSMNet_ROBtwo views0.67
277
0.39
285
0.76
268
0.57
322
0.43
311
1.00
306
0.85
348
1.25
295
0.93
221
0.82
183
1.04
231
1.08
295
0.64
211
0.89
247
1.02
313
0.29
302
0.21
277
0.31
317
0.31
327
0.27
272
0.25
257
ddtwo views0.44
141
0.40
293
0.62
212
0.44
187
0.26
129
0.51
143
0.38
170
0.72
109
1.07
283
0.60
71
0.66
72
0.43
51
0.40
107
0.68
163
0.53
209
0.24
261
0.15
190
0.21
217
0.16
115
0.24
248
0.19
165
edge stereotwo views0.79
302
0.40
293
0.82
281
0.52
294
0.44
316
0.83
274
0.58
295
1.34
324
1.08
288
1.30
341
1.38
312
1.79
363
1.13
340
1.15
310
0.92
293
0.34
332
0.32
344
0.42
348
0.28
313
0.33
302
0.39
324
Nwc_Nettwo views0.82
306
0.40
293
0.86
292
0.62
339
0.56
348
1.04
316
0.57
288
1.72
373
1.08
288
0.93
249
1.88
355
1.44
341
1.24
348
1.19
315
0.94
297
0.31
312
0.25
309
0.36
333
0.39
348
0.31
292
0.31
295
NOSS_ROBtwo views0.59
254
0.40
293
0.42
58
0.45
199
0.31
227
0.79
257
0.53
273
1.09
243
1.12
296
0.69
119
0.92
175
0.77
211
0.63
204
0.81
223
0.52
200
0.39
349
0.38
358
0.44
351
0.42
358
0.38
323
0.36
315
sAnonymous2two views0.42
123
0.41
297
0.96
311
0.48
248
0.37
277
0.41
110
0.48
248
0.60
31
0.52
62
0.39
21
0.48
27
0.35
25
0.44
124
0.44
22
0.30
48
0.19
191
0.14
172
0.19
147
0.17
157
0.55
362
0.43
342
CroCo_RVCtwo views0.42
123
0.41
297
0.96
311
0.48
248
0.37
277
0.41
110
0.48
248
0.60
31
0.52
62
0.39
21
0.48
27
0.35
25
0.44
124
0.44
22
0.30
48
0.19
191
0.14
172
0.19
147
0.17
157
0.55
362
0.43
342
SuperBtwo views1.00
337
0.41
297
4.03
393
0.45
199
0.32
244
0.99
305
0.49
258
1.09
243
2.09
377
1.10
318
1.10
250
0.74
196
0.83
289
1.13
305
1.75
360
0.20
210
0.15
190
0.17
85
0.15
90
2.50
401
0.27
270
AF-Nettwo views0.85
318
0.41
297
0.87
297
0.66
348
0.54
346
0.96
298
0.52
270
1.66
369
1.37
341
1.03
290
2.04
362
1.46
343
1.36
354
1.19
315
1.05
321
0.34
332
0.24
301
0.39
343
0.28
313
0.31
292
0.26
262
Wz-Net-MNSevtwo views0.81
305
0.42
301
1.64
367
0.51
280
0.41
299
1.46
351
0.95
355
1.24
289
1.26
328
1.31
342
1.25
287
1.17
309
0.83
289
1.21
319
1.06
322
0.22
241
0.19
263
0.24
256
0.23
270
0.29
281
0.26
262
ADCLtwo views1.10
344
0.42
301
1.57
360
0.51
280
0.41
299
1.71
368
0.92
352
1.36
329
1.45
350
1.33
343
1.56
336
1.22
315
1.26
350
1.45
346
5.27
398
0.22
241
0.19
263
0.25
267
0.25
295
0.29
281
0.29
284
NCC-stereotwo views0.82
306
0.43
303
0.87
297
0.63
341
0.68
366
0.88
285
0.72
323
1.60
365
1.12
296
0.95
258
1.41
316
1.37
335
1.37
356
1.26
323
0.94
297
0.32
317
0.30
330
0.37
337
0.49
368
0.34
308
0.35
312
Abc-Nettwo views0.82
306
0.43
303
0.87
297
0.63
341
0.68
366
0.88
285
0.72
323
1.60
365
1.12
296
0.95
258
1.41
316
1.37
335
1.37
356
1.26
323
0.94
297
0.32
317
0.30
330
0.37
337
0.49
368
0.34
308
0.35
312
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
DPSNettwo views1.08
343
0.44
305
2.64
383
0.54
310
0.42
308
1.59
360
1.25
375
2.39
387
1.50
355
1.13
323
1.12
256
1.51
351
2.19
387
1.44
345
1.51
354
0.35
337
0.25
309
0.25
267
0.21
243
0.49
350
0.39
324
Anonymous_2two views0.84
313
0.45
306
0.66
227
0.41
104
0.45
323
0.82
271
0.53
273
0.81
152
0.81
162
0.73
140
0.61
61
0.91
254
0.76
273
0.77
207
0.61
232
0.51
365
0.55
380
0.54
367
4.92
415
0.54
360
0.42
338
FINETtwo views0.75
296
0.45
306
1.38
349
0.48
248
0.46
331
0.98
303
1.00
359
1.22
285
1.69
367
0.91
245
1.25
287
0.74
196
0.74
261
1.09
301
0.82
274
0.37
343
0.31
338
0.27
289
0.24
284
0.35
314
0.34
309
NCCL2two views0.74
292
0.45
306
0.77
271
0.65
346
0.45
323
0.97
299
1.16
369
1.16
262
1.02
262
1.00
281
0.98
198
1.48
347
0.88
307
0.99
283
0.89
283
0.31
312
0.27
319
0.39
343
0.39
348
0.33
302
0.34
309
SANettwo views1.15
349
0.45
306
1.40
350
0.50
268
0.32
244
1.54
359
1.21
372
1.49
349
3.35
394
1.61
354
2.41
370
2.32
376
1.80
375
1.57
353
1.27
338
0.28
295
0.25
309
0.26
281
0.24
284
0.36
318
0.32
298
MeshStereopermissivetwo views1.38
365
0.45
306
0.58
193
0.45
199
0.35
270
1.63
363
0.60
300
2.07
380
1.43
348
4.49
405
3.32
389
4.67
396
2.08
383
2.08
377
1.32
341
0.36
339
0.36
356
0.37
337
0.32
330
0.32
298
0.34
309
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
GMStereo_Zeroshotpermissivetwo views0.51
200
0.46
311
0.80
275
0.50
268
0.28
179
0.57
179
0.30
69
0.75
133
0.79
148
0.88
224
0.94
180
0.90
248
0.37
82
0.77
207
0.46
173
0.27
287
0.14
172
0.26
281
0.15
90
0.39
327
0.19
165
ADCReftwo views0.84
313
0.46
311
1.60
364
0.52
294
0.45
323
1.08
320
0.52
270
1.13
255
1.03
266
1.22
332
1.43
322
0.87
238
0.93
316
0.91
254
3.35
386
0.19
191
0.16
211
0.23
243
0.23
270
0.23
240
0.22
223
PA-Nettwo views0.70
283
0.46
311
0.96
311
0.51
280
0.53
344
0.94
294
0.73
328
1.14
257
1.15
308
0.83
188
0.90
163
0.88
241
0.76
273
1.19
315
0.96
302
0.25
273
0.41
367
0.29
307
0.44
359
0.27
272
0.39
324
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
PS-NSSStwo views0.60
261
0.46
311
0.68
238
0.43
166
0.34
265
0.66
219
0.57
288
1.05
228
0.91
214
0.80
178
1.28
295
0.72
188
0.67
228
0.89
247
0.61
232
0.32
317
0.26
317
0.40
346
0.27
307
0.35
314
0.29
284
NaN_ROBtwo views0.73
287
0.46
311
0.89
301
0.52
294
0.34
265
0.98
303
1.11
364
1.28
307
1.20
320
1.27
340
0.96
188
1.08
295
0.79
279
1.34
336
0.78
263
0.24
261
0.30
330
0.23
243
0.24
284
0.23
240
0.26
262
LALA_ROBtwo views0.76
299
0.46
311
0.86
292
0.55
316
0.41
299
1.00
306
0.93
354
1.25
295
1.13
301
1.23
334
1.15
266
1.55
355
0.80
283
1.11
304
0.96
302
0.33
325
0.23
293
0.35
330
0.30
318
0.35
314
0.32
298
HBP-ISPtwo views0.61
264
0.47
317
0.45
84
0.46
222
0.33
255
0.79
257
0.29
57
1.15
260
1.05
272
0.85
204
1.18
278
0.67
165
0.71
248
0.92
256
0.57
220
0.37
343
0.38
358
0.47
356
0.41
356
0.39
327
0.32
298
DANettwo views0.74
292
0.47
317
0.98
316
0.60
331
0.41
299
0.92
291
0.41
213
1.02
216
0.87
190
1.22
332
1.22
283
1.33
328
0.88
307
1.26
323
1.37
344
0.27
287
0.24
301
0.31
317
0.25
295
0.37
321
0.36
315
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
G-Nettwo views0.95
329
0.48
319
1.13
326
0.67
350
0.49
335
2.07
376
0.63
307
1.02
216
0.90
208
1.77
365
2.62
377
1.28
317
1.60
367
1.09
301
1.06
322
0.37
343
0.30
330
0.35
330
0.25
295
0.46
344
0.45
348
PDISCO_ROBtwo views0.96
330
0.51
320
1.13
326
1.03
377
1.00
379
1.81
371
0.77
334
1.72
373
1.60
361
1.09
315
1.19
279
1.34
331
0.80
283
1.62
355
1.01
309
0.58
372
0.22
286
0.45
352
0.40
351
0.50
352
0.41
335
MSMD_ROBtwo views1.25
357
0.51
320
0.64
220
0.60
331
0.50
338
1.66
365
0.67
311
1.26
297
1.26
328
2.64
387
3.82
394
3.06
385
3.20
399
1.45
346
0.91
291
0.46
357
0.41
367
0.49
362
0.51
371
0.47
346
0.45
348
CSANtwo views0.88
321
0.52
322
0.93
305
0.61
335
0.42
308
1.19
337
1.11
364
1.27
302
1.48
354
1.37
345
1.44
323
1.37
335
1.30
351
1.46
348
1.01
309
0.39
349
0.31
338
0.36
333
0.37
343
0.35
314
0.36
315
ETE_ROBtwo views0.73
287
0.52
322
0.93
305
0.57
322
0.37
277
0.80
263
0.86
349
1.19
273
0.95
232
1.20
329
1.22
283
1.39
340
0.86
300
1.07
297
0.88
281
0.27
287
0.21
277
0.31
317
0.27
307
0.34
308
0.35
312
dadtwo views0.61
264
0.53
324
0.72
257
0.44
187
0.31
227
0.64
208
0.37
157
0.85
163
1.28
330
1.05
301
1.17
274
1.18
310
0.61
197
0.70
176
0.54
212
0.36
339
0.23
293
0.37
337
0.21
243
0.31
292
0.23
242
XX-TBDtwo views0.32
26
0.53
324
0.26
4
0.53
301
0.21
25
0.38
91
0.24
23
0.41
2
0.77
139
0.55
61
0.70
81
0.31
6
0.26
17
0.33
3
0.28
29
0.16
99
0.10
8
0.12
2
0.09
4
0.13
14
0.11
3
psmorigintwo views0.84
313
0.53
324
2.21
380
0.50
268
0.41
299
0.86
282
0.57
288
1.08
240
0.90
208
1.50
350
1.42
320
1.50
349
1.09
334
1.29
327
1.03
314
0.32
317
0.33
349
0.27
289
0.27
307
0.34
308
0.45
348
FADNettwo views0.63
273
0.53
324
1.20
331
0.46
222
0.44
316
0.66
219
0.41
213
1.24
289
1.07
283
0.70
123
0.84
138
0.98
266
0.65
217
0.87
240
0.54
212
0.29
302
0.30
330
0.27
289
0.30
318
0.48
347
0.36
315
ADCPNettwo views1.11
347
0.53
324
3.26
388
0.55
316
0.44
316
1.47
352
0.83
344
1.21
279
1.17
313
1.26
339
1.42
320
1.67
361
1.12
338
1.48
349
3.86
392
0.30
309
0.29
326
0.30
316
0.32
330
0.37
321
0.37
321
FC-DCNNcopylefttwo views1.67
377
0.53
324
0.68
238
0.62
339
0.49
335
1.62
362
0.71
319
1.77
376
1.55
357
4.73
407
4.66
405
5.82
404
3.94
402
2.13
379
1.42
346
0.47
360
0.42
369
0.47
356
0.46
360
0.48
347
0.47
354
Wz-Net-LNSevtwo views0.75
296
0.54
330
1.59
361
0.51
280
0.41
299
1.16
332
0.79
338
1.27
302
1.13
301
1.04
296
1.14
264
1.11
303
0.94
319
0.93
259
1.00
308
0.24
261
0.22
286
0.21
217
0.19
207
0.26
263
0.27
270
SHDtwo views0.98
334
0.54
330
1.30
342
0.63
341
0.50
338
1.14
328
0.50
261
1.80
377
2.20
378
1.66
359
1.39
313
1.47
345
1.21
345
1.40
338
1.80
361
0.32
317
0.27
319
0.32
322
0.34
338
0.41
331
0.44
346
RTSCtwo views0.93
324
0.54
330
1.59
361
0.56
319
0.40
294
1.17
336
0.55
283
1.44
344
1.82
371
1.53
352
1.26
290
1.15
308
0.82
287
1.70
361
2.44
375
0.26
278
0.20
271
0.23
243
0.24
284
0.31
292
0.32
298
MANEtwo views4.73
403
0.54
330
0.77
271
0.69
356
0.60
358
10.35
411
1.67
393
8.68
412
12.66
411
6.90
411
9.43
412
11.59
413
10.59
410
8.26
411
8.41
404
0.51
365
0.45
373
0.48
359
1.02
392
0.50
352
0.50
359
FBW_ROBtwo views0.94
328
0.54
330
1.03
320
0.56
319
0.42
308
1.16
332
0.76
333
1.56
359
1.41
345
1.38
347
1.33
303
1.47
345
1.07
332
2.94
392
1.14
330
0.26
278
0.32
344
0.45
352
0.30
318
0.34
308
0.30
288
PWCDC_ROBbinarytwo views0.93
324
0.54
330
0.97
315
0.78
368
0.41
299
1.03
314
0.42
218
1.39
331
2.34
383
1.04
296
3.73
393
0.80
223
1.12
338
1.29
327
1.04
319
0.37
343
0.22
286
0.24
256
0.20
226
0.36
318
0.31
295
Syn2CoExtwo views0.74
292
0.55
336
1.17
330
0.66
348
0.45
323
0.89
288
0.56
286
1.54
354
1.15
308
0.95
258
1.35
307
1.03
279
1.03
327
0.96
270
0.89
283
0.31
312
0.27
319
0.29
307
0.24
284
0.23
240
0.27
270
DeepPrunerFtwo views0.93
324
0.55
336
3.88
390
0.70
359
0.81
370
0.72
240
0.74
330
1.28
307
1.97
374
0.95
258
1.02
217
0.87
238
0.85
296
1.16
311
1.07
324
0.35
337
0.29
326
0.43
349
0.40
351
0.31
292
0.33
307
FADNet-RVCtwo views0.62
270
0.56
338
1.29
340
0.47
240
0.39
291
0.63
200
0.40
193
1.16
262
0.91
214
0.71
132
0.86
149
1.04
283
0.55
166
0.99
283
0.78
263
0.27
287
0.26
317
0.28
299
0.29
317
0.32
298
0.31
295
FCDSN-DCtwo views1.43
369
0.57
339
0.69
246
0.74
364
0.59
355
1.42
349
0.65
310
1.40
335
1.41
345
3.31
400
4.42
403
4.57
395
3.01
397
1.70
361
1.19
334
0.46
357
0.42
369
0.48
359
0.47
361
0.51
355
0.51
363
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
ADCMidtwo views1.22
354
0.57
339
3.17
387
0.54
310
0.44
316
1.07
319
0.77
334
1.31
314
1.13
301
2.14
378
1.48
330
1.49
348
1.47
363
1.65
358
5.30
399
0.26
278
0.24
301
0.29
307
0.32
330
0.38
323
0.36
315
PWC_ROBbinarytwo views0.92
323
0.57
339
1.64
367
0.53
301
0.33
255
0.93
292
0.39
183
1.42
342
1.51
356
1.66
359
2.57
374
1.18
310
1.11
336
1.50
350
1.54
355
0.26
278
0.18
246
0.28
299
0.20
226
0.30
288
0.32
298
DGSMNettwo views0.80
303
0.58
342
1.42
352
0.61
335
0.65
362
0.94
294
0.75
332
1.35
325
1.16
310
0.88
224
1.26
290
1.00
271
0.75
264
1.07
297
0.89
283
0.36
339
0.31
338
0.41
347
0.40
351
0.60
368
0.59
371
aanetorigintwo views0.85
318
0.58
342
1.98
375
0.50
268
0.40
294
0.66
219
0.70
317
0.72
109
1.01
257
2.44
385
2.00
360
1.32
323
1.25
349
0.96
270
1.16
331
0.20
210
0.19
263
0.20
176
0.20
226
0.27
272
0.33
307
ccnettwo views0.84
313
0.59
344
0.86
292
0.56
319
0.60
358
1.11
325
0.72
323
1.44
344
0.97
244
1.15
325
1.44
323
1.28
317
0.95
321
1.01
289
1.33
342
0.49
362
0.43
371
0.50
364
0.47
361
0.52
358
0.48
356
Anonymous Stereotwo views0.82
306
0.59
344
2.10
378
0.59
329
0.58
353
0.68
232
1.42
385
1.05
228
1.07
283
1.03
290
1.02
217
0.86
234
0.65
217
1.33
335
1.36
343
0.32
317
0.31
338
0.31
317
0.33
336
0.34
308
0.39
324
MFN_U_SF_DS_RVCtwo views1.06
340
0.61
346
1.82
372
0.69
356
0.51
340
2.62
383
1.69
394
1.28
307
1.44
349
1.39
348
1.56
336
1.34
331
0.91
312
1.68
360
0.95
300
0.38
348
0.39
362
0.46
355
0.61
378
0.41
331
0.43
342
RGCtwo views0.82
306
0.62
347
0.80
275
0.67
350
0.66
364
0.91
290
0.59
298
1.35
325
1.09
294
1.12
322
1.46
327
1.50
349
1.09
334
1.28
326
0.97
305
0.34
332
0.30
330
0.48
359
0.40
351
0.38
323
0.38
323
MFN_U_SF_RVCtwo views1.14
348
0.63
348
2.33
381
0.69
356
0.46
331
2.04
375
0.70
317
1.90
378
1.37
341
1.62
355
1.56
336
1.94
368
1.36
354
1.73
363
1.90
363
0.41
354
0.38
358
0.45
352
0.48
365
0.45
341
0.47
354
WZ-Nettwo views1.29
361
0.64
349
5.42
399
0.64
344
0.52
342
1.37
346
1.29
377
1.41
337
1.77
370
1.56
353
1.69
345
1.74
362
1.41
358
2.50
387
2.16
372
0.28
295
0.21
277
0.23
243
0.25
295
0.39
327
0.41
335
ELAS_RVCcopylefttwo views1.76
379
0.64
349
1.20
331
0.74
364
0.59
355
2.18
378
2.53
406
2.10
382
2.85
389
3.46
401
3.41
392
3.12
386
4.11
403
2.69
390
2.53
380
0.54
370
0.47
376
0.51
366
0.48
365
0.55
362
0.55
368
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views1.77
380
0.64
349
1.10
323
0.72
362
0.58
353
3.37
398
1.76
396
2.54
388
2.57
385
3.77
403
3.96
398
2.83
382
3.44
400
2.34
384
2.73
382
0.53
367
0.47
376
0.50
364
0.48
365
0.55
362
0.55
368
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
SAMSARAtwo views1.15
349
0.69
352
1.44
354
1.09
379
0.93
372
2.10
377
1.87
401
1.64
368
1.47
353
1.64
357
1.21
281
2.06
370
1.14
341
1.61
354
1.50
353
0.39
349
0.45
373
0.36
333
0.38
346
0.50
352
0.51
363
PVDtwo views1.34
364
0.70
353
1.42
352
0.78
368
0.65
362
1.68
366
0.91
350
2.12
383
3.01
390
2.25
380
2.35
369
1.90
367
1.99
381
1.98
373
2.14
370
0.40
353
0.38
358
0.49
362
0.37
343
0.51
355
0.67
372
XQCtwo views0.97
332
0.70
353
1.54
359
0.70
359
0.55
347
1.48
353
0.81
340
1.41
337
1.57
359
1.21
330
1.12
256
1.33
328
1.04
329
1.55
352
2.00
368
0.39
349
0.25
309
0.37
337
0.32
330
0.55
362
0.49
357
ADCStwo views1.60
374
0.70
353
4.02
392
0.61
335
0.53
344
1.31
342
1.11
364
1.71
372
1.86
373
1.97
373
1.68
343
1.51
351
1.46
361
2.07
376
9.20
406
0.34
332
0.32
344
0.33
327
0.36
341
0.45
341
0.46
352
PASMtwo views0.96
330
0.71
356
2.05
377
0.72
362
0.72
369
0.84
279
0.92
352
1.14
257
1.34
340
1.25
337
1.22
283
1.34
331
1.07
332
1.31
332
1.11
327
0.53
367
0.57
382
0.59
371
0.67
379
0.56
367
0.57
370
AnyNet_C32two views1.27
359
0.72
357
3.33
389
0.59
329
0.56
348
1.51
357
1.53
387
1.27
302
1.28
330
1.52
351
1.48
330
1.38
339
1.23
347
1.64
357
5.26
397
0.30
309
0.29
326
0.29
307
0.34
338
0.38
323
0.44
346
SQANettwo views0.87
320
0.76
358
0.76
268
1.16
380
0.99
378
1.10
321
0.51
264
1.12
249
0.85
180
0.93
249
1.05
234
1.03
279
0.76
273
1.07
297
0.70
250
0.79
377
0.25
309
1.04
381
0.36
341
1.56
384
0.70
373
GASNettwo views0.70
283
0.77
359
1.16
329
0.71
361
0.49
335
0.62
195
0.48
248
1.12
249
1.05
272
0.98
276
0.84
138
0.94
259
0.82
287
1.41
341
0.85
278
0.33
325
0.22
286
0.29
307
0.28
313
0.44
340
0.26
262
GANetREF_RVCpermissivetwo views0.82
306
0.77
359
0.95
310
0.68
353
0.43
311
1.15
330
1.06
362
1.19
273
1.20
320
1.03
290
1.02
217
1.10
301
0.89
309
1.20
318
0.78
263
0.49
362
0.39
362
0.58
370
0.39
348
0.69
369
0.49
357
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
Wz-Net-SNSevtwo views0.99
336
0.80
361
3.00
384
0.57
322
0.46
331
0.94
294
1.22
374
1.40
335
1.28
330
1.04
296
1.33
303
1.46
343
0.90
311
2.06
375
1.65
358
0.26
278
0.24
301
0.25
267
0.26
303
0.33
302
0.30
288
UDGNettwo views0.50
190
0.82
362
0.56
184
0.51
280
0.32
244
0.41
110
0.34
116
0.71
99
0.93
221
0.65
98
0.60
58
0.58
114
0.44
124
0.65
138
0.43
157
0.33
325
0.15
190
0.67
373
0.20
226
0.49
350
0.23
242
Consistency-Rafttwo views1.01
338
0.82
362
1.27
338
0.85
370
0.97
376
0.81
268
0.83
344
1.35
325
1.61
362
1.06
309
1.66
342
1.11
303
0.93
316
0.93
259
1.11
327
0.65
374
0.75
390
0.79
375
0.91
388
1.09
381
0.79
376
EDNetEfficienttwo views1.47
371
0.82
362
6.28
401
0.48
248
0.40
294
0.73
241
0.83
344
0.95
196
2.77
388
3.48
402
1.95
357
1.64
360
2.12
384
1.42
342
3.84
391
0.21
225
0.19
263
0.21
217
0.21
243
0.43
337
0.42
338
LSMtwo views4.83
405
0.83
365
11.23
407
0.76
367
56.73
429
1.10
321
1.18
370
1.35
325
1.70
368
2.13
375
2.34
367
1.34
331
1.19
344
1.52
351
1.23
336
0.34
332
0.50
378
0.39
343
0.47
361
0.51
355
9.82
416
MaskLacGwcNet_RVCtwo views0.71
285
0.84
366
0.80
275
0.55
316
0.38
282
1.38
347
0.57
288
1.07
235
0.81
162
0.90
238
0.94
180
0.95
260
0.54
163
1.01
289
0.61
232
0.41
354
0.30
330
0.57
369
0.31
327
0.86
374
0.39
324
AnonymousMtwo views0.42
123
0.86
367
0.31
10
0.35
12
0.23
56
0.30
39
0.37
157
0.56
24
0.44
43
0.72
133
0.50
31
0.47
68
0.29
41
0.42
18
0.35
89
0.16
99
0.12
86
1.51
385
0.32
330
0.12
2
0.11
3
anonymitytwo views0.98
334
0.89
368
1.06
322
0.93
373
1.04
382
0.97
299
0.82
342
1.33
322
0.93
221
1.08
311
0.98
198
1.02
277
0.95
321
1.02
292
0.93
295
0.96
383
0.96
403
0.90
378
0.91
388
0.92
376
0.95
381
MSC_U_SF_DS_RVCtwo views1.38
365
0.91
369
2.11
379
0.89
371
0.57
352
4.27
403
1.79
398
1.55
355
2.00
376
1.64
357
1.85
354
1.83
364
1.44
360
1.89
371
1.49
352
0.49
362
0.40
365
0.56
368
0.58
375
0.75
371
0.52
365
SPS-STEREOcopylefttwo views1.29
361
0.94
370
1.10
323
1.05
378
1.03
381
1.48
353
0.91
350
1.57
361
1.24
323
2.13
375
1.90
356
1.94
368
1.46
361
1.77
364
1.64
357
0.97
384
0.94
402
0.90
378
0.89
387
0.96
378
0.97
382
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
otakutwo views1.10
344
0.96
371
0.96
311
1.37
386
1.06
383
1.65
364
0.72
323
1.46
347
1.19
318
1.10
318
1.32
302
1.32
323
0.95
321
1.29
327
0.81
273
0.89
382
0.46
375
1.24
383
0.50
370
1.86
386
0.89
378
NVStereoNet_ROBtwo views1.31
363
0.96
371
1.33
345
0.90
372
0.92
371
1.15
330
1.05
361
1.49
349
1.62
363
1.63
356
2.51
372
2.31
374
1.62
368
2.16
380
1.42
346
0.81
379
0.73
386
0.79
375
1.02
392
0.73
370
0.97
382
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
MFMNet_retwo views1.17
352
0.99
373
1.31
343
1.02
376
0.95
374
1.32
343
1.32
378
1.44
344
1.58
360
1.72
364
1.70
346
1.21
312
1.57
366
1.16
311
1.04
319
0.88
381
0.76
392
0.79
375
0.75
383
0.90
375
0.94
379
SGM+DAISYtwo views1.52
372
0.99
373
1.61
365
1.01
375
1.02
380
1.86
373
1.19
371
1.49
349
1.38
343
2.96
394
3.00
384
2.79
381
1.94
377
1.88
369
1.62
356
0.98
385
0.97
404
0.91
380
0.91
388
0.94
377
0.99
384
Ntrotwo views1.15
349
1.00
375
1.00
317
1.49
387
1.20
385
1.69
367
0.81
340
1.39
331
1.25
325
1.01
283
1.28
295
1.31
321
1.00
325
1.31
332
0.89
283
1.10
388
0.43
371
1.36
384
0.51
371
1.95
388
0.99
384
CC-Net-ROBtwo views0.84
313
1.01
376
0.93
305
0.60
331
0.45
323
1.25
340
0.71
319
1.20
276
1.05
272
0.84
194
1.24
286
0.90
248
0.78
278
1.14
307
0.70
250
0.48
361
0.34
352
1.71
387
0.38
346
0.78
372
0.40
330
UDGtwo views0.93
324
1.03
377
0.75
267
1.00
374
0.97
376
1.02
312
0.57
288
1.18
270
1.01
257
0.93
249
1.02
217
1.32
323
1.03
327
0.88
246
0.92
293
0.55
371
0.33
349
1.82
389
0.41
356
1.20
382
0.74
374
RTStwo views2.03
384
1.03
377
11.50
408
0.68
353
0.63
360
2.71
385
1.56
389
1.55
355
2.32
381
1.93
370
2.57
374
1.32
323
1.32
352
5.20
404
4.30
393
0.31
312
0.23
293
0.29
307
0.30
318
0.41
331
0.40
330
RTSAtwo views2.03
384
1.03
377
11.50
408
0.68
353
0.63
360
2.71
385
1.56
389
1.55
355
2.32
381
1.93
370
2.57
374
1.32
323
1.32
352
5.20
404
4.30
393
0.31
312
0.23
293
0.29
307
0.30
318
0.41
331
0.40
330
AnyNet_C01two views1.63
375
1.16
380
7.38
403
0.65
346
0.56
348
2.25
379
1.53
387
1.53
353
1.46
352
1.71
363
1.95
357
1.83
364
1.41
358
2.48
385
4.42
395
0.33
325
0.32
344
0.32
322
0.34
338
0.45
341
0.50
359
EDNetEfficientorigintwo views9.96
412
1.17
381
175.17
434
0.49
257
0.37
277
1.13
327
0.74
330
1.27
302
2.70
387
3.16
399
2.49
371
2.28
373
2.15
385
1.88
369
2.27
374
0.21
225
0.19
263
0.25
267
0.20
226
0.54
360
0.53
367
WAO-7two views1.96
381
1.24
382
1.52
356
1.28
384
1.06
383
2.92
393
1.64
392
3.32
395
3.05
392
2.28
381
3.32
389
3.19
388
2.38
390
3.39
394
2.49
379
1.02
386
0.92
398
1.06
382
1.04
394
1.05
380
0.99
384
Wz-Net-TNSevtwo views1.23
356
1.24
382
5.25
398
0.51
280
0.43
311
1.49
356
1.09
363
1.58
362
1.42
347
1.25
337
1.26
290
1.58
358
1.52
365
1.97
372
1.95
364
0.33
325
0.32
344
0.26
281
0.30
318
0.41
331
0.43
342
ACVNet_2two views1.74
378
1.30
384
1.62
366
1.81
390
1.63
390
2.28
380
1.34
380
2.35
386
2.64
386
1.82
366
2.55
373
2.99
383
1.71
372
1.67
359
1.20
335
1.48
392
0.59
383
1.81
388
0.71
381
2.09
391
1.29
392
ACVNet-4btwo views1.43
369
1.34
385
1.28
339
1.95
394
1.60
389
1.93
374
0.77
334
1.59
363
1.64
365
1.05
301
1.60
340
2.10
371
0.92
314
1.79
366
0.84
276
1.76
396
0.35
354
2.03
395
0.67
379
2.16
393
1.18
388
ACVNet_1two views1.55
373
1.36
386
1.35
347
1.96
395
1.63
390
1.83
372
0.96
357
2.09
381
1.85
372
1.43
349
1.54
334
2.31
374
1.68
371
1.42
342
1.18
332
1.76
396
0.51
379
2.05
397
0.59
376
2.24
396
1.30
393
JetBluetwo views3.02
396
1.39
387
7.91
404
1.17
381
1.49
388
8.53
409
7.94
411
2.82
389
1.98
375
2.15
379
2.69
379
3.32
390
3.01
397
6.66
408
3.81
390
0.79
377
0.78
393
0.75
374
0.76
384
1.04
379
1.33
395
Deantwo views2.07
387
1.39
387
1.69
371
2.17
397
1.83
397
2.75
388
1.28
376
3.49
399
3.80
398
2.13
375
3.30
388
3.18
387
1.98
380
1.78
365
1.72
359
1.73
395
0.79
396
1.99
391
0.91
388
2.17
394
1.34
396
LVEtwo views2.20
390
1.47
389
1.44
354
2.06
396
1.80
396
2.79
390
1.77
397
2.96
390
3.94
400
1.95
372
4.29
402
3.47
392
1.97
378
2.48
385
1.85
362
2.06
398
0.88
397
2.06
398
1.13
399
2.17
394
1.53
398
WAO-6two views2.11
388
1.52
390
1.25
334
1.73
389
1.69
394
2.72
387
1.62
391
3.15
393
3.64
395
2.01
374
3.28
387
3.52
393
2.20
388
2.59
388
2.48
378
1.31
391
0.92
398
2.04
396
1.22
403
1.89
387
1.35
397
RainbowNettwo views1.42
368
1.53
391
1.31
343
1.93
393
1.46
387
1.52
358
1.03
360
1.67
370
1.55
357
1.23
334
1.59
339
1.54
354
1.21
345
1.40
338
1.03
314
1.70
394
0.70
385
1.82
389
0.80
385
2.11
392
1.22
389
coex-fttwo views6.50
410
1.57
392
87.99
433
0.49
257
0.38
282
1.41
348
1.21
372
1.21
279
7.96
406
12.14
413
2.78
380
2.74
380
3.83
401
1.30
331
3.19
385
0.24
261
0.23
293
0.27
289
0.24
284
0.48
347
0.40
330
WAO-8two views3.00
394
1.60
393
1.52
356
1.82
391
1.65
392
5.57
405
1.35
381
4.65
406
12.37
409
2.89
390
4.04
399
4.89
399
2.78
393
3.73
398
2.44
375
1.29
389
0.93
400
2.00
392
1.16
401
2.02
389
1.23
390
Venustwo views3.00
394
1.60
393
1.52
356
1.82
391
1.65
392
5.57
405
1.35
381
4.65
406
12.37
409
2.89
390
4.04
399
4.89
399
2.78
393
3.73
398
2.44
375
1.29
389
0.93
400
2.00
392
1.16
401
2.02
389
1.23
390
BEATNet-Init1two views15.65
415
1.62
395
54.26
432
0.75
366
0.56
348
37.03
426
13.39
414
13.20
416
14.59
413
29.41
430
29.29
430
47.69
433
21.87
422
26.91
424
19.58
415
0.43
356
0.39
362
0.47
356
0.47
361
0.52
358
0.52
365
IMH-64-1two views1.96
381
1.64
396
1.26
335
2.26
399
1.91
398
2.30
381
1.35
381
2.99
391
2.29
379
1.70
361
2.79
381
2.47
377
1.66
369
2.33
382
1.95
364
2.07
399
0.74
388
2.44
401
1.04
394
2.40
398
1.59
399
IMH-64two views1.96
381
1.64
396
1.26
335
2.26
399
1.91
398
2.30
381
1.35
381
2.99
391
2.29
379
1.70
361
2.79
381
2.47
377
1.66
369
2.33
382
1.95
364
2.07
399
0.74
388
2.44
401
1.04
394
2.40
398
1.59
399
IMHtwo views2.15
389
1.66
398
1.29
340
2.25
398
1.92
400
2.87
391
1.33
379
3.25
394
3.04
391
1.87
368
3.33
391
3.00
384
2.03
382
2.80
391
1.95
364
2.09
401
0.78
393
2.45
403
1.05
397
2.44
400
1.62
401
PWCKtwo views2.06
386
1.75
399
4.11
394
1.69
388
0.93
372
3.13
396
2.86
408
2.18
384
2.41
384
2.38
382
2.33
366
2.22
372
1.85
376
3.52
396
2.20
373
1.65
393
0.73
386
1.52
386
0.83
386
1.81
385
1.02
387
TorneroNet-64two views3.54
398
1.89
400
1.59
361
2.62
405
2.29
402
6.88
408
1.72
395
4.72
408
11.88
407
2.43
384
5.46
409
8.16
409
2.80
395
4.13
402
3.03
384
2.25
404
0.75
390
2.57
405
1.09
398
2.65
404
1.84
403
TorneroNettwo views4.49
402
1.92
401
1.65
369
2.60
404
2.29
402
14.95
416
1.86
400
4.86
409
19.56
423
3.10
398
7.52
411
7.00
408
2.90
396
4.48
403
3.66
388
2.24
403
0.78
393
2.68
407
1.14
400
2.79
405
1.80
402
KSHMRtwo views2.64
392
1.96
402
1.86
374
2.69
406
2.44
404
2.88
392
2.04
402
3.46
398
6.31
404
2.51
386
3.27
386
3.39
391
1.97
378
2.59
388
2.08
369
2.48
406
1.41
408
2.80
410
1.51
406
2.98
406
2.09
404
UNDER WATER-64two views3.72
400
2.07
403
4.57
396
3.30
411
2.52
407
5.61
407
2.63
407
3.67
401
12.27
408
3.09
397
2.66
378
5.99
406
4.74
406
3.93
401
3.57
387
2.54
407
1.24
407
2.65
406
1.48
405
3.21
409
2.62
409
UNDER WATERtwo views3.63
399
2.12
404
4.11
394
3.17
409
2.51
406
3.77
401
2.45
405
3.53
400
13.66
412
2.98
395
2.92
383
5.75
403
4.13
404
3.85
400
3.75
389
2.84
410
1.11
405
2.71
408
1.41
404
3.26
410
2.50
408
ktntwo views3.02
396
2.27
405
1.85
373
2.89
407
2.54
408
3.72
399
2.14
403
3.79
402
5.33
402
2.82
389
5.09
407
5.95
405
2.54
391
3.34
393
2.58
381
2.65
408
1.44
409
2.78
409
2.03
409
2.61
403
2.10
405
notakertwo views2.87
393
2.31
406
2.01
376
3.03
408
2.60
409
2.94
394
1.82
399
3.43
397
3.06
393
2.89
390
4.21
401
6.15
407
2.71
392
3.42
395
2.90
383
2.67
409
1.18
406
3.00
411
1.67
407
3.13
407
2.26
406
MADNet+two views2.28
391
2.56
407
10.82
406
1.25
383
0.96
375
2.77
389
1.44
386
2.34
385
1.76
369
1.36
344
1.78
351
1.84
366
1.74
373
6.33
407
4.57
396
0.67
375
0.66
384
0.59
371
0.54
374
0.84
373
0.81
377
HanzoNettwo views6.97
411
2.57
408
4.66
397
3.29
410
2.96
411
3.75
400
2.35
404
5.08
410
7.11
405
14.46
420
13.06
413
17.69
417
22.95
423
13.72
415
6.61
401
4.36
413
1.96
410
3.14
412
2.59
411
3.88
413
3.19
412
DDUNettwo views1.10
344
2.58
409
0.83
285
1.21
382
1.27
386
1.02
312
0.69
316
1.17
268
0.95
232
0.98
276
1.26
290
1.28
317
0.84
292
0.97
277
0.79
270
0.85
380
0.40
365
2.00
392
0.60
377
1.34
383
0.94
379
DispFullNettwo views1.64
376
2.64
410
3.14
386
2.57
402
1.78
395
1.32
343
0.55
283
1.42
342
1.45
350
1.89
369
1.48
330
1.55
355
2.35
389
2.08
377
1.12
329
0.60
373
0.19
263
2.33
400
0.73
382
2.35
397
1.30
393
DPSimNet_ROBtwo views5.19
407
2.71
411
18.56
412
2.59
403
2.49
405
4.25
402
10.93
412
3.33
396
3.93
399
5.02
408
4.52
404
5.74
402
10.18
409
5.44
406
8.79
405
2.40
405
2.47
411
2.48
404
2.54
410
2.56
402
2.87
410
MADNet++two views4.18
401
2.72
412
4.00
391
3.80
413
3.44
412
4.72
404
4.05
410
4.01
403
3.74
396
4.52
406
5.14
408
4.20
394
4.89
407
7.04
410
6.39
400
3.79
411
3.70
414
3.27
413
2.70
412
3.68
412
3.74
414
SPstereotwo views24.33
420
4.45
413
7.15
402
4.44
414
4.17
413
45.69
427
77.93
433
63.66
434
33.40
432
27.58
429
26.62
422
39.42
432
33.37
432
42.68
434
50.66
428
4.01
412
3.77
415
6.06
417
4.73
414
3.17
408
3.55
413
JetRedtwo views5.38
408
6.17
414
12.68
411
2.38
401
2.85
410
12.60
415
11.17
413
4.60
405
3.74
396
3.87
404
3.85
395
4.83
397
4.13
404
6.81
409
12.18
410
2.18
402
2.95
413
2.19
399
1.98
408
3.49
411
3.01
411
DPSMNet_ROBtwo views12.13
414
8.03
415
21.13
414
9.02
417
16.82
416
10.68
412
30.78
420
9.15
414
15.24
415
6.56
410
15.50
421
9.02
410
15.13
413
9.28
413
21.71
417
4.59
415
8.60
416
5.08
416
9.26
417
5.89
416
11.06
417
DGTPSM_ROBtwo views12.12
413
8.03
415
21.12
413
8.97
416
16.81
415
10.68
412
30.77
419
9.14
413
15.23
414
6.55
409
15.49
420
9.02
410
15.13
413
9.26
412
21.71
417
4.58
414
8.60
416
5.07
415
9.26
417
5.88
415
11.06
417
Anonymous_1two views33.12
422
18.23
417
23.86
416
20.53
418
21.18
419
25.45
418
35.84
421
22.44
425
15.68
416
13.41
414
13.70
417
18.00
418
15.15
415
20.31
416
24.47
419
14.56
424
8.84
418
66.24
431
117.79
431
155.41
434
11.40
419
DPSM_ROBtwo views17.80
416
18.60
418
24.24
420
20.89
419
19.49
417
25.83
419
36.10
422
21.62
423
16.41
417
13.46
415
14.26
418
19.11
420
16.15
416
20.74
417
25.59
420
9.37
419
9.23
419
9.47
419
9.81
419
13.47
417
12.09
420
DPSMtwo views17.80
416
18.60
418
24.24
420
20.89
419
19.49
417
25.83
419
36.10
422
21.62
423
16.41
417
13.46
415
14.26
418
19.11
420
16.15
416
20.74
417
25.59
420
9.37
419
9.23
419
9.47
419
9.81
419
13.47
417
12.09
420
xxxxx1two views36.77
428
19.69
420
24.00
417
62.46
431
66.77
431
27.30
422
39.89
424
20.40
418
18.80
420
14.18
417
13.11
414
17.29
414
17.30
418
21.62
420
27.81
422
13.61
421
18.98
429
111.36
432
133.25
432
28.84
426
38.64
429
tt_lltwo views36.77
428
19.69
420
24.00
417
62.46
431
66.77
431
27.30
422
39.89
424
20.40
418
18.80
420
14.18
417
13.11
414
17.29
414
17.30
418
21.62
420
27.81
422
13.61
421
18.98
429
111.36
432
133.25
432
28.84
426
38.64
429
fftwo views36.77
428
19.69
420
24.00
417
62.46
431
66.77
431
27.30
422
39.89
424
20.40
418
18.80
420
14.18
417
13.11
414
17.29
414
17.30
418
21.62
420
27.81
422
13.61
421
18.98
429
111.36
432
133.25
432
28.84
426
38.64
429
PMLtwo views40.49
434
30.31
423
12.46
410
7.19
415
14.30
414
91.44
434
212.44
435
7.73
411
23.24
424
74.44
434
185.05
435
49.81
434
25.78
424
21.34
419
12.84
411
8.71
418
2.93
412
8.43
418
3.24
413
13.77
419
4.45
415
LRCNet_RVCtwo views21.27
419
31.14
424
21.46
415
28.97
422
23.77
420
3.11
395
0.62
304
20.94
421
1.64
365
25.57
422
28.13
423
21.96
422
14.74
412
21.99
423
16.44
414
29.16
431
14.92
422
33.57
427
31.28
427
29.67
429
26.33
427
DLNR_Zeroshot_testpermissivetwo views20.12
418
36.36
425
38.38
423
170.13
434
62.28
430
0.22
4
0.20
1
13.43
417
0.40
29
0.45
39
0.66
72
0.42
45
0.21
5
0.64
132
0.32
63
5.57
416
0.10
8
0.15
41
0.11
15
72.31
433
0.13
31
HaxPigtwo views31.93
421
37.19
426
34.22
422
24.41
421
24.94
421
18.53
417
20.18
416
21.15
422
28.84
425
35.74
431
38.86
431
26.18
423
28.75
425
33.85
425
34.15
425
35.89
432
38.80
432
37.79
428
40.52
428
39.33
430
39.33
432
CasAABBNettwo views35.77
423
37.38
427
48.59
427
42.20
425
39.23
424
51.95
428
72.92
432
43.36
431
33.03
428
26.93
423
28.31
424
38.43
429
32.32
426
41.58
428
51.50
433
18.71
425
18.58
424
19.11
425
19.75
422
27.11
423
24.33
422
Selective-RAFT-Errortwo views35.87
427
37.42
428
48.73
431
42.24
426
39.28
425
52.00
432
72.87
428
43.41
432
32.95
427
26.97
424
28.72
425
38.71
431
33.15
431
41.59
432
51.42
429
18.77
429
18.60
425
19.14
426
19.78
426
27.19
424
24.42
426
MyStereo03two views35.83
424
37.48
429
48.64
428
42.37
427
39.41
426
51.98
429
72.91
429
43.07
428
33.07
429
27.20
426
28.81
427
38.36
426
32.60
427
41.58
428
51.47
430
18.74
426
18.61
426
19.07
421
19.77
423
27.10
420
24.35
423
MyStereo02two views35.83
424
37.48
429
48.64
428
42.37
427
39.41
426
51.98
429
72.91
429
43.07
428
33.07
429
27.20
426
28.81
427
38.36
426
32.60
427
41.58
428
51.47
430
18.74
426
18.61
426
19.07
421
19.77
423
27.10
420
24.35
423
MyStereotwo views35.83
424
37.48
429
48.64
428
42.37
427
39.41
426
51.98
429
72.91
429
43.07
428
33.07
429
27.20
426
28.81
427
38.36
426
32.60
427
41.58
428
51.47
430
18.74
426
18.61
426
19.07
421
19.77
423
27.10
420
24.35
423
LSM0two views38.96
433
37.52
432
48.37
426
43.79
430
91.31
434
52.31
433
72.38
427
43.71
433
32.75
426
27.16
425
28.73
426
38.51
430
32.63
430
41.75
433
51.59
434
18.85
430
18.43
423
19.09
424
19.60
421
27.21
425
33.44
428
AVERAGE_ROBtwo views37.53
432
40.05
433
40.01
424
34.74
424
33.76
423
28.46
425
25.14
418
32.31
427
34.08
434
41.20
432
40.52
432
34.51
425
34.78
434
39.11
426
37.48
427
42.68
433
43.32
433
43.80
429
42.99
429
40.42
431
41.31
433
MEDIAN_ROBtwo views37.35
431
40.72
434
40.37
425
32.26
423
31.80
422
27.29
421
25.02
417
29.47
426
33.43
433
41.99
433
41.60
433
33.48
424
34.37
433
39.66
427
36.94
426
43.49
434
43.96
434
44.07
430
43.35
430
41.32
432
42.43
434
test_example2two views176.82
435
204.75
435
198.54
435
188.58
435
191.23
435
151.28
435
169.77
434
97.63
435
125.81
435
179.94
435
183.74
434
158.20
435
139.14
435
192.16
435
198.12
435
203.48
435
236.37
435
163.71
435
173.22
435
217.79
435
162.95
435