This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CoSvtwo views0.10
1
0.12
36
0.21
36
0.02
14
0.02
8
0.01
12
0.00
1
0.02
12
0.02
10
0.00
1
0.00
1
0.15
11
0.01
3
0.00
1
0.69
2
0.74
12
0.14
19
0.06
17
0.09
6
0.03
3
0.06
1
0.13
2
0.00
1
0.03
16
0.02
8
0.00
1
0.10
13
0.00
1
Pointernettwo views0.13
2
0.04
4
0.01
2
0.00
1
0.00
1
0.07
95
0.18
132
0.00
1
0.01
3
0.00
1
0.07
88
0.10
9
0.01
3
0.01
24
0.89
6
0.57
4
0.12
13
0.02
3
0.09
6
0.06
9
0.11
5
0.83
11
0.00
1
0.02
6
0.01
3
0.00
1
0.04
2
0.18
79
StereoVisiontwo views0.13
2
0.11
30
0.03
12
0.04
29
0.04
20
0.00
1
0.03
42
0.04
32
0.03
18
0.03
63
0.00
1
0.19
22
0.02
8
0.02
45
1.02
9
0.79
16
0.13
18
0.02
3
0.30
20
0.04
5
0.21
12
0.19
3
0.00
1
0.06
25
0.04
27
0.00
1
0.12
15
0.00
1
MLG-Stereotwo views0.18
4
0.06
15
0.01
2
0.01
4
0.01
4
0.17
144
0.01
11
0.02
12
0.02
10
0.00
1
0.00
1
0.08
5
0.05
27
0.00
1
1.48
18
1.35
56
0.05
2
0.05
13
0.33
24
0.23
41
0.22
13
0.63
8
0.00
1
0.01
1
0.02
8
0.01
8
0.07
7
0.00
1
CroCo-Stereo Lap2two views0.18
4
0.11
30
0.04
16
0.05
36
0.06
28
0.00
1
0.01
11
0.03
22
0.05
33
0.24
97
0.00
1
0.16
13
0.06
40
0.01
24
1.29
11
1.05
26
0.06
5
0.04
8
0.06
3
0.05
7
0.40
31
0.86
13
0.00
1
0.04
19
0.04
27
0.01
8
0.05
4
0.00
1
MLG-Stereo_test1two views0.20
6
0.05
9
0.01
2
0.01
4
0.01
4
0.17
144
0.01
11
0.02
12
0.02
10
0.00
1
0.00
1
0.02
1
0.05
27
0.00
1
1.42
15
1.28
48
0.03
1
0.05
13
0.33
24
0.24
44
0.23
15
1.27
21
0.00
1
0.01
1
0.02
8
0.01
8
0.07
7
0.00
1
AASNettwo views0.20
6
0.45
110
0.24
42
0.09
61
0.09
42
0.00
1
0.08
86
0.05
37
0.05
33
0.26
98
0.00
1
0.18
14
0.04
20
0.01
24
1.13
10
0.68
10
0.12
13
0.04
8
0.09
6
0.16
29
0.29
22
0.77
10
0.01
17
0.07
30
0.00
1
0.02
24
0.49
43
0.03
41
TDLMtwo views0.20
6
0.10
28
0.21
36
0.08
57
0.23
91
0.02
40
0.04
54
0.19
61
0.04
26
0.02
60
0.10
92
0.67
115
0.05
27
0.10
116
0.43
1
0.28
1
0.35
64
0.20
53
0.02
1
0.01
1
0.12
6
1.22
19
0.05
67
0.01
1
0.00
1
0.02
24
0.41
40
0.41
103
MM-Stereo_test3two views0.21
9
0.04
4
0.02
6
0.00
1
0.01
4
0.02
40
0.00
1
0.01
2
0.01
3
0.00
1
0.00
1
0.14
10
0.03
13
0.05
83
0.99
8
0.77
14
0.16
24
0.17
45
0.16
13
0.26
51
0.06
1
2.10
42
0.18
133
0.02
6
0.01
3
0.06
46
0.47
42
0.06
54
CroCo-Stereocopylefttwo views0.21
9
0.09
26
0.03
12
0.05
36
0.07
36
0.00
1
0.00
1
0.04
32
0.05
33
0.00
1
0.00
1
0.09
8
0.07
41
0.00
1
1.51
19
1.11
30
0.17
28
0.08
22
0.76
42
0.05
7
0.40
31
0.85
12
0.00
1
0.04
19
0.04
27
0.01
8
0.08
10
0.00
1
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
delettwo views0.21
9
0.08
24
0.24
42
0.06
39
0.05
22
0.02
40
0.04
54
0.02
12
0.05
33
0.34
107
0.00
1
0.20
28
0.04
20
0.02
45
1.45
17
0.53
3
0.23
39
0.07
18
0.12
10
0.06
9
0.15
8
0.38
5
0.01
17
0.06
25
0.01
3
0.01
8
1.50
70
0.02
35
RSMtwo views0.22
12
0.06
15
0.35
69
0.02
14
0.03
15
0.12
110
0.01
11
0.01
2
0.02
10
0.00
1
0.00
1
0.18
14
0.05
27
0.00
1
0.73
4
0.58
5
0.18
29
0.04
8
0.18
14
0.51
102
0.24
17
2.12
43
0.09
104
0.08
34
0.02
8
0.18
70
0.16
19
0.00
1
ProNettwo views0.22
12
0.03
1
0.09
25
0.01
4
0.00
1
0.12
110
0.75
187
0.01
2
0.01
3
0.00
1
0.00
1
0.05
3
0.00
1
0.22
157
1.31
12
1.03
24
0.22
37
0.01
2
0.09
6
0.12
22
0.24
17
1.33
24
0.03
54
0.01
1
0.07
42
0.00
1
0.05
4
0.00
1
Utwo views0.23
14
0.13
37
0.03
12
0.06
39
0.07
36
0.00
1
0.01
11
0.05
37
0.04
26
0.00
1
0.00
1
0.25
42
0.07
41
0.00
1
1.58
20
1.23
39
0.05
2
0.13
31
0.52
33
0.08
15
0.50
39
1.03
15
0.01
17
0.10
42
0.08
45
0.02
24
0.06
6
0.03
41
RSM++two views0.23
14
0.06
15
0.35
69
0.02
14
0.02
8
0.11
107
0.00
1
0.01
2
0.02
10
0.00
1
0.00
1
0.19
22
0.08
46
0.00
1
0.88
5
0.61
7
0.18
29
0.04
8
0.13
11
0.57
122
0.23
15
2.20
46
0.14
119
0.09
37
0.03
21
0.01
8
0.23
26
0.00
1
AIO-test2two views0.25
16
0.09
26
0.02
6
0.01
4
0.09
42
0.04
70
0.01
11
0.01
2
0.00
1
0.00
1
0.00
1
0.08
5
0.04
20
0.00
1
1.71
24
1.44
65
0.15
21
0.04
8
0.03
2
0.33
63
0.10
3
2.30
50
0.06
75
0.16
71
0.05
33
0.01
8
0.10
13
0.00
1
MM-Stereo_test1two views0.26
17
0.06
15
0.08
23
0.00
1
0.01
4
0.02
40
0.00
1
0.01
2
0.00
1
0.00
1
0.00
1
0.18
14
0.03
13
0.15
135
1.33
13
1.35
56
0.18
29
0.17
45
0.19
15
0.37
72
0.10
3
2.34
52
0.19
138
0.06
25
0.04
27
0.08
52
0.12
15
0.00
1
RAFTtwo views0.28
18
0.04
4
0.31
53
0.02
14
0.00
1
0.12
110
0.12
111
0.93
110
0.01
3
0.69
131
0.00
1
0.18
14
0.00
1
0.01
24
2.07
37
1.23
39
0.23
39
0.00
1
0.06
3
0.21
39
0.15
8
0.60
6
0.00
1
0.06
25
0.03
21
0.01
8
0.34
35
0.00
1
RAStereotwo views0.29
19
0.18
48
0.05
19
0.06
39
0.11
47
0.00
1
0.02
26
0.03
22
0.04
26
0.94
148
0.00
1
0.26
44
0.02
8
0.01
24
1.70
23
1.19
38
0.09
7
0.13
31
0.30
20
0.03
3
0.80
52
1.45
27
0.00
1
0.14
61
0.05
33
0.01
8
0.20
21
0.02
35
AANet_RVCtwo views0.29
19
0.05
9
0.28
50
0.06
39
0.21
85
0.00
1
0.24
146
0.03
22
0.17
95
0.34
107
0.01
73
0.08
5
0.04
20
0.01
24
2.17
41
0.58
5
0.16
24
0.07
18
0.44
30
0.20
34
0.13
7
0.33
4
0.03
54
0.07
30
0.02
8
0.06
46
1.15
59
0.86
127
AIO-test1two views0.30
21
0.04
4
0.03
12
0.02
14
0.08
40
0.04
70
0.00
1
0.01
2
0.03
18
0.00
1
0.00
1
0.02
1
0.04
20
0.00
1
2.02
35
1.69
90
0.15
21
0.02
3
0.24
18
0.55
119
0.20
10
2.67
57
0.00
1
0.02
6
0.02
8
0.01
8
0.09
11
0.00
1
LG-Stereotwo views0.31
22
0.05
9
0.02
6
0.02
14
0.07
36
0.13
116
0.01
11
0.03
22
0.10
68
0.00
1
0.87
157
0.44
77
0.01
3
0.00
1
2.07
37
1.46
67
0.11
9
0.16
42
0.67
40
0.47
88
0.31
26
1.19
18
0.04
64
0.02
6
0.05
33
0.10
58
0.07
7
0.00
1
MM-Stereo_test2two views0.33
23
0.05
9
0.07
20
0.01
4
0.02
8
0.02
40
0.00
1
0.02
12
0.02
10
0.00
1
0.00
1
0.18
14
0.02
8
0.00
1
1.77
29
1.68
89
0.21
35
0.08
22
0.19
15
0.58
123
0.29
22
3.05
74
0.18
133
0.09
37
0.08
45
0.19
72
0.12
15
0.00
1
111111two views0.34
24
0.03
1
0.08
23
0.01
4
0.03
15
0.10
104
0.00
1
0.01
2
0.01
3
0.00
1
0.01
73
0.18
14
0.05
27
0.01
24
1.98
33
1.34
55
0.11
9
0.15
39
0.59
37
0.56
120
0.34
28
3.31
86
0.26
158
0.02
6
0.02
8
0.05
43
0.04
2
0.00
1
DEFOM-Stereotwo views0.34
24
0.19
49
0.23
41
0.01
4
0.06
28
0.12
110
0.01
11
0.03
22
0.03
18
0.00
1
0.00
1
0.20
28
0.03
13
0.00
1
2.15
40
1.48
70
0.10
8
0.13
31
0.33
24
0.11
19
0.45
35
0.93
14
0.00
1
0.02
6
0.07
42
0.03
31
2.36
92
0.06
54
AIO-Stereopermissivetwo views0.34
24
0.05
9
0.34
64
0.01
4
0.03
15
0.13
116
0.00
1
0.01
2
0.02
10
0.00
1
0.00
1
0.19
22
0.05
27
0.00
1
1.68
22
1.06
28
0.49
88
0.08
22
1.56
77
0.76
154
0.22
13
2.17
45
0.11
112
0.01
1
0.01
3
0.02
24
0.20
21
0.00
1
MMNettwo views0.34
24
0.21
50
0.07
20
0.05
36
0.06
28
0.00
1
0.12
111
0.03
22
0.04
26
0.22
95
0.00
1
0.36
57
0.02
8
0.05
83
2.17
41
0.69
11
0.33
60
0.15
39
0.34
27
0.07
11
0.34
28
0.60
6
0.06
75
0.10
42
0.03
21
0.05
43
2.93
106
0.02
35
MLG-Stereo_test2two views0.35
28
0.14
39
0.04
16
0.01
4
0.06
28
0.18
149
0.02
26
0.02
12
0.03
18
0.00
1
0.63
150
0.18
14
0.01
3
0.00
1
1.83
30
1.31
52
0.06
5
0.20
53
1.35
71
0.38
73
0.41
33
2.30
50
0.16
126
0.05
22
0.06
39
0.01
8
0.09
11
0.01
24
iRaftStereo_RVCtwo views0.35
28
0.21
50
0.33
59
0.22
80
0.15
56
0.02
40
0.02
26
0.05
37
0.08
55
0.00
1
0.00
1
0.28
46
0.11
63
0.03
59
1.35
14
0.98
21
0.35
64
0.07
18
0.49
32
0.17
31
1.05
70
2.96
64
0.00
1
0.05
22
0.09
48
0.01
8
0.23
26
0.04
45
MoCha-V2two views0.36
30
0.06
15
0.31
53
0.01
4
0.05
22
0.09
99
0.01
11
0.02
12
0.01
3
0.00
1
0.00
1
0.19
22
0.18
88
0.00
1
2.33
50
1.63
82
0.18
29
0.19
51
0.15
12
0.99
172
0.28
21
3.01
67
0.00
1
0.02
6
0.01
3
0.07
51
0.03
1
0.00
1
DMCAtwo views0.36
30
0.36
95
0.19
35
0.17
70
0.09
42
0.02
40
0.05
66
0.02
12
0.05
33
0.58
126
0.00
1
0.39
67
0.05
27
0.01
24
2.07
37
0.98
21
0.54
94
0.12
29
0.23
17
0.10
18
0.46
36
1.38
26
0.01
17
0.22
87
0.03
21
0.08
52
1.30
60
0.15
76
MaDis-Stereotwo views0.39
32
0.23
55
0.35
69
0.07
51
0.15
56
0.02
40
0.04
54
0.08
47
0.07
47
1.22
168
0.00
1
0.23
40
0.03
13
0.02
45
1.62
21
1.29
49
0.14
19
0.29
73
1.62
78
0.12
22
0.84
58
1.37
25
0.01
17
0.18
77
0.20
81
0.16
68
0.17
20
0.04
45
IGEV-Stereo++two views0.40
33
0.03
1
0.10
27
0.03
25
0.03
15
0.10
104
0.01
11
0.01
2
0.03
18
0.00
1
0.15
104
0.18
14
0.03
13
0.01
24
1.95
32
1.30
50
0.05
2
0.29
73
0.81
44
0.51
102
0.25
19
3.15
80
0.27
164
0.03
16
0.02
8
0.01
8
1.39
65
0.00
1
GIP-stereotwo views0.42
34
0.06
15
0.14
31
0.02
14
0.05
22
0.16
136
0.02
26
0.06
42
0.03
18
0.00
1
0.25
118
0.32
52
0.05
27
0.01
24
3.07
70
1.67
87
0.15
21
0.05
13
0.31
22
0.71
147
0.49
38
3.30
85
0.06
75
0.04
19
0.03
21
0.09
55
0.33
33
0.00
1
CVANet_RVCtwo views0.42
34
0.29
71
0.82
149
0.60
176
0.31
113
0.18
149
0.03
42
1.58
131
0.25
120
0.12
82
0.28
120
0.84
128
0.05
27
0.11
121
0.69
2
0.46
2
0.36
66
0.25
64
0.08
5
0.08
15
0.20
10
1.95
35
0.02
43
0.05
22
0.06
39
0.03
31
0.70
47
1.10
140
UniTT-Stereotwo views0.45
36
0.30
74
0.37
81
0.08
57
0.19
70
0.01
12
0.02
26
0.10
52
0.09
63
0.00
1
0.00
1
0.49
86
0.09
52
0.05
83
2.28
46
1.53
74
0.28
52
0.43
113
1.84
88
0.14
27
1.17
74
1.99
39
0.01
17
0.23
90
0.16
76
0.10
58
0.26
29
0.03
41
MLG-Stereo_test3two views0.48
37
0.06
15
0.33
59
0.12
67
0.16
60
0.17
144
0.02
26
0.07
43
0.04
26
1.13
159
0.00
1
0.23
40
0.08
46
0.01
24
1.98
33
1.62
80
0.11
9
0.19
51
1.38
72
0.29
56
0.76
48
3.35
87
0.02
43
0.10
42
0.06
39
0.03
31
0.74
49
0.01
24
Occ-Gtwo views0.48
37
0.11
30
0.24
42
0.04
29
0.11
47
0.16
136
0.04
54
0.04
32
0.02
10
0.00
1
0.25
118
0.15
11
0.02
8
0.00
1
3.08
72
1.56
76
0.11
9
0.34
84
1.04
54
0.48
94
0.85
59
3.04
73
0.23
148
0.07
30
0.04
27
0.02
24
0.83
52
0.01
24
RAFT + AFFtwo views0.48
37
0.05
9
0.01
2
0.22
80
0.03
15
0.04
70
0.14
119
0.03
22
0.03
18
0.00
1
0.00
1
0.32
52
0.03
13
0.07
98
4.66
140
0.97
20
0.56
101
0.09
25
2.34
99
0.04
5
0.69
44
1.96
36
0.02
43
0.22
87
0.15
73
0.12
62
0.24
28
0.01
24
GREAT-IGEVtwo views0.49
40
0.07
22
0.29
51
0.02
14
0.02
8
0.14
122
0.00
1
0.03
22
1.58
211
0.00
1
0.00
1
0.19
22
0.07
41
0.00
1
2.22
43
2.07
127
0.16
24
0.26
66
0.25
19
0.80
157
0.33
27
2.96
64
0.25
156
0.79
191
0.02
8
0.00
1
0.71
48
0.00
1
HCRNettwo views0.49
40
0.39
100
0.36
75
0.29
114
0.12
50
0.01
12
0.06
75
0.03
22
0.01
3
1.48
183
0.00
1
0.20
28
0.05
27
0.01
24
2.61
58
0.78
15
0.42
77
0.07
18
0.32
23
0.12
22
0.37
30
2.22
47
0.02
43
0.02
6
0.02
8
0.02
24
3.33
125
0.03
41
S2M2_XLtwo views0.50
42
0.13
37
0.39
85
0.04
29
0.15
56
0.00
1
0.05
66
0.25
73
0.37
131
0.00
1
0.00
1
0.32
52
0.51
156
0.00
1
2.74
62
1.75
93
0.28
52
0.46
120
0.48
31
0.20
34
1.60
99
3.03
70
0.08
98
0.16
71
0.09
48
0.09
55
0.15
18
0.25
87
LG-Stereo_L1two views0.51
43
0.26
65
0.02
6
0.04
29
0.24
94
0.15
132
0.03
42
0.07
43
0.07
47
0.00
1
0.60
147
0.37
61
0.35
123
0.03
59
2.59
56
2.00
114
0.23
39
0.18
48
1.31
68
0.40
77
0.75
46
3.23
83
0.04
64
0.09
37
0.35
102
0.04
39
0.21
25
0.08
57
LG-G_1two views0.51
43
0.28
69
0.33
59
0.18
72
0.22
87
0.16
136
0.02
26
0.05
37
0.07
47
0.01
54
0.58
142
0.20
28
0.24
106
0.03
59
2.30
48
1.80
96
0.27
49
0.37
87
0.82
45
0.47
88
0.91
61
3.77
102
0.01
17
0.12
51
0.11
60
0.03
31
0.34
35
0.01
24
LG-Gtwo views0.51
43
0.28
69
0.33
59
0.18
72
0.22
87
0.16
136
0.02
26
0.05
37
0.07
47
0.01
54
0.58
142
0.20
28
0.24
106
0.03
59
2.30
48
1.80
96
0.27
49
0.37
87
0.82
45
0.47
88
0.91
61
3.77
102
0.01
17
0.12
51
0.11
60
0.03
31
0.34
35
0.01
24
DFGA-Nettwo views0.52
46
0.32
77
0.09
25
0.23
87
0.05
22
0.01
12
0.02
26
0.55
98
0.05
33
1.27
170
0.00
1
0.20
28
0.05
27
0.03
59
1.75
26
1.26
42
0.37
68
0.09
25
1.05
55
0.07
11
0.77
50
2.14
44
0.00
1
0.21
85
0.02
8
0.00
1
3.39
129
0.02
35
UPFNettwo views0.52
46
0.31
76
0.76
141
0.22
80
0.28
108
0.02
40
0.05
66
0.09
51
0.08
55
0.38
113
0.00
1
0.38
64
0.03
13
0.24
159
3.16
76
1.04
25
0.34
62
0.14
36
0.59
37
0.34
66
0.44
34
1.09
16
0.01
17
0.30
106
0.05
33
0.01
8
3.54
135
0.05
50
LGtest1two views0.53
48
0.07
22
0.34
64
0.03
25
0.14
53
0.16
136
0.03
42
0.08
47
0.14
82
0.04
66
0.84
156
0.21
37
0.15
73
0.00
1
2.36
52
2.07
127
0.21
35
0.46
120
0.87
50
0.41
78
0.76
48
4.21
119
0.05
67
0.12
51
0.12
63
0.04
39
0.27
30
0.01
24
LG-Stereo_L2two views0.54
49
0.34
89
0.02
6
0.04
29
0.24
94
0.18
149
0.03
42
0.07
43
0.07
47
0.00
1
0.59
146
0.43
76
0.35
123
0.04
77
2.83
65
2.03
117
0.26
47
0.18
48
1.09
56
0.38
73
0.82
57
3.54
93
0.04
64
0.09
37
0.34
100
0.06
46
0.31
31
0.08
57
AEACVtwo views0.55
50
0.71
157
0.34
64
0.04
29
0.05
22
0.10
104
0.02
26
0.02
12
0.03
18
0.00
1
0.00
1
0.20
28
0.13
68
0.05
83
2.71
61
2.52
149
0.12
13
0.64
144
1.33
69
0.95
170
0.81
54
3.06
75
0.32
178
0.09
37
0.02
8
0.20
75
0.41
40
0.00
1
plaintwo views0.56
51
0.39
100
0.44
95
0.17
70
0.41
148
0.01
12
0.01
11
0.74
104
0.08
55
0.01
54
0.00
1
0.74
120
0.14
71
0.04
77
2.91
67
1.93
107
0.25
44
0.44
116
1.02
53
0.16
29
1.65
104
2.50
55
0.01
17
0.41
132
0.21
85
0.06
46
0.36
38
0.10
62
anonymousdsptwo views0.56
51
0.10
28
0.36
75
0.24
91
0.07
36
0.09
99
0.01
11
0.04
32
0.05
33
0.00
1
2.27
189
0.22
38
0.20
92
0.00
1
2.28
46
1.41
63
0.28
52
0.17
45
0.52
33
0.67
145
0.56
40
3.56
94
0.31
175
0.07
30
0.02
8
0.01
8
1.65
73
0.01
24
GMStereopermissivetwo views0.56
51
0.94
181
0.07
20
0.25
95
0.06
28
0.01
12
0.02
26
0.15
59
0.07
47
0.00
1
0.00
1
0.41
71
0.01
3
0.01
24
2.04
36
1.15
34
0.34
62
0.18
48
2.72
120
0.11
19
1.52
91
2.04
40
0.00
1
0.08
34
0.20
81
0.03
31
2.65
99
0.04
45
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
SGD-Stereotwo views0.57
54
0.11
30
0.26
48
0.02
14
0.06
28
0.02
40
0.04
54
0.04
32
0.07
47
0.00
1
0.00
1
0.40
70
0.09
52
0.01
24
5.50
170
2.06
125
0.45
80
0.28
71
0.54
35
0.23
41
1.49
89
2.89
63
0.02
43
0.08
34
0.09
48
0.06
46
0.31
31
0.22
82
MIF-Stereo (partial)two views0.58
55
0.39
100
0.42
90
0.07
51
0.22
87
0.02
40
0.03
42
0.08
47
0.11
72
0.01
54
0.01
73
0.50
90
0.12
65
0.03
59
2.35
51
1.69
90
0.25
44
0.60
142
0.91
51
0.11
19
1.40
83
2.26
49
0.01
17
0.34
109
0.12
63
0.29
86
2.91
105
0.38
99
AIO_rvctwo views0.61
56
0.30
74
0.36
75
0.03
25
0.02
8
0.14
122
0.30
151
0.02
12
0.05
33
0.00
1
0.00
1
0.19
22
0.09
52
0.06
92
3.14
74
2.93
165
0.18
29
0.51
127
2.38
100
0.52
105
0.69
44
3.61
96
0.46
201
0.02
6
0.13
65
0.04
39
0.20
21
0.01
24
RYNettwo views0.61
56
0.04
4
0.00
1
0.02
14
0.04
20
0.00
1
0.01
11
0.03
22
0.04
26
0.07
70
0.00
1
0.07
4
0.12
65
0.00
1
4.57
134
0.66
9
0.12
13
0.99
193
0.37
28
0.02
2
0.25
19
0.10
1
0.05
67
0.03
16
0.08
45
7.32
235
1.40
66
0.12
72
IGEV-Stereo+two views0.62
58
1.03
192
0.04
16
0.11
64
0.14
53
0.14
122
0.03
42
0.10
52
0.11
72
0.02
60
2.00
184
0.32
52
0.30
117
0.02
45
1.86
31
1.97
111
0.16
24
0.31
79
1.71
82
0.60
128
1.02
67
3.85
109
0.29
168
0.06
25
0.03
21
0.21
76
0.20
21
0.00
1
GANettwo views0.63
59
0.72
159
0.73
137
0.46
162
0.40
146
1.37
212
0.41
165
0.45
89
0.06
43
0.21
91
2.81
210
2.16
172
0.28
114
0.47
205
0.89
6
0.62
8
0.74
120
0.38
92
0.38
29
0.07
11
0.30
24
1.98
38
0.14
119
0.13
59
0.20
81
0.03
31
0.52
44
0.22
82
TestStereotwo views0.64
60
0.64
146
0.54
118
0.22
80
0.11
47
0.01
12
0.03
42
1.87
145
0.23
115
0.30
102
0.00
1
0.37
61
0.08
46
0.01
24
1.75
26
0.93
19
0.45
80
0.23
63
2.92
127
0.12
22
1.51
90
1.70
28
0.05
67
0.11
49
0.21
85
0.46
104
2.24
90
0.13
74
AIO_testtwo views0.66
61
0.53
122
0.44
95
0.04
29
0.02
8
0.14
122
0.42
166
0.12
56
0.04
26
0.00
1
0.00
1
0.20
28
0.10
59
0.03
59
3.07
70
3.04
170
0.25
44
0.32
81
1.33
69
0.44
83
1.28
80
3.68
98
0.44
197
0.02
6
0.18
78
0.43
103
1.11
58
0.01
24
YMNettwo views0.67
62
0.38
99
0.02
6
0.20
75
0.25
103
0.33
174
2.67
230
0.36
78
0.06
43
1.09
156
0.00
1
0.41
71
2.95
230
0.01
24
2.43
54
2.05
123
0.61
108
0.46
120
0.54
35
0.25
48
0.30
24
1.29
22
0.00
1
0.10
42
0.37
104
0.05
43
0.62
45
0.38
99
UNettwo views0.67
62
0.32
77
0.47
110
0.27
108
0.23
91
0.03
63
0.15
122
0.55
98
0.14
82
1.13
159
0.00
1
0.61
106
0.17
86
0.15
135
2.26
44
1.51
73
0.50
89
0.22
58
1.51
76
0.25
48
0.75
46
1.79
31
0.18
133
0.60
164
0.07
42
0.32
95
3.43
132
0.61
119
MGS-Stereotwo views0.68
64
0.97
187
0.65
125
0.25
95
0.18
64
0.01
12
0.05
66
0.07
43
0.14
82
0.00
1
0.00
1
0.30
48
0.15
73
0.03
59
5.25
163
1.01
23
0.41
75
0.26
66
1.09
56
0.44
83
1.38
82
2.76
59
0.03
54
0.27
97
0.34
100
0.25
79
1.72
75
0.24
85
HITNettwo views0.68
64
0.16
43
0.11
29
0.07
51
0.10
46
0.01
12
0.03
42
1.72
135
0.79
173
0.11
76
0.00
1
0.77
125
0.28
114
0.12
128
2.69
59
1.17
35
0.45
80
0.14
36
0.72
41
0.25
48
1.61
102
2.80
61
0.01
17
0.17
73
0.04
27
0.15
65
3.40
130
0.41
103
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
IERtwo views0.69
66
0.46
112
0.29
51
0.30
118
0.18
64
0.01
12
0.09
94
0.42
84
0.11
72
1.07
155
0.07
88
1.62
165
0.05
27
0.20
150
3.15
75
1.25
41
0.40
72
0.16
42
0.82
45
0.44
83
0.57
41
2.22
47
0.21
140
0.34
109
0.09
48
1.03
135
2.96
107
0.28
89
G2L-Stereotwo views0.70
67
0.35
93
0.24
42
0.37
143
0.64
171
0.02
40
0.07
80
0.17
60
0.08
55
0.51
123
0.10
92
0.28
46
0.49
152
0.45
202
3.38
89
1.05
26
0.27
49
0.20
53
1.46
74
0.28
54
1.54
92
1.85
32
0.07
92
0.12
51
0.28
97
0.78
125
3.56
136
0.38
99
DEFOM-Stereo_RVCtwo views0.70
67
0.11
30
0.32
57
0.06
39
0.20
79
0.09
99
0.02
26
0.13
58
0.23
115
0.03
63
0.04
81
0.48
84
0.15
73
0.01
24
3.26
84
2.49
146
0.31
59
0.44
116
1.92
90
0.48
94
1.70
109
4.79
150
0.16
126
0.12
51
0.09
48
0.16
68
0.90
54
0.07
56
HGLStereotwo views0.70
67
0.34
89
0.41
88
0.23
87
0.31
113
0.02
40
0.17
128
0.08
47
0.13
80
1.20
167
0.69
153
0.25
42
0.15
73
0.09
111
2.36
52
1.50
71
0.57
103
0.29
73
1.25
62
0.24
44
1.13
73
3.16
81
0.08
98
0.34
109
0.18
78
0.19
72
3.13
112
0.47
107
IGEV-BASED-STEREO-two views0.71
70
0.58
132
0.33
59
0.08
57
0.18
64
0.19
153
0.04
54
0.12
56
0.18
99
0.04
66
0.51
138
0.50
90
0.41
137
0.02
45
2.44
55
2.27
137
0.33
60
0.54
133
1.14
59
0.44
83
2.08
126
4.84
151
0.09
104
0.12
51
0.10
55
0.15
65
1.37
64
0.08
57
CFNettwo views0.72
71
0.50
120
0.71
133
0.48
165
0.45
155
0.06
93
0.27
150
0.58
100
0.09
63
0.65
130
0.04
81
0.84
128
0.10
59
0.05
83
2.80
64
0.75
13
0.60
107
0.09
25
0.84
49
0.41
78
1.10
72
1.22
19
0.03
54
0.13
59
0.58
121
1.14
138
3.44
133
1.47
149
RAFT_CTSACEtwo views0.74
72
0.81
169
0.44
95
0.25
95
0.08
40
0.15
132
0.03
42
1.99
150
0.06
43
0.00
1
0.11
94
0.47
83
0.46
147
0.01
24
2.74
62
1.26
42
0.29
58
0.16
42
0.77
43
0.13
26
0.79
51
4.54
138
0.01
17
0.15
65
0.25
90
0.01
8
3.88
158
0.04
45
test_5two views0.76
73
0.61
137
0.21
36
0.02
14
0.02
8
0.11
107
0.01
11
2.75
201
0.05
33
0.00
1
4.29
224
0.49
86
0.44
140
0.00
1
1.73
25
1.27
47
0.22
37
0.14
36
1.14
59
0.09
17
0.46
36
3.08
77
0.01
17
0.19
78
0.09
48
0.00
1
2.97
108
0.02
35
RAFT+CT+SAtwo views0.77
74
0.83
171
0.24
42
0.15
69
0.05
22
0.01
12
0.02
26
2.46
180
0.09
63
0.11
76
0.00
1
0.89
137
0.40
134
0.01
24
1.42
15
1.63
82
0.18
29
0.21
57
2.39
102
0.27
53
0.93
63
4.66
144
0.01
17
0.20
81
0.13
65
0.02
24
3.33
125
0.05
50
ADLNettwo views0.79
75
0.95
182
0.12
30
0.22
80
0.28
108
0.09
99
0.05
66
1.25
120
0.10
68
0.32
105
0.06
85
2.48
177
0.08
46
0.20
150
3.48
90
1.14
33
0.48
84
0.11
28
0.60
39
0.23
41
0.60
42
3.03
70
0.01
17
0.10
42
0.91
139
0.83
127
3.15
113
0.34
95
raft+_RVCtwo views0.80
76
0.41
105
0.45
107
0.34
131
0.24
94
0.03
63
0.08
86
2.24
161
0.09
63
0.07
70
0.00
1
0.42
74
0.08
46
0.02
45
3.49
91
3.16
177
0.48
84
0.12
29
2.60
115
0.82
158
0.94
64
3.69
99
0.03
54
0.20
81
0.35
102
0.14
64
0.69
46
0.35
97
ARAFTtwo views0.80
76
0.22
53
0.31
53
0.31
120
0.12
50
0.01
12
0.02
26
0.24
71
0.09
63
1.28
171
0.00
1
0.53
94
0.04
20
0.09
111
3.18
77
1.99
112
0.51
91
0.34
84
2.69
119
0.14
27
1.96
125
2.75
58
0.02
43
0.20
81
0.80
137
0.03
31
3.53
134
0.13
74
LL-Strereo2two views0.81
78
0.27
66
0.35
69
0.09
61
0.14
53
0.17
144
0.08
86
2.21
160
0.19
102
0.00
1
0.00
1
0.26
44
0.05
27
0.20
150
2.27
45
2.72
157
0.12
13
0.15
39
2.40
103
0.52
105
1.77
117
5.39
164
0.06
75
0.17
73
0.43
110
0.12
62
1.55
72
0.31
91
DMCA-RVCcopylefttwo views0.82
79
0.43
107
0.50
112
0.31
120
0.59
168
0.15
132
1.13
195
0.29
76
1.52
208
1.29
173
0.34
126
0.64
110
0.14
71
0.17
141
3.74
100
1.26
42
0.80
124
0.51
127
0.97
52
0.51
102
0.87
60
1.93
34
0.26
158
0.40
131
0.13
65
0.08
52
2.70
100
0.50
109
HUFtwo views0.83
80
0.15
40
0.62
122
0.03
25
0.12
50
0.16
136
0.17
128
0.32
77
0.05
33
0.00
1
0.00
1
0.22
38
0.26
110
0.00
1
4.05
118
4.06
225
0.48
84
0.57
138
3.07
135
0.65
141
1.72
115
3.80
105
0.38
184
0.88
200
0.14
72
0.04
39
0.38
39
0.01
24
Former-RAFT_DAM_RVCtwo views0.83
80
0.08
24
0.36
75
0.18
72
0.21
85
0.01
12
0.06
75
1.75
137
0.21
113
0.14
85
0.15
104
0.45
79
0.16
80
0.03
59
4.05
118
1.87
100
0.36
66
0.42
109
1.67
80
0.17
31
1.76
116
4.52
137
0.02
43
0.11
49
0.38
107
2.70
176
0.33
33
0.33
93
MIM_Stereotwo views0.83
80
0.15
40
0.44
95
0.34
131
0.24
94
0.12
110
0.08
86
2.02
151
0.08
55
0.00
1
0.24
116
0.31
51
0.10
59
0.03
59
3.34
85
2.91
164
0.24
42
0.67
151
2.62
116
0.89
164
1.44
87
3.49
90
0.06
75
0.26
94
0.20
81
0.24
78
1.72
75
0.18
79
DSFCAtwo views0.83
80
0.44
108
0.51
116
0.29
114
0.59
168
0.05
80
0.61
184
0.23
66
0.55
152
0.49
121
0.58
142
0.48
84
0.11
63
0.04
77
2.83
65
1.42
64
0.78
123
0.72
161
1.15
61
0.65
141
1.24
77
3.01
67
0.21
140
0.53
156
0.55
119
0.83
127
3.19
116
0.46
106
test_4two views0.84
84
0.11
30
0.61
121
0.30
118
0.20
79
0.08
96
0.30
151
0.10
52
0.10
68
0.03
63
0.61
148
0.79
126
0.16
80
0.18
144
3.62
95
3.39
190
0.24
42
0.43
113
1.98
91
0.30
58
1.21
76
3.26
84
0.09
104
0.21
85
0.23
88
0.33
96
3.56
136
0.25
87
RASNettwo views0.86
85
0.32
77
0.77
143
0.46
162
0.31
113
0.18
149
0.10
107
0.95
111
0.14
82
1.11
157
0.09
91
0.53
94
0.44
140
0.35
184
1.76
28
1.87
100
0.59
104
0.22
58
1.13
58
0.07
11
1.42
86
3.94
111
0.17
131
0.53
156
0.46
112
0.37
101
3.64
141
1.29
145
coex_refinementtwo views0.87
86
1.07
196
0.62
122
0.25
95
0.72
176
0.03
63
0.20
140
0.27
74
1.03
191
0.10
75
1.11
169
0.87
134
0.18
88
0.15
135
4.26
124
1.07
29
0.59
104
0.13
31
2.44
108
0.52
105
1.02
67
1.12
17
0.23
148
0.17
73
0.67
130
0.96
132
3.20
117
0.48
108
AFF-stereotwo views0.88
87
0.32
77
0.50
112
0.35
138
0.20
79
0.11
107
0.37
162
0.41
83
0.11
72
1.15
161
0.00
1
0.66
114
0.07
41
0.02
45
4.33
126
1.39
62
0.40
72
0.90
181
3.49
150
0.26
51
1.61
102
2.83
62
0.02
43
0.22
87
0.49
113
0.18
70
3.16
114
0.10
62
CAStwo views0.89
88
0.22
53
0.39
85
0.21
78
0.24
94
0.03
63
0.36
161
0.23
66
0.62
158
1.28
171
0.16
106
0.38
64
0.84
198
0.12
128
3.10
73
1.87
100
0.94
146
0.75
165
1.30
66
0.58
123
2.82
145
3.00
66
0.03
54
0.12
51
0.13
65
0.72
122
1.80
78
1.89
162
DISCOtwo views0.90
89
0.96
186
0.36
75
0.06
39
0.36
131
0.63
189
0.54
180
0.23
66
0.32
129
1.72
189
0.58
142
0.41
71
0.29
116
0.04
77
2.98
69
1.47
69
1.02
154
0.31
79
3.32
144
0.56
120
1.01
66
3.01
67
0.13
116
0.33
108
0.13
65
0.33
96
2.81
103
0.43
105
rafts_anoytwo views0.92
90
0.33
85
0.86
153
0.37
143
0.24
94
0.05
80
0.07
80
2.48
182
0.14
82
0.01
54
0.00
1
0.20
28
0.04
20
0.02
45
3.97
113
3.08
173
0.56
101
0.40
97
2.20
97
0.34
66
1.65
104
3.86
110
0.02
43
0.27
97
0.99
145
0.73
123
0.87
53
0.98
138
TestStereo1two views0.93
91
0.98
188
0.22
39
0.07
51
0.18
64
0.01
12
0.04
54
1.07
114
0.08
55
0.11
76
0.00
1
0.39
67
0.56
163
0.12
128
4.92
154
2.03
117
0.28
52
0.22
58
2.98
130
0.20
34
1.56
95
3.94
111
0.01
17
0.15
65
0.10
55
1.19
141
3.74
145
0.05
50
SA-5Ktwo views0.93
91
0.98
188
0.22
39
0.07
51
0.18
64
0.01
12
0.04
54
1.07
114
0.08
55
0.11
76
0.00
1
0.39
67
0.56
163
0.12
128
4.92
154
2.03
117
0.28
52
0.22
58
2.98
130
0.20
34
1.56
95
3.94
111
0.01
17
0.15
65
0.10
55
1.19
141
3.74
145
0.05
50
GLC_STEREOtwo views0.93
91
0.48
115
0.65
125
0.25
95
0.33
125
0.03
63
0.11
109
2.37
171
0.20
103
0.16
88
0.04
81
0.38
64
0.15
73
0.02
45
3.66
96
2.05
123
0.67
114
0.25
64
2.56
112
0.42
82
2.90
146
3.06
75
0.09
104
0.19
78
0.09
48
0.10
58
3.70
143
0.31
91
NVstereo2Dtwo views0.93
91
0.48
115
0.17
32
0.24
91
0.42
151
0.41
177
0.08
86
1.64
132
0.59
156
0.87
143
1.05
164
0.42
74
0.21
96
0.08
107
5.64
174
2.38
144
0.82
129
0.59
140
1.71
82
0.24
44
1.26
78
2.48
54
0.06
75
0.47
146
1.31
157
0.29
86
1.04
56
0.24
85
CASnettwo views0.96
95
0.54
124
0.54
118
0.24
91
0.36
131
0.05
80
0.26
149
0.52
95
0.18
99
0.06
69
0.06
85
0.70
117
0.36
127
0.01
24
4.36
127
1.50
71
0.66
113
0.40
97
2.56
112
0.34
66
3.82
177
4.34
124
0.03
54
0.35
116
1.67
176
0.11
61
1.72
75
0.23
84
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
S2M2two views0.98
96
0.15
40
1.98
214
0.27
108
0.17
61
0.00
1
0.04
54
0.24
71
0.31
126
2.13
203
0.00
1
0.45
79
0.15
73
0.01
24
4.10
120
2.25
135
0.54
94
0.47
123
1.29
65
0.24
44
2.31
130
2.52
56
0.05
67
0.15
65
0.17
77
2.66
175
3.69
142
0.15
76
TESTrafttwo views1.00
97
0.95
182
0.32
57
0.06
39
0.17
61
0.01
12
0.03
42
1.49
129
0.07
47
0.78
137
0.00
1
0.46
81
0.64
172
0.19
145
4.75
147
2.06
125
0.26
47
0.20
53
2.78
123
0.36
71
1.26
78
4.60
141
0.07
92
0.17
73
0.11
60
1.53
151
3.70
143
0.04
45
RALCasStereoNettwo views1.00
97
0.37
98
1.07
171
0.37
143
0.32
123
0.06
93
0.20
140
2.08
157
0.15
89
1.01
151
0.04
81
0.61
106
0.16
80
0.03
59
3.74
100
3.43
194
0.41
75
0.26
66
1.40
73
0.75
152
1.44
87
4.55
139
0.03
54
0.26
94
0.78
136
1.36
147
0.91
55
1.22
144
RAFT-Stereo + iAFFtwo views1.00
97
0.33
85
0.75
140
0.38
148
0.42
151
0.14
122
0.43
170
0.97
112
0.13
80
1.32
175
0.00
1
0.65
113
0.09
52
0.03
59
4.73
143
1.46
67
0.50
89
0.13
31
3.58
151
0.49
96
1.60
99
4.02
115
0.02
43
0.42
135
0.52
115
0.38
102
3.38
128
0.17
78
IPLGR_Ctwo views1.02
100
0.24
60
0.77
143
0.31
120
0.36
131
0.04
70
0.35
160
0.20
62
0.47
143
0.07
70
0.12
98
1.26
153
0.09
52
0.41
197
4.52
132
1.63
82
0.81
126
0.45
118
2.10
94
0.32
60
2.41
136
4.67
145
0.07
92
0.75
184
1.04
147
0.28
84
3.80
150
0.11
69
anonymousdsp2two views1.03
101
0.29
71
0.37
81
0.23
87
0.09
42
0.03
63
0.04
54
1.33
122
0.08
55
0.02
60
2.28
192
0.33
56
0.18
88
0.27
166
2.59
56
2.50
148
0.44
79
0.56
137
3.69
153
1.14
180
1.68
107
5.57
168
0.24
152
0.50
150
0.41
108
0.15
65
2.74
102
0.02
35
CIPLGtwo views1.04
102
0.23
55
0.82
149
0.32
125
0.36
131
0.04
70
0.34
158
0.21
63
0.50
146
0.07
70
0.11
94
1.24
150
0.08
46
0.42
199
4.82
152
1.65
85
0.85
134
0.39
96
2.02
92
0.32
60
2.35
132
4.69
146
0.05
67
0.75
184
1.10
149
0.35
99
3.79
149
0.12
72
ACREtwo views1.04
102
0.24
60
0.80
147
0.33
127
0.36
131
0.04
70
0.34
158
0.21
63
0.48
144
0.08
74
0.14
102
1.30
155
0.09
52
0.45
202
4.77
149
1.62
80
0.82
129
0.43
113
2.08
93
0.33
63
2.40
135
4.72
147
0.06
75
0.74
183
1.10
149
0.28
84
3.80
150
0.11
69
CFNet_pseudotwo views1.04
102
0.55
125
0.68
127
0.46
162
0.53
160
0.05
80
0.02
26
0.61
102
0.10
68
0.91
145
0.11
94
0.88
135
0.56
163
0.52
214
5.81
184
1.84
98
0.55
100
0.37
87
2.85
125
0.41
78
1.09
71
3.10
79
0.59
216
0.29
102
0.61
124
0.63
116
2.23
89
1.75
157
ddtwo views1.06
105
0.48
115
0.31
53
1.86
220
0.06
28
0.26
169
0.16
124
0.47
91
0.06
43
0.11
76
0.01
73
2.18
173
0.07
41
0.20
150
4.43
128
1.13
32
1.19
168
0.38
92
6.03
182
0.38
73
0.67
43
1.85
32
0.14
119
0.32
107
0.63
127
0.09
55
3.27
121
1.90
163
SAtwo views1.07
106
0.91
179
0.46
109
0.21
78
0.25
103
0.01
12
0.02
26
2.68
192
0.14
82
0.14
85
0.00
1
0.59
96
0.38
132
0.34
179
3.59
94
2.03
117
0.45
80
0.51
127
3.47
149
0.32
60
1.40
83
3.72
100
0.01
17
0.38
128
0.44
111
1.60
154
4.79
198
0.10
62
AACVNettwo views1.07
106
0.61
137
0.44
95
0.65
178
0.80
181
0.12
110
0.17
128
0.37
79
0.20
103
0.17
89
0.14
102
0.60
100
0.24
106
0.26
162
4.81
150
2.04
122
0.61
108
0.40
97
1.72
84
0.41
78
1.80
118
3.08
77
0.40
186
0.20
81
0.52
115
1.51
150
4.20
180
2.32
172
DLCB_ROBtwo views1.13
108
0.77
163
0.73
137
0.44
159
0.51
159
0.22
160
0.42
166
0.49
92
0.28
123
0.84
140
0.50
136
1.31
156
0.85
199
0.11
121
2.70
60
1.54
75
1.12
163
0.27
69
0.82
45
0.22
40
1.70
109
3.50
91
0.48
206
0.44
144
4.83
238
2.48
173
2.14
87
0.79
126
4D-IteraStereotwo views1.14
109
0.34
89
1.40
185
0.29
114
0.38
140
0.05
80
0.09
94
2.11
159
0.11
72
0.00
1
0.19
113
0.52
93
0.22
98
0.24
159
3.76
102
3.57
202
0.28
52
0.38
92
2.95
129
0.49
96
3.35
163
5.63
170
0.12
115
0.41
132
0.10
55
0.29
86
3.09
111
0.34
95
LMCR-Stereopermissivemany views1.14
109
0.56
126
0.72
134
0.31
120
0.31
113
0.14
122
0.06
75
1.38
124
0.28
123
0.33
106
0.12
98
0.86
132
0.20
92
0.26
162
3.99
115
2.00
114
1.20
169
0.37
87
6.02
181
1.76
207
2.41
136
3.82
106
0.07
92
0.55
160
0.52
115
0.51
110
1.50
70
0.67
122
CFNet_RVCtwo views1.14
109
0.65
147
0.92
157
0.35
138
0.40
146
0.14
122
0.13
115
0.11
55
0.18
99
0.86
142
1.15
170
0.67
115
0.17
86
0.08
107
6.26
200
1.31
52
0.70
116
0.40
97
1.62
78
0.29
56
1.93
122
3.03
70
0.06
75
0.43
141
0.95
142
1.90
163
3.91
160
2.07
167
trnettwo views1.17
112
0.32
77
0.93
160
0.22
80
0.19
70
0.01
12
0.08
86
2.54
183
0.38
132
0.63
128
0.99
163
0.76
123
0.58
166
0.06
92
3.83
106
3.16
177
0.91
142
0.55
135
2.21
98
0.76
154
2.97
149
3.47
89
0.06
75
0.29
102
1.28
156
1.05
136
2.55
97
0.92
133
raftrobusttwo views1.17
112
0.44
108
0.99
163
0.41
153
0.37
136
0.04
70
0.12
111
2.45
179
0.14
82
0.51
123
0.00
1
0.72
118
0.24
106
0.09
111
4.74
144
4.01
224
0.39
71
0.35
86
5.19
176
0.34
66
1.89
120
4.58
140
0.21
140
0.28
99
1.21
155
0.47
105
1.09
57
0.35
97
GMOStereotwo views1.19
114
0.17
44
0.68
127
0.34
131
0.31
113
0.13
116
0.31
153
2.36
165
0.15
89
0.00
1
0.17
108
0.60
100
0.45
143
0.02
45
3.83
106
3.83
215
0.54
94
0.70
155
2.41
104
0.64
135
1.71
111
6.50
194
0.01
17
0.34
109
1.38
163
0.25
79
4.07
169
0.10
62
error versiontwo views1.19
114
0.17
44
0.68
127
0.34
131
0.31
113
0.13
116
0.31
153
2.36
165
0.15
89
0.00
1
0.17
108
0.60
100
0.45
143
0.02
45
3.83
106
3.83
215
0.54
94
0.70
155
2.41
104
0.64
135
1.71
111
6.50
194
0.01
17
0.34
109
1.38
163
0.25
79
4.07
169
0.10
62
test-vtwo views1.19
114
0.17
44
0.68
127
0.34
131
0.31
113
0.13
116
0.31
153
2.36
165
0.15
89
0.00
1
0.17
108
0.60
100
0.45
143
0.02
45
3.83
106
3.83
215
0.54
94
0.70
155
2.41
104
0.64
135
1.71
111
6.50
194
0.01
17
0.34
109
1.38
163
0.25
79
4.07
169
0.10
62
test-2two views1.19
114
0.17
44
0.68
127
0.34
131
0.31
113
0.13
116
0.31
153
2.36
165
0.15
89
0.00
1
0.17
108
0.60
100
0.45
143
0.02
45
3.83
106
3.83
215
0.54
94
0.70
155
2.41
104
0.64
135
1.71
111
6.50
194
0.01
17
0.34
109
1.38
163
0.25
79
4.07
169
0.10
62
CREStereo++_RVCtwo views1.20
118
0.23
55
1.65
199
0.28
112
0.43
153
0.01
12
0.17
128
2.02
151
0.26
121
0.61
127
0.08
90
0.50
90
0.15
73
0.05
83
3.91
111
2.85
163
0.95
147
0.50
126
2.77
122
0.31
59
3.04
152
3.84
108
0.13
116
0.14
61
1.10
149
1.31
146
4.38
187
0.77
125
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
CREStereotwo views1.20
118
0.33
85
0.95
162
0.24
91
0.19
70
0.01
12
0.06
75
2.65
190
0.54
148
0.64
129
1.05
164
0.72
118
0.59
167
0.07
98
3.92
112
3.45
198
0.86
139
0.42
109
2.19
96
0.72
148
3.10
154
3.56
94
0.10
109
0.29
102
1.20
154
1.09
137
2.54
96
0.90
130
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
HSMtwo views1.20
118
0.35
93
1.10
174
0.59
175
0.56
166
0.05
80
0.09
94
2.87
207
0.31
126
0.13
83
0.53
139
0.76
123
0.13
68
0.05
83
5.24
162
1.26
42
0.85
134
0.30
76
3.45
148
0.50
100
2.38
134
3.35
87
0.10
109
0.55
160
0.74
132
0.86
130
4.16
178
1.08
139
RALAANettwo views1.21
121
0.40
103
0.56
120
0.37
143
0.31
113
0.20
156
0.15
122
1.87
145
0.20
103
0.51
123
0.01
73
0.49
86
0.26
110
0.07
98
3.97
113
2.32
139
0.48
84
0.73
163
3.41
145
1.09
176
3.06
153
5.24
162
0.02
43
0.50
150
0.74
132
1.14
138
4.11
177
0.54
117
NLCA_NET_v2_RVCtwo views1.21
121
0.81
169
0.50
112
0.22
80
0.48
158
0.03
63
1.73
213
1.18
118
2.43
233
2.04
200
0.11
94
0.74
120
0.09
52
0.55
215
6.88
211
1.12
31
0.38
69
0.30
76
1.67
80
0.28
54
0.80
52
1.75
30
0.15
124
0.25
92
0.13
65
3.23
181
2.70
100
2.04
166
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
iResNet_ROBtwo views1.22
123
0.71
157
0.44
95
0.45
161
0.34
127
0.04
70
0.16
124
3.05
214
0.12
79
1.32
175
0.00
1
0.93
138
0.34
121
0.05
83
4.57
134
1.86
99
0.81
126
0.48
124
6.00
180
0.34
66
1.95
123
1.30
23
0.31
175
0.91
202
0.33
99
0.95
131
3.93
162
1.14
142
PDISCO_ROBtwo views1.24
124
0.57
130
0.10
27
0.66
179
0.32
123
0.01
12
0.57
182
0.78
106
0.49
145
1.25
169
0.94
162
0.36
57
0.32
118
0.19
145
3.99
115
2.19
132
0.98
148
1.44
223
2.38
100
0.62
131
2.92
147
4.93
155
0.18
133
0.64
170
1.52
173
0.53
111
3.95
166
0.62
120
LoS_RVCtwo views1.27
125
1.54
214
0.85
151
0.06
39
0.55
162
0.01
12
0.13
115
0.23
66
0.73
166
1.70
187
0.22
114
0.64
110
0.69
178
0.11
121
3.79
104
3.07
171
0.75
121
1.99
245
3.69
153
0.64
135
4.98
201
4.94
156
0.22
146
0.10
42
0.37
104
0.50
108
0.82
50
0.93
134
tt_lltwo views1.27
125
1.54
214
0.85
151
0.06
39
0.55
162
0.01
12
0.13
115
0.23
66
0.73
166
1.70
187
0.22
114
0.64
110
0.69
178
0.11
121
3.79
104
3.07
171
0.75
121
1.99
245
3.69
153
0.64
135
4.98
201
4.94
156
0.22
146
0.10
42
0.37
104
0.50
108
0.82
50
0.93
134
psm_uptwo views1.28
127
0.67
151
1.09
173
0.41
153
0.89
187
0.04
70
0.31
153
2.38
172
1.16
197
0.77
134
0.00
1
1.36
157
0.10
59
0.44
200
4.59
137
1.35
56
0.83
131
0.45
118
4.14
161
0.47
88
1.60
99
2.76
59
0.01
17
0.73
181
1.16
152
1.54
152
3.84
153
1.40
146
CEStwo views1.32
128
0.24
60
0.36
75
0.14
68
0.22
87
0.05
80
0.19
137
5.29
258
0.76
170
0.42
118
0.61
148
0.86
132
0.85
199
0.26
162
4.28
125
3.41
193
1.21
171
1.06
199
1.85
89
1.16
185
4.19
185
3.75
101
0.15
124
0.12
51
0.23
88
0.34
98
1.47
69
2.15
170
IPLGtwo views1.33
129
0.40
103
0.76
141
0.29
114
0.28
108
0.01
12
0.09
94
2.25
162
0.31
126
0.40
116
0.28
120
0.37
61
0.74
185
0.31
177
5.67
179
1.89
103
1.26
177
0.95
188
2.86
126
0.47
88
1.18
75
6.06
183
0.06
75
0.66
174
0.63
127
3.73
193
3.86
157
0.11
69
AF-Nettwo views1.33
129
0.56
126
1.00
164
0.36
141
0.81
183
1.01
201
2.56
227
2.36
165
1.15
195
0.48
119
0.65
151
3.84
190
0.16
80
0.30
174
3.50
92
1.17
35
0.52
92
0.02
3
1.74
85
0.53
108
0.81
54
4.34
124
0.06
75
0.14
61
0.93
140
0.61
114
3.84
153
2.40
175
Nwc_Nettwo views1.33
129
0.56
126
1.00
164
0.36
141
0.81
183
1.01
201
2.56
227
2.36
165
1.15
195
0.48
119
0.65
151
3.84
190
0.16
80
0.30
174
3.50
92
1.17
35
0.52
92
0.02
3
1.74
85
0.53
108
0.81
54
4.34
124
0.06
75
0.14
61
0.93
140
0.61
114
3.84
153
2.40
175
STTStereotwo views1.36
132
0.86
173
0.78
146
0.40
152
0.33
125
0.08
96
1.20
199
0.43
86
1.52
208
1.38
181
0.24
116
2.01
170
0.27
112
0.38
187
9.23
236
1.30
50
0.40
72
0.33
82
1.27
64
0.20
34
1.56
95
1.97
37
0.16
126
0.15
65
0.10
55
1.81
161
3.62
140
4.69
190
raft_robusttwo views1.38
133
0.73
162
0.63
124
0.27
108
0.23
91
0.01
12
0.05
66
3.04
213
0.24
118
1.16
162
0.02
79
0.61
106
0.67
174
0.07
98
3.67
98
2.22
134
0.80
124
0.66
147
5.14
175
0.33
63
3.43
166
6.40
193
0.01
17
0.37
126
1.19
153
1.48
149
2.86
104
0.96
137
APVNettwo views1.38
133
1.06
194
0.27
49
0.33
127
0.37
136
0.28
172
0.50
176
0.39
81
0.42
137
0.93
146
0.42
133
0.85
130
0.19
91
0.15
135
4.81
150
3.10
176
1.87
206
0.94
186
4.74
172
0.89
164
2.23
129
5.90
175
0.05
67
1.23
216
0.19
80
0.48
106
3.80
150
0.91
131
iResNetv2_ROBtwo views1.40
135
0.83
171
0.41
88
1.30
205
0.37
136
0.05
80
0.14
119
3.17
220
0.20
103
1.97
198
0.28
120
2.49
178
0.40
134
0.06
92
3.78
103
1.57
77
1.08
161
0.22
58
6.10
183
0.67
145
3.61
171
2.04
40
0.26
158
0.83
197
0.62
126
0.54
112
4.07
169
0.71
123
castereo++two views1.41
136
0.49
118
0.42
90
0.06
39
0.24
94
0.24
165
0.12
111
0.43
86
0.43
138
0.20
90
0.16
106
1.25
151
0.42
138
0.06
92
4.22
122
3.67
209
1.03
155
0.55
135
2.93
128
0.66
143
4.66
198
6.57
199
0.31
175
0.25
92
1.42
168
1.63
156
3.77
148
1.84
160
UCFNet_RVCtwo views1.41
136
2.75
242
0.68
127
0.60
176
0.80
181
0.26
169
0.16
124
0.28
75
0.23
115
0.93
146
0.37
127
2.60
179
1.05
210
0.07
98
6.13
196
1.33
54
0.70
116
0.52
130
2.48
109
0.62
131
1.87
119
3.20
82
1.04
240
0.35
116
1.83
180
1.96
164
2.11
85
3.29
183
castereotwo views1.45
138
0.34
89
1.03
168
0.07
51
0.29
112
0.21
159
0.09
94
0.37
79
0.51
147
0.13
83
0.18
112
1.13
144
0.49
152
0.07
98
4.85
153
3.77
213
1.05
157
0.65
145
4.71
171
0.63
134
5.11
205
6.83
205
0.14
119
0.24
91
1.55
174
1.98
165
1.31
61
1.43
147
Sa-1000two views1.45
138
0.32
77
0.53
117
0.28
112
0.26
105
0.01
12
0.04
54
2.73
196
0.11
72
0.01
54
0.01
73
0.59
96
0.49
152
0.56
216
6.07
194
2.10
129
0.92
145
0.88
178
4.60
169
0.59
126
1.56
95
6.38
191
0.01
17
0.64
170
2.25
187
1.72
160
5.00
202
0.38
99
PMTNettwo views1.51
140
0.60
135
1.30
181
0.27
108
0.26
105
0.02
40
0.18
132
0.51
94
0.56
153
0.71
133
0.33
125
0.59
96
0.48
150
0.09
111
6.84
209
3.43
194
0.91
142
0.38
92
6.13
185
0.44
83
4.00
181
3.52
92
0.13
116
0.15
65
3.04
209
1.29
145
1.36
62
3.30
184
ICVPtwo views1.55
141
0.24
60
1.65
199
0.43
157
0.45
155
0.50
182
0.38
164
1.26
121
0.64
160
1.77
191
1.20
171
0.88
135
1.63
220
0.25
161
4.46
129
2.81
162
1.49
192
1.01
194
2.50
110
1.15
184
2.70
139
5.75
172
0.14
119
0.63
167
0.72
131
2.31
170
3.35
127
1.59
155
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
RPtwo views1.55
141
1.14
201
2.48
230
0.89
189
1.23
198
0.43
178
2.08
221
1.86
144
1.63
215
0.29
101
2.10
185
2.43
176
0.13
68
0.49
210
5.11
158
1.26
42
0.83
131
0.05
13
1.74
85
0.49
96
1.04
69
4.92
153
0.16
126
0.76
186
0.49
113
1.14
138
4.64
196
1.98
165
sAnonymous2two views1.64
143
0.27
66
0.18
33
0.11
64
0.20
79
0.49
180
0.05
66
1.85
141
0.98
184
0.21
91
0.39
128
1.21
146
0.85
199
0.08
107
4.74
144
3.93
221
1.35
184
1.22
214
7.85
197
0.83
161
4.15
183
5.99
177
0.03
54
0.42
135
0.15
73
2.19
168
2.36
92
2.37
173
CroCo_RVCtwo views1.64
143
0.27
66
0.18
33
0.11
64
0.20
79
0.49
180
0.05
66
1.85
141
0.98
184
0.21
91
0.39
128
1.21
146
0.85
199
0.08
107
4.74
144
3.93
221
1.35
184
1.22
214
7.85
197
0.83
161
4.15
183
5.99
177
0.03
54
0.42
135
0.15
73
2.19
168
2.36
92
2.37
173
BEATNet_4xtwo views1.65
145
0.58
132
0.35
69
0.20
75
0.38
140
0.15
132
0.46
173
1.78
140
1.70
220
0.40
116
0.50
136
1.13
144
0.62
171
0.65
219
6.09
195
3.02
169
2.14
213
1.81
236
1.48
75
0.79
156
5.22
207
7.76
231
0.08
98
1.07
211
0.32
98
0.48
106
3.92
161
1.49
150
iinet-ftwo views1.66
146
1.28
207
0.38
83
0.81
187
0.15
56
0.24
165
0.13
115
0.42
84
0.21
113
1.91
195
3.98
220
0.30
48
0.27
112
0.07
98
6.30
202
2.65
156
0.43
78
0.30
76
8.10
203
1.14
180
2.10
128
6.32
189
0.26
158
0.52
155
1.42
168
0.21
76
4.26
182
0.60
118
EGLCR-Stereotwo views1.68
147
0.23
55
2.17
221
0.08
57
0.28
108
0.09
99
0.09
94
0.50
93
1.17
198
0.11
76
2.55
202
0.62
109
0.67
174
0.03
59
4.24
123
3.69
212
1.12
163
1.22
214
4.58
168
0.59
126
4.19
185
7.51
224
0.24
152
0.68
177
1.05
148
0.64
117
6.73
234
0.33
93
DN-CSS_ROBtwo views1.68
147
0.57
130
1.42
186
0.83
188
0.73
177
0.05
80
0.22
145
2.83
205
0.40
135
1.50
184
3.57
217
1.02
141
0.43
139
0.09
111
4.11
121
1.61
79
1.34
183
0.84
173
8.83
208
0.39
76
4.42
193
3.67
97
0.09
104
1.02
207
0.13
65
0.55
113
3.24
120
1.52
151
AE-Stereotwo views1.73
149
0.32
77
2.11
219
0.34
131
0.37
136
0.05
80
0.43
170
0.44
88
0.32
129
0.04
66
0.00
1
3.48
188
0.44
140
0.07
98
4.68
142
3.77
213
1.11
162
0.92
183
4.18
162
1.16
185
3.77
176
7.03
209
0.18
133
1.06
210
3.29
217
2.09
166
4.84
199
0.18
79
TANstereotwo views1.73
149
1.38
210
0.72
134
0.26
100
0.35
129
0.62
187
0.07
80
0.52
95
0.46
140
0.27
99
1.08
166
0.36
57
0.20
92
1.04
237
3.37
87
2.99
167
0.99
149
1.69
232
9.06
211
3.49
250
3.58
169
4.48
135
3.34
268
0.28
99
0.05
33
0.67
118
5.35
211
0.09
60
XX-TBDtwo views1.73
149
1.38
210
0.72
134
0.26
100
0.35
129
0.62
187
0.07
80
0.52
95
0.46
140
0.27
99
1.08
166
0.36
57
0.20
92
1.04
237
3.37
87
2.99
167
0.99
149
1.69
232
9.06
211
3.49
250
3.58
169
4.48
135
3.34
268
0.28
99
0.05
33
0.67
118
5.35
211
0.09
60
GEStwo views1.73
149
0.33
85
0.48
111
0.58
174
0.43
153
0.28
172
0.51
177
2.03
155
0.90
181
1.18
165
0.55
140
0.49
86
0.23
105
0.02
45
8.51
229
2.72
157
1.06
159
0.76
166
9.71
221
1.71
204
3.36
164
4.34
124
0.23
148
0.83
197
0.42
109
0.35
99
2.56
98
2.21
171
GCAP-BATtwo views1.76
153
0.61
137
0.44
95
0.26
100
0.19
70
0.02
40
0.09
94
2.40
173
0.20
103
0.00
1
0.00
1
4.42
199
0.22
98
0.40
189
3.21
78
3.62
203
13.36
281
0.40
97
3.28
138
0.53
108
5.75
217
4.47
129
0.29
168
0.35
116
0.25
90
0.31
89
1.84
79
0.53
111
test_for_modeltwo views1.76
153
0.61
137
0.44
95
0.26
100
0.19
70
0.02
40
0.09
94
2.40
173
0.20
103
0.00
1
0.00
1
4.42
199
0.22
98
0.40
189
3.21
78
3.62
203
13.36
281
0.40
97
3.28
138
0.53
108
5.75
217
4.47
129
0.29
168
0.35
116
0.25
90
0.31
89
1.84
79
0.53
111
testlalala2two views1.76
153
0.61
137
0.44
95
0.26
100
0.19
70
0.02
40
0.09
94
2.40
173
0.20
103
0.00
1
0.00
1
4.42
199
0.22
98
0.40
189
3.21
78
3.62
203
13.36
281
0.40
97
3.28
138
0.53
108
5.75
217
4.47
129
0.29
168
0.35
116
0.25
90
0.31
89
1.84
79
0.53
111
testlalalatwo views1.76
153
0.61
137
0.44
95
0.26
100
0.19
70
0.02
40
0.09
94
2.40
173
0.20
103
0.00
1
0.00
1
4.42
199
0.22
98
0.40
189
3.21
78
3.62
203
13.36
281
0.40
97
3.28
138
0.53
108
5.75
217
4.47
129
0.29
168
0.35
116
0.25
90
0.31
89
1.84
79
0.53
111
testlalala_basetwo views1.76
153
0.61
137
0.44
95
0.26
100
0.19
70
0.02
40
0.09
94
2.40
173
0.20
103
0.00
1
0.00
1
4.42
199
0.22
98
0.40
189
3.21
78
3.62
203
13.36
281
0.40
97
3.28
138
0.53
108
5.75
217
4.47
129
0.29
168
0.35
116
0.25
90
0.31
89
1.84
79
0.53
111
GCAP-Stereotwo views1.76
153
0.61
137
0.44
95
0.26
100
0.19
70
0.02
40
0.09
94
2.40
173
0.20
103
0.00
1
0.00
1
4.42
199
0.22
98
0.40
189
3.21
78
3.62
203
13.36
281
0.40
97
3.28
138
0.53
108
5.75
217
4.47
129
0.29
168
0.35
116
0.25
90
0.31
89
1.84
79
0.53
111
MIPNettwo views1.76
153
0.72
159
0.87
154
0.32
125
0.55
162
0.01
12
0.08
86
1.77
139
0.38
132
2.09
201
0.92
160
0.44
77
0.76
187
0.27
166
5.64
174
2.03
117
1.52
194
0.93
185
3.87
157
1.34
193
1.41
85
6.39
192
0.07
92
1.05
209
2.65
197
7.16
231
3.90
159
0.29
90
SACVNettwo views1.77
160
0.88
175
1.11
175
0.67
180
1.41
211
0.84
194
0.94
189
2.65
190
0.54
148
1.31
174
0.02
79
0.95
139
0.40
134
0.39
188
6.01
193
2.36
142
1.71
200
0.42
109
4.84
173
0.82
158
3.03
151
6.05
182
0.11
112
0.73
181
1.33
160
1.66
158
4.02
167
2.55
177
PS-NSSStwo views1.79
161
3.17
249
0.42
90
3.20
236
0.92
191
2.08
225
1.19
198
0.39
81
0.16
94
0.38
113
0.00
1
11.59
244
1.18
212
0.50
211
5.15
159
0.89
17
0.71
118
0.28
71
4.31
165
0.17
31
0.97
65
0.64
9
2.37
258
0.19
78
1.58
175
0.76
124
3.28
122
1.77
158
FCDSN-DCtwo views1.87
162
0.93
180
2.12
220
1.84
218
1.62
215
1.35
211
1.17
196
0.74
104
0.46
140
1.19
166
0.30
123
2.02
171
0.48
150
0.28
171
5.91
186
2.18
131
2.34
218
2.10
250
1.30
66
0.47
88
2.99
150
5.42
165
0.57
211
3.93
255
2.22
186
3.45
184
1.45
68
1.56
153
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
FADNet-RVC-Resampletwo views1.87
162
0.69
153
1.01
166
0.50
169
0.67
172
0.19
153
1.39
207
1.43
126
0.87
179
0.94
148
0.92
160
5.52
217
0.52
158
1.00
234
7.45
216
1.91
106
1.44
188
1.98
244
3.91
158
1.13
179
1.92
121
4.61
143
0.23
148
1.54
225
0.58
121
3.08
179
2.12
86
3.05
178
test-3two views1.89
164
1.05
193
1.54
193
0.41
153
0.38
140
0.14
122
0.19
137
2.73
196
0.17
95
0.35
111
0.42
133
4.22
195
0.35
123
0.03
59
5.92
187
3.44
196
0.64
111
0.66
147
9.08
214
0.54
118
3.27
159
8.02
240
0.08
98
0.82
195
0.74
132
1.01
133
3.94
164
0.87
128
test_1two views1.89
164
1.07
196
1.54
193
0.41
153
0.38
140
0.14
122
0.19
137
2.73
196
0.17
95
0.31
104
0.40
131
4.23
197
0.35
123
0.03
59
5.96
190
3.44
196
0.64
111
0.65
145
9.10
215
0.53
108
3.29
160
8.03
241
0.08
98
0.82
195
0.74
132
1.01
133
3.94
164
0.89
129
sCroCo_RVCtwo views1.89
164
0.25
64
0.34
64
0.06
39
0.20
79
0.16
136
0.04
54
0.81
107
1.73
221
1.94
197
0.44
135
1.12
143
0.88
204
0.12
128
4.48
130
5.29
246
2.26
216
1.77
235
5.32
178
2.13
223
5.92
225
7.47
221
0.10
109
0.37
126
0.60
123
1.61
155
4.41
189
1.14
142
test_3two views1.92
167
1.16
203
1.42
186
0.44
159
0.39
145
0.14
122
0.20
140
2.79
203
0.17
95
0.38
113
0.41
132
4.32
198
0.36
127
0.03
59
6.25
198
3.34
186
0.68
115
0.67
151
9.18
216
0.53
108
3.20
156
7.85
235
0.06
75
0.80
193
0.95
142
1.27
144
3.85
156
0.94
136
DeepPruner_ROBtwo views1.92
167
0.41
105
0.92
157
0.51
170
0.67
172
0.53
185
2.45
225
1.72
135
0.84
177
1.37
180
2.27
189
0.75
122
0.55
161
0.12
128
8.56
230
2.33
140
1.28
178
1.20
211
2.67
118
0.58
123
6.00
227
4.19
118
0.75
233
0.44
144
0.66
129
6.01
220
3.18
115
0.91
131
AnonymousMtwo views1.93
169
0.21
50
0.42
90
0.06
39
0.06
28
0.26
169
0.01
11
2.70
194
0.56
153
0.36
112
2.56
203
0.59
96
0.53
159
0.50
211
2.91
67
3.30
184
1.21
171
1.06
199
2.18
95
1.68
201
3.82
177
5.56
167
0.40
186
0.50
150
0.21
85
1.57
153
6.55
231
12.23
245
LoStwo views1.97
170
0.23
55
0.39
85
0.23
87
0.18
64
0.02
40
0.09
94
15.67
286
0.89
180
3.41
242
0.87
157
0.98
140
0.83
197
0.20
150
3.66
96
3.84
219
1.36
186
0.90
181
3.25
137
0.74
150
5.14
206
4.30
123
0.24
152
0.41
132
2.64
196
0.80
126
1.36
62
0.50
109
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
pcwnet_v2two views1.99
171
0.65
147
0.87
154
0.77
185
1.17
196
0.72
190
0.24
146
1.75
137
0.66
162
3.33
234
1.75
183
1.49
161
1.91
223
1.68
256
6.75
207
2.30
138
1.12
163
0.69
154
4.33
166
0.50
100
2.08
126
4.26
121
1.07
242
0.77
189
1.43
170
2.18
167
4.16
178
5.20
197
IPLGRtwo views2.02
172
0.67
151
0.81
148
0.38
148
0.47
157
0.01
12
0.08
86
1.39
125
0.28
123
2.32
205
2.30
195
0.46
81
0.79
191
0.20
150
6.88
211
1.99
112
1.44
188
1.35
220
5.56
179
1.85
210
2.94
148
6.20
187
0.06
75
1.13
213
3.39
220
6.80
227
3.93
162
0.75
124
FADNet-RVCtwo views2.02
172
0.32
77
0.74
139
0.33
127
1.23
198
0.05
80
3.02
237
0.60
101
0.24
118
1.02
152
0.31
124
6.30
224
0.33
119
0.34
179
10.06
243
2.10
129
0.84
133
0.81
171
6.91
190
1.97
213
2.36
133
3.78
104
0.20
139
0.61
165
1.94
183
1.65
157
3.28
122
3.13
180
PA-Nettwo views2.07
174
0.95
182
1.62
198
0.31
120
2.13
231
0.17
144
0.70
186
0.21
63
1.90
224
0.84
140
1.44
174
0.30
48
0.21
96
0.84
228
7.47
217
1.66
86
0.38
69
0.37
87
1.25
62
0.74
150
1.66
106
4.96
158
0.64
220
0.51
153
1.03
146
11.53
262
2.31
91
9.73
235
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NCC-stereotwo views2.13
175
1.68
220
1.46
190
1.00
194
1.37
205
0.89
197
2.88
234
2.59
187
2.86
239
0.34
107
2.72
207
2.40
174
1.41
218
0.27
166
5.18
160
1.38
60
0.85
134
0.98
189
2.99
132
1.01
173
1.54
92
4.72
147
0.43
194
0.53
156
2.61
194
4.44
203
4.09
174
4.93
193
Abc-Nettwo views2.13
175
1.68
220
1.46
190
1.00
194
1.37
205
0.89
197
2.88
234
2.59
187
2.86
239
0.34
107
2.72
207
2.40
174
1.41
218
0.27
166
5.18
160
1.38
60
0.85
134
0.98
189
2.99
132
1.01
173
1.54
92
4.72
147
0.43
194
0.53
156
2.61
194
4.44
203
4.09
174
4.93
193
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
stereogantwo views2.15
177
2.03
227
1.44
189
1.52
210
2.14
232
1.79
222
1.07
194
1.88
147
1.10
193
1.33
177
1.43
173
5.96
221
0.51
156
0.34
179
5.92
187
1.93
107
1.03
155
0.41
108
4.12
160
0.95
170
1.69
108
6.00
179
0.26
158
0.81
194
0.61
124
1.42
148
6.77
235
3.73
186
FINETtwo views2.25
178
0.61
137
1.06
170
0.48
165
0.55
162
0.75
193
0.98
191
1.18
118
1.87
223
0.30
102
3.46
216
1.25
151
2.35
226
0.80
227
14.13
270
2.94
166
1.14
166
0.42
109
2.74
121
1.28
189
2.71
140
4.08
116
0.43
194
1.24
217
3.04
209
5.74
217
1.70
74
3.42
185
FADNettwo views2.26
179
0.45
110
0.77
143
0.54
173
1.08
194
0.02
40
3.28
240
0.88
108
0.38
132
0.80
138
0.57
141
2.60
179
0.50
155
0.67
221
9.91
242
1.94
109
0.91
142
1.08
201
9.92
224
1.76
207
2.78
141
4.21
119
0.11
112
0.47
146
2.92
206
3.57
186
3.57
138
5.35
199
s12784htwo views2.36
180
2.32
236
2.69
234
1.64
211
0.77
180
0.08
96
0.06
75
2.09
158
0.54
148
1.17
163
0.13
101
1.69
167
0.67
174
0.04
77
3.36
86
3.26
182
1.00
153
0.40
97
3.79
156
0.49
96
5.47
214
4.44
128
0.16
126
0.38
128
3.34
219
5.45
215
7.07
238
11.25
241
R-Stereo Traintwo views2.40
181
1.12
199
1.98
214
1.00
194
0.24
94
0.05
80
0.07
80
2.02
151
1.01
188
1.35
178
2.47
199
1.55
162
0.47
148
0.19
145
5.66
177
4.74
231
1.71
200
1.04
196
7.24
192
1.14
180
5.08
203
7.81
232
0.06
75
0.42
135
2.90
204
4.55
206
3.22
118
5.57
200
RAFT-Stereopermissivetwo views2.40
181
1.12
199
1.98
214
1.00
194
0.24
94
0.05
80
0.07
80
2.02
151
1.01
188
1.35
178
2.47
199
1.55
162
0.47
148
0.19
145
5.66
177
4.74
231
1.71
200
1.04
196
7.24
192
1.14
180
5.08
203
7.81
232
0.06
75
0.42
135
2.90
204
4.55
206
3.22
118
5.57
200
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
MyStereo04two views2.45
183
0.72
159
1.28
178
0.73
184
0.84
186
0.04
70
0.16
124
2.58
186
0.98
184
3.09
227
0.72
154
1.71
168
0.16
80
0.07
98
5.25
163
3.37
188
0.81
126
1.04
196
10.31
229
2.51
234
5.56
215
5.11
159
1.16
245
0.94
205
3.03
208
8.41
241
4.87
200
0.64
121
NCCL2two views2.48
184
2.35
237
1.52
192
1.33
207
1.96
227
0.23
161
1.25
203
1.33
122
1.30
200
1.63
186
2.57
204
1.38
158
0.55
161
0.40
189
7.49
219
2.59
153
1.77
205
0.67
151
2.58
114
0.83
161
3.36
164
6.56
198
1.66
252
1.53
224
4.71
237
4.33
200
4.24
181
6.90
216
GEStereo_RVCtwo views2.49
185
0.90
177
1.02
167
1.03
199
0.74
178
1.57
217
1.21
200
2.68
192
0.58
155
0.77
134
0.39
128
2.62
182
0.36
127
0.11
121
4.94
156
4.65
230
2.05
209
2.17
251
9.07
213
2.10
222
3.74
175
9.71
272
0.55
208
1.49
221
0.81
138
0.84
129
4.45
190
6.73
215
MSMDNettwo views2.61
186
0.70
156
1.72
205
0.38
148
0.62
170
0.23
161
0.18
132
3.09
216
0.67
163
1.02
152
2.22
188
1.22
149
2.43
228
0.35
184
5.26
165
6.79
273
1.36
186
0.58
139
10.46
231
3.11
246
6.34
235
7.92
236
0.41
190
0.76
186
2.48
192
3.98
198
3.04
109
3.06
179
GANet-ADLtwo views2.63
187
0.65
147
2.25
223
1.16
201
1.13
195
1.61
218
0.77
188
1.97
149
1.02
190
3.19
232
3.22
211
1.48
159
0.33
119
0.03
59
6.00
192
4.08
226
2.52
223
0.78
169
7.88
199
2.05
217
3.56
168
6.68
202
0.27
164
0.86
199
1.51
172
6.92
229
5.25
208
3.84
187
cross-rafttwo views2.64
188
0.79
166
1.76
206
0.43
157
0.89
187
0.23
161
0.18
132
3.08
215
0.70
164
0.77
134
2.13
186
1.21
146
0.69
178
0.41
197
5.43
168
5.90
253
1.22
176
0.59
140
10.82
234
1.85
210
6.50
236
8.26
246
0.45
199
0.63
167
2.66
198
4.41
202
4.46
191
4.88
192
GANetREF_RVCpermissivetwo views2.72
189
1.88
224
1.03
168
2.10
225
1.40
209
1.09
204
0.21
143
4.74
249
1.62
214
3.74
249
0.06
85
10.56
241
0.82
196
0.10
116
4.53
133
1.59
78
1.29
179
0.98
189
6.76
188
0.75
152
3.12
155
2.45
53
0.21
140
1.71
227
4.31
229
3.74
194
7.02
237
5.71
203
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
UDGNettwo views2.73
190
1.17
204
0.42
90
10.90
269
5.53
258
8.65
265
3.60
245
1.70
134
0.27
122
0.22
95
0.12
98
0.80
127
0.12
65
9.72
286
4.00
117
1.35
56
0.73
119
0.54
133
3.02
134
0.60
128
2.78
141
6.16
186
3.41
270
0.29
102
1.70
177
1.69
159
3.06
110
1.10
140
MLCVtwo views2.73
190
0.66
150
0.90
156
2.64
232
1.41
211
1.10
205
1.01
192
3.58
233
0.61
157
3.69
248
4.23
223
5.51
216
3.78
236
0.11
121
5.65
176
2.01
116
1.68
198
0.87
176
10.28
228
1.26
187
3.32
162
5.13
161
0.34
179
2.60
242
2.68
201
3.08
179
4.10
176
1.55
152
RGCtwo views2.76
192
2.10
232
5.00
255
1.68
212
1.94
224
1.93
223
1.23
201
2.03
155
1.49
207
0.88
144
4.67
228
2.77
183
2.63
229
0.70
223
5.76
183
1.89
103
1.20
169
0.48
124
4.42
167
1.33
192
2.66
138
6.08
184
0.21
140
1.11
212
2.55
193
5.20
211
5.35
211
7.17
218
Reg-Stereo(zero)two views2.80
193
0.36
95
3.11
237
0.48
165
1.28
200
0.20
156
0.51
177
3.74
236
0.75
168
3.00
224
8.88
269
2.97
185
0.80
192
1.33
246
4.64
138
3.67
209
2.18
214
0.52
130
7.33
194
1.68
201
4.34
189
7.15
210
0.64
220
0.36
124
1.32
158
3.29
182
6.08
222
5.10
195
HItwo views2.80
193
0.36
95
3.11
237
0.48
165
1.28
200
0.20
156
0.51
177
3.74
236
0.75
168
3.00
224
8.88
269
2.97
185
0.80
192
1.33
246
4.64
138
3.67
209
2.18
214
0.52
130
7.33
194
1.68
201
4.34
189
7.15
210
0.64
220
0.36
124
1.32
158
3.29
182
6.08
222
5.10
195
LG-Stereo_Zeroshottwo views2.83
195
1.26
206
0.34
64
1.44
208
2.86
242
4.15
244
1.24
202
2.76
202
0.98
184
6.41
279
3.42
214
7.88
230
0.71
181
0.04
77
3.70
99
3.23
181
0.59
104
0.66
147
5.00
174
1.09
176
3.83
179
6.59
200
0.08
98
0.26
94
0.53
118
1.83
162
4.26
182
11.30
242
Any-RAFTtwo views2.91
196
0.59
134
3.81
245
0.35
138
0.57
167
0.02
40
0.11
109
2.92
208
0.63
159
0.50
122
3.78
218
3.92
193
0.36
127
0.16
140
6.57
206
3.98
223
0.87
141
0.87
176
8.59
205
0.61
130
5.45
213
6.20
187
0.42
193
0.49
148
5.12
243
9.91
252
3.30
124
8.42
225
CASStwo views2.93
197
1.06
194
2.39
226
2.21
228
1.17
196
0.52
184
2.81
232
2.79
203
1.05
192
1.80
193
3.40
213
1.68
166
0.59
167
0.05
83
4.51
131
3.20
180
5.58
257
1.31
219
9.56
219
1.64
200
7.26
249
7.98
238
0.05
67
0.66
174
3.62
225
2.70
176
4.35
184
5.22
198
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
DeepPrunerFtwo views2.93
197
1.75
222
0.35
69
3.49
240
9.49
274
1.73
221
4.02
247
0.70
103
3.19
241
0.69
131
1.51
176
0.60
100
0.34
121
0.14
134
7.97
224
3.53
200
1.21
171
0.76
166
4.64
170
0.73
149
2.31
130
4.11
117
0.65
223
0.58
162
15.77
280
3.70
192
3.75
147
1.43
147
RAFT-Testtwo views3.05
199
0.69
153
1.82
209
1.09
200
0.81
183
0.25
167
0.43
170
3.13
218
0.76
170
1.06
154
6.42
246
1.03
142
0.91
206
0.35
184
5.61
173
6.66
271
1.32
182
0.61
143
10.76
233
1.74
206
6.54
240
7.48
222
0.56
209
0.59
163
2.76
203
10.02
253
4.56
193
4.35
189
PWCDC_ROBbinarytwo views3.09
200
0.52
121
0.24
42
0.38
148
0.92
191
0.25
167
0.37
162
1.16
117
8.67
272
0.14
85
2.36
197
0.85
130
32.24
292
0.72
225
6.25
198
3.40
192
2.00
208
0.94
186
2.65
117
1.03
175
3.63
172
9.35
269
0.27
164
0.68
177
0.55
119
0.69
120
1.44
67
1.79
159
RTSCtwo views3.11
201
0.95
182
1.93
212
0.51
170
0.89
187
1.05
203
2.90
236
1.64
132
1.98
226
2.28
204
2.71
206
1.60
164
1.14
211
1.24
242
11.23
252
4.78
234
4.92
255
2.00
247
8.11
204
1.61
199
4.78
199
6.97
208
0.34
179
1.52
222
1.35
161
1.21
143
4.60
195
9.80
236
EKT-Stereotwo views3.12
202
0.79
166
2.25
223
0.51
170
0.38
140
0.57
186
1.87
217
3.36
225
1.32
201
2.03
199
5.99
240
1.48
159
0.75
186
0.44
200
7.79
221
6.14
258
1.47
191
3.22
265
8.95
210
2.82
244
6.93
248
8.34
253
0.17
131
0.49
148
4.41
231
4.95
208
5.40
214
1.57
154
SGM-Foresttwo views3.19
203
2.07
229
0.45
107
6.33
253
2.00
228
2.67
232
0.10
107
1.46
127
0.76
170
2.49
208
0.91
159
6.65
228
6.47
242
0.48
207
6.84
209
3.08
173
0.85
134
0.33
82
3.65
152
0.62
131
2.81
144
5.69
171
0.84
236
1.18
214
3.88
226
3.84
196
11.86
265
7.73
222
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
ADCReftwo views3.22
204
2.76
243
1.07
171
0.70
183
2.26
236
2.09
226
2.76
231
1.00
113
5.91
261
1.91
195
1.10
168
1.28
154
0.78
189
1.43
250
8.09
225
3.52
199
1.51
193
1.18
209
8.68
206
2.26
226
3.23
157
6.00
179
1.89
254
1.20
215
3.12
214
7.80
238
3.41
131
10.10
237
HSM-Net_RVCpermissivetwo views3.23
205
1.35
209
1.70
203
2.82
234
2.07
230
0.73
191
0.46
173
3.48
230
1.14
194
3.44
243
5.99
240
8.07
232
3.38
233
0.27
166
5.71
182
2.35
141
1.54
195
0.27
69
3.44
147
1.35
194
4.35
191
6.00
179
0.70
228
3.05
247
4.68
236
6.45
223
6.23
226
6.18
210
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
test-1two views3.29
206
0.29
71
1.96
213
0.33
127
0.26
105
0.23
161
0.42
166
3.11
217
0.84
177
3.35
238
3.99
221
5.66
219
0.78
189
0.19
145
6.33
203
6.00
255
1.70
199
1.62
229
10.71
232
1.73
205
5.37
211
9.64
271
0.07
92
0.76
186
3.30
218
6.12
222
5.48
215
8.68
229
XPNet_ROBtwo views3.41
207
2.62
239
1.58
197
0.80
186
1.56
213
1.24
210
0.96
190
0.89
109
1.54
210
1.17
163
3.26
212
26.85
270
0.38
132
0.40
189
6.47
204
2.54
151
3.57
235
0.89
179
3.41
145
1.26
187
3.53
167
7.67
228
0.87
237
0.64
170
0.96
144
2.39
171
9.98
257
4.70
191
Anonymous3two views3.42
208
0.60
135
0.93
160
0.09
61
1.35
204
0.50
182
0.03
42
3.46
229
1.28
199
1.11
157
0.80
155
10.89
242
1.36
217
0.45
202
8.96
233
6.97
276
3.85
237
3.08
263
11.46
236
2.32
230
7.35
251
12.18
289
0.38
184
0.51
153
1.75
178
3.57
186
5.30
209
1.85
161
GwcNet-ADLtwo views3.44
209
3.11
248
3.40
242
3.24
237
2.51
237
0.88
196
0.42
166
2.96
209
0.71
165
3.80
253
7.12
253
7.96
231
1.21
213
0.20
150
4.76
148
4.86
238
2.42
221
0.72
161
8.04
202
2.75
243
3.31
161
5.54
166
0.28
167
1.76
229
2.68
201
5.24
212
4.37
185
8.53
227
NaN_ROBtwo views3.44
209
1.18
205
1.20
177
0.92
191
3.15
244
0.73
191
1.61
211
3.36
225
2.57
236
0.98
150
1.25
172
21.11
262
0.77
188
1.26
244
5.06
157
1.79
95
1.06
159
0.76
166
2.52
111
1.44
195
1.95
123
3.82
106
0.52
207
1.30
218
4.05
227
10.09
255
4.78
197
13.66
251
EAI-Stereotwo views3.47
211
1.08
198
3.31
241
1.01
198
2.20
234
0.86
195
2.15
222
3.02
212
2.01
227
0.21
91
6.99
251
3.36
187
0.71
181
0.17
141
8.65
231
6.60
269
1.21
171
1.15
207
10.39
230
1.82
209
4.60
195
8.03
241
0.69
226
1.76
229
2.14
185
5.97
219
7.35
242
6.22
211
NOSS_ROBtwo views3.47
211
3.88
257
0.50
112
2.22
229
1.85
221
2.58
231
0.05
66
2.70
194
1.59
212
3.61
245
1.69
181
2.61
181
3.90
238
1.01
235
9.33
237
5.76
251
3.02
230
1.87
241
2.83
124
1.09
176
5.42
212
6.93
206
0.46
201
3.37
251
3.09
213
10.15
256
8.01
249
4.05
188
HHtwo views3.49
213
0.47
113
5.11
258
0.68
181
0.69
174
0.93
199
1.38
204
3.19
221
0.82
174
2.81
214
2.29
193
5.39
213
0.81
194
0.34
179
5.69
180
7.67
285
0.99
149
1.08
201
9.91
222
2.70
241
7.76
254
8.27
248
0.57
211
0.93
203
3.44
221
8.42
243
5.63
219
6.30
212
HanStereotwo views3.49
213
0.47
113
5.11
258
0.68
181
0.69
174
0.93
199
1.38
204
3.19
221
0.82
174
2.81
214
2.29
193
5.39
213
0.81
194
0.34
179
5.69
180
7.67
285
0.99
149
1.08
201
9.91
222
2.70
241
7.76
254
8.27
248
0.57
211
0.93
203
3.44
221
8.42
243
5.63
219
6.30
212
MSKI-zero shottwo views3.55
215
0.69
153
1.78
208
0.20
75
0.41
148
0.19
153
0.14
119
3.13
218
0.94
183
0.80
138
6.42
246
3.89
192
0.60
170
0.03
59
5.84
185
6.80
274
1.44
188
1.01
194
11.77
238
2.28
227
6.56
242
8.63
255
0.24
152
0.71
179
4.66
235
11.34
260
7.75
245
7.55
220
PSMNet-ADLtwo views3.55
215
0.87
174
1.70
203
1.71
214
2.00
228
1.21
207
0.69
185
2.55
185
1.91
225
4.36
264
7.71
260
4.22
195
7.85
248
0.10
116
7.75
220
5.27
244
2.09
212
0.89
179
11.92
240
2.07
218
4.52
194
6.13
185
0.70
228
0.67
176
2.07
184
4.52
205
8.78
252
1.62
156
gcap-zeroshottwo views3.56
217
0.56
126
4.08
247
1.72
215
0.53
160
1.55
216
1.78
215
3.23
223
0.64
160
2.75
213
6.71
248
6.50
226
0.68
177
0.48
207
6.48
205
6.49
266
1.21
171
1.11
204
16.59
249
2.54
235
5.24
208
8.27
248
1.30
248
0.79
191
3.27
216
5.01
209
4.56
193
1.94
164
model_zeroshottwo views3.58
218
0.49
118
2.22
222
1.96
221
0.99
193
0.34
175
0.18
132
2.98
210
0.43
138
2.44
207
5.28
231
4.75
206
0.54
160
0.17
141
8.97
234
6.14
258
1.71
200
1.15
207
15.06
246
1.29
190
5.77
223
7.73
230
0.26
158
0.43
141
5.63
247
5.85
218
5.24
206
8.66
228
ADCP+two views3.65
219
2.02
226
2.68
233
1.32
206
1.94
224
1.22
208
4.40
250
1.11
116
9.44
275
1.76
190
5.45
233
9.05
235
0.37
131
0.98
233
6.99
213
2.36
142
0.61
108
0.92
183
6.14
186
0.94
169
2.80
143
5.58
169
0.36
183
0.63
167
3.00
207
12.42
265
3.57
138
10.51
238
TRStereotwo views3.75
220
3.07
246
7.59
274
0.37
143
0.17
61
7.92
260
0.24
146
2.99
211
0.91
182
2.72
212
1.68
180
5.88
220
0.65
173
0.15
135
5.57
172
5.35
248
0.86
139
0.80
170
7.01
191
1.31
191
4.10
182
7.50
223
0.34
179
0.43
141
2.67
200
12.33
264
12.84
267
5.90
205
XX-Stereotwo views3.82
221
0.53
122
2.00
217
1.20
202
0.31
113
0.38
176
0.57
182
1.46
127
0.40
135
2.50
209
7.33
256
5.11
210
1.04
209
0.11
121
7.05
214
6.53
267
1.29
179
0.81
171
7.44
196
0.89
164
4.26
187
5.80
173
0.45
199
0.39
130
27.22
292
3.57
186
5.16
205
9.43
231
HBP-ISPtwo views4.03
222
3.61
252
4.65
251
4.90
249
2.67
238
3.96
243
0.21
143
4.13
243
1.33
202
3.40
240
4.53
226
5.06
208
0.59
167
1.99
261
8.66
232
8.18
287
1.95
207
1.49
225
3.09
136
1.55
197
5.74
216
9.32
268
0.67
225
2.28
237
3.06
211
5.01
209
10.99
261
5.93
208
IGEV_Zeroshot_testtwo views4.05
223
0.80
168
8.10
278
6.86
256
0.41
148
2.27
229
1.89
218
3.90
240
1.41
205
2.09
201
8.67
267
4.78
207
1.00
208
0.23
158
5.53
171
6.82
275
1.05
157
0.73
163
9.30
218
1.98
215
7.38
252
8.89
260
0.47
203
0.72
180
5.72
249
5.34
214
5.93
221
7.12
217
anonymitytwo views4.07
224
0.78
164
6.15
268
1.49
209
0.74
178
0.48
179
0.49
175
3.72
235
1.65
216
2.70
210
20.70
303
3.99
194
0.88
204
0.28
171
5.31
166
6.26
262
1.14
166
0.71
159
7.91
200
1.58
198
4.27
188
8.17
245
0.41
190
0.61
165
4.86
240
9.60
251
5.48
215
9.41
230
ADCLtwo views4.20
225
3.62
253
2.45
228
1.72
215
1.80
218
3.15
236
4.53
253
2.29
163
13.19
282
2.81
214
4.88
230
2.96
184
0.72
183
1.36
249
7.16
215
2.76
160
2.35
219
2.20
252
6.83
189
2.31
229
6.19
231
6.77
204
1.40
249
1.47
220
6.63
256
6.49
224
4.40
188
11.08
240
dadtwo views4.27
226
0.90
177
0.38
83
10.18
268
1.67
216
1.51
215
12.20
276
12.33
277
0.11
72
3.40
240
0.00
1
1.94
169
3.49
234
0.26
162
6.16
197
1.44
65
1.74
204
0.71
159
14.06
245
0.66
143
3.23
157
4.00
114
0.21
140
1.02
207
6.09
252
0.19
72
17.62
279
9.71
234
FC-DCNNcopylefttwo views4.43
227
4.58
260
5.93
265
9.82
267
4.79
255
8.76
266
4.48
252
4.47
245
1.65
216
2.91
222
2.13
186
6.53
227
2.41
227
0.30
174
4.57
134
2.52
149
2.76
229
1.21
212
3.98
159
0.89
164
3.66
173
4.91
152
0.73
232
4.23
259
8.24
259
6.03
221
7.69
243
9.53
233
iResNettwo views4.46
228
0.88
175
0.92
157
2.61
231
2.85
240
4.95
247
1.38
204
4.97
252
1.33
202
3.66
247
3.45
215
12.37
245
16.29
270
0.06
92
9.09
235
3.33
185
2.53
224
1.85
239
16.79
251
2.68
240
4.65
197
4.29
122
0.25
156
4.69
263
1.88
182
4.19
199
5.32
210
3.22
182
FADNet_RVCtwo views4.48
229
2.12
233
1.42
186
3.57
242
3.69
246
1.20
206
2.37
224
2.30
164
1.42
206
1.77
191
4.48
225
9.79
238
6.84
246
1.84
260
12.73
262
3.36
187
3.55
234
4.20
272
17.52
252
3.76
254
5.93
226
8.26
246
0.72
230
1.64
226
1.78
179
3.63
190
5.12
203
5.99
209
LALA_ROBtwo views4.53
230
4.80
262
1.68
201
1.27
204
2.16
233
2.28
230
1.42
208
1.88
147
2.60
237
2.71
211
5.56
234
33.12
275
0.72
183
0.88
230
10.88
250
2.59
153
3.47
233
1.83
238
4.21
163
2.04
216
4.39
192
7.30
215
0.41
190
1.52
222
2.35
190
3.60
189
8.94
253
7.68
221
DAStwo views4.65
231
0.98
188
1.28
178
1.99
223
1.39
207
1.39
213
1.58
209
3.52
231
4.17
252
3.33
234
6.18
243
12.75
247
6.50
243
0.10
116
8.31
226
4.81
236
4.46
247
2.26
253
10.21
225
5.35
266
6.51
238
7.66
226
0.57
211
4.84
265
4.63
233
7.17
232
7.79
246
5.90
205
SepStereotwo views4.65
231
0.98
188
1.28
178
1.99
223
1.39
207
1.39
213
1.58
209
3.52
231
4.17
252
3.33
234
6.18
243
12.75
247
6.50
243
0.10
116
8.31
226
4.81
236
4.46
247
2.26
253
10.21
225
5.35
266
6.51
238
7.66
226
0.57
211
4.84
265
4.63
233
7.17
232
7.79
246
5.90
205
iRaft-Stereo_20wtwo views4.82
233
1.53
213
8.41
280
7.63
258
1.90
222
3.40
239
1.71
212
3.40
227
2.25
230
3.58
244
9.41
275
3.70
189
1.31
214
0.48
207
5.41
167
5.85
252
1.31
181
0.85
174
9.58
220
1.92
212
5.27
209
7.69
229
0.65
223
0.77
189
4.40
230
14.15
272
11.18
262
12.46
247
FC-DCNN v2copylefttwo views4.85
234
4.85
263
6.16
269
11.18
270
5.04
256
9.41
267
4.33
248
5.45
259
2.13
229
2.92
223
2.41
198
6.96
229
3.28
231
0.29
173
4.66
140
2.49
146
2.73
226
1.13
206
4.30
164
0.89
164
3.66
173
4.92
153
0.72
230
4.22
258
9.66
269
6.86
228
9.29
254
10.92
239
AIO-Stereo-zeroshotpermissivetwo views4.98
235
1.32
208
8.08
277
2.22
229
1.40
209
5.53
248
2.05
219
3.43
228
3.32
243
3.75
250
12.29
282
5.33
212
1.84
221
0.33
178
5.97
191
7.09
278
1.62
196
1.81
236
10.22
227
2.59
237
6.85
245
8.81
257
0.47
203
2.00
234
5.18
244
13.24
270
6.40
229
11.37
243
ccs_robtwo views4.98
235
1.51
212
2.53
231
2.16
226
0.89
187
3.24
237
1.79
216
4.91
251
1.34
204
4.26
261
15.64
293
28.82
271
10.34
257
0.50
211
6.81
208
5.55
249
2.39
220
1.57
227
6.45
187
2.16
224
6.28
234
6.95
207
0.40
186
2.33
238
1.38
163
2.46
172
4.37
185
7.31
219
SHDtwo views5.09
237
1.15
202
3.12
239
1.80
217
1.94
224
1.71
220
2.82
233
5.09
255
4.76
258
2.82
217
5.39
232
5.07
209
9.79
256
0.87
229
11.37
254
6.33
265
4.71
251
2.67
260
13.97
244
3.50
252
7.31
250
8.29
252
0.44
197
3.88
254
5.02
242
7.49
236
4.03
168
12.20
244
ETE_ROBtwo views5.10
238
4.12
258
1.76
206
1.25
203
2.22
235
2.82
233
2.07
220
1.56
130
4.21
254
1.88
194
5.58
236
37.59
283
0.86
203
1.44
251
10.38
246
2.80
161
4.20
245
0.98
189
5.24
177
1.97
213
4.87
200
7.58
225
0.77
235
1.38
219
2.34
189
3.79
195
15.93
276
8.21
224
CSANtwo views5.32
239
2.66
240
1.69
202
3.30
238
3.85
248
2.05
224
2.31
223
5.00
254
4.86
259
3.78
252
2.69
205
17.88
259
11.82
261
1.17
241
10.17
244
1.96
110
2.51
222
1.35
220
6.12
184
2.50
233
3.97
180
4.60
141
0.56
209
2.97
246
6.49
254
16.18
278
7.96
248
13.30
250
ITSA-stereotwo views5.42
240
2.29
235
1.89
211
8.97
264
3.88
249
1.23
209
2.54
226
4.47
245
3.35
247
4.35
263
7.59
257
10.18
239
12.92
264
3.00
265
7.80
222
5.16
241
3.85
237
1.88
242
8.77
207
2.09
221
6.00
227
7.39
216
1.42
250
3.60
252
4.84
239
7.18
234
5.13
204
14.47
254
DCVSM-stereotwo views5.54
241
0.78
164
3.12
239
3.47
239
1.28
200
7.98
261
1.05
193
4.59
248
2.29
231
5.25
273
7.93
264
23.24
265
12.85
263
0.71
224
9.52
240
4.20
227
2.06
211
1.36
222
16.58
248
3.56
253
5.30
210
5.91
176
2.46
259
3.65
253
2.66
198
6.64
225
5.48
215
5.70
202
CC-Net-ROBtwo views5.62
242
8.62
274
1.87
210
23.08
280
6.72
267
15.74
276
8.55
270
0.45
89
0.82
174
1.55
185
0.00
1
24.53
266
3.35
232
3.39
270
5.49
169
0.89
17
2.73
226
1.76
234
12.04
241
0.82
158
1.32
81
1.73
29
9.22
283
0.42
135
3.22
215
2.53
174
2.45
95
8.44
226
DDVStwo views5.69
243
1.54
214
2.40
227
1.70
213
2.85
240
2.20
227
1.17
196
5.90
262
4.00
251
4.08
256
18.83
299
25.64
268
8.12
251
1.56
253
8.35
228
7.04
277
2.73
226
2.05
248
11.37
235
4.73
259
6.54
240
8.98
263
0.34
179
1.71
227
1.84
181
3.53
185
6.53
230
7.90
223
XQCtwo views5.77
244
3.33
250
2.00
217
3.49
240
4.00
250
3.75
242
3.56
242
6.60
265
3.33
244
2.89
220
5.57
235
6.45
225
8.10
250
1.78
258
12.28
258
5.97
254
4.03
243
1.85
239
11.48
237
3.98
256
6.63
243
9.37
270
0.62
217
2.51
240
9.28
266
15.19
275
11.40
264
6.32
214
SFCPSMtwo views5.84
245
2.89
244
1.36
184
1.97
222
1.59
214
1.65
219
0.56
181
2.54
183
4.75
257
3.16
229
7.74
261
15.48
254
23.57
278
1.24
242
11.21
251
4.79
235
2.53
224
1.55
226
22.65
268
7.42
273
4.60
195
6.67
201
0.69
226
2.33
238
4.62
232
4.35
201
6.18
225
9.49
232
RTStwo views6.13
246
1.54
214
1.31
182
0.94
192
1.83
219
4.15
244
5.45
255
2.74
199
3.33
244
2.85
218
1.61
178
8.52
233
1.31
214
1.13
239
14.79
279
6.12
256
7.56
267
2.52
256
18.82
255
3.48
248
6.23
232
8.15
243
1.11
243
1.90
232
8.24
259
21.58
291
6.64
232
21.79
270
RTSAtwo views6.13
246
1.54
214
1.31
182
0.94
192
1.83
219
4.15
244
5.45
255
2.74
199
3.33
244
2.85
218
1.61
178
8.52
233
1.31
214
1.13
239
14.79
279
6.12
256
7.56
267
2.52
256
18.82
255
3.48
248
6.23
232
8.15
243
1.11
243
1.90
232
8.24
259
21.58
291
6.64
232
21.79
270
CBMVpermissivetwo views6.33
248
3.75
254
1.57
196
3.96
243
3.58
245
2.97
234
1.75
214
3.89
239
2.67
238
4.14
257
2.72
207
14.42
251
3.85
237
0.73
226
10.81
249
6.26
262
4.67
250
2.29
255
9.29
217
1.51
196
8.03
258
7.42
219
0.63
218
6.58
279
6.79
257
7.57
237
20.00
282
28.98
286
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
AnyNet_C32two views6.34
249
2.03
227
2.98
236
1.85
219
2.88
243
3.58
240
6.75
262
4.57
247
12.25
279
3.05
226
7.04
252
4.71
205
1.88
222
2.57
264
14.38
276
6.24
261
6.31
262
4.36
275
12.98
243
3.18
247
11.94
284
11.62
286
1.98
255
4.21
257
6.60
255
10.55
257
6.27
227
14.36
253
AIO-Stereo-zeroshot1permissivetwo views6.35
250
1.86
223
7.76
275
2.86
235
2.71
239
7.05
256
3.15
238
3.93
241
4.88
260
4.54
265
11.42
279
5.15
211
2.03
224
0.06
92
10.49
248
8.30
288
2.05
209
1.28
218
37.56
287
2.22
225
6.07
229
9.22
265
0.40
186
0.89
201
4.29
228
12.82
268
6.10
224
12.31
246
AMNettwo views6.93
251
3.82
256
2.53
231
4.00
244
5.78
260
6.99
255
3.24
239
2.46
180
2.51
235
3.39
239
6.36
245
9.40
237
2.06
225
7.30
281
5.92
187
9.99
294
13.66
287
7.81
291
8.03
201
7.76
277
11.45
281
8.81
257
2.81
261
4.73
264
5.75
250
7.80
238
13.20
268
19.55
265
CBMV_ROBtwo views7.04
252
2.92
245
2.91
235
8.40
262
6.54
266
5.80
250
3.57
243
5.09
255
2.49
234
3.84
255
4.70
229
21.33
263
14.76
268
0.47
205
10.48
247
3.84
219
3.13
231
1.58
228
12.20
242
8.81
279
6.17
230
5.80
173
0.47
203
3.14
249
9.16
265
15.50
277
13.69
270
13.29
249
ADCMidtwo views7.46
253
4.47
259
5.08
256
2.16
226
4.40
253
5.87
251
8.05
266
9.24
269
12.39
280
3.16
229
7.69
259
10.20
240
10.41
258
3.13
267
12.60
261
5.58
250
5.05
256
2.83
262
19.52
259
4.27
257
8.70
265
10.59
282
5.48
277
2.86
244
5.69
248
10.08
254
5.48
215
16.37
257
ADCPNettwo views7.46
253
2.07
229
4.11
248
2.81
233
6.39
263
3.36
238
8.24
267
5.53
260
7.83
269
3.76
251
7.86
262
5.53
218
14.04
266
3.15
268
13.54
267
6.64
270
4.80
252
2.06
249
18.97
258
5.05
264
8.54
263
10.30
280
2.99
263
2.59
241
9.61
268
17.77
280
7.74
244
16.22
256
PWC_ROBbinarytwo views7.58
255
2.00
225
5.48
261
0.90
190
1.32
203
2.25
228
5.46
257
2.83
205
16.84
290
3.83
254
8.10
265
5.42
215
39.62
299
1.01
235
9.69
241
5.15
240
6.62
263
4.25
273
16.71
250
4.76
261
8.56
264
10.40
281
0.63
218
4.96
268
3.07
212
3.69
191
7.15
241
24.07
277
FAT-Stereotwo views7.68
256
2.26
234
8.90
282
7.33
257
12.67
281
6.25
253
3.58
244
7.41
266
3.60
249
5.82
275
12.39
283
18.45
260
9.06
253
1.35
248
12.36
259
6.54
268
3.93
239
4.03
271
15.97
247
6.36
269
7.78
256
9.24
266
0.76
234
5.29
273
3.49
223
6.98
230
8.20
250
17.22
260
MFN_U_SF_DS_RVCtwo views7.94
257
3.78
255
1.17
176
9.35
265
4.27
252
8.06
262
8.52
269
11.24
275
8.55
271
4.88
271
4.04
222
17.24
257
9.50
255
6.06
280
14.53
278
3.53
200
2.28
217
1.12
205
19.59
261
2.56
236
8.24
261
9.72
273
3.14
266
2.11
235
11.98
274
14.76
273
10.14
258
14.15
252
ACV-stereotwo views8.68
258
5.35
266
4.89
253
8.31
261
1.79
217
11.62
271
4.37
249
3.80
238
6.01
262
5.33
274
7.17
254
6.07
223
26.41
281
1.30
245
11.88
255
10.16
296
6.25
261
2.60
258
51.34
302
14.45
291
9.06
270
8.91
261
1.00
238
2.60
242
2.32
188
8.54
246
7.07
238
5.71
203
pmcnntwo views8.69
259
3.07
246
2.45
228
6.53
255
5.75
259
7.18
257
4.96
254
4.79
250
2.03
228
4.24
260
12.14
281
19.36
261
21.49
276
0.91
231
9.48
238
6.75
272
6.67
264
4.39
276
22.61
267
5.09
265
10.91
280
7.84
234
4.51
274
5.07
270
6.90
258
5.26
213
17.73
280
26.48
283
FBW_ROBtwo views8.77
260
9.60
275
5.96
266
20.47
279
9.29
273
12.71
272
9.20
271
4.97
252
1.59
212
3.30
233
6.98
250
15.27
252
3.59
235
7.76
283
10.34
245
1.71
92
3.43
232
0.86
175
34.07
282
2.29
228
6.89
246
6.34
190
9.32
284
8.81
288
5.75
250
8.41
241
5.24
206
22.62
272
MaskLacGwcNet_RVCtwo views8.85
261
1.66
219
6.09
267
4.62
248
3.79
247
3.05
235
6.94
263
3.69
234
3.58
248
4.74
269
10.17
277
65.85
312
12.11
262
7.99
284
7.88
223
5.27
244
4.63
249
5.31
277
18.89
257
2.67
239
8.70
265
10.19
278
1.05
241
4.09
256
5.01
241
9.52
250
6.30
228
15.16
255
S-Stereotwo views9.64
262
2.07
229
4.59
249
8.70
263
8.72
271
12.93
274
19.52
283
5.25
257
6.14
264
6.12
278
20.39
302
29.19
272
7.43
247
0.64
218
14.26
273
7.63
284
4.01
242
5.81
282
18.32
253
6.45
271
7.46
253
9.84
274
12.36
288
7.40
282
3.61
224
6.74
226
7.10
240
17.56
261
ADCStwo views10.79
263
5.73
267
4.98
254
4.16
246
6.39
263
6.60
254
6.53
260
10.15
273
15.87
288
4.18
259
7.59
257
13.56
250
18.31
271
4.53
276
14.24
272
11.99
301
10.80
275
7.09
290
25.37
273
9.28
282
16.45
300
16.31
305
2.97
262
7.03
281
10.05
272
20.56
287
11.21
263
19.51
264
STTRV1_RVCtwo views10.96
264
2.66
240
1.55
195
5.84
250
1.90
222
6.01
252
3.60
245
4.11
242
3.93
250
4.64
267
6.71
248
16.96
256
21.63
277
1.68
256
20.69
300
5.04
239
18.60
294
1.18
209
52.69
305
12.74
289
19.16
304
9.31
267
4.76
276
5.05
269
9.07
264
12.15
263
12.79
266
31.40
289
MFN_U_SF_RVCtwo views11.03
265
6.12
270
3.70
244
9.72
266
5.50
257
12.91
273
11.38
274
12.61
279
7.46
268
12.18
295
14.75
289
23.19
264
14.11
267
9.33
285
18.32
290
5.16
241
4.41
246
3.43
267
39.06
290
6.67
272
10.28
276
11.18
284
1.45
251
6.88
280
9.80
270
8.50
245
9.76
255
19.96
267
SGM_RVCbinarytwo views11.04
266
10.51
278
3.94
246
16.88
274
9.65
276
15.55
275
8.47
268
9.54
270
6.09
263
4.15
258
7.87
263
25.06
267
19.78
275
0.97
232
9.49
239
2.25
135
3.81
236
1.26
217
21.86
264
2.34
231
6.63
243
5.12
160
2.33
257
4.85
267
18.97
284
16.47
279
33.79
297
30.47
287
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
G-Nettwo views11.11
267
4.89
265
9.62
284
4.05
245
4.71
254
7.69
259
2.56
227
10.07
272
15.27
286
5.01
272
15.52
292
47.57
298
9.25
254
0.66
220
11.93
256
8.70
290
5.83
258
4.33
274
24.55
272
15.55
293
8.38
262
9.97
276
3.01
264
5.25
272
6.16
253
13.40
271
22.59
284
23.59
276
SANettwo views11.19
268
4.59
261
6.27
271
5.98
251
6.03
261
9.51
268
3.52
241
15.63
284
13.49
283
2.90
221
8.65
266
59.91
307
26.52
282
3.01
266
14.30
274
3.26
182
7.32
266
3.86
270
11.91
239
3.94
255
6.50
236
7.39
216
2.61
260
7.75
285
12.68
275
17.80
281
13.93
271
22.99
273
MDST_ROBtwo views11.38
269
16.72
284
3.53
243
29.03
284
10.09
277
21.13
282
6.30
259
6.03
263
2.39
232
3.16
229
5.82
239
11.55
243
29.02
286
0.67
221
15.26
284
3.18
179
1.65
197
0.66
147
8.85
209
2.07
218
5.87
224
6.71
203
2.26
256
3.08
248
28.29
294
22.14
293
37.48
302
24.36
278
MSC_U_SF_DS_RVCtwo views11.75
270
10.45
277
6.25
270
17.50
275
6.77
268
8.15
263
11.44
275
18.23
291
23.22
301
11.11
290
4.62
227
15.32
253
6.08
241
10.68
288
16.27
286
6.19
260
3.94
240
5.52
278
39.73
291
7.74
276
9.53
275
12.33
290
7.02
279
7.63
284
14.72
279
12.91
269
6.89
236
16.97
259
edge stereotwo views11.93
271
6.96
272
11.28
285
14.49
271
12.53
280
16.91
277
13.06
278
12.62
280
7.43
267
6.06
277
15.07
290
38.54
285
18.86
272
1.55
252
12.90
263
7.43
281
6.14
259
3.10
264
25.46
274
4.74
260
8.16
259
10.22
279
4.20
272
4.35
260
9.83
271
8.13
240
13.68
269
28.51
285
DGSMNettwo views12.26
272
4.87
264
8.31
279
6.01
252
6.04
262
7.30
258
6.59
261
7.90
267
4.51
256
11.38
292
32.66
311
17.48
258
8.74
252
4.36
275
14.01
269
14.50
305
17.26
291
9.25
294
41.69
293
11.54
288
21.38
309
24.41
312
4.74
275
7.56
283
5.44
245
11.45
261
8.55
251
13.11
248
DDUNettwo views13.01
273
20.50
287
4.63
250
37.04
290
24.81
288
34.87
292
32.65
290
1.85
141
1.66
218
1.47
182
3.83
219
13.22
249
4.08
239
83.62
303
6.26
200
2.41
145
8.99
272
3.82
268
18.78
254
4.54
258
7.88
257
7.25
212
16.92
293
0.99
206
1.50
171
0.70
121
4.90
201
2.09
168
PVDtwo views13.07
274
5.77
268
8.84
281
7.67
259
7.35
269
10.40
269
7.28
264
21.12
297
19.70
297
3.65
246
8.76
268
16.32
255
27.90
284
3.25
269
14.97
282
8.92
292
11.32
276
6.23
286
25.56
275
7.56
274
12.68
287
14.11
299
1.29
247
6.16
276
16.97
281
25.32
298
18.21
281
35.51
295
AnyNet_C01two views13.13
275
6.35
271
5.48
261
6.38
254
6.46
265
5.73
249
10.15
272
12.79
282
16.56
289
5.83
276
9.31
273
26.51
269
19.60
273
5.31
279
17.84
288
13.62
303
17.55
292
15.56
307
35.24
283
11.09
286
19.28
305
17.31
307
7.05
280
7.85
286
13.46
277
10.79
258
9.89
256
21.58
269
UDGtwo views13.28
276
21.47
288
5.08
256
37.13
291
29.51
291
32.00
288
40.03
293
2.62
189
1.78
222
2.40
206
5.74
238
12.64
246
4.23
240
74.90
300
7.47
217
2.61
155
9.44
273
3.24
266
19.57
260
5.01
263
8.74
268
7.28
213
12.84
289
1.84
231
1.35
161
2.91
178
4.53
192
2.12
169
SGM-ForestMtwo views13.51
277
15.62
282
5.25
260
19.43
277
9.27
272
19.59
281
12.46
277
12.78
281
8.97
274
3.34
237
9.27
272
36.07
282
25.37
280
2.03
262
16.48
287
3.39
190
4.90
254
1.21
212
22.28
265
2.96
245
6.90
247
5.25
163
1.83
253
4.68
262
27.51
293
25.27
297
34.85
300
27.72
284
MeshStereopermissivetwo views13.92
278
10.29
276
5.80
264
24.32
283
15.33
282
17.65
279
7.76
265
12.34
278
7.38
266
4.65
268
9.09
271
38.22
284
30.61
289
0.62
217
14.44
277
7.42
280
4.05
244
2.65
259
19.82
262
2.63
238
14.32
294
9.90
275
1.27
246
6.42
277
22.75
289
19.43
284
33.41
295
33.14
291
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
DPSNettwo views15.27
279
3.38
251
2.28
225
7.89
260
8.28
270
10.58
270
4.44
251
5.86
261
8.70
273
4.26
261
6.00
242
72.12
317
28.20
285
4.69
277
15.14
283
10.42
297
11.48
278
8.27
292
58.42
314
9.38
283
12.12
286
11.31
285
17.29
294
11.11
293
20.16
287
20.85
290
14.99
274
24.68
280
MFMNet_retwo views16.81
280
13.74
280
7.85
276
23.81
282
9.51
275
34.14
291
18.04
280
12.31
276
19.02
295
10.33
289
12.96
284
38.69
286
15.16
269
1.61
255
18.46
291
10.89
299
28.67
308
12.10
299
31.52
278
10.43
285
18.75
303
11.05
283
8.52
282
9.85
289
9.47
267
5.57
216
24.17
285
37.24
297
SQANettwo views19.01
281
32.39
294
7.05
272
58.51
296
34.20
292
58.54
297
40.35
294
4.32
244
1.69
219
4.85
270
1.45
175
32.05
274
6.71
245
57.82
296
11.24
253
1.77
94
6.68
265
1.66
230
31.16
277
2.08
220
8.23
260
7.99
239
54.11
302
2.11
235
5.60
246
10.88
259
10.17
259
19.67
266
SAMSARAtwo views20.09
282
2.60
238
5.52
263
4.28
247
4.10
251
3.59
241
5.57
258
15.80
287
10.05
277
4.59
266
5.59
237
9.22
236
24.85
279
3.88
271
16.25
285
8.47
289
6.17
260
3.82
268
22.29
266
5.87
268
19.35
306
26.82
319
1.02
239
5.45
274
80.31
324
91.77
324
78.09
325
77.23
324
MADNet+two views20.34
283
8.33
273
14.90
294
18.17
276
11.98
279
8.55
264
19.20
281
28.96
308
17.96
293
12.55
296
11.63
280
34.32
279
30.36
288
10.57
287
26.85
307
16.66
307
27.39
306
10.40
298
40.88
292
18.27
298
19.91
307
15.53
303
9.97
287
19.40
304
35.72
302
22.38
294
21.31
283
37.09
296
ELAS_RVCcopylefttwo views20.43
284
19.80
286
14.61
293
33.93
287
22.90
285
33.71
290
20.10
285
15.64
285
12.18
278
8.45
284
19.69
301
54.25
305
33.97
293
4.07
272
13.47
266
5.30
247
11.89
279
6.49
288
21.52
263
8.87
280
14.06
291
14.69
301
9.63
286
11.88
294
32.34
298
25.79
299
41.56
308
40.71
303
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
STStereotwo views20.61
285
24.96
290
17.24
296
39.82
292
27.48
290
32.58
289
22.87
287
19.77
294
17.77
292
8.05
283
19.67
300
46.38
293
37.96
298
2.15
263
18.66
293
4.75
233
4.82
253
1.95
243
33.25
280
6.38
270
9.07
271
8.67
256
3.28
267
10.68
291
31.80
297
27.62
303
40.75
304
38.09
299
ELAScopylefttwo views20.62
286
22.76
289
14.59
292
35.29
289
24.88
289
31.90
287
20.66
286
17.34
290
17.05
291
7.97
282
18.32
297
48.39
299
31.67
290
4.13
273
14.30
274
5.24
243
11.47
277
6.10
285
23.02
270
7.62
275
13.14
288
14.53
300
9.46
285
10.75
292
34.52
300
27.84
304
41.52
307
42.31
306
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
SPS-STEREOcopylefttwo views20.98
287
14.87
281
11.99
287
19.90
278
20.87
283
18.85
280
10.39
273
16.04
288
19.39
296
19.65
305
21.64
305
33.32
276
37.38
297
7.51
282
19.34
296
17.18
309
26.65
304
16.12
309
32.93
279
23.87
305
31.45
317
25.37
316
13.83
291
14.33
301
17.76
283
19.97
285
29.60
291
26.21
281
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
MANEtwo views21.44
288
17.36
285
16.07
295
34.52
288
24.54
287
25.94
285
19.26
282
20.13
296
18.43
294
6.42
280
15.25
291
40.88
288
36.30
296
4.35
274
18.72
294
10.55
298
8.23
269
29.63
318
23.68
271
4.94
262
11.81
283
8.91
261
3.02
265
10.18
290
36.19
305
32.24
308
51.66
316
49.72
310
otakutwo views22.42
289
43.20
298
9.38
283
63.06
302
42.07
298
64.13
306
51.05
295
6.07
264
4.42
255
10.13
288
1.74
182
33.95
277
10.96
259
66.92
298
12.03
257
1.89
103
8.57
270
1.66
230
38.00
288
7.96
278
8.85
269
8.28
251
54.71
303
2.95
245
9.04
263
9.25
248
14.25
273
20.70
268
SGM+DAISYtwo views22.46
290
16.23
283
12.74
288
23.16
281
22.67
284
25.12
284
20.00
284
18.50
292
14.48
285
18.58
304
22.04
306
30.49
273
41.59
300
13.05
290
22.51
304
16.54
306
26.00
303
12.93
301
35.92
284
22.37
303
28.02
315
25.12
315
21.26
295
13.77
299
20.04
286
18.46
283
33.94
298
30.81
288
DLNR_Zeroshot_testpermissivetwo views23.08
291
78.93
325
7.15
273
99.97
326
0.34
127
0.16
136
98.90
325
3.23
223
0.54
148
3.12
228
2.31
196
6.01
222
0.92
207
21.35
292
96.48
327
100.00
330
25.46
301
22.19
312
22.79
269
2.43
232
9.32
273
9.14
264
0.06
75
0.65
173
2.36
191
3.89
197
2.16
88
3.20
181
LSM0two views23.31
292
6.07
269
4.80
252
15.07
273
10.87
278
17.08
278
14.50
279
23.84
300
15.74
287
14.73
299
18.40
298
35.77
281
35.06
295
1.58
254
76.98
323
85.81
323
14.68
288
5.68
280
56.53
312
17.15
297
23.95
312
21.89
310
4.26
273
8.21
287
17.36
282
20.39
286
29.27
290
33.71
293
LE_ROBtwo views23.34
293
10.93
279
12.86
289
32.65
285
38.35
295
31.72
286
33.97
291
23.50
299
21.06
299
7.08
281
17.87
296
51.83
302
51.55
315
1.81
259
14.20
271
3.08
173
3.94
240
1.47
224
30.65
276
8.98
281
9.43
274
7.39
216
6.89
278
25.95
309
35.31
301
39.95
316
53.69
318
54.00
313
Ntrotwo views23.84
294
41.67
296
11.59
286
63.69
304
43.73
299
62.95
304
57.60
298
8.47
268
6.35
265
11.89
294
2.51
201
35.10
280
7.96
249
75.67
301
12.59
260
1.67
87
9.55
274
2.68
261
39.05
289
9.79
284
8.70
265
8.40
254
55.40
304
3.24
250
11.18
273
15.16
274
14.07
272
23.09
275
BEATNet-Init1two views25.27
295
27.76
291
13.76
290
44.57
294
24.32
286
38.91
293
25.10
288
19.51
293
20.03
298
9.35
285
16.15
294
47.35
297
48.89
310
4.71
278
23.55
305
11.00
300
8.78
271
5.84
283
49.88
301
20.70
299
15.01
295
14.94
302
7.37
281
12.57
297
35.78
303
26.22
300
60.85
322
49.36
309
DispFullNettwo views27.09
296
40.76
295
20.37
301
53.27
295
39.67
296
45.72
295
56.25
297
14.00
283
12.78
281
14.18
297
10.07
276
43.95
292
34.00
294
86.26
304
13.33
265
13.62
303
31.37
312
16.57
310
52.58
304
15.02
292
15.98
297
12.66
293
15.43
292
6.52
278
8.73
262
8.65
247
16.24
277
33.48
292
ACVNet-4btwo views27.62
297
43.15
297
14.04
291
69.86
313
48.10
302
70.20
314
77.34
313
10.63
274
9.55
276
15.00
300
1.55
177
59.33
306
11.37
260
93.44
311
12.94
264
2.57
152
15.66
289
5.69
281
33.68
281
14.13
290
9.17
272
7.28
213
59.49
308
4.60
261
12.85
276
9.43
249
15.52
275
19.12
263
WAO-7two views28.15
298
31.17
293
25.54
305
33.41
286
34.99
293
22.62
283
28.62
289
47.75
317
47.89
314
29.08
310
39.82
315
41.47
289
41.79
301
12.75
289
36.14
314
18.16
310
17.03
290
8.88
293
47.38
297
21.69
302
11.73
282
12.95
296
3.79
271
33.81
315
23.20
290
26.44
301
24.41
286
37.61
298
ACVNet_1two views28.17
299
43.81
299
17.24
296
67.32
308
49.50
304
66.04
311
82.98
318
16.42
289
8.08
270
11.43
293
7.19
255
34.00
278
27.09
283
93.81
312
14.92
281
2.21
133
17.82
293
6.77
289
36.07
285
11.39
287
10.56
279
7.42
219
59.65
309
6.11
275
20.40
288
15.24
276
10.18
260
16.93
258
RainbowNettwo views28.72
300
46.67
300
19.30
300
69.82
312
47.14
300
68.90
313
70.63
308
10.00
271
3.26
242
17.63
302
2.27
189
46.57
294
29.74
287
91.67
308
17.86
289
3.37
188
12.50
280
5.59
279
44.74
296
17.11
296
10.33
277
8.87
259
58.90
307
5.15
271
14.30
278
12.58
266
17.44
278
23.01
274
PSMNet_ROBtwo views32.72
301
49.56
306
17.71
299
65.01
306
47.98
301
61.81
301
62.32
299
19.85
295
21.78
300
27.64
309
25.28
307
42.80
290
43.52
304
83.58
302
21.88
303
4.36
228
19.43
295
6.46
287
43.95
295
16.36
294
13.14
288
11.66
287
58.31
306
14.57
302
31.67
296
24.32
296
29.94
293
18.64
262
JetBluetwo views33.16
302
30.03
292
36.86
317
39.95
293
35.04
294
44.19
294
36.23
292
30.47
311
47.01
313
15.01
301
10.48
278
79.96
323
19.64
274
25.82
293
18.89
295
17.14
308
40.11
318
25.93
316
36.94
286
25.94
308
32.23
318
26.39
317
31.84
296
27.47
311
31.63
295
33.13
310
48.81
314
48.30
308
ACVNet_2two views33.32
303
48.24
302
22.45
303
67.72
311
50.69
309
65.88
309
85.41
321
28.48
306
14.03
284
14.63
298
9.36
274
52.16
303
31.94
291
91.62
307
13.62
268
2.72
157
21.29
296
5.84
283
51.78
303
16.52
295
10.41
278
7.93
237
58.06
305
13.93
300
36.96
307
18.42
282
25.58
287
33.95
294
IMH-64-1two views35.05
304
48.99
303
25.77
307
61.80
298
50.28
307
62.71
302
68.79
302
27.80
303
35.88
304
10.10
286
14.48
287
46.82
295
41.96
302
94.04
313
19.93
297
7.49
282
22.67
297
9.35
295
48.46
298
21.14
300
14.12
292
12.56
291
59.91
311
12.21
295
41.64
308
20.57
288
27.79
288
39.03
300
IMH-64two views35.05
304
48.99
303
25.77
307
61.80
298
50.28
307
62.71
302
68.79
302
27.80
303
35.88
304
10.10
286
14.48
287
46.82
295
41.96
302
94.04
313
19.93
297
7.49
282
22.67
297
9.35
295
48.46
298
21.14
300
14.12
292
12.56
291
59.91
311
12.21
295
41.64
308
20.57
288
27.79
288
39.03
300
IMHtwo views36.38
306
50.15
307
26.16
309
62.16
301
50.12
306
63.98
305
68.96
304
28.54
307
38.29
307
11.29
291
14.14
285
50.26
300
54.45
318
94.09
315
20.59
299
7.40
279
23.63
299
10.28
297
49.17
300
22.78
304
13.74
290
11.88
288
59.95
313
13.42
298
41.71
310
23.99
295
29.69
292
41.45
304
WAO-6two views37.66
307
47.81
301
21.43
302
60.52
297
52.73
310
58.92
298
64.84
300
27.98
305
43.38
308
33.02
313
17.53
295
43.36
291
50.95
312
89.65
305
33.50
310
18.63
313
24.84
300
13.57
303
42.17
294
25.77
307
21.16
308
19.52
308
35.00
297
18.52
303
43.20
311
29.62
305
37.17
301
41.96
305
PWCKtwo views39.46
308
63.60
315
25.26
304
73.87
319
41.94
297
61.54
300
51.88
296
54.42
318
37.36
306
26.43
308
38.00
312
62.72
311
47.31
306
27.64
294
24.07
306
10.09
295
32.07
313
12.97
302
84.14
324
29.01
312
25.42
313
16.79
306
48.17
301
30.69
314
35.86
304
32.01
307
32.05
294
40.21
302
TorneroNet-64two views40.02
309
51.18
308
25.58
306
64.09
305
48.50
303
64.50
307
69.74
305
27.58
302
44.28
310
21.06
306
14.38
286
70.42
316
57.53
319
94.84
317
27.09
308
8.83
291
28.00
307
16.10
308
54.90
310
26.42
309
15.26
296
13.34
297
61.86
314
22.65
305
33.51
299
30.60
306
34.09
299
54.24
314
LVEtwo views40.69
310
49.32
305
32.19
312
74.37
320
65.31
315
65.52
308
78.53
314
29.09
309
24.11
302
37.95
315
38.44
313
39.09
287
50.88
311
95.16
323
18.50
292
6.31
264
25.93
302
13.65
304
54.80
309
26.51
310
16.26
298
15.81
304
69.49
320
26.57
310
44.82
312
33.95
312
41.51
306
24.49
279
TorneroNettwo views40.95
311
54.80
310
28.35
310
67.47
310
50.00
305
66.00
310
71.75
309
26.53
301
45.69
311
24.20
307
21.34
304
68.12
313
53.25
317
94.92
319
27.93
309
9.57
293
26.82
305
16.87
311
54.27
308
24.50
306
16.26
298
13.93
298
62.31
315
23.32
307
36.59
306
27.14
302
43.07
309
50.69
311
Deantwo views44.25
312
52.28
309
33.23
313
77.10
321
64.97
314
79.61
323
83.94
320
43.21
313
43.41
309
35.28
314
25.28
307
61.70
309
57.88
320
95.07
322
21.16
302
4.55
229
29.50
309
12.92
300
64.62
317
29.22
313
11.94
284
10.07
277
59.70
310
23.01
306
50.00
316
39.42
315
53.45
317
32.13
290
WAO-8two views45.52
313
56.99
312
36.84
315
70.78
315
61.58
311
72.65
317
72.88
310
44.15
314
50.34
315
32.51
311
26.24
309
68.22
314
50.98
313
91.91
309
34.40
311
19.25
314
31.26
310
14.25
305
53.00
306
37.84
317
18.64
301
12.91
294
45.23
298
27.94
312
54.23
319
39.08
313
48.02
312
56.81
316
Venustwo views45.52
313
56.99
312
36.84
315
70.77
314
61.58
311
72.65
317
72.88
310
44.15
314
50.34
315
32.51
311
26.24
309
68.22
314
50.98
313
91.91
309
34.40
311
19.25
314
31.26
310
14.25
305
53.00
306
37.84
317
18.64
301
12.91
294
45.23
298
27.94
312
54.23
319
39.08
313
48.02
312
56.81
316
notakertwo views50.99
315
64.58
317
35.58
314
71.22
316
67.03
316
71.52
316
79.74
316
46.10
316
64.92
319
43.57
318
60.04
319
61.27
308
52.88
316
94.30
316
52.11
319
32.30
317
36.01
316
25.62
315
66.68
319
41.75
319
26.51
314
26.69
318
69.04
319
40.16
318
27.04
291
32.57
309
39.45
303
47.99
307
UNDER WATERtwo views53.46
316
66.50
318
44.48
318
77.89
322
68.28
317
75.27
320
86.28
323
62.01
321
51.94
317
41.57
316
48.61
316
74.76
320
58.64
321
94.91
318
40.27
316
19.59
316
35.94
315
25.36
314
57.83
313
30.24
314
22.42
311
21.82
309
69.76
321
49.60
322
53.54
318
52.17
318
44.57
310
69.15
322
ktntwo views53.49
317
64.55
316
32.09
311
67.37
309
73.02
322
67.18
312
79.08
315
39.47
312
71.03
321
45.61
320
66.57
321
53.73
304
46.66
305
95.58
324
51.51
318
35.27
318
42.24
320
32.53
319
61.67
315
36.66
316
34.35
320
37.51
321
63.57
316
39.21
316
45.92
313
42.82
317
58.10
320
61.01
318
UNDER WATER-64two views54.23
318
63.34
314
46.02
320
79.36
323
71.42
320
76.64
321
88.13
324
66.12
322
46.96
312
52.07
321
60.69
320
73.21
318
59.22
322
94.98
321
35.82
313
18.58
312
36.56
317
27.05
317
54.96
311
27.40
311
22.29
310
24.45
313
75.67
324
44.51
319
51.17
317
56.84
320
41.43
305
69.34
323
KSHMRtwo views57.18
319
74.32
323
54.88
322
81.85
324
71.02
319
78.52
322
83.49
319
67.32
324
55.52
318
57.05
322
55.43
318
62.46
310
47.47
308
94.95
320
62.89
321
43.86
320
41.02
319
36.71
320
65.14
318
47.71
320
30.88
316
22.80
311
66.24
318
55.80
324
49.31
315
33.72
311
50.52
315
52.93
312
DPSimNet_ROBtwo views59.87
320
56.83
311
60.12
323
63.44
303
74.40
323
61.08
299
66.03
301
29.26
310
91.88
325
80.83
324
53.70
317
74.56
319
48.76
309
90.67
306
61.12
320
47.44
321
55.65
322
43.29
321
68.79
320
60.06
323
52.83
323
61.42
323
45.69
300
46.03
320
46.40
314
63.34
321
56.49
319
56.41
315
LRCNet_RVCtwo views60.98
321
74.62
324
47.06
321
94.31
325
95.29
325
91.20
325
85.70
322
54.57
319
35.63
303
98.62
326
74.21
323
91.97
327
68.08
324
96.82
326
39.31
315
18.45
311
70.27
324
52.85
323
94.58
325
64.63
324
32.99
319
24.53
314
94.81
326
53.78
323
19.71
285
12.68
267
33.49
296
26.36
282
HanzoNettwo views61.45
322
69.33
319
44.96
319
71.45
317
72.16
321
72.71
319
79.94
317
60.19
320
75.71
322
45.02
319
73.92
322
75.04
321
64.67
323
96.72
325
48.25
317
40.02
319
53.74
321
47.73
322
76.16
321
51.62
321
46.98
322
46.48
322
73.13
322
39.85
317
55.14
321
52.31
319
60.69
321
65.16
321
JetRedtwo views63.04
323
70.59
320
68.87
324
66.96
307
63.46
313
70.43
315
74.93
312
66.45
323
66.78
320
41.63
317
39.08
314
81.30
324
13.47
265
63.11
297
65.97
322
66.70
322
65.90
323
75.66
326
63.14
316
54.09
322
78.41
324
73.67
324
73.25
323
49.49
321
56.43
322
64.32
322
66.29
323
61.81
319
MADNet++two views76.55
324
72.12
321
82.72
326
61.81
300
81.28
324
58.20
296
69.82
306
68.60
325
78.83
323
85.65
325
92.58
325
79.76
322
85.27
325
36.74
295
81.31
325
89.87
325
87.51
326
69.64
324
82.22
323
90.64
326
91.37
326
93.20
327
65.06
317
90.12
326
59.87
323
75.77
323
74.46
324
62.48
320
ASD4two views81.93
325
73.21
322
76.95
325
73.65
318
68.72
318
82.82
324
70.01
307
72.46
326
81.37
324
64.41
323
77.66
324
50.65
301
95.44
326
68.75
299
77.39
324
87.32
324
86.80
325
89.75
327
81.77
322
89.98
325
88.86
325
88.63
326
80.66
325
86.12
325
99.17
329
99.85
328
99.79
329
99.90
328
PMLtwo views96.12
326
100.00
329
83.16
327
100.00
327
100.00
327
100.00
329
99.20
328
100.00
331
99.01
327
100.00
329
96.16
326
99.92
331
100.00
331
98.52
327
94.60
326
91.70
326
91.21
327
74.14
325
100.00
330
98.06
328
92.87
327
86.59
325
97.59
327
98.11
328
94.46
328
99.98
329
100.00
330
99.92
329
MEDIAN_ROBtwo views97.62
327
99.11
326
98.47
328
100.00
327
99.99
326
100.00
329
100.00
329
99.48
329
98.33
326
100.00
329
99.95
329
98.03
328
96.13
327
99.95
328
99.43
328
98.46
327
98.58
328
98.67
328
99.88
328
97.97
327
93.64
328
96.55
329
100.00
329
97.27
327
87.22
325
92.69
325
89.89
326
95.94
326
AVERAGE_ROBtwo views98.96
328
100.00
329
99.80
330
100.00
327
100.00
327
100.00
329
100.00
329
100.00
331
100.00
329
100.00
329
100.00
331
100.00
332
100.00
331
100.00
329
99.80
330
99.85
329
100.00
332
100.00
332
100.00
330
100.00
332
98.20
330
99.54
330
100.00
329
100.00
330
93.40
327
93.83
326
94.40
328
93.22
325
HaxPigtwo views99.00
329
100.00
329
98.99
329
100.00
327
100.00
327
99.99
328
100.00
329
99.99
330
99.89
328
100.00
329
99.98
330
100.00
332
99.94
330
100.00
329
99.61
329
99.46
328
99.97
331
99.58
329
99.99
329
99.99
329
97.37
329
96.43
328
99.99
328
99.98
329
89.52
326
99.53
327
94.23
327
98.48
327
DGTPSM_ROBtwo views99.53
330
99.77
327
100.00
331
100.00
327
100.00
327
100.00
329
100.00
329
99.19
327
100.00
329
99.32
327
99.66
328
91.63
325
99.15
328
100.00
329
99.94
331
100.00
330
99.82
329
99.99
330
99.51
326
99.99
329
99.77
331
99.66
331
100.00
329
100.00
330
100.00
330
100.00
330
100.00
330
100.00
330
DPSMNet_ROBtwo views99.54
331
99.78
328
100.00
331
100.00
327
100.00
327
100.00
329
100.00
329
99.19
327
100.00
329
99.32
327
99.65
327
91.68
326
99.16
329
100.00
329
99.94
331
100.00
330
99.83
330
99.99
330
99.59
327
99.99
329
99.77
331
99.66
331
100.00
329
100.00
330
100.00
330
100.00
330
100.00
330
100.00
330
DPSM_ROBtwo views99.91
332
100.00
329
100.00
331
100.00
327
100.00
327
98.90
326
98.96
326
100.00
331
100.00
329
100.00
329
100.00
331
99.76
329
100.00
331
100.00
329
100.00
333
100.00
330
100.00
332
100.00
332
100.00
330
100.00
332
100.00
333
100.00
333
100.00
329
100.00
330
100.00
330
100.00
330
100.00
330
100.00
330
DPSMtwo views99.91
332
100.00
329
100.00
331
100.00
327
100.00
327
98.90
326
98.96
326
100.00
331
100.00
329
100.00
329
100.00
331
99.76
329
100.00
331
100.00
329
100.00
333
100.00
330
100.00
332
100.00
332
100.00
330
100.00
332
100.00
333
100.00
333
100.00
329
100.00
330
100.00
330
100.00
330
100.00
330
100.00
330
CasAABBNettwo views100.00
334
100.00
329
100.00
331
100.00
327
100.00
327
100.00
329
100.00
329
100.00
331
100.00
329
100.00
329
100.00
331
100.00
332
100.00
331
100.00
329
100.00
333
100.00
330
100.00
332
100.00
332
100.00
330
100.00
332
100.00
333
100.00
333
100.00
329
100.00
330
100.00
330
100.00
330
100.00
330
100.00
330
FADEtwo views17.50
298
14.80
272
21.58
298
17.74
303
47.38
307
13.14
291
21.07
301
12.04
302
34.32
314
23.23
313
35.12
315
37.77
321
35.26
320
13.16
290
25.00
308
47.51
311