This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
AIO-test2two views0.21
1
0.16
1
0.11
1
0.09
1
0.11
2
0.16
5
0.12
20
0.23
7
0.15
12
0.18
8
0.19
18
0.42
31
0.14
7
0.12
3
0.34
1
0.42
2
0.32
1
0.25
3
0.30
1
0.18
1
0.29
1
0.32
8
0.11
2
0.15
14
0.20
1
0.20
1
0.23
1
0.19
2
AIO-test1two views0.25
3
0.19
2
0.14
2
0.12
6
0.14
8
0.18
11
0.15
34
0.33
19
0.16
15
0.25
17
0.24
27
0.35
19
0.14
7
0.19
22
0.56
10
0.59
11
0.35
2
0.30
8
0.35
2
0.27
13
0.33
2
0.31
6
0.13
6
0.13
7
0.23
2
0.23
7
0.31
2
0.18
1
CroCo-Stereocopylefttwo views0.35
19
0.20
3
0.15
7
0.11
2
0.10
1
0.18
11
0.06
1
0.33
19
0.14
6
0.31
26
0.05
1
0.36
21
0.13
5
0.15
11
1.64
51
1.05
62
0.35
2
0.37
20
0.45
18
0.20
4
0.62
35
0.79
50
0.16
9
0.13
7
0.38
24
0.31
25
0.45
8
0.26
18
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
Pointernettwo views0.24
2
0.21
4
0.14
2
0.14
9
0.12
3
0.19
14
0.16
36
0.28
11
0.10
1
0.17
7
0.14
13
0.23
3
0.14
7
0.12
3
0.47
4
0.42
2
0.37
6
0.23
1
0.35
2
0.19
2
0.35
4
0.25
3
0.14
7
0.14
13
0.23
2
0.21
4
0.67
31
0.22
6
MLG-Stereo_test1two views0.26
5
0.22
5
0.14
2
0.13
7
0.22
26
0.11
1
0.08
5
0.22
6
0.12
3
0.20
10
0.12
8
0.33
16
0.11
2
0.21
30
0.66
14
0.64
17
0.37
6
0.35
15
0.50
20
0.22
6
0.39
8
0.30
5
0.12
4
0.10
2
0.26
5
0.22
5
0.53
14
0.27
19
CroCo-Stereo Lap2two views0.33
16
0.22
5
0.15
7
0.11
2
0.12
3
0.16
5
0.08
5
0.35
24
0.15
12
0.47
41
0.10
4
0.31
14
0.14
7
0.14
7
1.26
36
1.00
55
0.36
4
0.36
19
0.44
16
0.20
4
0.53
25
0.55
25
0.17
11
0.13
7
0.39
28
0.35
36
0.40
6
0.27
19
RAFTtwo views0.35
19
0.22
5
0.19
13
0.27
28
0.13
6
0.30
40
0.08
5
0.97
113
0.18
25
0.92
141
0.19
18
0.27
5
0.16
15
0.18
19
0.51
6
0.47
4
0.38
9
0.26
4
0.54
24
0.25
11
0.43
12
0.34
10
0.19
20
0.15
14
0.38
24
0.34
34
0.90
51
0.27
19
MLG-Stereotwo views0.25
3
0.25
8
0.14
2
0.11
2
0.20
21
0.12
2
0.07
3
0.21
4
0.12
3
0.19
9
0.11
6
0.29
11
0.10
1
0.21
30
0.61
11
0.65
19
0.36
4
0.35
15
0.44
16
0.23
8
0.35
4
0.32
8
0.11
2
0.09
1
0.26
5
0.22
5
0.48
10
0.25
15
LG-Stereotwo views0.28
8
0.26
9
0.17
11
0.17
14
0.16
14
0.23
23
0.13
26
0.30
13
0.15
12
0.23
13
0.19
18
0.52
41
0.14
7
0.18
19
0.55
8
0.58
9
0.39
11
0.30
8
0.54
24
0.22
6
0.44
14
0.31
6
0.12
4
0.12
4
0.28
8
0.24
9
0.46
9
0.24
9
StereoVisiontwo views0.34
18
0.27
10
0.21
21
0.13
7
0.18
18
0.21
17
0.14
30
0.30
13
0.23
35
0.35
30
0.18
16
0.34
18
0.17
19
0.16
13
0.98
24
0.78
33
0.44
20
0.35
15
0.43
15
0.23
8
0.40
10
0.48
17
0.16
9
0.21
30
0.40
29
0.40
45
0.71
35
0.37
32
ProNettwo views0.30
10
0.27
10
0.31
35
0.26
25
0.15
11
0.27
33
0.27
73
0.38
27
0.13
5
0.15
4
0.49
74
0.29
11
0.13
5
0.16
13
0.73
17
0.49
6
0.43
18
0.32
10
0.35
2
0.27
13
0.38
7
0.22
1
0.38
56
0.22
32
0.32
14
0.20
1
0.38
5
0.27
19
Utwo views0.41
27
0.28
12
0.16
10
0.11
2
0.13
6
0.16
5
0.06
1
0.45
35
0.14
6
0.49
42
0.07
2
0.36
21
0.16
15
0.20
27
1.71
57
1.14
84
0.44
20
0.41
30
0.59
30
0.32
21
0.66
39
0.92
63
0.17
11
0.17
21
0.50
51
0.36
38
0.49
11
0.35
30
RSMtwo views0.30
10
0.30
13
0.22
23
0.32
43
0.15
11
0.21
17
0.10
14
0.17
1
0.16
15
0.14
2
0.26
30
0.22
2
0.19
25
0.14
7
0.64
13
0.60
13
0.39
11
0.37
20
0.35
2
0.33
23
0.46
17
0.54
24
0.19
20
0.16
16
0.30
12
0.26
16
0.58
18
0.24
9
MoCha-V2two views0.30
10
0.31
14
0.23
26
0.21
16
0.17
17
0.17
10
0.14
30
0.23
7
0.11
2
0.26
20
0.28
34
0.32
15
0.16
15
0.19
22
0.62
12
0.61
15
0.39
11
0.38
22
0.35
2
0.42
42
0.61
32
0.51
22
0.15
8
0.16
16
0.35
18
0.26
16
0.34
3
0.19
2
AIO-Stereopermissivetwo views0.31
13
0.33
15
0.22
23
0.35
49
0.16
14
0.20
16
0.10
14
0.17
1
0.14
6
0.14
2
0.20
22
0.21
1
0.16
15
0.14
7
0.55
8
0.55
7
0.41
14
0.39
25
1.18
81
0.36
28
0.39
8
0.43
16
0.17
11
0.16
16
0.32
14
0.24
9
0.61
23
0.19
2
RSM++two views0.33
16
0.33
15
0.23
26
0.36
54
0.20
21
0.24
26
0.10
14
0.21
4
0.16
15
0.16
5
0.26
30
0.26
4
0.19
25
0.16
13
0.83
22
0.65
19
0.41
14
0.38
22
0.50
20
0.39
32
0.50
20
0.59
30
0.25
33
0.16
16
0.41
31
0.26
16
0.54
15
0.30
26
MM-Stereo_test3two views0.27
7
0.36
17
0.14
2
0.25
23
0.15
11
0.15
3
0.08
5
0.48
36
0.18
25
0.25
17
0.10
4
0.41
30
0.12
4
0.11
2
0.36
2
0.40
1
0.42
16
0.26
4
0.37
8
0.25
11
0.33
2
0.25
3
0.24
30
0.12
4
0.29
10
0.20
1
0.77
45
0.23
7
111111two views0.31
13
0.37
18
0.19
13
0.25
23
0.29
38
0.22
22
0.09
10
0.19
3
0.16
15
0.10
1
0.17
15
0.27
5
0.17
19
0.18
19
0.79
20
0.56
8
0.46
27
0.28
6
0.76
46
0.24
10
0.53
25
0.61
33
0.21
22
0.11
3
0.25
4
0.25
11
0.41
7
0.19
2
GREAT-IGEVtwo views0.32
15
0.37
18
0.21
21
0.15
10
0.12
3
0.16
5
0.09
10
0.30
13
0.16
15
0.33
27
0.18
16
0.44
33
0.19
25
0.20
27
0.74
18
0.61
15
0.45
23
0.29
7
0.42
12
0.28
17
0.43
12
0.52
23
0.21
22
0.17
21
0.27
7
0.25
11
0.88
50
0.23
7
CoSvtwo views0.26
5
0.38
20
0.20
16
0.18
15
0.14
8
0.35
55
0.09
10
0.38
27
0.16
15
0.20
10
0.08
3
0.28
9
0.14
7
0.09
1
0.47
4
0.59
11
0.42
16
0.23
1
0.39
10
0.19
2
0.40
10
0.23
2
0.10
1
0.13
7
0.40
29
0.25
11
0.36
4
0.24
9
RAStereotwo views0.46
32
0.38
20
0.19
13
0.15
10
0.16
14
0.19
14
0.11
17
0.44
33
0.18
25
0.99
151
0.12
8
0.45
34
0.18
23
0.15
11
1.85
78
1.10
77
0.52
35
0.47
37
0.68
35
0.27
13
0.77
52
0.80
52
0.27
34
0.17
21
0.47
44
0.34
34
0.51
12
0.41
36
anonymousdsptwo views0.50
34
0.38
20
0.36
44
0.28
30
0.32
46
0.28
35
0.15
34
0.56
41
0.26
38
0.42
35
0.33
44
0.53
44
0.19
25
0.27
43
1.47
40
0.87
38
0.54
39
0.52
47
0.62
31
0.48
58
0.71
43
1.04
73
0.36
50
0.30
44
0.46
38
0.29
23
1.13
74
0.33
28
IGEV-Stereo++two views0.36
22
0.40
23
0.20
16
0.22
18
0.25
30
0.21
17
0.09
10
0.25
10
0.17
22
0.20
10
0.34
46
0.29
11
0.20
31
0.19
22
0.78
19
0.60
13
0.44
20
0.33
12
0.75
43
0.34
25
0.53
25
0.64
37
0.22
24
0.13
7
0.28
8
0.27
20
1.09
69
0.28
23
RYNettwo views2.42
198
0.40
23
0.35
43
0.29
34
0.32
46
0.40
69
0.25
63
0.61
47
0.55
129
0.33
27
0.36
54
0.40
29
0.26
38
0.27
43
52.29
319
0.69
24
0.47
29
1.00
207
0.54
24
0.29
19
0.50
20
0.37
12
0.38
56
0.32
51
0.57
67
1.24
176
1.31
85
0.50
48
AdaDepthtwo views0.41
27
0.41
25
0.20
16
0.24
20
0.28
37
0.23
23
0.16
36
0.32
18
0.20
30
0.23
13
0.29
35
0.27
5
0.21
32
0.23
36
0.97
23
1.09
74
0.49
31
0.41
30
1.08
73
0.34
25
0.54
29
0.59
30
0.18
17
0.21
30
0.29
10
0.28
21
0.75
41
0.43
37
MSCFtwo views0.37
23
0.41
25
0.20
16
0.34
45
0.19
20
0.23
23
0.14
30
0.30
13
0.20
30
0.67
71
0.13
11
0.27
5
0.17
19
0.14
7
1.02
25
0.77
32
0.37
6
0.34
14
0.36
7
0.28
17
0.45
16
0.50
21
0.22
24
0.20
27
0.35
18
0.90
129
0.70
33
0.25
15
GASTEREOtwo views0.38
25
0.42
27
0.20
16
0.34
45
0.18
18
0.24
26
0.14
30
0.30
13
0.19
29
0.73
86
0.12
8
0.28
9
0.17
19
0.13
6
1.05
27
0.74
29
0.38
9
0.33
12
0.37
8
0.30
20
0.44
14
0.56
27
0.23
27
0.20
27
0.35
18
0.87
122
0.73
39
0.24
9
UniTT-Stereotwo views0.60
49
0.44
28
0.32
37
0.21
16
0.25
30
0.34
51
0.17
43
0.61
47
0.31
52
0.75
90
0.27
32
0.62
59
0.34
50
0.21
30
1.77
67
1.44
138
0.57
48
0.61
75
1.53
104
0.44
50
0.91
75
1.14
80
0.37
54
0.29
43
0.50
51
0.54
69
0.52
13
0.58
59
AANet_RVCtwo views0.54
40
0.45
29
0.40
52
0.33
44
0.61
135
0.28
35
0.31
85
0.61
47
0.58
140
0.44
37
0.41
61
0.39
25
0.48
86
0.33
69
1.16
30
0.79
34
0.55
41
0.53
56
0.56
28
0.52
65
0.46
17
0.49
19
0.34
42
0.38
67
0.57
67
0.57
74
1.05
66
0.97
133
MaDis-Stereotwo views0.57
43
0.47
30
0.30
32
0.16
12
0.26
34
0.21
17
0.17
43
0.44
33
0.32
56
1.08
161
0.22
24
0.51
40
0.22
35
0.19
22
1.83
75
1.19
94
0.62
57
0.59
69
1.09
75
0.45
52
0.81
59
0.94
65
0.37
54
0.25
39
0.63
78
0.67
89
0.60
20
0.82
106
MLG-Stereo_test3two views0.52
37
0.48
31
0.27
29
0.29
34
0.38
67
0.24
26
0.12
20
0.34
23
0.20
30
1.12
163
0.30
37
0.54
45
0.19
25
0.31
61
1.85
78
0.92
42
0.52
35
0.52
47
1.17
79
0.39
32
0.70
41
0.75
46
0.18
17
0.24
37
0.38
24
0.31
25
0.90
51
0.44
39
RAFT + AFFtwo views1.96
185
0.49
32
0.42
59
0.41
75
0.20
21
0.41
74
0.19
47
0.65
56
0.23
35
0.56
47
0.27
32
0.77
105
0.21
32
0.29
50
39.69
279
0.90
41
0.62
57
0.35
15
1.92
120
0.38
31
0.77
52
0.57
28
0.32
38
0.27
40
0.71
97
0.33
32
0.58
18
0.29
25
S2M2_XLtwo views0.85
72
0.50
33
0.64
107
0.24
20
0.30
40
0.35
55
0.28
76
0.61
47
0.43
86
0.56
47
0.35
52
0.65
67
0.59
118
0.34
74
2.56
157
1.65
173
0.69
72
0.47
37
0.72
38
0.54
67
4.94
185
2.28
119
0.48
100
0.30
44
0.55
65
0.51
64
0.74
40
0.74
89
SGD-Stereotwo views1.69
174
0.50
33
0.36
44
0.28
30
0.30
40
0.30
40
0.17
43
0.57
42
0.28
47
0.44
37
0.21
23
0.69
77
0.39
63
0.25
39
31.04
275
1.51
154
0.73
89
0.52
47
0.68
35
0.45
52
1.43
121
1.32
90
0.41
66
0.30
44
0.45
37
0.46
56
0.87
49
0.63
74
MLG-Stereo_test2two views0.39
26
0.54
35
0.17
11
0.16
12
0.24
29
0.15
3
0.08
5
0.33
19
0.14
6
0.24
15
0.13
11
0.39
25
0.14
7
0.17
17
1.52
45
0.76
31
0.45
23
0.44
34
1.04
67
0.42
42
0.48
19
0.48
17
0.18
17
0.12
4
0.34
16
0.25
11
0.66
29
0.38
33
DEFOM-Stereotwo views0.45
31
0.55
36
0.28
30
0.26
25
0.30
40
0.32
44
0.13
26
0.35
24
0.17
22
0.25
17
0.32
40
0.38
23
0.19
25
0.22
34
1.10
29
0.73
27
0.59
54
0.52
47
0.51
23
0.44
50
0.73
48
0.69
40
0.42
72
0.28
42
0.44
35
0.32
31
1.28
82
0.46
42
GIP-stereotwo views0.37
23
0.56
37
0.32
37
0.29
34
0.23
28
0.21
17
0.11
17
0.24
9
0.17
22
0.30
24
0.19
18
0.38
23
0.18
23
0.21
30
1.05
27
0.64
17
0.46
27
0.39
25
0.42
12
0.41
38
0.52
24
0.82
53
0.17
11
0.17
21
0.35
18
0.31
25
0.76
42
0.24
9
iRaftStereo_RVCtwo views0.51
35
0.56
37
0.40
52
0.28
30
0.31
44
0.32
44
0.19
47
0.68
60
0.25
37
0.46
40
0.57
95
0.58
49
0.29
42
0.25
39
1.17
33
0.89
40
0.56
45
0.45
35
0.72
38
0.41
38
0.97
78
0.79
50
0.35
45
0.34
56
0.44
35
0.41
50
0.76
42
0.48
44
MMNettwo views0.59
47
0.58
39
0.44
63
0.38
59
0.55
122
0.42
76
0.29
79
0.60
45
0.40
76
0.38
32
0.55
91
0.63
60
0.32
48
0.51
162
1.51
44
0.75
30
0.72
84
0.58
66
0.76
46
0.55
74
0.62
35
0.41
15
0.40
62
0.52
127
0.51
54
0.49
59
1.49
101
0.50
48
delettwo views0.51
35
0.58
39
0.47
72
0.35
49
0.50
108
0.50
103
0.30
81
0.49
37
0.29
49
0.56
47
0.44
66
0.45
34
0.34
50
0.48
150
1.16
30
0.68
23
0.55
41
0.46
36
0.47
19
0.41
38
0.58
30
0.39
13
0.39
58
0.41
81
0.48
47
0.36
38
1.09
69
0.50
48
Occ-Gtwo views0.43
29
0.59
41
0.29
31
0.34
45
0.31
44
0.26
32
0.12
20
0.38
27
0.18
25
0.16
5
0.32
40
0.33
16
0.24
36
0.16
13
1.16
30
0.84
36
0.45
23
0.39
25
0.71
37
0.32
21
0.87
67
0.78
49
0.22
24
0.19
26
0.36
23
0.26
16
0.94
57
0.31
27
TDLMtwo views0.49
33
0.59
41
0.60
100
0.39
70
0.48
96
0.46
87
0.43
133
0.72
63
0.35
63
0.30
24
0.65
111
0.76
101
0.41
71
0.35
79
0.54
7
0.58
9
0.55
41
0.49
40
0.50
20
0.43
45
0.50
20
0.39
13
0.41
66
0.39
74
0.38
24
0.31
25
0.61
23
0.66
81
4D-IteraStereotwo views1.32
134
0.61
43
1.07
195
0.49
95
0.43
82
0.40
69
0.25
63
1.44
181
0.37
66
0.75
90
0.56
92
0.75
97
0.43
73
0.43
124
2.29
136
1.38
122
0.68
67
0.66
97
2.70
160
0.59
87
3.21
164
10.86
258
0.46
88
0.40
79
0.69
92
0.83
111
2.34
177
0.64
75
DFGA-Nettwo views0.65
55
0.64
44
0.36
44
0.51
102
0.33
53
0.43
78
0.29
79
0.88
102
0.34
60
2.05
223
0.38
56
0.52
41
0.29
42
0.22
34
1.35
37
1.07
66
0.76
97
0.49
40
0.96
60
0.35
27
0.71
43
0.71
42
0.36
50
0.41
81
0.57
67
0.38
41
1.81
127
0.43
37
Former-RAFT_DAM_RVCtwo views0.87
79
0.64
44
0.54
92
0.44
86
0.41
78
0.38
63
0.26
70
1.26
149
0.49
105
0.85
123
0.62
104
0.75
97
0.54
102
0.34
74
1.75
64
1.50
153
0.68
67
0.70
108
1.17
79
0.56
76
1.52
122
3.83
138
0.39
58
0.37
63
0.75
106
1.18
171
0.68
32
0.77
96
AnonymousMtwo views2.27
194
0.64
44
0.44
63
0.51
102
0.32
46
0.49
100
0.24
60
1.70
212
0.48
101
0.75
90
2.06
228
0.70
81
0.47
83
0.39
99
2.47
148
3.26
232
0.99
173
1.03
212
1.88
118
2.37
271
4.85
184
6.68
189
0.57
153
0.47
100
0.53
59
0.65
88
11.71
306
14.52
298
HGLStereotwo views0.83
71
0.64
44
0.75
127
0.52
106
0.67
152
0.56
126
0.45
139
0.66
59
0.50
110
1.72
205
0.96
172
0.64
64
0.56
109
0.54
164
1.65
54
1.18
91
0.80
110
0.76
129
1.05
68
0.66
119
0.99
80
1.36
94
0.49
111
0.54
137
0.71
97
0.76
99
1.59
115
0.82
106
LL-Strereo2two views1.08
107
0.65
48
0.59
97
0.40
71
0.34
56
0.31
43
0.23
57
1.48
183
0.38
67
0.68
73
0.58
99
0.63
60
0.32
48
0.64
198
1.65
54
1.13
82
0.63
59
0.53
56
1.32
90
0.66
119
1.35
113
11.05
263
0.44
80
0.34
56
0.64
80
0.60
76
1.05
66
0.56
55
raftrobusttwo views1.11
108
0.65
48
0.92
164
0.55
115
0.49
99
0.44
80
0.33
100
1.55
199
0.47
95
0.94
145
0.72
133
0.82
116
0.53
97
0.36
88
2.91
181
1.71
178
0.71
79
0.70
108
4.37
205
0.65
114
1.69
136
3.95
143
0.59
166
0.42
89
0.95
155
0.85
118
0.99
61
0.85
115
FINETtwo views0.69
58
0.65
48
0.67
113
0.65
141
0.49
99
0.48
98
0.45
139
0.75
68
0.59
142
0.61
58
0.48
71
0.82
116
0.57
113
0.43
124
1.71
57
1.08
72
0.77
100
0.57
63
1.07
72
0.56
76
0.88
68
0.65
38
0.43
77
0.50
120
0.62
77
0.56
73
0.96
59
0.64
75
HITNettwo views0.90
85
0.65
48
0.62
103
0.68
149
0.50
108
0.39
66
0.32
96
1.26
149
0.89
184
0.70
75
0.70
128
0.91
136
0.49
89
0.39
99
1.96
93
1.02
56
0.66
65
0.64
91
0.79
50
0.61
100
1.53
123
3.85
139
0.46
88
0.52
127
0.58
71
0.64
81
1.81
127
0.81
104
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
test-1two views3.02
223
0.66
52
1.14
213
0.60
129
0.58
126
0.75
174
0.63
173
1.96
235
0.82
176
4.00
286
5.48
268
2.18
231
0.80
181
0.41
109
4.00
225
7.32
285
1.18
204
1.19
240
6.72
250
7.57
307
10.78
273
12.94
308
0.54
140
0.60
159
1.40
224
1.78
234
2.89
227
2.52
231
HHtwo views2.75
209
0.67
53
1.42
238
0.80
176
0.71
159
0.88
194
1.09
218
1.86
227
0.87
180
5.19
313
0.66
113
1.91
215
0.86
193
0.57
176
2.65
165
8.48
293
0.87
134
0.94
187
6.36
235
1.39
220
13.52
298
12.32
288
0.79
218
0.58
150
1.38
218
1.63
224
3.81
262
2.06
217
HanStereotwo views2.75
209
0.67
53
1.42
238
0.80
176
0.71
159
0.88
194
1.09
218
1.86
227
0.87
180
5.19
313
0.66
113
1.91
215
0.86
193
0.57
176
2.65
165
8.48
293
0.87
134
0.94
187
6.36
235
1.39
220
13.52
298
12.32
288
0.79
218
0.58
150
1.38
218
1.63
224
3.81
262
2.06
217
sCroCo_RVCtwo views1.85
181
0.67
53
0.55
93
0.37
57
0.49
99
0.75
174
0.41
124
0.94
111
1.56
243
1.51
192
0.78
145
1.04
157
0.94
207
0.48
150
2.49
149
5.07
267
1.26
213
1.22
244
2.53
144
1.37
217
7.95
236
11.14
264
0.45
86
0.60
159
0.94
151
1.12
162
2.34
177
1.05
150
GANettwo views0.64
53
0.67
53
0.63
104
0.57
120
0.58
126
0.95
201
0.55
157
0.78
76
0.46
93
0.57
50
0.61
102
1.83
212
0.36
60
0.41
109
0.81
21
0.69
24
0.76
97
0.73
120
0.58
29
0.40
36
0.53
25
0.49
19
0.47
97
0.48
113
0.56
66
0.41
50
0.83
47
0.69
84
CVANet_RVCtwo views0.60
49
0.67
53
0.81
139
0.81
179
0.53
118
0.66
156
0.55
157
1.15
132
0.39
69
0.44
37
0.79
147
0.80
110
0.44
81
0.43
124
0.69
15
0.67
22
0.55
41
0.53
56
0.55
27
0.57
79
0.63
37
0.57
28
0.40
62
0.41
81
0.46
38
0.40
45
0.72
36
0.55
53
LG-Stereo_L2two views0.58
45
0.69
58
0.43
62
0.28
30
0.35
60
0.24
26
0.13
26
0.62
52
0.26
38
0.70
75
0.39
58
0.71
85
0.34
50
0.28
47
1.83
75
1.32
113
0.57
48
0.51
45
0.96
60
0.41
38
0.74
50
1.06
75
0.32
38
0.27
40
0.52
57
0.38
41
0.62
26
0.64
75
LG-Stereo_L1two views0.58
45
0.69
58
0.41
56
0.24
20
0.35
60
0.25
30
0.12
20
0.62
52
0.27
45
0.72
81
0.32
40
0.69
77
0.34
50
0.29
50
1.82
72
1.36
119
0.57
48
0.52
47
1.14
78
0.42
42
0.70
41
1.11
78
0.29
35
0.30
44
0.51
54
0.33
32
0.66
29
0.65
79
G2L-Stereotwo views0.81
70
0.69
58
0.60
100
0.57
120
0.78
175
0.50
103
0.37
111
0.77
70
0.53
121
0.69
74
0.78
145
0.70
81
0.63
130
0.54
164
2.08
109
0.96
49
0.73
89
0.63
88
1.23
84
0.61
100
1.22
102
0.66
39
0.57
153
0.48
113
0.77
110
0.89
124
1.98
142
0.80
102
MM-Stereo_test1two views0.29
9
0.69
58
0.15
7
0.23
19
0.14
8
0.16
5
0.07
3
0.37
26
0.14
6
0.27
21
0.11
6
0.43
32
0.11
2
0.12
3
0.45
3
0.48
5
0.45
23
0.32
10
0.42
12
0.27
13
0.35
4
0.35
11
0.23
27
0.13
7
0.31
13
0.23
7
0.63
27
0.24
9
AFF-stereotwo views0.76
65
0.69
58
0.59
97
0.30
38
0.32
46
0.52
111
0.18
46
0.86
95
0.41
78
1.37
183
0.43
64
0.60
55
0.34
50
0.24
38
1.76
66
1.13
82
0.57
48
0.62
79
2.81
163
0.43
45
0.77
52
0.63
35
0.41
66
0.32
51
0.70
94
0.67
89
2.38
185
0.56
55
UPFNettwo views0.73
62
0.69
58
0.79
134
0.54
113
0.65
146
0.58
135
0.54
153
0.72
63
0.54
127
0.59
55
0.57
95
0.61
56
0.47
83
0.62
194
1.80
70
0.96
49
0.72
84
0.68
104
0.91
56
0.72
136
0.64
38
0.55
25
0.53
134
0.52
127
0.58
71
0.51
64
2.19
160
0.59
65
LG-G_1two views0.54
40
0.70
64
0.32
37
0.36
54
0.39
69
0.32
44
0.16
36
0.41
30
0.21
33
0.29
22
0.34
46
0.50
36
0.35
56
0.32
64
2.09
113
1.07
66
0.51
33
0.58
66
0.75
43
0.59
87
0.78
55
1.24
86
0.17
11
0.22
32
0.46
38
0.39
43
0.60
20
0.48
44
LG-Gtwo views0.54
40
0.70
64
0.32
37
0.36
54
0.39
69
0.32
44
0.16
36
0.41
30
0.21
33
0.29
22
0.34
46
0.50
36
0.35
56
0.32
64
2.09
113
1.07
66
0.51
33
0.58
66
0.75
43
0.59
87
0.78
55
1.24
86
0.17
11
0.22
32
0.46
38
0.39
43
0.60
20
0.48
44
HUFtwo views2.12
188
0.70
64
0.53
89
0.35
49
0.25
30
0.29
38
0.16
36
0.81
83
0.29
49
0.49
42
0.24
27
0.61
56
0.43
73
0.27
43
21.42
267
21.17
326
0.56
45
0.52
47
2.25
133
0.54
67
1.58
128
1.03
72
0.42
72
0.34
56
0.51
54
0.30
24
0.76
42
0.47
43
CIPLGtwo views1.32
134
0.70
64
0.69
115
0.57
120
0.46
86
0.52
111
0.33
100
0.81
83
0.55
129
0.76
94
0.69
121
1.03
153
0.53
97
0.59
183
2.91
181
1.33
116
0.89
140
0.62
79
3.23
178
0.62
107
1.62
130
10.69
250
0.55
143
0.53
133
0.90
147
0.54
69
2.37
184
0.61
68
ACREtwo views1.31
131
0.70
64
0.66
112
0.58
126
0.47
90
0.52
111
0.32
96
0.81
83
0.53
121
0.76
94
0.69
121
1.04
157
0.52
96
0.59
183
2.66
167
1.32
113
0.89
140
0.63
88
3.25
184
0.61
100
1.62
130
10.69
250
0.55
143
0.52
127
0.92
150
0.55
71
2.40
187
0.62
70
RALAANettwo views1.14
111
0.70
64
0.84
146
0.53
110
0.53
118
0.60
142
0.41
124
1.30
157
0.50
110
0.94
145
0.65
111
0.72
88
0.59
118
0.33
69
1.97
96
1.32
113
0.75
96
0.89
173
1.96
122
0.85
165
3.07
162
5.37
171
0.53
134
0.62
166
0.82
118
1.03
151
2.08
149
0.78
98
PWCDC_ROBbinarytwo views2.78
212
0.70
64
0.65
110
0.61
131
0.87
186
0.63
149
0.57
161
1.04
121
1.59
244
0.65
66
1.88
218
0.80
110
3.28
266
0.73
211
41.04
283
2.18
205
1.23
209
0.98
199
1.52
103
0.97
185
2.56
155
5.26
170
0.68
195
0.81
205
0.74
105
0.94
136
1.13
74
0.97
133
AIO_rvctwo views0.53
38
0.71
71
0.38
48
0.34
45
0.22
26
0.34
51
0.16
36
0.57
42
0.28
47
0.38
32
0.22
24
0.56
46
0.24
36
0.27
43
1.96
93
1.04
59
0.48
30
0.40
29
1.28
87
0.47
57
0.79
58
0.95
69
0.39
58
0.22
32
0.46
38
0.28
21
0.72
36
0.33
28
IPLGR_Ctwo views1.31
131
0.71
71
0.68
114
0.57
120
0.46
86
0.52
111
0.31
85
0.81
83
0.53
121
0.76
94
0.69
121
1.03
153
0.53
97
0.59
183
2.62
162
1.33
116
0.88
138
0.63
88
3.25
184
0.61
100
1.64
133
10.69
250
0.55
143
0.53
133
0.89
143
0.57
74
2.40
187
0.62
70
FADNet-RVCtwo views1.38
140
0.71
71
0.88
155
0.77
169
1.09
212
0.58
135
2.16
261
0.92
107
0.57
138
1.03
154
0.72
133
1.48
195
0.64
133
0.61
189
5.02
233
1.56
163
0.85
128
0.90
176
2.24
132
1.52
238
2.20
149
4.08
145
0.51
125
0.77
198
1.48
234
1.14
167
1.43
94
1.35
182
XX-Stereotwo views11.10
300
0.72
74
1.24
229
1.04
205
0.52
112
0.80
181
0.84
190
1.13
129
0.51
114
4.53
295
6.79
289
1.54
202
1.06
220
0.42
119
2.78
176
5.82
278
0.96
166
0.94
187
6.43
238
0.91
173
6.26
207
8.36
211
0.58
162
0.43
90
237.38
338
1.38
190
2.64
214
3.61
252
ARAFTtwo views0.89
84
0.72
74
0.47
72
0.35
49
0.34
56
0.42
76
0.24
60
0.64
55
0.34
60
2.25
235
0.57
95
0.58
49
0.29
42
0.39
99
2.14
116
1.42
132
0.71
79
0.74
124
2.68
159
0.54
67
1.86
143
1.93
108
0.42
72
0.33
54
0.83
121
0.40
45
1.98
142
0.56
55
RAFT-Stereo + iAFFtwo views0.86
75
0.72
74
0.84
146
0.41
75
0.39
69
0.54
117
0.21
54
0.99
116
0.52
116
1.54
193
0.57
95
0.73
89
0.39
63
0.26
41
2.15
117
1.17
89
0.64
62
0.50
42
2.66
157
0.57
79
0.88
68
0.90
60
0.47
97
0.39
74
0.86
130
0.72
94
2.54
206
0.66
81
RASNettwo views0.85
72
0.72
74
0.89
160
0.61
131
0.62
142
0.66
156
0.41
124
0.98
115
0.61
147
1.21
169
0.64
109
0.74
90
0.67
144
0.40
103
1.23
34
1.31
111
0.72
84
0.66
97
1.00
62
0.70
132
1.09
89
1.43
97
0.43
77
0.75
194
0.68
90
0.79
103
2.17
156
0.93
128
raft+_RVCtwo views0.71
61
0.73
78
0.70
118
0.41
75
0.34
56
0.49
100
0.30
81
1.48
183
0.43
86
0.62
61
0.62
104
0.65
67
0.39
63
0.26
41
1.74
62
1.16
87
0.69
72
0.53
56
1.57
110
0.51
61
0.85
64
1.06
75
0.44
80
0.38
67
0.68
90
0.62
78
0.85
48
0.69
84
GEStwo views1.40
142
0.73
78
0.79
134
0.78
171
0.71
159
0.80
181
0.59
167
1.37
174
0.97
192
1.66
201
0.94
168
0.74
90
0.65
138
0.63
196
2.40
142
1.55
161
0.98
171
0.89
173
5.45
221
1.14
202
3.99
173
3.85
139
0.65
185
0.83
211
0.75
106
0.81
107
1.52
104
1.72
203
DMCAtwo views0.63
52
0.73
78
0.63
104
0.40
71
0.49
99
0.52
111
0.33
100
0.59
44
0.52
116
0.80
112
0.63
108
0.70
81
0.40
68
0.47
144
1.48
41
0.92
42
0.69
72
0.67
100
0.67
33
0.51
61
0.67
40
0.59
30
0.48
100
0.45
96
0.48
47
0.52
67
1.04
65
0.62
70
test_4two views1.13
110
0.74
81
0.77
130
0.42
81
0.32
46
0.34
51
0.26
70
0.78
76
0.33
58
0.75
90
0.40
59
0.87
125
0.35
56
0.40
103
2.10
115
1.55
161
0.65
63
0.69
106
1.50
101
0.51
61
1.12
94
10.25
237
0.41
66
0.37
63
0.58
71
0.70
91
2.73
219
0.62
70
AASNettwo views0.53
38
0.74
81
0.46
70
0.35
49
0.61
135
0.51
108
0.42
130
0.65
56
0.26
38
0.41
34
0.50
76
0.39
25
0.31
47
0.41
109
1.02
25
0.69
24
0.53
38
0.60
70
0.67
33
0.51
61
0.60
31
0.87
58
0.41
66
0.41
81
0.50
51
0.40
45
0.70
33
0.45
41
GMOStereotwo views1.28
124
0.74
81
0.45
65
0.62
134
0.52
112
0.46
87
0.39
114
1.54
195
0.47
95
0.87
126
0.47
67
0.74
90
0.59
118
0.35
79
2.01
99
1.45
140
0.80
110
0.87
163
2.92
168
0.69
125
1.78
137
10.98
259
0.46
88
0.41
81
1.09
176
0.72
94
1.56
106
0.58
59
error versiontwo views1.28
124
0.74
81
0.45
65
0.62
134
0.52
112
0.46
87
0.39
114
1.54
195
0.47
95
0.87
126
0.47
67
0.74
90
0.59
118
0.35
79
2.01
99
1.45
140
0.80
110
0.87
163
2.92
168
0.69
125
1.78
137
10.98
259
0.46
88
0.41
81
1.09
176
0.72
94
1.56
106
0.58
59
test-vtwo views1.28
124
0.74
81
0.45
65
0.62
134
0.52
112
0.46
87
0.39
114
1.54
195
0.47
95
0.87
126
0.47
67
0.74
90
0.59
118
0.35
79
2.01
99
1.45
140
0.80
110
0.87
163
2.92
168
0.69
125
1.78
137
10.98
259
0.46
88
0.41
81
1.09
176
0.72
94
1.56
106
0.58
59
test-2two views1.28
124
0.74
81
0.45
65
0.62
134
0.52
112
0.46
87
0.39
114
1.54
195
0.47
95
0.87
126
0.47
67
0.74
90
0.59
118
0.35
79
2.01
99
1.45
140
0.80
110
0.87
163
2.92
168
0.69
125
1.78
137
10.98
259
0.46
88
0.41
81
1.09
176
0.72
94
1.56
106
0.58
59
ICVPtwo views1.51
156
0.74
81
1.07
195
0.75
160
0.75
166
0.84
184
0.54
153
1.10
125
0.86
179
1.37
183
1.15
188
0.88
130
1.08
222
0.53
163
1.90
85
1.91
188
1.22
207
0.99
202
1.56
109
0.96
184
3.89
171
10.50
244
0.68
195
0.77
198
0.91
149
1.19
173
1.42
93
1.14
159
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
DMCA-RVCcopylefttwo views0.86
75
0.74
81
0.73
121
0.61
131
0.77
171
0.56
126
0.70
177
0.77
70
1.43
232
1.38
185
0.69
121
0.87
125
0.54
102
0.55
170
1.66
56
1.05
62
0.81
119
0.74
124
0.95
59
0.73
139
0.89
72
0.93
64
0.51
125
0.58
150
0.59
74
0.62
78
1.82
130
0.91
125
DEFOM-Stereo_RVCtwo views0.80
68
0.75
89
0.48
76
0.38
59
0.33
53
0.25
30
0.16
36
0.68
60
0.30
51
0.72
81
0.42
63
0.77
105
0.35
56
0.30
53
1.81
71
1.08
72
0.65
63
0.56
61
1.71
114
0.48
58
1.60
129
4.30
147
0.49
111
0.39
74
0.60
76
0.49
59
0.95
58
0.65
79
model_zeroshottwo views2.99
220
0.75
89
1.18
220
1.86
258
0.74
164
0.59
138
0.56
159
1.94
233
0.63
154
3.88
284
6.88
296
1.41
190
0.66
141
0.68
203
5.34
236
4.82
263
1.18
204
0.96
195
7.09
261
1.03
190
12.99
291
9.02
221
0.54
140
0.65
177
5.42
294
1.66
226
2.16
155
6.22
277
Sa-1000two views1.14
111
0.75
89
0.47
72
0.49
95
0.61
135
0.50
103
0.27
73
1.70
212
0.52
116
0.73
86
0.48
71
0.66
70
0.67
144
0.79
222
2.17
121
1.43
136
0.92
155
0.93
184
3.23
178
0.58
83
1.55
125
4.86
155
0.35
45
0.59
157
1.14
186
1.24
176
2.35
179
0.76
95
IPLGtwo views3.01
221
0.75
89
0.63
104
0.42
81
0.52
112
0.54
117
0.51
149
1.63
207
0.35
63
0.62
61
0.59
100
0.77
105
0.66
141
0.46
139
51.49
313
1.67
177
1.02
181
0.92
180
3.51
192
0.63
112
0.99
80
5.97
182
0.49
111
0.48
113
0.80
114
1.16
169
2.86
225
0.71
87
DeepPruner_ROBtwo views1.64
166
0.75
89
0.91
162
0.85
183
0.88
188
0.75
174
1.75
248
1.26
149
0.91
187
1.49
191
1.65
213
0.85
122
0.81
182
0.56
171
3.12
199
1.49
151
1.02
181
1.02
209
2.33
136
0.75
145
7.42
224
6.70
190
0.81
227
0.69
184
0.88
139
1.45
200
2.17
156
0.87
119
HSMtwo views1.07
104
0.75
89
0.97
174
0.78
171
0.77
171
0.54
117
0.54
153
1.87
229
0.60
143
0.76
94
0.85
159
0.87
125
0.67
144
0.56
171
2.24
130
1.05
62
0.92
155
0.71
111
2.57
145
0.71
134
1.80
141
2.08
116
0.56
150
0.72
192
0.90
147
0.97
141
2.08
149
1.03
147
castereo++two views1.62
162
0.76
95
0.78
133
0.59
127
0.41
78
0.34
51
0.25
63
0.85
93
0.43
86
0.81
115
0.62
104
1.02
149
0.51
94
0.38
95
1.86
80
2.57
216
1.01
178
0.73
120
3.23
178
0.62
107
7.09
220
6.35
185
0.63
178
0.58
150
0.99
158
1.01
150
7.61
294
1.63
199
MIF-Stereo (partial)two views0.69
58
0.76
95
0.33
41
0.27
28
0.37
65
0.35
55
0.31
85
0.53
39
0.40
76
0.62
61
0.32
40
0.50
36
0.39
63
0.23
36
2.08
109
1.51
154
0.68
67
0.71
111
0.77
48
0.43
45
1.10
91
0.94
65
0.39
58
0.32
51
0.57
67
0.71
92
2.25
170
0.87
119
sAnonymous2two views1.42
143
0.76
95
0.52
86
0.41
75
0.47
90
0.71
166
0.41
124
1.28
154
0.98
195
0.65
66
0.89
164
1.08
162
0.95
209
0.37
90
2.20
124
2.28
207
1.10
190
1.04
215
3.71
194
0.92
176
4.94
185
6.73
192
0.62
173
0.55
143
0.83
121
1.39
192
1.25
80
1.24
171
CroCo_RVCtwo views1.42
143
0.76
95
0.52
86
0.41
75
0.47
90
0.71
166
0.41
124
1.28
154
0.98
195
0.65
66
0.89
164
1.08
162
0.95
209
0.37
90
2.20
124
2.28
207
1.10
190
1.04
215
3.71
194
0.92
176
4.94
185
6.73
192
0.62
173
0.55
143
0.83
121
1.39
192
1.25
80
1.24
171
UNettwo views0.85
72
0.76
95
0.74
124
0.60
129
0.60
131
0.61
145
0.53
151
0.90
104
0.58
140
1.21
169
0.68
118
0.71
85
0.56
109
0.67
202
1.72
61
1.11
80
0.79
107
0.72
118
1.13
77
0.82
162
0.84
62
0.69
40
0.62
173
0.58
150
0.64
80
0.77
100
2.48
194
0.95
130
AIO_testtwo views0.59
47
0.77
100
0.45
65
0.44
86
0.25
30
0.35
55
0.20
51
0.61
47
0.27
45
0.43
36
0.30
37
0.57
47
0.28
41
0.29
50
2.01
99
1.46
145
0.49
31
0.42
32
0.86
52
0.49
60
1.02
85
1.01
71
0.40
62
0.24
37
0.47
44
0.49
59
1.00
62
0.35
30
MIM_Stereotwo views0.78
67
0.77
100
0.53
89
0.43
83
0.38
67
0.46
87
0.22
56
1.50
186
0.31
52
0.55
45
0.38
56
0.64
64
0.27
40
0.32
64
1.77
67
1.09
74
0.63
59
0.73
120
3.30
188
0.57
79
1.19
100
0.91
62
0.34
42
0.36
62
0.49
49
0.41
50
1.95
139
0.58
59
CEStwo views1.27
123
0.77
100
0.56
95
0.45
89
0.56
123
0.51
108
0.21
54
1.50
186
0.70
166
0.78
101
0.80
151
0.84
120
0.90
198
0.33
69
3.45
208
2.96
224
1.14
198
1.04
215
1.32
90
1.08
196
4.63
180
4.87
156
0.63
178
0.38
67
0.85
127
0.83
111
1.02
63
1.16
162
BEATNet_4xtwo views1.53
158
0.77
100
0.77
130
0.75
160
0.67
152
0.47
93
0.40
120
1.23
143
1.32
225
0.83
117
0.77
140
0.95
141
0.74
165
0.59
183
5.02
233
2.40
214
1.64
236
1.43
261
1.27
85
0.85
165
4.54
177
8.28
209
0.48
100
0.91
221
0.70
94
0.77
100
1.85
131
0.99
141
MM-Stereo_test2two views0.35
19
0.78
104
0.22
23
0.30
38
0.21
25
0.18
11
0.11
17
0.33
19
0.16
15
0.36
31
0.15
14
0.39
25
0.15
14
0.17
17
0.69
15
0.66
21
0.43
18
0.39
25
0.41
11
0.37
29
0.50
20
0.85
56
0.24
30
0.16
16
0.35
18
0.25
11
0.54
15
0.25
15
gcap-zeroshottwo views3.80
239
0.78
104
1.44
240
1.88
259
0.67
152
1.15
223
1.31
229
2.09
251
0.65
157
5.43
319
7.00
299
2.87
252
0.70
149
0.31
61
2.44
145
5.25
270
0.94
160
0.91
179
36.08
308
1.25
211
8.46
250
10.60
247
4.00
294
0.62
166
1.44
230
1.49
205
1.34
86
1.53
191
CFNet_pseudotwo views1.65
167
0.78
104
0.82
142
0.82
181
0.79
178
0.69
163
0.42
130
0.93
108
0.53
121
0.95
148
0.81
153
0.88
130
0.81
182
0.81
226
15.70
259
1.39
124
0.74
94
0.71
111
7.24
262
0.77
148
0.97
78
1.50
99
0.69
198
0.57
146
0.88
139
0.89
124
1.47
99
1.12
158
HCRNettwo views0.66
56
0.78
104
0.41
56
0.54
113
0.27
36
0.41
74
0.39
114
0.63
54
0.31
52
1.62
198
0.59
100
0.67
73
0.29
42
0.41
109
1.99
97
0.73
27
0.60
56
0.47
37
0.65
32
0.43
45
0.78
55
0.62
34
0.36
50
0.34
56
0.42
34
0.43
55
2.14
151
0.50
48
YMNettwo views1.44
148
0.79
108
0.41
56
0.51
102
0.61
135
0.59
138
1.36
232
0.77
70
0.56
134
1.28
176
0.36
54
0.67
73
2.20
245
0.56
171
19.21
264
1.49
151
0.77
100
0.65
94
0.74
41
0.39
32
0.61
32
1.27
89
0.23
27
0.38
67
0.69
92
0.46
56
0.81
46
0.66
81
LoStwo views1.51
156
0.79
108
0.59
97
0.52
106
0.56
123
0.65
154
0.38
113
2.56
275
0.88
182
1.21
169
0.94
168
0.97
144
0.88
195
0.35
79
3.04
189
3.41
236
1.24
210
0.93
184
2.19
129
0.68
124
5.96
200
7.00
197
0.62
173
0.47
100
1.14
186
0.98
145
1.06
68
0.87
119
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
Reg-Stereo(zero)two views2.60
203
0.80
110
1.38
235
0.70
152
0.75
166
0.56
126
0.62
171
3.07
287
0.68
162
3.56
274
6.85
294
1.50
197
0.84
189
1.38
268
2.08
109
5.28
271
1.28
214
0.83
153
6.55
240
1.51
236
5.18
194
13.34
311
0.60
168
0.60
159
1.08
172
1.44
197
4.02
268
3.66
253
HItwo views2.60
203
0.80
110
1.38
235
0.70
152
0.75
166
0.56
126
0.62
171
3.07
287
0.68
162
3.56
274
6.85
294
1.50
197
0.84
189
1.38
268
2.08
109
5.28
271
1.28
214
0.83
153
6.55
240
1.51
236
5.18
194
13.34
311
0.60
168
0.60
159
1.08
172
1.44
197
4.02
268
3.66
253
MSKI-zero shottwo views2.77
211
0.80
110
1.10
202
0.74
159
0.59
128
0.67
159
0.54
153
1.87
229
0.97
192
0.88
132
6.73
286
1.60
203
0.72
155
0.43
124
3.38
205
7.92
291
1.20
206
0.87
163
6.85
255
4.65
293
10.45
272
12.15
283
0.55
143
0.71
189
1.49
236
1.96
247
1.85
131
3.12
246
CAStwo views1.05
99
0.80
110
0.40
52
0.50
101
0.48
96
0.37
60
0.30
81
0.55
40
0.44
90
1.13
165
0.77
140
0.64
64
0.95
209
0.31
61
2.68
170
1.79
183
0.96
166
0.82
151
1.08
73
0.61
100
2.91
160
5.06
163
0.44
80
0.30
44
0.81
115
0.92
132
1.18
77
1.16
162
anonymitytwo views6.71
281
0.80
110
1.73
257
1.09
210
0.88
188
0.79
180
0.68
175
2.17
255
0.90
185
3.78
283
97.20
334
1.95
217
0.93
204
0.44
134
2.57
158
7.16
284
0.95
164
0.83
153
6.70
248
1.07
195
7.93
235
12.47
295
0.67
191
0.57
146
1.51
240
1.60
221
20.99
320
2.80
236
ddtwo views0.86
75
0.80
110
0.51
79
1.05
207
0.44
84
0.85
187
0.44
137
0.85
93
0.39
69
0.83
117
0.40
59
1.23
178
0.39
63
0.47
144
2.21
129
0.98
52
0.97
169
0.71
111
2.00
125
0.61
100
0.84
62
0.77
48
0.49
111
0.64
175
0.70
94
0.53
68
1.73
123
1.47
188
LGtest1two views0.57
43
0.81
116
0.46
70
0.26
25
0.30
40
0.28
35
0.12
20
0.43
32
0.26
38
0.34
29
0.56
92
0.50
36
0.30
46
0.28
47
2.04
106
1.24
102
0.57
48
0.65
94
0.74
41
0.46
56
0.72
45
1.41
96
0.29
35
0.30
44
0.54
60
0.35
36
0.65
28
0.52
52
rafts_anoytwo views0.88
82
0.81
116
0.86
152
0.44
86
0.49
99
0.51
108
0.46
143
1.58
202
0.48
101
0.61
58
0.70
128
0.70
81
0.47
83
0.30
53
2.51
154
1.38
122
0.76
97
0.78
136
2.36
137
0.61
100
1.28
107
0.99
70
0.49
111
0.49
117
0.85
127
0.90
129
0.93
56
1.00
146
pcwnet_v2two views3.22
225
0.81
116
0.94
166
0.92
191
1.12
216
0.94
200
0.70
177
1.17
134
0.88
182
2.04
222
1.10
184
1.09
165
1.00
214
1.27
264
47.63
299
1.56
163
0.96
166
0.87
163
6.63
246
0.81
159
2.45
152
3.52
137
1.01
246
0.75
194
1.04
167
1.16
169
2.44
190
2.23
226
IERtwo views0.88
82
0.82
119
0.55
93
0.49
95
0.51
110
0.56
126
0.45
139
0.80
81
0.49
105
1.15
166
0.77
140
1.03
153
0.50
92
0.79
222
3.66
213
1.04
59
0.73
89
0.64
91
0.87
53
0.78
152
0.73
48
0.82
53
0.60
168
0.53
133
0.63
78
1.00
148
2.05
147
0.74
89
RALCasStereoNettwo views0.93
86
0.82
119
0.93
165
0.53
110
0.53
118
0.60
142
0.45
139
1.48
183
0.44
90
1.03
154
0.75
137
0.89
135
0.49
89
0.32
64
2.31
137
1.43
136
0.78
103
0.75
126
1.50
101
0.58
83
1.18
99
2.21
118
0.49
111
0.57
146
0.86
130
1.13
165
0.90
51
1.16
162
NVstereo2Dtwo views2.81
215
0.82
119
0.74
124
0.69
150
0.78
175
0.92
199
0.81
189
1.18
138
0.76
171
0.91
138
1.06
182
0.80
110
0.55
108
0.71
210
52.63
321
1.47
148
0.86
131
0.83
153
1.42
95
0.69
125
1.12
94
0.94
65
0.76
208
0.83
211
1.08
172
0.78
102
0.98
60
0.74
89
IGEV_Zeroshot_testtwo views3.38
227
0.83
122
1.84
262
2.82
278
0.69
157
2.37
272
1.26
228
2.23
261
0.94
190
4.40
291
6.76
287
2.28
236
1.01
215
0.45
135
2.83
179
7.72
290
0.87
134
0.77
132
5.93
230
1.87
254
8.49
251
12.88
307
0.58
162
0.69
184
1.40
224
1.57
216
14.84
316
2.99
241
LMCR-Stereopermissivemany views1.06
102
0.83
122
0.84
146
0.53
110
0.62
142
0.64
152
0.33
100
1.12
127
0.60
143
0.83
117
0.79
147
0.91
136
0.49
89
0.41
109
2.53
155
1.54
160
1.03
184
0.75
126
2.16
128
1.42
222
1.68
134
3.87
141
0.49
111
0.65
177
0.75
106
0.83
111
1.10
73
0.88
122
FADNettwo views1.44
148
0.83
122
0.83
145
0.82
181
1.03
202
0.61
145
1.88
255
0.97
113
0.73
170
0.93
143
0.92
167
1.16
172
0.76
174
0.74
213
3.69
217
1.34
118
0.91
149
1.03
212
2.63
153
1.49
231
2.87
159
4.93
157
0.49
111
0.65
177
1.54
243
1.70
230
1.51
103
1.83
206
AF-Nettwo views1.05
99
0.83
122
0.94
166
0.76
164
0.91
192
0.98
207
1.68
244
1.52
193
1.06
205
0.57
50
0.96
172
1.34
184
0.64
133
0.74
213
1.71
57
0.99
53
0.80
110
0.60
70
1.64
112
0.72
136
0.72
45
2.35
120
0.63
178
0.62
166
0.89
143
0.82
109
1.57
111
1.25
173
Nwc_Nettwo views1.05
99
0.83
122
0.94
166
0.76
164
0.91
192
0.98
207
1.68
244
1.52
193
1.06
205
0.57
50
0.96
172
1.34
184
0.64
133
0.74
213
1.71
57
0.99
53
0.80
110
0.60
70
1.64
112
0.72
136
0.72
45
2.35
120
0.63
178
0.62
166
0.89
143
0.82
109
1.57
111
1.25
173
iResNet_ROBtwo views1.16
115
0.83
122
0.82
142
0.65
141
0.59
128
0.67
159
0.58
164
2.65
279
0.53
121
1.73
206
0.76
139
0.87
125
0.78
179
0.47
144
3.77
221
1.45
140
0.87
134
0.86
161
2.81
163
0.65
114
1.26
105
0.87
58
0.57
153
0.73
193
0.81
115
0.95
137
2.65
216
1.03
147
DN-CSS_ROBtwo views1.32
134
0.83
122
1.03
185
0.87
185
0.86
185
0.47
93
0.36
109
2.00
243
0.57
138
1.56
195
1.81
216
0.96
143
0.77
177
0.38
95
2.15
117
1.40
126
1.03
184
0.93
184
5.27
215
0.66
119
2.56
155
2.82
128
0.54
140
0.86
216
0.79
113
0.81
107
2.07
148
1.33
181
anonymousdsp2two views0.86
75
0.84
129
0.84
146
0.43
83
0.44
84
0.56
126
0.32
96
1.17
134
0.36
65
0.66
69
0.67
115
0.69
77
0.40
68
0.49
155
1.46
39
1.36
119
0.67
66
0.62
79
2.12
127
0.60
97
1.36
115
2.66
127
0.36
50
0.44
94
0.71
97
0.51
64
1.86
133
0.64
75
DSFCAtwo views0.87
79
0.84
129
0.73
121
0.65
141
0.77
171
0.61
145
0.78
182
0.75
68
0.78
173
0.77
98
0.83
156
0.75
97
0.48
86
0.43
124
1.89
83
1.14
84
0.85
128
0.87
163
1.00
62
0.74
141
1.00
84
1.05
74
0.72
206
0.63
172
0.83
121
0.95
137
1.88
135
0.85
115
CFNettwo views0.80
68
0.84
129
0.79
134
0.76
164
0.70
158
0.60
142
0.46
143
0.84
92
0.48
101
0.66
69
0.71
130
0.92
138
0.61
127
0.43
124
1.75
64
0.84
36
0.70
75
0.64
91
0.90
55
0.78
152
0.89
72
0.72
43
0.45
86
0.51
122
0.87
135
0.83
111
1.67
119
1.15
161
CFNet_RVCtwo views0.94
89
0.84
129
0.89
160
0.76
164
0.80
180
0.71
166
0.49
145
0.74
67
0.63
154
0.88
132
0.94
168
0.87
125
0.57
113
0.50
156
1.96
93
1.12
81
0.79
107
0.79
140
1.27
85
0.73
139
1.26
105
1.52
100
0.48
100
0.64
175
0.98
157
1.11
159
1.92
138
1.23
170
AE-Stereotwo views1.61
161
0.85
133
1.23
228
0.81
179
0.51
110
0.57
132
0.75
181
0.83
89
0.49
105
0.79
108
0.54
88
1.29
180
0.72
155
0.47
144
2.05
108
2.96
224
0.99
173
0.92
180
2.63
153
0.86
168
4.61
178
11.92
281
0.50
123
0.80
201
1.26
205
1.34
186
1.95
139
0.86
117
RAFT-Testtwo views2.37
197
0.85
133
1.14
213
1.02
203
0.65
146
0.58
135
0.51
149
2.18
257
0.70
166
1.12
163
5.37
267
0.97
144
0.92
202
0.45
135
2.50
152
5.29
273
0.99
173
0.80
145
6.96
257
1.11
197
10.85
275
10.83
257
0.67
191
0.58
150
1.51
240
1.82
237
1.38
90
2.18
223
Anonymous3two views2.32
196
0.85
133
0.88
155
0.56
117
1.10
213
0.89
197
0.70
177
2.45
270
1.12
213
1.05
158
0.98
177
2.57
246
1.14
225
0.56
171
4.14
228
9.30
295
1.50
231
1.47
262
5.33
216
1.49
231
6.83
214
10.10
231
0.71
201
0.67
181
1.08
172
1.38
190
2.32
174
1.35
182
IGEV-BASED-STEREO-two views0.73
62
0.86
136
0.36
44
0.43
83
0.32
46
0.30
40
0.19
47
0.71
62
0.32
56
0.70
75
0.33
44
0.63
60
0.57
113
0.41
109
2.03
105
1.91
188
0.63
59
0.68
104
1.00
62
0.45
52
1.86
143
1.87
107
0.40
62
0.23
36
0.49
49
0.37
40
1.09
69
0.55
53
psm_uptwo views0.99
95
0.86
136
0.99
179
0.78
171
0.89
190
0.75
174
0.58
164
1.33
168
1.03
202
0.88
132
0.69
121
0.99
148
0.72
155
0.76
218
1.89
83
1.10
77
0.91
149
0.81
148
1.93
121
0.81
159
1.08
87
0.90
60
0.49
111
0.85
214
1.01
162
1.06
153
1.62
116
1.10
154
S2M2two views1.14
111
0.87
138
1.13
210
0.46
92
0.37
65
0.43
78
0.28
76
0.60
45
0.52
116
1.85
214
0.34
46
0.63
60
0.40
68
0.43
124
2.36
139
1.91
188
0.70
75
0.60
70
1.06
71
0.58
83
4.38
174
4.69
150
0.49
111
0.37
63
0.64
80
0.89
124
3.07
234
0.79
99
plaintwo views0.67
57
0.87
138
0.33
41
0.31
40
0.59
128
0.33
48
0.30
81
0.89
103
0.34
60
0.72
81
0.24
27
0.65
67
0.34
50
0.19
22
1.95
86
1.57
165
0.71
79
0.69
106
0.94
58
0.39
32
1.28
107
1.20
84
0.33
41
0.33
54
0.59
74
0.60
76
0.72
36
0.74
89
EGLCR-Stereotwo views2.26
192
0.87
138
1.17
219
0.45
89
0.48
96
0.61
145
0.23
57
0.83
89
0.55
129
0.72
81
0.53
86
0.80
110
0.66
141
0.41
109
2.36
139
2.92
223
0.90
148
1.10
223
3.35
189
0.60
97
5.09
190
12.56
299
0.47
97
0.45
96
0.89
143
0.91
131
20.21
318
0.86
117
AACVNettwo views0.95
91
0.87
138
0.69
115
0.91
189
0.91
192
0.72
170
0.59
167
0.87
99
0.60
143
0.73
86
0.88
163
0.79
109
0.64
133
0.60
187
1.77
67
1.37
121
0.84
126
0.83
153
1.12
76
0.77
148
1.36
115
1.13
79
0.70
199
0.65
177
0.87
135
1.12
162
1.90
136
1.31
178
FADNet-RVC-Resampletwo views1.37
138
0.87
138
0.99
179
0.72
154
0.81
182
0.63
149
1.02
209
1.06
123
0.91
187
0.99
151
0.99
178
1.69
208
0.73
160
1.02
247
4.06
226
1.41
129
1.02
181
1.62
267
1.55
108
1.04
191
1.37
117
5.03
161
0.57
153
1.14
235
0.88
139
1.99
248
1.45
97
1.54
192
MSMDNettwo views2.69
208
0.87
138
1.07
195
0.57
120
0.65
146
0.59
138
0.49
145
2.03
245
0.62
153
1.03
154
0.97
176
1.05
160
12.04
298
0.50
156
2.60
160
5.56
276
1.05
187
0.80
145
6.93
256
1.42
222
11.49
277
12.49
296
0.67
191
0.58
150
1.48
234
1.83
238
1.28
82
1.97
215
iResNetv2_ROBtwo views1.57
159
0.87
138
0.70
118
1.13
215
0.65
146
0.72
170
0.49
145
2.63
278
0.64
156
1.77
209
0.87
162
1.30
183
0.75
169
0.40
103
4.81
232
1.26
105
0.91
149
0.71
111
4.58
208
0.81
159
7.66
227
1.62
101
0.58
162
0.80
201
0.81
115
0.83
111
3.12
238
0.91
125
MLCVtwo views1.91
184
0.87
138
0.97
174
1.33
236
1.13
219
0.99
209
0.74
180
2.14
252
0.77
172
2.02
220
4.44
256
1.60
203
1.56
235
0.45
135
2.63
164
1.79
183
1.11
194
0.96
195
6.71
249
1.05
193
4.69
183
5.60
175
0.66
188
1.60
250
1.14
186
1.35
187
2.31
173
1.06
152
PDISCO_ROBtwo views1.06
102
0.87
138
0.60
100
0.80
176
0.68
155
0.53
116
0.59
167
0.93
108
0.69
164
1.80
210
1.00
180
0.74
90
0.63
130
0.66
200
1.87
81
1.44
138
0.89
140
1.10
223
1.53
104
0.80
156
1.56
126
2.40
123
0.52
132
0.63
172
1.19
190
0.79
103
2.56
207
0.81
104
castereotwo views1.44
148
0.88
147
0.96
173
0.46
92
0.47
90
0.33
48
0.27
73
0.77
70
0.50
110
0.80
112
0.64
109
1.04
157
0.48
86
0.38
95
2.25
131
2.81
219
1.03
184
0.76
129
2.67
158
0.62
107
7.90
234
7.11
199
0.57
153
0.52
127
1.04
167
1.25
178
1.03
64
1.21
168
cross-rafttwo views2.26
192
0.88
147
1.08
198
0.73
157
0.68
155
0.64
152
0.44
137
2.04
247
0.61
147
0.95
148
1.30
198
1.03
153
0.76
174
0.43
124
2.58
159
5.15
268
0.99
173
0.78
136
7.00
258
1.80
251
12.15
278
10.30
241
0.65
185
0.60
159
1.60
248
1.92
242
1.66
118
2.36
229
GLC_STEREOtwo views0.97
93
0.89
149
0.85
150
0.56
117
0.60
131
0.48
98
0.40
120
1.70
212
0.47
95
0.77
98
0.67
115
0.78
108
0.63
130
0.61
189
2.53
155
1.65
173
0.88
138
0.60
70
1.57
110
0.70
132
2.48
153
1.17
81
0.44
80
0.43
90
0.67
83
0.55
71
2.36
181
0.88
122
IPLGRtwo views3.25
226
0.89
149
0.81
139
0.65
141
0.66
151
0.50
103
0.42
130
1.14
131
0.44
90
2.02
220
1.30
198
0.86
123
0.74
165
0.47
144
50.44
308
1.86
186
1.15
202
1.11
227
3.23
178
1.37
217
1.41
119
7.71
203
0.56
150
0.70
188
1.39
221
1.55
215
3.46
251
0.92
127
GANet-ADLtwo views2.79
213
0.89
149
1.20
226
1.00
202
1.00
201
1.20
231
0.80
188
1.20
139
1.00
197
3.59
276
6.59
283
1.06
161
0.76
174
0.48
150
12.27
250
4.90
265
1.57
234
0.92
180
6.59
245
1.66
245
6.93
218
11.51
274
0.68
195
0.80
201
1.09
176
1.40
194
2.47
193
1.85
207
MyStereo04two views1.58
160
0.90
152
0.97
174
0.78
171
0.89
190
0.57
132
0.40
120
1.57
201
0.97
192
2.23
234
0.89
164
1.34
184
0.54
102
0.41
109
2.94
184
2.47
215
0.86
131
0.92
180
5.37
217
1.50
234
4.62
179
3.51
136
0.92
241
0.81
205
1.21
192
1.61
223
2.58
209
0.95
130
SAtwo views1.07
104
0.90
152
0.42
59
0.55
115
0.53
118
0.49
100
0.24
60
1.60
203
0.46
93
0.71
80
0.41
61
0.69
77
0.58
117
0.62
194
1.74
62
1.41
129
0.78
103
0.79
140
3.17
177
0.65
114
1.24
103
4.73
152
0.34
42
0.51
122
0.75
106
1.12
162
2.64
214
0.72
88
EAI-Stereotwo views2.60
203
0.90
152
1.57
248
0.90
187
1.31
234
0.84
184
1.31
229
2.22
260
1.34
227
0.81
115
5.69
270
1.37
188
0.83
188
0.50
156
4.76
231
5.32
274
0.91
149
0.94
187
7.45
264
1.11
197
9.07
255
10.78
256
0.62
173
0.85
214
1.45
233
2.06
250
3.36
247
1.90
210
DLCB_ROBtwo views0.94
89
0.90
152
0.88
155
0.73
157
0.80
180
0.69
163
0.69
176
0.87
99
0.72
169
0.94
145
0.86
160
1.02
149
0.91
199
0.69
209
1.48
41
1.06
65
0.97
169
0.72
118
0.88
54
0.74
141
1.21
101
1.21
85
0.78
215
0.71
189
1.26
205
1.26
179
1.49
101
0.95
130
trnettwo views1.20
117
0.91
156
0.94
166
0.52
106
0.42
80
0.47
93
0.25
63
1.41
178
0.61
147
0.88
132
0.75
137
0.97
144
0.72
155
0.37
90
2.66
167
3.31
234
0.86
131
0.61
75
2.41
139
0.60
97
3.93
172
3.14
131
0.50
123
0.47
100
1.03
166
0.86
121
1.72
121
0.99
141
CASnettwo views1.15
114
0.91
156
0.49
77
0.40
71
0.43
82
0.38
63
0.20
51
0.91
106
0.49
105
0.77
98
0.56
92
0.88
130
0.53
97
0.35
79
2.15
117
1.24
102
0.72
84
0.50
42
1.34
92
0.54
67
7.12
221
5.37
171
0.41
66
0.38
67
1.21
192
0.49
59
1.45
97
0.79
99
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
test_5two views0.69
58
0.91
156
0.30
32
0.38
59
0.26
34
0.35
55
0.19
47
1.79
220
0.31
52
0.58
53
1.20
192
0.75
97
0.73
160
0.32
64
1.36
38
1.10
77
0.54
39
0.54
60
1.01
65
0.37
29
0.61
32
1.37
95
0.29
35
0.34
56
0.41
31
0.40
45
1.72
121
0.44
39
MIPNettwo views2.89
216
0.91
156
0.77
130
0.49
95
0.65
146
0.55
120
0.57
161
1.34
171
0.53
121
2.05
223
0.99
178
0.80
110
0.77
177
0.48
150
40.89
282
1.61
169
1.15
202
0.94
187
3.25
184
1.19
207
1.15
97
9.31
224
0.57
153
0.62
166
1.24
201
1.51
209
2.90
228
0.82
106
CREStereo++_RVCtwo views1.73
175
0.91
156
1.03
185
0.51
102
0.56
123
0.40
69
0.28
76
1.37
174
0.51
114
0.83
117
0.61
102
0.76
101
0.85
192
0.34
74
2.78
176
3.07
227
0.92
155
0.61
75
2.72
162
0.55
74
5.01
188
5.69
177
0.53
134
0.38
67
0.94
151
0.84
116
12.80
310
0.98
135
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
CREStereotwo views1.37
138
0.91
156
0.94
166
0.52
106
0.42
80
0.47
93
0.26
70
1.43
180
0.66
159
0.87
126
0.83
156
0.95
141
0.73
160
0.36
88
2.98
185
4.38
259
0.85
128
0.56
61
2.41
139
0.62
107
5.52
198
4.71
151
0.53
134
0.47
100
1.02
164
0.87
122
1.73
123
0.98
135
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
GCAP-BATtwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
160
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
314
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
162
0.83
109
DCVSM-stereotwo views2.89
216
0.92
162
1.57
248
1.31
235
1.04
203
1.53
248
0.99
204
2.96
285
1.33
226
3.46
271
6.20
277
6.77
289
2.59
253
0.87
230
2.25
131
4.01
253
1.37
226
1.11
227
7.05
260
4.27
288
6.91
215
6.70
190
1.25
254
2.64
294
1.30
211
1.73
232
3.46
251
2.47
230
test_for_modeltwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
160
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
314
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
162
0.83
109
testlalala2two views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
160
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
314
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
162
0.83
109
testlalalatwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
160
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
314
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
162
0.83
109
testlalala_basetwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
160
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
314
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
162
0.83
109
GCAP-Stereotwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
160
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
314
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
162
0.83
109
raft_robusttwo views1.30
130
0.93
169
0.53
89
0.59
127
0.47
90
0.57
132
0.37
111
2.06
249
0.52
116
1.69
204
0.53
86
0.76
101
0.82
187
0.47
144
2.16
120
1.52
158
0.84
126
0.84
159
5.71
227
0.59
87
2.50
154
5.04
162
0.46
88
0.51
122
0.99
158
1.05
152
1.58
113
0.99
141
TestStereotwo views0.77
66
0.93
169
0.79
134
0.56
117
0.46
86
0.66
156
0.33
100
1.22
141
0.42
85
0.90
137
0.52
84
0.84
120
0.54
102
0.39
99
1.50
43
0.92
42
0.73
89
0.51
45
1.38
94
0.56
76
1.25
104
0.82
53
0.44
80
0.44
94
0.77
110
0.79
103
1.34
86
0.79
99
NLCA_NET_v2_RVCtwo views1.02
97
0.93
169
0.80
138
0.72
154
0.79
178
0.65
154
1.02
209
1.07
124
2.31
271
2.00
219
0.74
135
0.97
144
0.56
109
0.94
241
1.82
72
0.96
49
0.68
67
0.67
100
1.31
88
0.65
114
0.88
68
0.94
65
0.57
153
0.57
146
0.73
103
1.60
221
1.43
94
1.27
176
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
AEACVtwo views0.43
29
0.94
172
0.30
32
0.29
34
0.20
21
0.27
33
0.12
20
0.28
11
0.14
6
0.24
15
0.23
26
0.35
19
0.21
32
0.20
27
1.24
35
0.83
35
0.57
48
0.38
22
0.78
49
0.45
52
0.81
59
0.73
44
0.24
30
0.18
25
0.34
16
0.31
25
0.61
23
0.28
23
Any-RAFTtwo views2.54
201
0.94
172
1.27
232
0.75
160
0.75
166
0.50
103
0.40
120
1.99
239
0.56
134
0.87
126
6.98
298
1.50
197
0.51
94
0.40
103
2.50
152
3.41
236
0.91
149
0.90
176
6.78
253
0.75
145
14.26
311
10.61
248
0.67
191
0.59
157
1.63
249
1.83
238
2.17
156
4.22
259
RAFT_CTSACEtwo views0.64
53
0.94
172
0.31
35
0.37
57
0.34
56
0.33
48
0.23
57
1.23
143
0.26
38
0.64
65
0.29
35
0.71
85
0.57
113
0.34
74
1.57
49
1.07
66
0.52
35
0.43
33
0.72
38
0.33
23
0.85
64
1.72
104
0.42
72
0.30
44
0.46
38
0.41
50
1.58
113
0.39
34
SACVNettwo views1.31
131
0.94
172
0.95
171
0.90
187
1.10
213
0.87
190
0.92
201
1.50
186
0.81
174
1.23
174
0.71
130
0.94
139
0.69
147
0.68
203
1.83
75
1.40
126
1.12
197
0.83
153
2.20
130
0.94
179
2.13
148
5.87
181
0.65
185
0.82
208
1.04
167
1.06
153
2.02
145
1.30
177
FCDSN-DCtwo views3.63
235
0.94
172
2.84
292
1.29
233
1.30
233
1.03
215
1.00
205
0.90
104
0.91
187
1.04
157
0.74
135
1.21
176
0.74
165
0.58
179
52.59
320
2.04
200
1.24
210
1.13
231
1.05
68
0.79
154
6.62
210
10.01
229
0.78
215
2.18
274
1.20
191
1.67
229
1.20
78
1.05
150
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
PMTNettwo views1.39
141
0.94
172
0.99
179
0.48
94
0.49
99
0.47
93
0.32
96
0.83
89
0.66
159
0.83
117
0.62
104
0.88
130
0.50
92
0.35
79
2.72
173
4.30
256
0.91
149
0.57
63
2.40
138
0.54
67
6.12
204
5.45
174
0.57
153
0.38
67
1.99
267
1.00
148
1.09
69
1.19
167
PSMNet-ADLtwo views2.61
206
0.95
178
1.12
208
1.14
220
1.18
224
0.97
205
0.85
193
1.78
219
1.26
220
3.49
273
6.09
276
1.43
191
2.78
258
0.56
171
2.93
183
10.59
298
1.31
217
0.96
195
5.96
231
1.20
208
6.66
211
9.11
223
0.86
237
0.82
208
1.10
181
1.44
197
2.85
224
1.10
154
STTStereotwo views0.99
95
0.95
178
0.82
142
0.77
169
0.77
171
0.69
163
0.87
195
0.86
95
1.53
241
1.27
175
0.79
147
1.13
169
0.69
147
0.93
239
2.19
123
1.03
58
0.72
84
0.70
108
1.05
68
0.63
112
1.15
97
0.86
57
0.58
162
0.56
145
0.73
103
1.21
175
1.74
125
1.41
186
RTSCtwo views3.08
224
0.95
178
1.25
231
0.76
164
0.91
192
0.96
202
1.84
253
1.15
132
1.34
227
2.37
239
2.12
229
1.11
166
0.99
213
1.02
247
41.50
285
1.94
192
1.88
248
1.22
244
4.09
203
1.06
194
2.76
157
4.02
144
0.63
178
1.03
226
0.83
121
0.99
147
2.44
190
1.98
216
PA-Nettwo views1.22
119
0.95
178
1.13
210
0.75
160
1.31
234
0.68
161
0.84
190
0.82
88
1.18
218
0.83
117
0.77
140
0.76
101
0.78
179
0.91
236
3.00
186
1.21
98
0.68
67
0.77
132
1.02
66
0.82
162
1.13
96
4.67
149
0.66
188
0.82
208
1.00
160
2.10
255
1.24
79
2.13
219
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
iResNettwo views2.79
213
0.95
178
0.91
162
1.35
238
1.69
254
1.41
242
1.02
209
1.81
224
1.09
209
2.62
247
5.14
264
1.80
211
2.38
247
0.46
139
10.35
246
7.64
289
1.36
224
1.23
247
6.83
254
1.78
250
10.05
265
4.09
146
0.61
171
2.02
270
1.10
181
1.50
208
2.80
222
1.39
185
TESTrafttwo views0.98
94
0.96
183
0.42
59
0.41
75
0.33
53
0.40
69
0.25
63
1.13
129
0.39
69
0.97
150
0.35
52
0.61
56
0.75
169
0.54
164
3.18
200
1.42
132
0.70
75
0.50
42
2.86
165
0.53
66
1.08
87
3.15
132
0.35
45
0.40
79
0.52
57
1.18
171
2.52
200
0.61
68
GEStereo_RVCtwo views1.80
179
0.96
183
0.99
179
1.02
203
0.87
186
1.12
220
1.03
212
1.66
210
0.82
176
0.91
138
0.79
147
1.34
184
0.75
169
0.61
189
2.25
131
2.14
204
1.14
198
1.23
247
4.06
202
1.22
209
4.66
181
11.41
271
0.71
201
0.95
223
0.88
139
0.97
141
2.49
197
1.65
200
EKT-Stereotwo views5.41
263
0.97
185
1.10
202
0.72
154
0.74
164
0.87
190
1.17
222
2.02
244
1.00
197
1.41
188
2.92
237
1.11
166
0.81
182
0.46
139
72.33
335
14.74
311
1.14
198
1.37
258
5.61
224
7.76
308
9.80
259
10.61
248
0.53
134
0.61
165
1.39
221
1.11
159
2.56
207
1.08
153
RAFT+CT+SAtwo views0.87
79
0.97
185
0.40
52
0.45
89
0.29
38
0.38
63
0.20
51
1.64
209
0.33
58
0.72
81
0.30
37
0.88
130
0.65
138
0.40
103
1.56
48
1.21
98
0.56
45
0.57
63
2.08
126
0.40
36
0.83
61
5.00
160
0.32
38
0.37
63
0.47
44
0.42
54
1.56
106
0.49
47
dadtwo views1.63
163
0.97
185
0.65
110
2.18
268
1.19
226
1.01
213
3.99
281
1.66
210
0.55
129
1.21
169
0.50
76
1.12
168
2.01
241
0.58
179
3.09
195
1.16
87
1.11
194
0.76
129
2.70
160
0.77
148
1.34
110
1.48
98
0.71
201
0.88
218
2.48
276
0.71
92
5.52
280
3.80
256
TestStereo1two views0.93
86
0.98
188
0.39
49
0.38
59
0.36
63
0.39
66
0.25
63
1.02
118
0.39
69
0.79
108
0.34
46
0.58
49
0.73
160
0.54
164
3.06
190
1.47
148
0.71
79
0.52
47
2.91
166
0.54
67
1.34
110
1.84
105
0.35
45
0.39
74
0.54
60
1.06
153
2.53
204
0.60
66
SA-5Ktwo views0.93
86
0.98
188
0.39
49
0.38
59
0.36
63
0.39
66
0.25
63
1.02
118
0.39
69
0.79
108
0.34
46
0.58
49
0.73
160
0.54
164
3.06
190
1.47
148
0.71
79
0.52
47
2.91
166
0.54
67
1.34
110
1.84
105
0.35
45
0.39
74
0.54
60
1.06
153
2.53
204
0.60
66
DISCOtwo views0.96
92
0.98
188
0.56
95
0.57
120
0.61
135
0.81
183
0.79
185
0.77
70
0.81
174
2.06
226
0.86
160
0.66
70
0.70
149
0.42
119
1.87
81
1.27
106
0.99
173
0.80
145
1.80
116
0.80
156
0.92
76
1.33
91
0.57
153
0.51
122
0.72
100
0.84
116
2.02
145
0.80
102
MGS-Stereotwo views1.48
152
0.99
191
0.47
72
0.40
71
0.35
60
0.40
69
0.36
109
0.65
56
0.26
38
0.52
44
0.43
64
0.52
41
0.38
61
0.43
124
23.31
272
0.93
46
0.73
89
0.79
140
0.93
57
0.65
114
1.10
91
1.25
88
0.44
80
0.48
113
0.72
100
0.49
59
1.29
84
0.77
96
DAStwo views2.93
218
0.99
191
1.06
193
1.13
215
1.05
205
1.03
215
1.04
213
1.74
217
1.81
256
3.32
268
5.70
271
2.61
247
3.08
263
0.50
156
3.19
201
7.47
286
1.83
244
1.23
247
5.90
228
1.83
252
12.92
288
10.26
238
0.76
208
1.94
265
1.32
213
1.51
209
2.60
210
1.31
178
SepStereotwo views2.93
218
0.99
191
1.06
193
1.13
215
1.05
205
1.03
215
1.04
213
1.74
217
1.81
256
3.32
268
5.70
271
2.61
247
3.08
263
0.50
156
3.19
201
7.47
286
1.83
244
1.23
247
5.90
228
1.83
252
12.92
288
10.26
238
0.76
208
1.94
265
1.32
213
1.51
209
2.60
210
1.31
178
ADLNettwo views2.50
200
0.99
191
0.73
121
0.62
134
0.75
166
0.63
149
0.53
151
1.12
127
0.61
147
0.58
53
0.71
130
1.61
205
0.61
127
0.87
230
46.09
296
1.02
56
0.70
75
0.67
100
0.85
51
0.74
141
0.75
51
1.07
77
0.51
125
0.47
100
0.94
151
0.93
133
1.63
117
0.70
86
GMStereopermissivetwo views0.73
62
0.99
191
0.39
49
0.49
95
0.47
90
0.55
120
0.41
124
0.77
70
0.43
86
0.55
45
0.48
71
0.81
115
0.38
61
0.34
74
1.60
50
0.95
47
0.74
94
0.52
47
1.88
118
0.57
79
1.07
86
0.73
44
0.42
72
0.51
122
0.72
100
0.47
58
1.87
134
0.57
58
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
UDGNettwo views1.34
137
1.00
196
0.76
128
1.64
251
1.38
239
1.69
255
1.25
226
1.22
141
0.69
164
0.63
64
0.84
158
0.83
118
0.41
71
1.62
272
2.02
104
1.19
94
0.81
119
0.87
163
1.98
123
0.92
176
1.68
134
5.69
177
1.26
257
0.47
100
1.21
192
0.95
137
2.15
153
1.03
147
test-3two views1.73
175
1.00
196
1.08
198
0.63
139
0.60
131
0.55
120
0.43
133
1.99
239
0.39
69
0.86
124
0.54
88
1.45
192
0.53
97
0.41
109
2.20
124
1.41
129
0.81
119
0.79
140
6.57
243
0.69
125
5.20
196
11.52
275
0.46
88
0.54
137
0.86
130
0.97
141
3.11
235
0.98
135
test_1two views1.73
175
1.01
198
1.08
198
0.63
139
0.60
131
0.55
120
0.43
133
1.99
239
0.39
69
0.86
124
0.54
88
1.45
192
0.54
102
0.41
109
2.20
124
1.42
132
0.80
110
0.79
140
6.57
243
0.69
125
5.20
196
11.52
275
0.46
88
0.54
137
0.87
135
0.97
141
3.11
235
0.98
135
R-Stereo Traintwo views2.23
189
1.01
198
1.14
213
0.96
195
0.63
144
0.73
172
0.31
85
1.30
157
1.01
199
1.68
202
4.49
257
1.29
180
0.70
149
0.42
119
2.49
149
3.99
251
1.66
237
1.02
209
6.77
251
1.11
197
7.83
230
12.24
286
0.49
111
0.54
137
1.42
226
1.66
226
1.34
86
1.93
212
SHDtwo views3.38
227
1.01
198
1.68
254
1.14
220
1.07
210
1.14
222
1.78
250
1.61
206
1.66
247
2.40
242
3.05
240
1.63
207
2.43
249
0.84
228
40.11
280
2.04
200
1.74
239
1.40
259
4.17
204
1.88
255
3.81
170
5.43
173
0.70
199
1.67
253
1.86
263
1.46
201
1.97
141
1.59
195
RAFT-Stereopermissivetwo views2.23
189
1.01
198
1.14
213
0.96
195
0.63
144
0.73
172
0.31
85
1.30
157
1.01
199
1.68
202
4.49
257
1.29
180
0.70
149
0.42
119
2.49
149
3.99
251
1.66
237
1.02
209
6.77
251
1.11
197
7.83
230
12.24
286
0.49
111
0.54
137
1.42
226
1.66
226
1.34
86
1.93
212
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
coex_refinementtwo views1.02
97
1.02
202
0.76
128
0.66
146
0.85
184
0.71
166
0.50
148
0.81
83
1.04
203
0.67
71
1.01
181
0.94
139
0.44
81
0.46
139
3.49
209
0.95
47
0.78
103
0.71
111
3.74
197
0.77
148
0.85
64
0.75
46
0.63
178
0.52
127
0.87
135
0.93
133
1.75
126
0.94
129
CASStwo views2.08
187
1.02
202
1.16
218
1.28
231
0.99
200
0.88
194
3.39
276
1.42
179
1.02
201
1.30
179
2.46
235
1.14
170
0.81
182
0.46
139
2.70
171
2.38
213
3.41
273
1.10
223
3.40
190
1.18
206
8.01
237
8.63
213
0.66
188
0.69
184
1.49
236
1.27
180
2.52
200
1.41
186
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
test_3two views1.73
175
1.02
202
1.05
189
0.65
141
0.61
135
0.55
120
0.43
133
1.96
235
0.38
67
0.88
132
0.52
84
1.45
192
0.54
102
0.40
103
2.20
124
1.40
126
0.81
119
0.81
148
6.56
242
0.71
134
5.08
189
11.49
272
0.43
77
0.49
117
0.96
156
1.09
158
3.23
240
0.98
135
APVNettwo views1.21
118
1.02
202
0.64
107
0.69
150
0.78
175
0.86
188
0.84
190
0.78
76
0.71
168
0.92
141
0.82
154
0.86
123
0.59
118
0.58
179
2.67
169
1.65
173
1.11
194
0.98
199
3.23
178
0.85
165
1.62
130
4.73
152
0.55
143
0.84
213
0.77
110
0.80
106
1.90
136
0.98
135
RPtwo views1.18
116
1.02
202
1.24
229
0.94
193
1.08
211
0.84
184
1.17
222
1.25
147
1.31
224
0.61
58
1.16
189
1.21
176
0.75
169
0.68
203
3.34
204
1.04
59
0.89
140
0.67
100
1.20
83
0.79
154
0.88
68
2.85
129
0.59
166
0.71
189
0.86
130
0.98
145
2.51
199
1.21
168
LG-Stereo_Zeroshottwo views2.31
195
1.03
207
0.50
78
1.41
240
2.53
279
3.20
284
1.05
215
1.71
215
0.49
105
4.85
299
3.84
251
4.79
277
0.65
138
0.42
119
2.38
141
3.97
249
0.82
123
0.78
136
2.26
134
0.74
141
7.86
232
8.88
220
0.53
134
0.34
56
0.85
127
1.42
196
1.98
142
2.99
241
IGEV-Stereo+two views0.60
49
1.04
208
0.24
28
0.49
95
0.32
46
0.29
38
0.13
26
0.51
38
0.26
38
0.79
108
0.94
168
0.57
47
0.26
38
0.28
47
1.64
51
1.19
94
0.59
54
0.61
75
1.19
82
0.43
45
0.90
74
1.17
81
0.48
100
0.20
27
0.41
31
0.31
25
0.56
17
0.40
35
TANstereotwo views1.49
154
1.06
209
0.88
155
0.67
147
0.73
162
0.87
190
0.33
100
0.86
95
0.61
147
0.70
75
0.69
121
0.59
53
0.59
118
1.02
247
2.75
174
2.89
221
0.94
160
1.13
231
1.43
97
1.28
212
5.13
192
5.06
163
1.35
263
0.46
98
0.54
60
0.89
124
5.92
281
0.74
89
XX-TBDtwo views1.49
154
1.06
209
0.88
155
0.67
147
0.73
162
0.87
190
0.33
100
0.86
95
0.61
147
0.70
75
0.69
121
0.59
53
0.59
118
1.02
247
2.75
174
2.89
221
0.94
160
1.13
231
1.43
97
1.28
212
5.13
192
5.06
163
1.35
263
0.46
98
0.54
60
0.89
124
5.92
281
0.74
89
HSM-Net_RVCpermissivetwo views3.49
231
1.07
211
1.10
202
1.70
253
1.17
223
0.90
198
0.61
170
2.29
267
1.07
207
2.77
252
5.82
273
41.08
324
1.35
233
0.50
156
2.40
142
1.74
180
1.10
190
0.77
132
1.99
124
1.13
201
6.78
213
6.90
195
0.80
223
2.23
279
1.64
251
1.49
205
2.14
151
1.75
204
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
iinet-ftwo views1.22
119
1.08
212
0.64
107
0.93
192
0.46
86
0.68
161
0.57
161
0.79
80
0.48
101
2.11
231
1.35
204
0.83
118
0.64
133
0.35
79
3.95
224
1.80
185
0.77
100
0.66
97
2.93
172
1.00
187
1.53
123
3.24
133
0.64
184
0.53
133
1.10
181
0.63
80
2.23
169
0.90
124
ccs_robtwo views4.23
246
1.10
213
1.53
245
1.14
220
0.92
198
1.19
230
1.05
215
2.86
284
1.27
221
4.20
288
35.77
325
8.95
300
1.29
229
0.73
211
3.10
197
6.47
279
1.50
231
1.17
235
5.98
232
1.44
226
10.44
271
11.78
278
0.74
207
2.24
280
1.07
171
1.30
184
2.65
216
2.20
224
NaN_ROBtwo views1.84
180
1.11
214
1.04
188
0.95
194
1.77
259
0.86
188
0.91
200
1.32
167
10.70
318
1.00
153
1.38
207
2.45
241
0.89
196
1.12
256
4.34
229
1.29
108
0.92
155
0.88
172
1.49
100
1.14
202
1.42
120
2.02
115
0.76
208
1.03
226
1.30
211
2.01
249
2.38
185
3.27
249
s12784htwo views2.23
189
1.12
215
1.32
234
1.12
213
0.91
192
0.59
138
0.39
114
1.37
174
0.65
157
1.05
158
0.82
154
1.08
162
0.95
209
0.37
90
2.80
178
4.82
263
0.93
159
0.71
111
3.28
187
0.58
83
7.80
229
8.40
212
0.51
125
0.54
137
1.50
238
1.13
165
11.58
304
3.94
257
AMNettwo views1.29
129
1.12
215
1.05
189
1.13
215
1.12
216
1.24
234
1.08
217
1.36
172
1.13
214
1.10
162
1.11
186
1.51
200
1.26
228
1.20
261
1.52
45
1.57
165
1.35
223
1.21
243
1.37
93
1.22
209
1.35
113
1.19
83
1.25
254
1.19
238
1.23
200
1.72
231
1.54
105
1.65
200
iRaft-Stereo_20wtwo views4.16
244
1.13
217
2.10
275
2.66
274
1.55
248
1.55
249
1.17
222
1.96
235
1.27
221
5.53
320
6.77
288
1.52
201
1.34
232
0.43
124
3.03
187
5.32
274
0.95
164
0.77
132
5.49
222
1.46
229
8.20
245
12.75
302
0.61
171
0.60
159
1.63
249
25.36
322
11.64
305
5.58
273
AIO-Stereo-zeroshot1permissivetwo views8.38
288
1.15
218
1.98
269
1.25
229
1.24
227
1.74
256
1.31
229
2.17
255
7.44
311
3.47
272
7.09
302
2.38
240
2.08
243
0.37
90
3.49
209
11.36
301
1.39
227
0.99
202
136.53
333
6.21
303
8.35
247
12.33
290
0.55
143
0.88
218
1.22
197
1.95
245
2.35
179
4.96
263
S-Stereotwo views4.68
253
1.15
218
1.74
258
1.75
254
1.63
250
1.65
252
2.24
263
2.75
283
2.15
266
3.32
268
11.59
317
5.97
282
1.74
239
0.88
233
19.04
263
16.28
318
1.81
242
2.39
298
5.64
226
9.35
321
7.13
222
12.52
297
1.61
272
2.64
294
1.24
201
2.08
253
2.88
226
3.26
248
RTStwo views3.53
232
1.15
218
0.98
177
0.97
198
1.26
228
1.33
238
3.31
273
1.33
168
1.50
239
2.37
239
1.20
192
1.75
209
1.12
223
0.88
233
42.78
288
2.37
211
1.94
252
1.33
256
3.94
198
1.62
242
3.62
166
5.21
168
1.02
247
1.09
232
1.83
261
5.05
287
2.33
175
2.13
219
RTSAtwo views3.53
232
1.15
218
0.98
177
0.97
198
1.26
228
1.33
238
3.31
273
1.33
168
1.50
239
2.37
239
1.20
192
1.75
209
1.12
223
0.88
233
42.78
288
2.37
211
1.94
252
1.33
256
3.94
198
1.62
242
3.62
166
5.21
168
1.02
247
1.09
232
1.83
261
5.05
287
2.33
175
2.13
219
AIO-Stereo-zeroshotpermissivetwo views3.88
240
1.16
222
2.03
272
1.15
224
0.83
183
1.77
258
1.13
221
2.03
245
3.32
288
2.90
257
7.02
300
2.32
238
2.01
241
0.38
95
3.61
211
9.96
296
1.34
220
1.07
221
6.67
247
6.11
302
8.45
249
12.70
300
0.56
150
1.27
242
1.76
258
1.48
202
16.62
317
5.17
267
DDVStwo views6.06
274
1.18
223
1.31
233
1.12
213
1.54
246
1.18
228
1.01
206
2.45
270
1.75
250
3.31
267
80.70
333
6.22
285
1.76
240
1.15
259
3.67
216
6.50
280
2.01
257
1.29
253
5.56
223
4.99
296
10.09
267
12.94
308
0.81
227
1.16
236
1.11
184
1.53
212
4.71
275
2.62
232
FAT-Stereotwo views4.35
249
1.18
223
2.25
278
1.48
247
1.81
265
1.42
243
1.49
237
3.57
295
1.84
259
3.66
279
6.22
278
6.70
288
2.76
257
1.07
255
6.82
241
15.24
316
2.03
258
2.49
301
5.43
219
8.81
316
13.23
294
12.34
292
0.95
243
2.79
302
1.26
205
2.25
259
2.96
231
5.48
270
ADCPNettwo views7.09
282
1.18
223
3.04
296
1.33
236
3.12
295
1.36
240
8.88
301
2.15
253
3.24
286
4.23
289
7.84
308
1.96
218
15.92
309
1.71
276
49.61
304
3.53
242
1.89
249
1.25
251
19.14
293
3.03
283
5.96
200
4.75
154
4.72
296
1.29
243
3.95
289
5.33
289
3.87
264
27.01
318
GANetREF_RVCpermissivetwo views1.28
124
1.18
223
0.95
171
1.18
226
1.04
203
1.00
212
0.79
185
1.25
147
1.10
210
1.29
177
0.77
140
2.28
236
0.91
199
0.63
196
2.00
98
1.14
84
1.01
178
0.98
199
2.44
141
0.82
162
1.98
147
1.33
91
0.78
215
1.05
229
1.28
210
1.27
180
2.63
213
1.49
189
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
PWC_ROBbinarytwo views2.61
206
1.20
227
1.48
242
0.96
195
1.05
205
1.21
232
1.79
251
1.24
146
1.94
261
1.81
211
3.61
249
2.12
228
2.96
261
0.91
236
9.88
245
4.30
256
1.97
255
1.95
280
3.72
196
1.62
242
5.58
199
7.59
202
0.81
227
1.98
269
1.35
216
1.27
180
3.11
235
3.07
244
FADNet_RVCtwo views3.44
229
1.21
228
1.19
223
1.40
239
1.78
262
0.99
209
1.75
248
1.50
186
1.19
219
1.35
181
2.01
226
1.96
218
1.63
236
1.66
274
22.11
268
3.36
235
1.83
244
2.82
310
5.63
225
1.76
249
6.35
208
9.50
225
0.77
213
1.39
247
1.21
192
1.48
202
12.05
307
2.87
238
GwcNet-ADLtwo views2.54
201
1.23
229
1.55
247
1.22
228
1.26
228
0.97
205
0.78
182
1.50
186
0.84
178
3.20
266
6.67
284
1.86
213
1.05
219
0.79
222
4.58
230
4.90
265
1.47
230
0.90
176
5.20
214
1.95
259
6.39
209
10.33
242
0.91
240
1.12
234
1.22
197
1.93
243
2.15
153
2.70
234
NCC-stereotwo views1.25
121
1.24
230
1.10
202
0.99
200
1.05
205
0.96
202
1.53
238
1.79
220
1.59
244
0.60
56
1.34
201
1.17
173
1.03
216
0.74
213
2.44
145
1.07
66
0.89
140
0.99
202
1.54
106
0.91
173
0.99
80
2.46
124
0.80
223
0.76
196
1.26
205
1.59
218
1.39
91
1.61
196
Abc-Nettwo views1.25
121
1.24
230
1.10
202
0.99
200
1.05
205
0.96
202
1.53
238
1.79
220
1.59
244
0.60
56
1.34
201
1.17
173
1.03
216
0.74
213
2.44
145
1.07
66
0.89
140
0.99
202
1.54
106
0.91
173
0.99
80
2.46
124
0.80
223
0.76
196
1.26
205
1.59
218
1.39
91
1.61
196
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
SGM-Foresttwo views4.18
245
1.24
230
0.74
124
2.12
266
1.35
237
1.42
243
0.56
159
1.36
172
0.90
185
4.89
302
0.96
172
2.51
245
12.92
301
0.61
189
16.38
260
3.12
229
0.79
107
0.65
94
7.04
259
0.76
147
6.77
212
10.03
230
0.84
234
0.81
205
1.66
253
1.78
234
4.79
278
25.96
317
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
LoS_RVCtwo views1.42
143
1.25
233
0.86
152
0.31
40
0.49
99
0.37
60
0.33
100
0.73
65
0.56
134
2.10
229
0.68
118
0.67
73
0.70
149
0.33
69
3.08
193
3.79
246
0.89
140
2.10
287
3.01
175
0.66
119
4.40
175
6.44
186
0.51
125
0.43
90
0.82
118
0.85
118
0.90
51
0.99
141
tt_lltwo views1.42
143
1.25
233
0.86
152
0.31
40
0.49
99
0.37
60
0.33
100
0.73
65
0.56
134
2.10
229
0.68
118
0.67
73
0.70
149
0.33
69
3.08
193
3.79
246
0.89
140
2.10
287
3.01
175
0.66
119
4.40
175
6.44
186
0.51
125
0.43
90
0.82
118
0.85
118
0.90
51
0.99
141
TRStereotwo views6.31
276
1.25
233
1.93
266
0.85
183
0.61
135
2.29
270
0.86
194
2.21
259
0.54
127
4.40
291
1.34
201
2.24
234
0.75
169
0.45
135
4.08
227
6.55
281
0.80
110
0.85
160
6.04
233
1.45
228
7.60
226
12.13
282
0.55
143
0.49
117
1.44
230
103.74
338
3.24
242
1.61
196
ITSA-stereotwo views4.40
250
1.26
236
1.18
220
1.64
251
1.64
251
0.99
209
1.38
234
1.99
239
1.47
237
3.68
281
6.79
289
2.16
230
1.42
234
1.36
267
8.32
243
6.93
282
2.19
261
1.94
279
6.40
237
5.42
297
7.43
225
10.74
255
1.29
258
2.39
286
1.53
242
5.02
286
23.63
321
8.74
284
STTRV1_RVCtwo views1.26
236
1.01
183
1.62
250
1.11
215
1.76
257
1.25
226
1.50
186
1.40
230
1.75
208
1.60
212
2.72
250
3.31
267
1.00
245
2.61
161
1.77
182
11.19
303
0.96
195
9.01
318
9.10
256
8.68
215
1.66
252
1.68
254
1.59
218
3.90
266
5.32
269
UCFNet_RVCtwo views1.11
108
1.26
236
0.85
150
0.88
186
0.93
199
0.77
178
0.58
164
0.78
76
0.67
161
0.93
143
0.80
151
1.25
179
0.93
204
0.48
150
2.17
121
1.09
74
0.78
103
0.82
151
2.60
152
0.80
156
1.32
109
1.66
102
1.31
261
0.67
181
1.05
170
1.11
159
1.44
96
2.13
219
CSANtwo views2.48
199
1.26
236
1.12
208
1.46
246
1.78
262
1.13
221
0.90
198
1.50
186
10.52
317
2.40
242
3.81
250
4.12
268
2.51
251
0.96
243
3.83
222
1.27
106
1.29
216
1.05
219
3.24
183
1.70
247
3.71
169
4.45
148
0.79
218
1.38
245
1.39
221
3.93
281
2.43
189
2.96
240
NCCL2two views1.48
152
1.28
240
1.10
202
1.11
211
1.43
242
0.78
179
0.90
198
1.05
122
1.14
216
1.86
216
1.27
197
1.02
149
0.81
182
0.80
225
3.43
206
1.42
132
1.14
198
0.87
163
1.31
88
0.89
172
1.94
146
3.37
135
1.48
269
1.02
225
1.50
238
1.35
187
3.80
261
1.85
207
XQCtwo views3.58
234
1.29
241
1.21
227
1.28
231
1.43
242
1.29
237
1.93
256
1.60
203
1.45
233
2.47
244
3.06
241
1.48
195
4.17
269
1.23
263
44.68
294
2.35
209
1.60
235
1.18
238
3.95
201
1.43
224
3.22
165
4.97
158
0.84
234
1.24
240
1.43
229
2.09
254
2.30
171
1.52
190
RGCtwo views1.43
147
1.30
242
1.99
271
1.14
220
1.18
224
1.16
225
1.01
206
1.20
139
1.08
208
0.91
138
1.70
215
1.18
175
1.24
227
0.87
230
3.10
197
1.18
91
0.98
171
0.86
161
1.81
117
1.02
189
1.39
118
3.87
141
0.76
208
0.90
220
1.14
186
1.53
212
2.17
156
1.85
207
MaskLacGwcNet_RVCtwo views21.23
321
1.32
243
1.63
251
1.89
260
1.69
254
1.93
261
3.75
280
2.27
265
2.66
276
5.02
307
29.10
323
216.12
338
51.87
327
5.44
303
3.66
213
4.09
254
5.59
287
13.75
324
28.77
302
1.47
230
14.44
317
12.86
305
0.98
245
2.33
285
1.88
265
7.40
297
145.78
338
5.57
272
SAMSARAtwo views4.13
243
1.32
243
1.53
245
1.48
247
1.35
237
1.47
246
2.74
267
2.23
261
1.83
258
2.26
236
3.47
248
2.01
221
8.60
282
1.76
278
38.24
277
2.88
220
1.82
243
1.41
260
4.99
211
1.91
256
5.10
191
5.71
179
0.94
242
1.80
260
3.33
286
3.84
279
4.16
270
3.30
251
HBP-ISPtwo views6.40
277
1.33
245
2.30
281
1.91
262
1.51
244
1.65
252
0.79
185
2.50
274
1.29
223
4.91
303
6.80
291
1.37
188
0.74
165
14.59
319
52.98
322
19.59
322
1.24
210
1.10
223
6.08
234
8.03
311
12.73
284
16.75
321
0.79
218
1.19
238
1.81
259
2.06
250
3.90
266
2.87
238
stereogantwo views1.44
148
1.33
245
1.05
189
1.11
211
1.28
232
1.11
219
0.97
203
1.26
149
1.05
204
1.22
173
1.10
184
1.62
206
0.89
196
0.66
200
2.34
138
1.31
111
0.94
160
0.81
148
1.72
115
0.95
181
1.10
91
8.04
207
0.71
201
0.77
198
0.83
121
1.06
153
2.36
181
1.38
184
SFCPSMtwo views8.92
290
1.34
247
1.05
189
1.13
215
1.12
216
1.10
218
0.89
197
1.28
154
1.79
253
2.71
251
5.63
269
4.32
272
7.90
279
1.01
246
5.47
237
5.23
269
1.80
240
1.19
240
162.18
335
4.49
290
7.79
228
9.52
226
0.81
227
1.64
251
1.33
215
1.76
233
3.30
244
3.06
243
NOSS_ROBtwo views3.67
237
1.38
248
0.81
139
1.15
224
1.16
222
1.15
223
0.65
174
2.25
263
1.41
231
4.85
299
6.68
285
6.78
290
1.06
220
0.82
227
11.52
249
14.58
310
1.34
220
1.17
235
2.93
172
0.98
186
14.13
306
12.82
303
0.79
218
1.48
248
1.13
185
1.48
202
3.41
248
1.25
173
MFMNet_retwo views3.01
221
1.41
249
1.48
242
1.53
249
1.87
267
1.96
263
2.01
258
2.67
281
2.16
267
1.60
196
1.98
222
3.57
259
2.65
255
1.02
247
6.96
242
4.19
255
2.67
265
1.96
281
6.48
239
2.40
273
14.04
305
4.97
158
1.86
277
1.97
267
1.38
218
1.33
185
3.31
245
1.94
214
CBMV_ROBtwo views6.60
279
1.41
249
1.59
250
2.38
270
1.74
257
1.90
260
1.86
254
6.44
312
1.69
248
5.02
307
7.03
301
9.95
309
11.26
293
0.65
199
38.55
278
7.04
283
2.78
267
1.12
230
9.67
276
2.45
274
9.46
258
11.60
277
0.80
223
1.37
244
4.92
292
12.01
309
4.73
276
18.79
306
CBMVpermissivetwo views5.08
259
1.41
249
1.15
217
1.44
245
1.42
241
1.24
234
0.78
182
2.27
265
1.47
237
3.04
262
6.44
281
7.74
293
9.07
285
0.60
187
12.81
252
13.79
307
1.99
256
1.29
253
9.56
274
1.15
204
9.82
260
12.54
298
0.82
231
1.84
262
1.44
230
1.83
238
4.39
272
25.76
316
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
ADCReftwo views4.84
255
1.42
252
1.01
183
0.78
171
1.77
259
1.21
232
1.62
242
0.99
116
5.58
305
1.85
214
1.08
183
1.02
149
0.91
199
1.17
260
54.35
325
1.92
191
1.10
190
1.04
215
3.49
191
1.32
216
1.80
141
3.27
134
2.13
280
0.87
217
2.30
270
4.60
283
2.48
194
29.71
322
AnyNet_C32two views6.05
273
1.43
253
1.39
237
1.26
230
1.64
251
1.36
240
2.92
269
1.55
199
5.28
304
2.67
250
4.61
259
1.90
214
1.29
229
1.29
266
55.18
327
3.43
238
1.96
254
2.08
286
3.65
193
1.91
256
6.94
219
8.77
218
1.20
251
1.68
254
6.02
297
14.92
314
6.12
284
20.86
308
PVDtwo views4.10
242
1.44
254
2.12
276
1.41
240
1.58
249
1.68
254
2.10
260
3.06
286
2.66
276
2.85
254
4.32
254
2.46
242
3.63
268
1.27
264
40.43
281
2.72
218
2.19
261
2.11
289
4.71
209
2.46
275
6.18
205
6.10
184
1.02
247
1.74
258
2.32
272
2.44
264
2.90
228
2.66
233
PS-NSSStwo views1.07
104
1.44
254
0.69
115
1.20
227
0.91
192
1.16
225
0.93
202
0.80
81
0.55
129
0.74
89
0.49
74
1.98
220
1.03
216
0.91
236
1.54
47
0.92
42
0.83
124
0.73
120
1.45
99
0.62
107
0.94
77
0.63
35
1.68
273
0.50
120
1.00
160
0.95
137
3.21
239
1.11
157
MFN_U_SF_DS_RVCtwo views3.64
236
1.48
256
1.03
185
1.98
263
1.75
258
2.09
266
5.14
288
2.15
253
2.23
268
1.73
206
1.57
211
2.49
243
4.83
272
5.73
304
12.78
251
1.73
179
1.22
207
1.06
220
5.43
219
1.54
239
12.24
281
9.06
222
1.52
270
1.16
236
2.29
269
3.46
277
3.05
233
7.63
282
DeepPrunerFtwo views4.30
247
1.53
257
0.72
120
2.93
282
5.08
312
2.43
275
3.38
275
0.87
99
4.11
296
0.80
112
1.17
190
0.66
70
0.56
109
0.61
189
45.12
295
2.02
199
1.01
178
0.78
136
2.32
135
0.88
170
1.56
126
1.70
103
0.84
234
0.67
181
29.00
325
1.78
234
2.48
194
1.17
166
ADCP+two views5.07
258
1.54
258
1.72
255
1.08
209
1.54
246
1.18
228
2.02
259
1.02
118
2.72
279
4.05
287
2.23
233
2.24
234
0.61
127
0.94
241
54.46
326
1.52
158
0.83
124
0.95
193
3.94
198
0.87
169
2.22
151
2.57
126
0.71
201
0.62
166
2.48
276
11.25
306
7.85
295
23.66
313
DPSNettwo views5.60
265
1.54
258
1.19
223
1.76
255
2.44
278
2.08
265
1.81
252
1.95
234
2.93
281
2.09
228
5.15
265
9.82
303
6.09
275
8.98
309
14.30
255
12.14
304
4.12
282
3.60
313
17.82
291
8.28
312
12.18
279
14.58
315
3.71
292
3.09
308
2.30
270
2.42
263
2.52
200
2.24
227
pmcnntwo views5.52
264
1.54
258
1.51
244
2.64
273
3.13
296
2.07
264
10.40
304
2.61
277
2.65
275
2.55
246
6.41
280
6.23
286
15.93
310
0.58
179
6.75
240
14.92
313
3.87
278
3.34
312
7.45
264
7.76
308
13.60
301
10.19
234
6.30
305
2.29
283
1.57
246
3.30
275
4.69
274
4.80
261
XPNet_ROBtwo views1.63
163
1.57
261
1.09
201
0.91
189
1.13
219
1.01
213
0.88
196
0.95
112
1.14
216
1.07
160
1.82
217
4.03
267
0.72
155
0.78
219
1.82
72
1.51
154
1.52
233
0.94
187
1.42
95
1.04
191
2.20
149
7.75
204
0.86
237
0.80
201
0.94
151
1.29
183
3.34
246
1.56
193
FC-DCNNcopylefttwo views3.48
230
1.59
262
4.19
306
2.76
277
2.30
271
3.10
283
1.73
247
2.57
276
1.72
249
2.88
256
1.36
205
2.15
229
1.21
226
0.68
203
6.32
238
1.61
169
1.31
217
1.03
212
7.90
268
0.95
181
8.85
253
8.73
216
0.82
231
1.69
257
3.19
284
2.50
266
4.67
273
16.15
302
FC-DCNN v2copylefttwo views3.76
238
1.64
263
4.17
305
2.93
282
2.32
273
3.38
285
1.67
243
2.65
279
2.92
280
2.86
255
1.36
205
2.62
249
1.33
231
0.68
203
6.35
239
1.65
173
1.31
217
1.00
207
8.25
269
0.94
179
8.74
252
8.73
216
0.82
231
1.68
254
4.68
291
3.34
276
7.40
292
15.96
301
G-Nettwo views6.29
275
1.69
264
1.86
263
1.42
243
1.70
256
1.45
245
1.19
225
4.71
307
8.56
313
3.16
264
4.70
260
7.94
294
6.89
277
0.85
229
15.45
258
8.15
292
1.92
251
2.75
306
5.41
218
6.49
305
9.16
257
11.23
268
1.46
268
2.81
303
1.81
259
19.84
318
6.51
289
30.80
323
zero-FEtwo views23.86
324
1.70
265
0.52
86
141.89
337
8.72
322
147.65
338
77.27
334
1.26
149
0.60
143
1.15
166
4.12
253
136.19
335
11.59
295
0.57
176
2.27
134
3.52
241
1.06
188
2.52
302
5.18
213
0.95
181
81.26
337
7.98
206
0.52
132
0.47
100
0.86
130
1.54
214
1.68
120
1.14
159
LSM0two views11.61
303
1.70
265
2.94
294
2.71
276
2.41
277
2.76
278
6.88
295
4.22
303
4.26
298
3.67
280
7.57
303
7.41
291
9.43
288
0.98
244
64.90
334
78.60
337
3.43
274
2.37
297
20.39
296
4.80
294
14.29
314
16.21
320
1.30
260
3.06
307
3.29
285
12.44
310
6.06
283
25.31
315
SPS-STEREOcopylefttwo views5.78
269
1.73
267
1.86
263
2.48
272
1.67
253
2.19
267
1.60
241
2.72
282
1.76
251
3.63
278
6.80
291
4.12
268
2.19
244
1.21
262
13.01
253
12.86
305
2.91
269
2.01
283
47.66
320
2.04
265
14.17
308
13.06
310
1.43
266
2.27
282
2.40
274
1.94
244
3.66
258
2.80
236
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
CC-Net-ROBtwo views1.63
163
1.81
268
1.19
223
1.85
257
1.77
259
2.27
268
1.56
240
0.93
108
0.96
191
1.29
177
0.67
115
5.48
281
2.51
251
1.43
270
1.64
51
0.87
38
1.34
220
1.17
235
2.46
142
0.88
170
1.09
89
1.35
93
3.34
289
0.63
172
1.22
197
1.15
168
1.47
99
1.57
194
edge stereotwo views5.88
271
1.88
269
3.14
297
2.14
267
1.80
264
2.47
277
2.43
264
4.51
306
3.45
290
3.97
285
4.84
261
6.45
287
17.40
311
1.04
253
5.09
235
14.91
312
1.80
240
1.66
269
37.39
310
6.28
304
5.99
202
12.74
301
1.44
267
2.02
270
2.12
268
2.11
256
3.75
259
5.99
275
ADCLtwo views5.69
267
1.88
269
1.63
251
1.29
233
1.40
240
1.59
251
2.22
262
1.23
143
5.20
303
3.04
262
2.01
226
1.14
170
0.84
189
1.04
253
50.40
307
1.63
172
1.45
229
1.79
273
2.94
174
1.38
219
3.19
163
2.35
120
1.23
253
1.07
231
9.47
310
11.74
308
11.34
303
29.10
321
ACV-stereotwo views13.36
311
1.90
271
1.63
251
2.10
265
1.15
221
2.97
279
1.36
232
1.72
216
1.86
260
2.96
260
4.89
263
3.67
264
43.88
322
1.13
257
54.14
324
17.43
319
2.38
263
1.31
255
170.74
336
4.64
292
12.73
284
14.68
316
0.97
244
1.83
261
1.25
204
1.49
205
3.53
255
2.32
228
MFN_U_SF_RVCtwo views4.44
251
1.91
272
1.83
261
2.19
269
1.82
266
2.38
274
4.61
285
2.39
269
1.94
261
4.48
293
11.47
316
3.74
265
2.50
250
4.72
299
20.32
266
3.66
243
1.91
250
1.83
275
11.50
281
3.25
284
7.86
232
6.73
192
1.25
254
3.20
311
1.86
263
3.84
279
2.83
223
3.94
257
ETE_ROBtwo views1.85
181
1.93
273
1.18
220
1.04
205
1.33
236
1.26
236
1.12
220
1.11
126
2.30
270
1.36
182
3.26
244
3.18
255
0.94
207
1.14
258
2.62
162
1.51
154
2.14
260
0.99
202
2.50
143
1.15
204
3.67
168
5.74
180
0.86
237
1.03
226
1.21
192
1.36
189
2.30
171
1.68
202
ADCStwo views6.69
280
1.97
274
1.94
267
1.41
240
2.24
270
1.84
259
3.00
270
2.08
250
3.97
293
2.66
248
3.26
244
3.01
254
11.48
294
2.01
280
53.18
323
11.65
302
2.72
266
2.59
303
5.10
212
2.24
269
10.43
270
8.65
214
1.76
275
1.97
267
2.57
278
10.58
304
7.51
293
18.68
305
DGSMNettwo views11.16
301
1.98
275
1.98
269
1.90
261
1.52
245
2.46
276
1.47
236
3.07
287
2.11
265
12.67
327
102.10
335
3.59
261
18.94
314
18.97
324
16.50
261
15.09
314
12.73
309
10.36
323
13.79
285
4.57
291
12.99
291
14.32
314
7.77
313
3.43
312
1.75
257
6.25
296
3.48
254
5.53
271
MADNet+two views4.78
254
2.02
276
1.87
265
2.01
264
2.36
275
1.47
246
4.28
283
2.47
272
1.99
263
2.66
248
2.13
230
3.56
258
2.85
260
2.34
281
41.14
284
5.66
277
3.48
275
1.53
264
4.54
207
3.38
286
13.07
293
7.34
201
1.72
274
3.48
313
2.93
280
2.17
257
3.24
242
3.29
250
LALA_ROBtwo views1.85
181
2.17
277
1.13
210
1.05
207
1.26
228
1.16
225
1.01
206
1.17
134
1.46
235
2.06
226
2.82
236
3.47
257
0.92
202
0.93
239
3.90
223
1.46
145
1.36
224
1.18
238
2.20
130
1.31
215
2.84
158
5.10
166
0.77
213
1.01
224
1.24
201
1.41
195
3.89
265
1.77
205
SANettwo views5.69
267
2.22
278
1.77
259
1.84
256
2.37
276
2.28
269
1.43
235
4.49
305
7.61
312
2.05
223
4.86
262
8.34
299
11.81
297
1.70
275
43.86
292
1.62
171
5.96
288
1.51
263
4.43
206
1.70
247
8.97
254
8.28
209
1.20
251
2.60
292
1.94
266
6.02
295
3.42
250
9.29
287
ADCMidtwo views5.63
266
2.23
279
2.63
287
1.42
243
2.89
289
2.37
272
3.73
279
1.92
231
2.97
282
1.91
218
3.16
242
2.33
239
2.31
246
1.48
271
50.97
312
3.74
244
1.84
247
1.86
277
7.38
263
1.99
263
4.66
181
5.18
167
2.70
284
1.38
245
2.33
273
8.75
302
6.81
291
21.02
309
AnyNet_C01two views7.20
285
2.24
280
2.27
279
2.95
284
1.92
268
1.58
250
5.39
289
3.73
300
5.63
306
3.17
265
4.41
255
4.59
275
6.09
275
1.88
279
58.66
329
14.24
308
5.46
285
3.69
314
4.79
210
3.02
282
8.40
248
10.33
242
2.45
281
2.24
280
5.77
295
2.65
268
8.81
299
17.99
304
MSC_U_SF_DS_RVCtwo views4.33
248
2.25
281
1.45
241
2.41
271
1.94
269
1.93
261
4.82
287
1.96
235
2.59
274
2.96
260
1.96
220
2.49
243
8.10
280
9.76
312
14.02
254
3.47
239
2.04
259
1.98
282
14.27
286
3.33
285
7.23
223
7.20
200
2.89
288
1.85
263
2.43
275
2.85
271
2.19
160
6.62
279
FBW_ROBtwo views4.93
257
2.40
282
2.44
284
2.67
275
2.86
288
2.30
271
4.71
286
1.79
220
1.10
210
2.54
245
2.92
237
4.12
268
5.31
273
6.61
305
50.17
305
1.18
91
1.44
228
0.95
193
8.76
272
1.43
224
8.26
246
5.68
176
4.20
295
1.75
259
1.42
226
1.95
245
1.81
127
2.20
224
MeshStereopermissivetwo views9.30
295
2.68
283
2.31
282
4.19
289
2.81
287
4.05
290
1.96
257
8.24
323
9.28
314
5.13
310
8.64
310
11.19
312
12.84
300
0.78
219
52.26
318
15.80
317
4.59
283
1.92
278
22.33
300
1.58
240
15.40
323
19.41
325
1.06
250
2.12
272
8.69
308
5.55
290
10.68
301
15.59
300
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
DDUNettwo views2.05
186
2.73
284
2.03
272
2.92
280
2.66
284
3.04
281
2.76
268
1.17
134
1.11
212
1.60
196
1.21
195
2.23
233
1.69
238
2.81
285
2.04
106
1.25
104
2.78
267
2.42
300
2.63
153
2.90
280
1.92
145
2.11
117
2.77
287
0.92
222
1.01
162
0.93
133
2.50
198
1.10
154
UDGtwo views3.91
241
2.76
285
2.09
274
2.92
280
2.64
282
2.99
280
2.71
266
1.31
160
1.13
214
1.65
200
1.96
220
2.20
232
1.68
237
2.77
284
48.81
303
1.57
165
3.02
271
2.26
290
2.65
156
2.91
281
3.00
161
3.09
130
2.64
282
1.05
229
1.02
164
1.19
173
2.36
181
1.16
162
SGM_RVCbinarytwo views8.49
289
2.77
286
1.77
259
2.88
279
2.31
272
3.42
286
2.70
265
7.78
321
3.92
292
5.57
321
8.42
309
9.89
305
12.92
301
0.68
203
3.72
218
2.10
202
6.63
295
1.11
227
40.78
311
5.93
301
9.99
263
10.27
240
1.97
278
2.17
273
8.79
309
2.97
273
27.36
323
40.51
329
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
WAO-6two views7.36
286
2.83
287
2.64
288
8.38
304
2.78
286
3.59
288
8.61
299
3.51
292
3.36
289
1.84
212
2.45
234
5.99
283
8.70
284
3.06
288
50.70
309
2.35
209
13.44
314
1.82
274
8.79
273
2.15
268
14.26
311
12.40
294
3.35
290
2.64
294
7.87
304
5.84
292
4.30
271
11.17
294
WAO-7two views8.11
287
2.98
288
5.46
315
29.83
320
2.32
273
3.09
282
9.23
302
2.48
273
4.20
297
4.67
297
7.60
304
7.98
295
11.78
296
1.64
273
22.32
269
2.11
203
12.00
306
2.79
309
44.95
317
2.13
267
10.06
266
10.12
232
1.37
265
2.49
290
2.97
282
4.35
282
2.94
230
5.06
266
SGM+DAISYtwo views11.81
305
3.22
289
3.47
298
3.83
287
3.15
297
4.25
292
3.52
277
7.70
319
10.88
320
5.57
321
9.00
314
9.94
308
13.12
303
1.74
277
22.71
271
18.99
321
3.23
272
2.28
293
15.35
290
8.91
317
15.05
321
17.02
322
1.32
262
4.58
318
24.50
323
31.01
328
32.60
329
41.83
332
IMH-64-1two views7.17
283
3.27
290
3.53
300
4.69
294
3.29
298
4.58
294
5.71
290
3.51
292
3.09
283
1.39
186
1.98
222
4.90
278
10.92
289
4.82
300
52.00
314
4.78
261
3.66
276
2.27
291
12.32
282
1.96
260
6.91
215
10.55
245
7.77
313
2.22
276
6.05
298
4.73
284
13.45
312
9.13
285
IMH-64two views7.17
283
3.27
290
3.53
300
4.69
294
3.29
298
4.58
294
5.71
290
3.51
292
3.09
283
1.39
186
1.98
222
4.90
278
10.92
289
4.82
300
52.00
314
4.78
261
3.66
276
2.27
291
12.32
282
1.96
260
6.91
215
10.55
245
7.77
313
2.22
276
6.05
298
4.73
284
13.45
312
9.13
285
ELAS_RVCcopylefttwo views9.07
291
3.30
292
5.65
316
4.08
288
3.41
302
7.21
312
4.01
282
7.69
318
3.75
291
4.97
305
7.74
305
9.89
305
11.00
291
3.00
286
47.69
300
4.33
258
6.53
293
9.70
322
9.64
275
2.89
279
13.54
300
15.79
318
2.75
285
4.07
316
18.38
319
23.86
320
4.94
279
5.18
268
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
IMHtwo views9.11
292
3.31
293
3.55
302
4.46
291
3.30
300
4.60
296
6.29
293
3.48
290
3.12
285
1.42
189
1.88
218
5.38
280
15.63
308
51.61
333
52.03
316
3.06
226
3.92
279
2.32
294
20.77
297
2.01
264
6.25
206
9.58
227
8.07
317
2.21
275
7.69
303
5.96
294
3.77
260
10.35
292
STStereotwo views16.49
315
3.48
294
5.91
317
44.25
326
5.60
314
39.03
330
13.11
315
7.74
320
10.72
319
5.19
313
8.92
311
24.73
321
30.22
317
1.03
252
59.92
332
11.74
303
2.59
264
1.26
252
40.79
312
2.25
270
10.02
264
8.79
219
2.06
279
11.31
324
22.61
321
16.05
315
20.57
319
35.39
326
ACVNet_2two views5.79
270
3.52
295
2.90
293
21.94
317
3.38
301
4.55
293
8.18
298
1.84
225
1.76
251
1.84
212
1.98
222
3.88
266
3.20
265
3.03
287
2.85
180
1.46
145
12.77
310
1.56
266
33.59
306
1.68
246
10.81
274
7.91
205
6.79
306
2.68
300
3.13
283
2.65
268
3.23
240
3.11
245
ELAScopylefttwo views10.16
296
3.54
296
5.12
314
4.49
292
4.32
311
5.01
301
4.33
284
6.88
314
4.09
295
4.97
305
7.74
305
9.90
307
11.01
292
3.51
295
52.19
317
4.52
260
7.15
298
9.65
321
8.69
271
2.38
272
13.33
296
14.95
317
2.75
285
3.64
315
17.76
318
27.24
325
13.13
311
21.93
310
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
DispFullNettwo views15.85
313
3.61
297
5.00
312
3.30
285
2.93
293
3.51
287
3.20
271
6.49
313
2.71
278
5.17
311
6.80
291
90.79
332
15.55
307
2.73
282
28.89
274
23.38
327
4.02
280
3.86
315
138.92
334
28.91
328
12.60
283
11.86
280
2.69
283
2.31
284
4.30
290
2.71
270
6.80
290
5.05
265
LVEtwo views10.96
299
3.63
298
2.68
289
55.15
331
4.03
310
7.50
313
88.91
336
1.93
232
2.44
273
2.26
236
1.69
214
4.48
274
4.75
270
3.42
294
3.44
207
2.21
206
6.03
290
1.84
276
50.68
323
1.97
262
10.14
268
12.19
285
5.54
297
3.12
309
3.75
288
2.46
265
2.99
232
6.76
281
Deantwo views5.89
272
3.71
299
2.59
285
34.77
322
3.99
307
4.60
296
10.86
307
2.26
264
2.39
272
2.16
232
1.55
210
4.68
276
4.76
271
3.30
292
3.03
187
1.76
181
12.09
307
1.65
268
9.86
277
2.04
265
14.16
307
9.89
228
7.35
308
2.66
299
3.36
287
2.91
272
3.53
255
3.13
247
RainbowNettwo views4.65
252
3.75
300
2.70
290
4.56
293
2.98
294
4.16
291
8.75
300
2.05
248
2.01
264
1.90
217
1.12
187
3.61
263
3.00
262
3.60
296
2.70
171
1.89
187
2.97
270
1.54
265
15.27
289
8.73
315
11.07
276
11.30
270
10.70
320
2.22
276
1.73
255
2.30
260
2.76
220
6.13
276
PWCKtwo views9.19
293
3.84
301
2.76
291
4.81
298
3.48
303
7.14
311
7.79
296
3.92
301
4.66
302
4.66
296
5.84
274
24.68
320
8.47
281
3.24
291
10.95
248
3.27
233
9.48
301
2.36
296
72.75
327
4.94
295
14.76
319
6.95
196
3.68
291
2.40
287
8.01
305
7.55
298
6.35
285
9.51
289
ACVNet_1two views5.24
261
3.87
302
3.60
303
13.80
307
3.48
303
6.00
307
10.57
305
1.60
203
1.79
253
1.55
194
1.30
198
4.40
273
2.80
259
5.43
302
2.42
144
1.39
124
11.59
304
1.72
272
20.91
299
1.50
234
14.41
316
8.16
208
7.22
307
2.84
304
1.73
255
2.19
258
2.61
212
2.72
235
ktntwo views26.84
327
3.99
303
95.18
338
14.39
308
5.44
313
18.02
324
17.50
321
19.69
328
67.27
336
2.84
253
5.30
266
171.03
337
80.75
332
7.72
306
10.93
247
3.48
240
20.95
327
2.71
304
90.26
329
29.10
330
15.05
321
10.23
236
7.60
312
2.93
305
5.12
293
5.83
291
4.73
276
6.62
279
ACVNet-4btwo views11.58
302
3.99
303
2.60
286
44.40
327
2.71
285
4.98
299
62.31
331
1.85
226
1.79
253
1.63
199
1.25
196
4.22
271
58.75
329
3.34
293
2.27
134
1.21
98
13.33
313
1.70
271
49.50
321
1.93
258
14.47
318
13.72
313
7.40
309
3.13
310
1.55
244
1.89
241
2.20
162
4.61
260
MADNet++two views9.22
294
4.13
305
6.16
318
4.32
290
5.78
316
3.96
289
8.14
297
7.09
315
6.83
310
5.28
316
7.83
307
7.65
292
8.62
283
12.90
314
19.42
265
21.00
325
7.04
297
6.27
317
10.40
278
7.97
310
14.29
314
18.67
324
3.96
293
5.12
320
5.80
296
22.29
319
9.32
300
8.69
283
SQANettwo views4.87
256
4.55
306
2.13
277
19.76
313
2.63
280
4.99
300
3.29
272
1.63
207
1.45
233
1.20
168
1.40
208
3.22
256
2.40
248
2.76
283
3.09
195
1.20
97
5.19
284
1.07
221
19.89
294
1.28
212
12.48
282
10.73
253
11.37
323
1.49
249
1.57
246
2.32
262
2.66
218
5.86
274
otakutwo views5.09
260
5.20
307
2.27
279
18.45
311
2.89
289
5.73
302
3.63
278
1.44
181
1.46
235
1.31
180
1.42
209
3.59
261
2.63
254
3.22
290
3.07
192
1.30
109
5.55
286
1.14
234
20.28
295
1.49
231
13.81
302
11.25
269
11.85
325
1.91
264
1.56
245
2.06
250
2.52
200
6.49
278
WAO-8two views12.07
307
5.33
308
4.83
307
26.48
318
4.01
308
6.22
308
11.73
313
3.65
297
6.39
308
28.97
332
41.01
327
8.08
296
18.91
312
20.68
327
3.75
219
3.24
230
9.46
299
2.01
283
53.81
324
5.76
299
9.83
261
11.16
265
6.04
303
2.43
288
8.05
306
7.74
299
6.36
286
9.95
290
Venustwo views12.07
307
5.33
308
4.83
307
26.48
318
4.01
308
6.22
308
11.73
313
3.65
297
6.39
308
28.97
332
41.01
327
8.08
296
18.91
312
20.68
327
3.75
219
3.24
230
9.46
299
2.01
283
53.81
324
5.76
299
9.83
261
11.16
265
6.04
303
2.43
288
8.05
306
7.74
299
6.36
286
9.95
290
PSMNet_ROBtwo views16.63
316
5.59
310
2.97
295
3.47
286
2.63
280
5.86
305
6.18
292
2.20
258
2.29
269
5.39
318
141.45
336
97.59
333
6.02
274
33.78
329
3.23
203
1.58
168
4.09
281
1.69
270
20.81
298
2.75
276
12.93
290
7.08
198
63.80
336
2.60
292
2.95
281
3.67
278
2.77
221
3.66
253
TorneroNettwo views24.73
325
6.18
311
3.52
299
95.34
334
3.93
306
27.05
326
29.02
323
4.44
304
18.13
327
2.20
233
37.99
326
77.85
331
72.31
330
18.15
323
41.78
287
3.07
227
13.11
311
2.35
295
87.85
328
9.06
319
15.44
324
12.17
284
5.94
300
2.64
294
52.32
332
8.18
301
3.59
257
14.11
297
Ntrotwo views5.35
262
6.19
312
2.38
283
8.06
302
2.91
291
4.88
298
6.70
294
1.40
177
1.53
241
1.44
190
1.19
191
3.58
260
2.73
256
3.12
289
3.66
213
1.17
89
6.56
294
1.19
240
32.62
305
1.60
241
14.27
313
11.82
279
11.41
324
2.54
291
1.64
251
2.30
260
2.45
192
5.00
264
TorneroNet-64two views13.24
310
6.25
313
5.07
313
34.05
321
3.72
305
9.38
319
16.75
320
3.49
291
12.26
323
2.27
238
5.98
275
17.67
314
34.24
318
14.37
317
47.92
301
3.76
245
13.18
312
2.40
299
36.34
309
9.15
320
13.85
304
12.35
293
5.65
298
2.64
294
14.28
317
14.51
313
3.41
248
12.48
295
DGTPSM_ROBtwo views17.21
317
6.49
314
18.05
325
4.91
299
8.87
323
5.73
302
11.48
310
5.02
308
12.05
321
5.03
309
9.34
315
12.62
313
56.51
328
15.29
320
43.82
291
20.47
323
19.26
325
16.28
325
24.70
301
20.05
325
13.50
297
22.25
326
6.00
301
12.55
326
12.71
315
32.01
330
14.20
314
35.61
328
DPSMNet_ROBtwo views22.61
322
6.50
315
18.06
326
4.95
301
8.88
324
5.76
304
11.54
312
5.02
308
12.08
322
5.17
311
28.67
322
19.69
317
163.24
338
15.38
321
43.87
293
20.66
324
19.56
326
16.59
326
35.50
307
20.17
326
13.82
303
22.26
327
6.02
302
12.56
327
12.82
316
32.01
330
14.23
315
35.60
327
KSHMRtwo views20.05
318
6.71
316
4.01
304
99.31
335
5.91
317
17.09
323
71.12
333
3.62
296
9.75
315
3.59
276
3.39
247
6.07
284
84.38
333
17.14
322
22.70
270
3.97
249
6.29
291
2.76
308
90.60
330
2.83
277
12.73
284
10.14
233
9.05
319
2.74
301
21.08
320
5.85
293
8.10
296
10.46
293
JetRedtwo views12.50
309
6.96
317
7.76
322
4.77
297
6.78
318
9.35
318
10.92
308
5.31
311
4.54
300
5.85
323
3.28
246
8.17
298
7.48
278
9.74
311
50.80
310
15.21
315
10.30
302
7.93
318
7.83
267
5.44
298
18.10
326
24.48
328
11.12
322
4.60
319
11.97
314
25.85
323
24.78
322
28.17
319
UNDER WATER-64two views11.75
304
7.29
318
4.90
310
17.03
310
7.40
321
8.44
316
16.49
319
8.25
324
4.32
299
4.51
294
3.21
243
17.72
315
15.23
306
8.81
308
46.52
298
10.69
299
13.57
321
3.01
311
12.74
284
8.66
314
14.20
309
12.82
303
11.01
321
4.40
317
6.45
301
18.67
317
8.71
298
22.29
311
UNDER WATERtwo views16.39
314
7.86
319
4.99
311
15.68
309
10.73
327
8.76
317
38.30
326
8.07
322
6.02
307
4.25
290
2.98
239
18.63
316
96.18
334
14.44
318
32.70
276
10.29
297
13.91
322
2.75
306
43.73
315
8.62
313
16.83
325
12.33
290
17.08
328
5.55
321
6.06
300
14.49
312
6.37
288
15.05
299
JetBluetwo views10.90
298
9.40
320
6.23
319
8.34
303
6.82
319
10.07
320
10.58
306
5.04
310
3.97
293
2.95
259
4.09
252
9.83
304
9.32
286
8.12
307
48.65
302
14.50
309
6.76
296
5.08
316
7.66
266
3.76
287
13.23
294
17.58
323
8.19
318
3.58
314
11.41
313
18.49
316
12.08
309
28.49
320
MANEtwo views14.22
312
9.62
321
6.93
320
4.94
300
5.72
315
7.88
314
11.48
310
7.38
317
9.90
316
4.92
304
6.89
297
8.98
301
12.13
299
3.67
297
50.37
306
17.85
320
11.82
305
20.17
328
10.46
279
6.55
306
12.22
280
12.86
305
1.77
276
11.33
325
24.83
324
30.99
327
31.42
327
40.73
330
SGM-ForestMtwo views6.44
278
10.17
322
6.98
321
4.69
294
2.91
291
6.90
310
9.70
303
7.26
316
4.59
301
4.81
298
6.31
279
9.50
302
9.35
287
0.78
219
3.65
212
1.30
109
6.50
292
0.89
173
11.21
280
1.44
226
6.08
203
6.02
183
1.58
271
1.68
254
9.47
310
11.34
307
12.07
308
16.58
303
notakertwo views10.31
297
13.11
323
4.84
309
18.55
312
6.95
320
7.98
315
14.39
316
3.69
299
3.28
287
2.90
257
2.15
231
30.28
322
43.63
321
4.40
298
9.01
244
2.66
217
12.71
308
2.73
305
42.35
313
2.87
278
14.87
320
10.21
235
7.77
313
3.03
306
2.66
279
2.98
274
3.46
251
4.84
262
DPSM_ROBtwo views21.05
319
17.19
324
22.69
327
10.13
305
9.29
325
13.96
321
14.50
317
11.66
325
15.25
325
9.00
324
8.97
312
10.35
310
13.24
304
19.90
325
59.73
330
26.35
328
18.76
323
21.26
329
14.74
287
15.50
323
28.56
329
27.85
330
7.42
310
16.13
328
34.05
328
39.30
333
37.97
331
44.48
333
DPSMtwo views21.05
319
17.19
324
22.69
327
10.13
305
9.29
325
13.96
321
14.50
317
11.66
325
15.25
325
9.00
324
8.97
312
10.35
310
13.24
304
19.90
325
59.73
330
26.35
328
18.76
323
21.26
329
14.74
287
15.50
323
28.56
329
27.85
330
7.42
310
16.13
328
34.05
328
39.30
333
37.97
331
44.48
333
LE_ROBtwo views28.97
328
25.29
326
36.16
330
34.90
323
56.86
337
18.61
325
58.99
330
32.08
332
41.72
331
5.37
317
27.57
321
46.00
325
49.67
325
13.72
316
14.83
256
3.84
248
5.96
288
1.22
244
46.43
318
36.35
333
10.19
269
11.19
267
48.45
332
22.49
330
30.18
326
31.59
329
31.60
328
40.87
331
LRCNet_RVCtwo views25.94
326
30.78
327
14.74
324
35.18
324
31.16
331
36.52
329
29.93
325
23.08
329
12.70
324
36.15
334
33.37
324
37.24
323
28.56
316
37.11
330
17.47
262
7.61
288
31.06
328
26.75
332
67.49
326
29.07
329
23.47
328
10.73
253
39.23
331
30.61
332
7.37
302
2.53
267
11.22
302
9.31
288
MDST_ROBtwo views12.03
306
32.81
328
1.72
255
20.74
316
2.64
282
5.90
306
1.72
246
4.06
302
1.35
229
3.76
282
6.53
282
2.75
251
42.83
320
0.54
164
50.83
311
1.22
101
1.08
189
0.75
126
18.95
292
1.00
187
12.75
287
11.49
272
1.29
258
1.26
241
22.72
322
11.17
305
31.24
326
31.81
325
CasAABBNettwo views42.72
331
34.60
329
45.66
331
20.17
314
18.55
328
28.05
327
29.13
324
23.25
330
30.69
328
18.73
329
18.11
318
20.72
318
37.90
319
39.93
332
120.54
338
52.80
336
37.72
333
42.56
334
29.30
304
30.56
331
57.58
336
56.66
337
14.58
327
32.34
333
68.46
336
79.09
337
76.31
335
89.48
336
FlowAnythingtwo views42.31
330
34.65
330
45.90
332
20.47
315
18.91
329
28.11
328
28.64
322
23.30
331
30.84
329
18.76
330
18.33
319
20.84
319
27.00
315
39.89
331
119.49
337
52.59
335
37.35
332
42.63
335
29.06
303
31.53
332
57.38
335
56.78
338
14.49
326
32.64
334
68.29
335
78.93
336
76.07
334
89.56
337
PMLtwo views39.07
329
38.06
331
12.06
323
39.32
325
29.04
330
40.62
331
11.06
309
14.14
327
100.08
337
27.87
331
166.26
338
107.74
334
159.39
337
13.53
315
15.41
257
10.75
300
35.75
331
8.64
319
42.84
314
10.61
322
14.22
310
16.14
319
5.89
299
7.21
323
53.08
333
13.95
311
42.26
333
19.02
307
HanzoNettwo views47.37
334
45.54
332
75.64
337
62.53
332
47.97
332
62.03
335
90.57
337
55.02
337
58.34
335
15.60
328
22.00
320
75.72
330
107.47
335
172.14
338
23.65
273
13.02
306
62.42
337
9.26
320
134.39
332
22.45
327
19.74
327
25.78
329
31.84
330
5.57
322
9.72
312
9.49
303
8.54
297
12.61
296
HaxPigtwo views44.53
332
46.75
333
47.32
333
47.72
328
48.79
333
47.60
332
48.40
327
49.50
333
47.10
332
49.76
335
50.31
329
49.00
326
45.26
323
54.49
334
41.50
285
40.24
331
50.15
334
52.05
336
44.74
316
43.04
334
46.61
332
44.38
335
51.78
333
45.43
335
33.92
327
25.30
321
28.66
324
22.43
312
AVERAGE_ROBtwo views46.12
333
48.49
334
48.31
334
49.34
329
50.25
334
48.63
333
49.80
328
50.74
335
48.67
333
51.68
336
52.55
330
50.28
327
47.20
324
55.70
335
43.00
290
40.99
332
52.42
335
54.59
337
47.27
319
45.45
335
48.77
333
44.06
334
52.90
334
46.98
336
35.80
330
26.72
324
30.77
325
23.81
314
MEDIAN_ROBtwo views49.56
335
51.66
335
50.91
335
52.80
330
53.76
335
52.08
334
53.35
329
54.28
336
52.25
334
54.89
337
55.89
331
53.59
328
50.09
326
58.85
336
46.45
297
44.55
333
55.81
336
57.90
338
50.55
322
48.85
336
52.07
334
46.79
336
56.69
335
50.01
337
39.10
331
30.23
326
33.56
330
31.26
324
BEATNet-Init1two views52.60
336
76.96
336
24.06
329
87.02
333
56.48
336
86.86
336
68.77
332
49.65
334
34.71
330
11.93
326
56.24
332
64.63
329
78.72
331
9.65
310
58.40
328
51.35
334
32.72
329
23.00
331
101.24
331
71.98
338
46.49
331
39.72
333
28.67
329
24.23
331
59.12
334
38.23
332
77.99
336
61.49
335
DLNR_Zeroshot_testpermissivetwo views23.11
323
81.98
337
1.97
268
102.16
336
0.49
99
0.55
120
81.36
335
2.30
268
0.50
110
4.87
301
2.22
232
2.99
253
0.93
204
12.17
313
96.90
336
144.02
338
34.28
330
19.61
327
8.60
270
4.35
289
8.08
244
6.53
188
0.51
125
0.69
184
1.37
217
1.57
216
1.16
76
1.90
210
DPSimNet_ROBtwo views111.84
337
179.62
338
74.81
336
195.40
338
165.93
338
136.63
337
98.05
338
126.48
338
138.79
338
82.31
338
148.57
337
159.77
336
157.57
336
78.29
337
64.65
333
40.10
330
142.61
338
34.98
333
195.20
337
69.76
337
154.10
338
32.63
332
82.12
337
98.24
338
71.10
337
51.68
335
117.83
337
122.56
338
ASD4two views105.89
339