This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CREStereotwo views0.39
1
0.21
1
0.38
1
0.34
1
0.22
1
0.53
1
0.29
3
0.77
2
1.11
21
0.58
1
0.71
2
0.51
1
0.41
1
0.54
1
0.34
1
0.18
3
0.13
3
0.15
1
0.10
1
0.14
1
0.14
2
PMTNettwo views0.46
2
0.21
1
0.38
1
0.37
2
0.23
2
0.71
7
0.27
2
0.74
1
1.04
10
0.64
2
0.70
1
0.55
2
0.47
2
0.86
9
0.35
2
1.00
134
0.13
3
0.15
1
0.10
1
0.15
2
0.13
1
Gwc-CoAtRStwo views0.52
3
0.24
3
0.68
20
0.48
3
0.29
6
0.64
4
0.25
1
1.16
4
1.08
16
1.01
13
1.00
6
1.12
21
0.56
6
0.69
4
0.37
3
0.16
1
0.13
3
0.17
4
0.15
7
0.15
2
0.15
3
R-Stereo Traintwo views0.57
4
0.26
4
0.63
12
0.54
14
0.36
16
0.69
5
0.54
30
1.22
6
0.72
2
1.61
76
1.50
68
0.75
5
0.53
4
0.64
2
0.44
4
0.18
3
0.15
10
0.17
4
0.15
7
0.17
4
0.17
6
RAFT-Stereopermissivetwo views0.57
4
0.26
4
0.63
12
0.54
14
0.36
16
0.69
5
0.54
30
1.22
6
0.72
2
1.61
76
1.50
68
0.75
5
0.53
4
0.64
2
0.44
4
0.18
3
0.15
10
0.17
4
0.15
7
0.17
4
0.17
6
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
FENettwo views0.60
6
0.28
6
0.63
12
0.54
14
0.33
11
0.83
16
0.38
6
1.27
8
1.07
13
1.00
12
0.86
3
0.99
11
0.85
23
0.96
11
0.68
13
0.22
20
0.15
10
0.23
24
0.20
22
0.22
17
0.23
30
DPM-Stereotwo views0.62
7
0.30
11
0.83
30
0.48
3
0.36
16
0.95
32
0.33
4
2.37
122
0.67
1
1.25
38
1.00
6
0.68
3
0.51
3
0.91
10
0.61
9
0.18
3
0.15
10
0.21
16
0.17
13
0.19
8
0.19
13
ACVNettwo views0.63
8
0.31
16
0.54
4
0.54
14
0.36
16
0.80
14
0.46
10
1.37
11
1.07
13
0.93
6
1.30
40
1.08
16
0.85
23
0.80
6
0.94
39
0.21
15
0.19
29
0.21
16
0.18
15
0.22
17
0.18
9
DN-CSS_ROBtwo views0.64
9
0.32
18
1.05
48
0.55
19
0.40
27
0.54
2
0.45
8
1.21
5
0.93
5
1.03
16
1.47
65
0.69
4
0.63
8
1.76
45
0.49
6
0.18
3
0.14
6
0.25
32
0.22
28
0.22
17
0.20
19
HITNettwo views0.65
10
0.40
42
0.77
24
0.48
3
0.24
4
1.05
43
0.49
19
1.76
59
1.02
8
1.18
30
1.18
25
0.89
7
0.80
19
0.85
8
0.79
26
0.17
2
0.12
1
0.21
16
0.17
13
0.29
38
0.15
3
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
DMCAtwo views0.67
11
0.34
27
0.90
37
0.51
6
0.44
35
0.86
20
0.47
14
1.42
16
1.02
8
1.17
28
1.12
14
1.23
30
0.75
12
0.78
5
0.95
41
0.25
34
0.19
29
0.27
38
0.19
18
0.24
26
0.27
41
ccstwo views0.69
12
0.29
8
0.64
17
0.55
19
0.32
10
0.63
3
0.45
8
2.30
119
1.43
77
0.85
3
1.02
10
1.05
14
0.75
12
0.97
13
0.69
14
0.30
59
0.25
62
0.30
52
0.29
64
0.31
48
0.35
68
AdaStereotwo views0.70
13
0.43
51
0.75
22
0.73
89
0.37
21
0.92
27
0.53
27
1.85
74
1.18
30
1.12
22
1.23
29
1.07
15
0.65
10
0.96
11
0.63
11
0.31
64
0.15
10
0.32
59
0.21
25
0.29
38
0.22
27
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
MLCVtwo views0.72
14
0.34
27
1.10
55
0.51
6
0.23
2
0.91
24
0.39
7
1.33
9
1.23
43
1.46
62
1.55
72
1.01
12
0.64
9
1.95
57
0.80
29
0.18
3
0.12
1
0.18
9
0.14
5
0.19
8
0.17
6
CFNet-ftpermissivetwo views0.72
14
0.32
18
0.54
4
0.66
54
0.54
53
0.83
16
0.55
36
1.37
11
1.15
25
0.93
6
1.28
36
1.57
64
0.97
43
1.35
19
0.81
30
0.26
45
0.20
36
0.33
64
0.25
39
0.30
43
0.23
30
PSMNet-RSSMtwo views0.72
14
0.30
11
0.61
9
0.63
41
0.42
29
0.73
8
0.56
40
1.92
87
1.10
19
1.09
19
1.37
51
1.22
28
0.98
47
1.28
17
0.72
16
0.27
50
0.19
29
0.27
38
0.29
64
0.24
26
0.24
34
CFNet_RVCtwo views0.72
14
0.32
18
0.54
4
0.66
54
0.54
53
0.83
16
0.55
36
1.37
11
1.15
25
0.93
6
1.28
36
1.57
64
0.97
43
1.35
19
0.81
30
0.26
45
0.20
36
0.33
64
0.25
39
0.30
43
0.23
30
GANet-RSSMtwo views0.72
14
0.28
6
0.63
12
0.64
47
0.58
66
0.80
14
0.58
43
1.89
80
1.08
16
1.04
17
1.25
31
1.15
24
1.04
56
1.49
24
0.62
10
0.25
34
0.19
29
0.22
20
0.22
28
0.22
17
0.21
20
cf-rtwo views0.73
19
0.30
11
0.77
24
0.55
19
0.63
79
0.78
11
0.48
17
1.79
67
1.15
25
1.13
25
1.26
33
1.43
49
0.87
28
1.40
21
0.85
35
0.25
34
0.18
24
0.22
20
0.23
31
0.19
8
0.19
13
BEATNet_4xtwo views0.73
19
0.49
67
1.17
62
0.53
11
0.26
5
1.03
40
0.55
36
1.82
71
1.06
12
1.21
34
1.22
27
0.96
10
0.91
35
1.01
14
1.06
48
0.21
15
0.14
6
0.24
27
0.19
18
0.37
63
0.21
20
DeepPruner_ROBtwo views0.74
21
0.48
65
0.87
34
0.57
24
0.44
35
0.79
13
0.54
30
1.73
52
0.96
6
1.38
56
1.27
34
1.24
31
0.73
11
1.43
22
0.73
18
0.34
76
0.28
71
0.27
38
0.26
45
0.31
48
0.31
58
DMCA-RVCcopylefttwo views0.74
21
0.40
42
1.27
72
0.66
54
0.49
44
0.77
10
0.47
14
1.35
10
1.01
7
1.53
68
1.01
8
1.29
38
0.82
20
1.31
18
0.78
23
0.27
50
0.21
40
0.35
77
0.27
48
0.32
52
0.24
34
acv_fttwo views0.75
23
0.31
16
0.95
42
0.70
72
0.86
111
1.24
63
0.53
27
1.44
18
1.07
13
1.24
37
1.30
40
1.08
16
0.92
37
0.80
6
1.34
73
0.21
15
0.19
29
0.21
16
0.18
15
0.21
14
0.18
9
iResNettwo views0.75
23
0.40
42
1.36
83
0.67
60
0.29
6
0.92
27
0.59
45
1.52
30
1.25
47
1.28
42
1.48
66
0.94
9
0.76
16
1.62
34
0.78
23
0.18
3
0.14
6
0.18
9
0.15
7
0.22
17
0.23
30
GwcNet-RSSMtwo views0.77
25
0.32
18
1.01
45
0.62
37
0.54
53
0.78
11
0.51
24
1.73
52
1.20
38
1.09
19
1.37
51
1.46
56
0.85
23
1.53
27
1.09
51
0.25
34
0.18
24
0.23
24
0.24
34
0.20
11
0.19
13
iResNet_ROBtwo views0.77
25
0.30
11
0.99
44
0.57
24
0.36
16
0.83
16
0.36
5
2.33
120
1.58
92
1.27
40
1.30
40
1.25
33
0.84
21
1.65
35
0.79
26
0.20
13
0.14
6
0.17
4
0.12
3
0.18
6
0.27
41
psm_uptwo views0.77
25
0.34
27
0.70
21
0.66
54
0.58
66
1.05
43
0.92
79
1.52
30
1.12
23
1.26
39
1.16
22
1.31
41
1.23
76
1.20
15
0.81
30
0.25
34
0.29
76
0.31
55
0.27
48
0.27
35
0.25
39
STTStereotwo views0.78
28
0.50
71
1.22
64
0.64
47
0.54
53
0.89
21
0.54
30
1.44
18
1.11
21
1.38
56
1.09
13
1.27
37
0.85
23
1.43
22
0.83
33
0.29
57
0.27
68
0.33
64
0.39
96
0.32
52
0.30
54
ccs_robtwo views0.79
29
0.32
18
0.83
30
0.60
31
0.34
13
1.03
40
0.46
10
1.81
70
1.31
56
1.12
22
1.35
50
1.18
25
0.77
17
2.63
85
0.60
8
0.23
23
0.18
24
0.27
38
0.27
48
0.23
24
0.21
20
CC-Net-ROBtwo views0.79
29
0.43
51
1.05
48
0.63
41
0.56
59
0.94
30
0.54
30
1.51
26
1.18
30
1.37
52
1.17
23
1.42
48
0.89
32
1.69
42
0.87
36
0.25
34
0.22
46
0.27
38
0.26
45
0.29
38
0.30
54
NLCA_NET_v2_RVCtwo views0.79
29
0.43
51
1.05
48
0.64
47
0.58
66
0.95
32
0.53
27
1.53
36
1.18
30
1.37
52
1.15
19
1.43
49
0.88
30
1.61
33
0.84
34
0.25
34
0.22
46
0.27
38
0.27
48
0.29
38
0.29
49
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
hitnet-ftcopylefttwo views0.79
29
0.35
34
0.57
7
0.58
27
0.42
29
0.96
34
0.46
10
1.47
21
1.33
60
1.19
32
1.22
27
1.81
79
0.98
47
1.66
38
0.94
39
0.33
69
0.28
71
0.34
72
0.27
48
0.35
57
0.31
58
UPFNettwo views0.80
33
0.32
18
0.90
37
0.59
29
0.74
90
1.26
65
0.80
64
1.52
30
1.10
19
1.30
44
1.12
14
1.30
39
0.84
21
1.67
39
1.09
51
0.24
30
0.24
56
0.24
27
0.23
31
0.25
29
0.18
9
iResNetv2_ROBtwo views0.80
33
0.37
37
1.71
96
0.56
22
0.37
21
0.94
30
0.64
49
1.73
52
1.34
62
1.23
36
1.42
60
1.26
34
0.92
37
1.85
51
0.56
7
0.23
23
0.15
10
0.19
11
0.14
5
0.24
26
0.19
13
StereoDRNet-Refinedtwo views0.80
33
0.41
46
0.88
35
0.62
37
0.42
29
1.33
70
0.48
17
1.52
30
1.17
29
1.45
61
1.44
63
1.44
53
0.90
34
1.26
16
1.24
62
0.20
13
0.16
17
0.27
38
0.24
34
0.25
29
0.28
47
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
ac_64two views0.82
36
0.29
8
0.81
28
0.71
79
0.60
74
1.05
43
0.54
30
1.99
98
0.92
4
1.18
30
1.06
11
1.99
94
1.08
61
1.94
56
0.97
44
0.27
50
0.22
46
0.24
27
0.23
31
0.22
17
0.19
13
UNettwo views0.83
37
0.34
27
1.31
75
0.58
27
0.74
90
1.58
84
0.49
19
1.41
15
1.04
10
1.21
34
1.08
12
1.54
62
1.12
66
1.65
35
1.09
51
0.23
23
0.17
19
0.25
32
0.20
22
0.25
29
0.22
27
FADNet_RVCtwo views0.83
37
0.51
74
1.83
98
0.54
14
0.42
29
1.19
58
0.46
10
1.51
26
1.09
18
0.89
4
1.24
30
0.91
8
0.87
28
2.11
64
1.11
55
0.27
50
0.22
46
0.31
55
0.28
59
0.43
84
0.38
78
MMNettwo views0.84
39
0.32
18
1.09
53
0.60
31
0.59
72
1.85
99
0.49
19
1.51
26
1.27
51
1.37
52
1.15
19
1.26
34
1.18
71
1.67
39
1.22
60
0.19
11
0.18
24
0.23
24
0.22
28
0.25
29
0.21
20
FADNet-RVC-Resampletwo views0.84
39
0.47
61
2.10
101
0.61
35
0.45
37
1.07
47
0.61
48
1.59
41
1.20
38
1.08
18
0.98
5
1.03
13
0.98
47
2.17
66
0.72
16
0.23
23
0.22
46
0.30
52
0.32
79
0.35
57
0.34
64
HGLStereotwo views0.85
41
0.38
39
0.94
41
0.80
97
1.03
123
1.17
57
0.58
43
1.52
30
1.20
38
1.19
32
1.62
75
1.13
22
1.20
74
1.80
47
1.06
48
0.24
30
0.24
56
0.24
27
0.21
25
0.23
24
0.27
41
delettwo views0.85
41
0.32
18
0.95
42
0.65
52
0.66
82
1.64
89
0.84
65
1.75
56
1.35
66
1.32
46
1.30
40
1.30
39
0.88
30
1.68
41
1.10
54
0.21
15
0.21
40
0.24
27
0.24
34
0.21
14
0.21
20
DLCB_ROBtwo views0.86
43
0.40
42
0.78
26
0.68
66
0.54
53
1.11
49
0.84
65
1.49
23
1.23
43
1.64
79
1.65
77
1.70
74
0.91
35
1.70
43
1.05
47
0.25
34
0.24
56
0.26
35
0.27
48
0.27
35
0.24
34
HSM-Net_RVCpermissivetwo views0.87
44
0.29
8
0.53
3
0.53
11
0.30
9
1.15
55
0.55
36
3.57
136
1.28
55
1.53
68
1.74
84
1.68
72
0.93
40
1.49
24
0.77
22
0.22
20
0.17
19
0.19
11
0.18
15
0.20
11
0.19
13
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
FADNet-RVCtwo views0.88
45
0.67
103
1.93
100
0.60
31
0.48
41
0.91
24
0.60
47
1.71
50
1.18
30
0.90
5
0.96
4
1.36
44
0.92
37
2.25
73
1.17
57
0.30
59
0.29
76
0.32
59
0.32
79
0.41
77
0.35
68
PSMNet_ROBtwo views0.90
46
0.52
76
1.17
62
0.72
82
0.61
75
1.27
66
1.12
97
1.76
59
1.12
23
1.09
19
1.28
36
1.45
54
0.89
32
1.65
35
1.42
83
0.33
69
0.25
62
0.37
85
0.39
96
0.35
57
0.29
49
CBMV_ROBtwo views0.90
46
0.44
55
0.63
12
0.51
6
0.37
21
1.25
64
0.49
19
1.77
62
1.27
51
1.41
59
2.00
98
1.33
43
1.08
61
2.17
66
0.76
21
0.43
102
0.42
113
0.47
111
0.44
108
0.41
77
0.36
72
FADNettwo views0.92
48
0.61
95
1.81
97
0.62
37
0.55
58
0.96
34
0.57
41
1.78
66
1.33
60
0.93
6
1.01
8
1.36
44
1.01
53
2.71
88
0.75
19
0.33
69
0.34
91
0.31
55
0.34
86
0.59
115
0.40
79
NVstereo2Dtwo views0.92
48
0.41
46
1.48
88
0.72
82
0.72
88
1.20
60
0.87
70
1.75
56
1.38
72
0.99
10
1.13
16
1.26
34
0.98
47
2.21
71
0.89
37
0.43
102
0.20
36
0.38
87
0.24
34
0.57
111
0.63
123
DSFCAtwo views0.93
50
0.34
27
1.06
51
0.52
9
0.65
80
1.55
82
0.93
82
1.49
23
1.19
34
1.56
73
1.15
19
1.50
59
0.96
42
3.07
94
1.02
46
0.30
59
0.26
65
0.25
32
0.25
39
0.28
37
0.24
34
CBMVpermissivetwo views0.95
51
0.44
55
0.66
19
0.53
11
0.35
14
1.53
80
1.63
117
1.69
47
1.42
76
2.00
100
1.60
74
1.43
49
1.17
68
1.59
31
0.99
45
0.34
76
0.34
91
0.39
92
0.33
82
0.33
56
0.32
60
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
XPNet_ROBtwo views0.96
52
0.49
67
1.09
53
0.72
82
0.57
60
1.11
49
1.14
99
1.66
44
1.23
43
1.85
91
1.39
56
1.64
70
1.11
64
1.80
47
1.42
83
0.38
88
0.30
80
0.33
64
0.29
64
0.37
63
0.34
64
CFNettwo views0.96
52
0.36
35
1.01
45
0.62
37
0.42
29
0.99
38
0.47
14
1.90
83
1.32
58
0.99
10
1.39
56
1.10
19
0.86
27
5.58
116
0.79
26
0.23
23
0.17
19
0.28
46
0.27
48
0.26
34
0.21
20
ETE_ROBtwo views0.96
52
0.64
101
1.16
60
0.69
68
0.48
41
1.14
53
1.13
98
1.77
62
1.19
34
1.91
96
1.45
64
1.73
76
1.05
58
1.60
32
1.14
56
0.32
67
0.26
65
0.38
87
0.34
86
0.39
73
0.41
82
StereoDRNettwo views0.98
55
0.47
61
1.70
95
0.76
95
0.94
118
1.51
78
0.91
76
1.92
87
1.32
58
1.61
76
1.13
16
1.47
58
0.97
43
1.75
44
1.46
86
0.28
55
0.23
52
0.29
48
0.27
48
0.35
57
0.27
41
DRN-Testtwo views1.00
56
0.44
55
1.13
58
0.70
72
0.81
108
1.62
87
0.79
63
2.14
107
1.44
79
1.78
87
1.33
47
1.43
49
1.05
58
2.18
69
1.53
90
0.27
50
0.21
40
0.31
55
0.30
71
0.32
52
0.28
47
NCCL2two views1.00
56
0.56
83
1.06
51
0.75
94
0.57
60
1.31
69
1.72
118
1.77
62
1.36
68
1.50
66
1.17
23
1.91
85
1.17
68
1.54
28
1.29
69
0.35
81
0.31
84
0.45
105
0.44
108
0.40
76
0.40
79
PA-Nettwo views1.01
58
0.57
85
1.29
73
0.64
47
0.74
90
1.19
58
0.84
65
1.69
47
1.43
77
1.16
27
1.19
26
1.32
42
1.19
73
3.42
100
1.25
63
0.29
57
0.45
120
0.33
64
0.49
118
0.32
52
0.47
99
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
LALA_ROBtwo views1.01
58
0.59
88
1.16
60
0.67
60
0.51
50
1.63
88
1.26
107
1.69
47
1.38
72
1.81
89
1.37
51
1.94
90
1.02
54
1.58
30
1.38
78
0.37
85
0.27
68
0.43
102
0.37
94
0.43
84
0.37
73
DISCOtwo views1.03
60
0.34
27
1.11
56
0.69
68
0.45
37
2.07
106
0.84
65
2.13
106
1.50
85
1.15
26
1.33
47
2.40
111
1.07
60
2.60
83
1.51
89
0.23
23
0.18
24
0.22
20
0.20
22
0.31
48
0.27
41
TDLMtwo views1.06
61
0.44
55
0.79
27
0.63
41
0.50
46
0.89
21
1.44
112
1.48
22
1.26
48
1.12
22
1.40
58
1.08
16
0.98
47
6.65
122
0.78
23
0.33
69
0.21
40
0.33
64
0.26
45
0.37
63
0.24
34
FAT-Stereotwo views1.07
62
0.41
46
1.32
78
0.72
82
0.58
66
1.08
48
0.89
72
1.96
94
1.65
95
1.75
85
1.98
97
2.03
98
1.48
92
2.02
59
1.18
59
0.42
99
0.35
96
0.34
72
0.29
64
0.35
57
0.53
108
GANetREF_RVCpermissivetwo views1.07
62
0.86
120
1.31
75
0.82
101
0.53
51
1.41
74
1.31
109
1.76
59
1.52
87
1.27
40
1.31
45
1.46
56
1.24
77
2.03
60
0.96
43
0.56
125
0.45
120
0.67
131
0.50
119
0.88
131
0.59
117
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
CVANet_RVCtwo views1.07
62
0.43
51
0.76
23
0.60
31
0.50
46
0.90
23
0.97
87
1.52
30
1.26
48
1.33
50
1.38
54
1.24
31
1.18
71
6.75
124
0.75
19
0.34
76
0.23
52
0.34
72
0.29
64
0.42
80
0.27
41
DANettwo views1.08
65
0.61
95
1.32
78
0.85
107
0.72
88
1.37
72
0.51
24
1.54
37
1.15
25
1.78
87
1.54
71
2.01
96
1.11
64
2.90
91
2.00
106
0.33
69
0.30
80
0.40
97
0.30
71
0.44
90
0.45
92
GwcNetcopylefttwo views1.08
65
0.51
74
2.33
106
0.79
96
1.18
133
1.76
93
0.70
55
1.68
46
1.47
81
1.41
59
1.64
76
1.74
77
1.04
56
2.20
70
1.41
81
0.30
59
0.29
76
0.29
48
0.27
48
0.30
43
0.35
68
RPtwo views1.09
67
0.50
71
1.12
57
0.90
115
1.04
124
1.11
49
0.84
65
1.80
68
1.62
93
1.55
72
2.00
98
1.90
84
1.78
108
1.84
50
1.25
63
0.52
119
0.36
100
0.48
112
0.36
93
0.45
93
0.43
89
Nwc_Nettwo views1.09
67
0.49
67
1.33
80
0.89
114
0.80
106
1.49
77
0.66
52
2.19
113
1.27
51
1.32
46
2.26
105
1.96
92
1.54
93
1.92
52
1.34
73
0.40
92
0.30
80
0.43
102
0.45
110
0.38
69
0.37
73
Abc-Nettwo views1.10
69
0.54
79
1.24
66
0.84
103
0.94
118
1.29
67
0.89
72
2.01
100
1.34
62
1.32
46
1.74
84
1.88
80
1.74
106
2.35
76
1.25
63
0.45
107
0.37
102
0.45
105
0.58
126
0.42
80
0.42
86
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
NCC-stereotwo views1.10
69
0.54
79
1.24
66
0.84
103
0.94
118
1.29
67
0.89
72
2.01
100
1.34
62
1.32
46
1.74
84
1.88
80
1.74
106
2.35
76
1.25
63
0.45
107
0.37
102
0.45
105
0.58
126
0.42
80
0.42
86
edge stereotwo views1.11
71
0.50
71
1.30
74
0.71
79
0.65
80
1.14
53
0.75
59
1.93
91
1.37
70
1.71
82
1.83
90
2.54
115
1.44
88
2.43
79
1.23
61
0.42
99
0.41
112
0.54
122
0.35
89
0.42
80
0.46
96
RASNettwo views1.12
72
0.30
11
0.91
39
0.66
54
0.77
101
0.97
36
0.57
41
1.37
11
1.35
66
1.02
15
1.34
49
2.11
101
1.43
87
7.09
125
1.39
80
0.19
11
0.17
19
0.17
4
0.19
18
0.18
6
0.16
5
NaN_ROBtwo views1.13
73
0.55
81
1.15
59
0.64
47
0.48
41
1.61
86
2.03
129
1.72
51
1.48
82
2.09
101
1.27
34
1.40
47
1.08
61
3.94
104
1.30
70
0.28
55
0.34
91
0.28
46
0.28
59
0.30
43
0.33
63
AF-Nettwo views1.13
73
0.52
76
1.33
80
0.86
108
0.91
114
1.38
73
0.71
57
2.16
110
1.62
93
1.56
73
2.40
110
1.99
94
1.65
102
1.81
49
1.48
87
0.48
113
0.28
71
0.49
114
0.33
82
0.39
73
0.32
60
RGCtwo views1.14
75
0.79
115
1.26
69
0.91
117
0.96
121
1.52
79
0.77
60
1.92
87
1.26
48
1.54
70
1.93
95
2.02
97
1.54
93
2.25
73
1.31
71
0.44
106
0.35
96
0.58
129
0.48
116
0.47
95
0.46
96
stereogantwo views1.15
76
0.42
49
1.40
84
0.86
108
0.84
110
2.38
114
0.71
57
1.88
78
1.73
102
1.72
83
1.94
96
2.31
106
1.29
82
2.07
62
1.08
50
0.36
82
0.35
96
0.39
92
0.31
75
0.51
105
0.46
96
S-Stereotwo views1.15
76
0.46
59
2.17
103
0.81
99
0.80
106
1.21
61
1.19
104
1.93
91
2.02
116
1.47
63
2.11
102
1.57
64
1.17
68
2.05
61
1.41
81
0.40
92
0.40
110
0.35
77
0.31
75
0.44
90
0.70
129
AANet_RVCtwo views1.16
78
0.52
76
1.49
89
0.65
52
0.45
37
0.75
9
0.69
54
1.42
16
1.55
91
1.34
51
1.87
93
1.53
61
0.78
18
7.43
127
1.38
78
0.25
34
0.17
19
0.19
11
0.16
11
0.22
17
0.26
40
RYNettwo views1.17
79
0.49
67
1.24
66
0.70
72
0.97
122
1.71
91
0.92
79
1.91
85
1.46
80
1.38
56
1.14
18
1.88
80
1.30
83
4.24
107
1.87
99
0.26
45
0.21
40
0.35
77
0.27
48
0.55
109
0.54
109
HSMtwo views1.19
80
0.32
18
0.65
18
0.57
24
0.38
25
1.23
62
0.59
45
2.25
116
1.19
34
1.30
44
1.25
31
1.94
90
1.03
55
9.32
134
0.71
15
0.22
20
0.16
17
0.20
14
0.16
11
0.21
14
0.21
20
aanetorigintwo views1.23
81
0.79
115
2.78
116
0.70
72
0.79
105
0.99
38
1.06
92
1.06
3
1.37
70
3.52
124
2.61
113
1.72
75
1.63
100
1.99
58
1.78
96
0.25
34
0.24
56
0.26
35
0.25
39
0.38
69
0.45
92
PWC_ROBbinarytwo views1.24
82
0.76
114
2.46
111
0.72
82
0.78
104
1.15
55
0.49
19
1.75
56
1.92
113
2.31
105
3.07
119
1.59
67
1.40
85
2.46
80
2.10
110
0.33
69
0.22
46
0.35
77
0.24
34
0.38
69
0.41
82
SGM-Foresttwo views1.24
82
0.38
39
0.60
8
0.52
9
0.37
21
1.56
83
1.30
108
1.65
43
1.36
68
2.11
102
1.79
87
1.63
69
0.93
40
7.48
128
0.95
41
0.36
82
0.37
102
0.39
92
0.34
86
0.37
63
0.32
60
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
NOSS_ROBtwo views1.26
84
0.46
59
0.62
11
0.56
22
0.38
25
1.06
46
0.78
61
1.73
52
1.40
74
1.01
13
1.43
62
1.10
19
0.75
12
10.62
139
0.65
12
0.45
107
0.43
114
0.48
112
0.45
110
0.44
90
0.41
82
Anonymous Stereotwo views1.28
85
0.75
112
2.45
110
0.74
91
0.77
101
0.93
29
1.77
120
1.51
26
1.31
56
1.67
80
1.29
39
1.20
27
0.75
12
6.29
119
1.68
94
0.37
85
0.36
100
0.38
87
0.40
100
0.43
84
0.45
92
PWCDC_ROBbinarytwo views1.29
86
0.75
112
1.33
80
1.05
126
0.88
113
1.73
92
0.52
26
1.89
80
3.28
128
1.29
43
4.88
128
1.22
28
1.46
90
1.77
46
1.45
85
0.60
127
0.26
65
0.29
48
0.25
39
0.52
106
0.37
73
RTSCtwo views1.29
86
0.73
107
2.44
109
0.83
102
0.57
60
1.85
99
0.65
50
1.88
78
2.00
115
2.20
103
1.66
78
1.60
68
1.26
79
2.33
75
3.92
121
0.32
67
0.23
52
0.27
38
0.29
64
0.37
63
0.37
73
SHDtwo views1.31
88
0.71
106
2.34
107
0.86
108
0.75
97
1.77
95
0.65
50
2.22
115
2.50
123
2.40
108
1.71
82
1.91
85
1.60
98
1.93
55
2.37
112
0.38
88
0.31
84
0.38
87
0.40
100
0.48
97
0.50
104
PDISCO_ROBtwo views1.32
89
0.65
102
1.44
85
1.36
135
1.46
138
2.55
117
0.92
79
2.45
125
2.07
118
1.37
52
1.49
67
1.65
71
1.00
52
2.82
89
1.35
76
1.01
135
0.27
68
0.54
122
0.47
114
0.71
129
0.73
130
PASMtwo views1.34
90
0.92
123
2.62
114
0.86
108
0.87
112
1.03
40
1.08
93
1.50
25
1.51
86
1.82
90
1.41
59
1.68
72
1.26
79
4.87
111
1.34
73
0.61
128
0.65
134
0.68
132
0.78
133
0.69
127
0.68
128
ADCReftwo views1.35
91
0.55
81
2.37
108
0.72
82
0.77
101
1.94
102
0.78
61
1.91
85
1.27
51
1.57
75
1.59
73
1.36
44
1.41
86
1.54
28
7.53
130
0.23
23
0.20
36
0.32
59
0.30
71
0.29
38
0.29
49
GANettwo views1.36
92
0.47
61
0.86
32
0.67
60
0.45
37
1.34
71
1.73
119
1.64
42
1.24
46
1.49
65
2.38
109
1.55
63
1.20
74
9.30
133
0.93
38
0.30
59
0.31
84
0.33
64
0.28
59
0.39
73
0.30
54
XQCtwo views1.37
93
0.87
121
2.56
112
0.84
103
0.69
86
1.83
98
0.89
72
2.07
104
1.88
110
1.88
92
1.53
70
1.91
85
1.55
95
2.85
90
3.05
115
0.48
113
0.29
76
0.44
104
0.39
96
0.69
127
0.60
120
MFMNet_retwo views1.40
94
1.14
131
1.68
94
1.39
136
1.07
125
1.48
76
1.43
111
1.87
76
1.82
108
2.26
104
2.19
104
1.51
60
1.86
113
1.52
26
1.25
63
0.93
133
0.83
136
0.84
135
0.80
134
0.99
134
1.05
136
CSANtwo views1.41
95
0.59
88
1.26
69
0.70
72
0.50
46
1.76
93
1.78
121
1.77
62
1.90
112
2.35
106
2.32
107
1.92
88
1.94
115
5.56
115
1.49
88
0.43
102
0.35
96
0.40
97
0.41
102
0.43
84
0.41
82
psmorigintwo views1.52
96
0.69
104
10.52
133
0.68
66
0.59
72
1.13
52
0.70
55
1.57
40
1.19
34
1.99
99
1.79
87
2.26
105
1.47
91
2.09
63
1.36
77
0.39
91
0.40
110
0.34
72
0.33
82
0.43
84
0.56
112
MFN_U_SF_RVCtwo views1.52
96
0.84
117
3.42
118
0.87
112
0.66
82
2.56
118
0.95
85
2.36
121
1.70
99
1.98
98
1.86
92
2.45
113
1.79
109
2.95
92
2.58
113
0.52
119
0.48
124
0.55
125
0.59
129
0.59
115
0.61
121
SAMSARAtwo views1.55
98
0.84
117
2.61
113
1.22
134
1.07
125
2.50
116
1.93
126
2.05
103
1.89
111
2.75
115
1.66
78
2.81
120
1.69
104
3.08
95
1.97
105
0.46
111
0.51
129
0.42
101
0.46
113
0.58
113
0.59
117
DeepPrunerFtwo views1.60
99
0.73
107
5.81
128
0.88
113
1.19
134
0.91
24
0.95
85
2.19
113
5.24
136
1.17
28
1.30
40
1.19
26
1.30
83
4.90
112
1.66
93
0.42
99
0.34
91
0.52
117
0.47
114
0.41
77
0.40
79
G-Nettwo views1.66
100
0.63
98
1.56
91
1.11
130
0.74
90
2.98
127
0.91
76
1.55
38
1.22
41
2.76
116
8.18
136
2.32
107
2.53
123
1.92
52
1.87
99
0.48
113
0.44
116
0.45
105
0.31
75
0.60
118
0.57
114
STTStereo_v2two views1.66
100
0.63
98
1.56
91
1.11
130
0.74
90
2.98
127
0.91
76
1.55
38
1.22
41
2.76
116
8.18
136
2.32
107
2.53
123
1.92
52
1.87
99
0.48
113
0.44
116
0.45
105
0.31
75
0.60
118
0.57
114
MDST_ROBtwo views1.67
102
0.34
27
1.58
93
0.92
119
0.58
66
4.26
135
1.11
95
2.83
129
1.41
75
4.49
128
2.55
112
1.45
54
0.97
43
7.79
130
1.17
57
0.31
64
0.25
62
0.37
85
0.33
82
0.31
48
0.30
54
SPS-STEREOcopylefttwo views1.67
102
1.04
125
1.23
65
1.21
133
1.13
131
1.82
97
1.11
95
2.16
110
1.52
87
3.07
123
2.32
107
2.82
121
1.80
110
4.11
106
2.04
107
1.03
137
0.99
139
0.97
136
0.94
135
1.03
136
1.02
134
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
SGM_RVCbinarytwo views1.68
104
0.36
35
0.61
9
0.59
29
0.29
6
2.25
112
1.18
103
2.38
123
1.68
98
3.60
125
2.67
114
3.69
127
2.42
121
8.13
131
1.90
102
0.31
64
0.31
84
0.30
52
0.28
59
0.30
43
0.29
49
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
DPSNettwo views1.69
105
0.59
88
4.33
122
0.70
72
0.57
60
2.02
105
1.62
116
3.35
135
1.78
104
1.48
64
1.38
54
2.17
102
2.84
126
4.77
110
3.66
120
0.48
113
0.31
84
0.29
48
0.25
39
0.64
122
0.48
101
PVDtwo views1.70
106
0.84
117
2.26
105
0.94
122
0.83
109
2.48
115
0.97
87
2.59
127
3.35
129
3.01
121
2.77
115
2.34
109
2.47
122
2.67
87
3.14
117
0.47
112
0.45
120
0.59
130
0.48
116
0.59
115
0.75
131
FBW_ROBtwo views1.71
107
0.62
97
1.45
86
0.67
60
0.61
75
1.81
96
1.08
93
2.52
126
1.70
99
1.77
86
1.73
83
1.98
93
1.25
78
12.57
141
1.84
98
0.34
76
0.37
102
0.56
127
0.38
95
0.45
93
0.43
89
ADCLtwo views1.72
108
0.57
85
3.66
120
0.67
60
0.61
75
2.61
120
1.85
124
1.96
94
1.67
97
1.90
95
1.83
90
2.06
100
1.90
114
2.13
65
9.15
131
0.26
45
0.24
56
0.34
72
0.32
79
0.38
69
0.35
68
MFN_U_SF_DS_RVCtwo views1.74
109
0.87
121
3.56
119
0.80
97
0.75
97
3.72
131
2.44
134
1.82
71
1.82
108
1.74
84
1.91
94
1.92
88
1.26
79
7.69
129
1.28
68
0.45
107
0.47
123
0.52
117
0.77
132
0.50
101
0.50
104
WCMA_ROBtwo views1.84
110
0.47
61
1.31
75
0.69
68
0.57
60
2.11
107
1.14
99
1.87
76
1.73
102
4.04
126
6.43
131
5.62
132
3.61
130
2.59
82
1.94
103
0.52
119
0.44
116
0.39
92
0.42
104
0.48
97
0.47
99
ADCPNettwo views1.85
111
0.69
104
8.07
130
0.71
79
0.58
66
2.79
123
1.22
106
1.94
93
1.54
90
1.88
92
1.69
80
2.46
114
2.04
117
2.37
78
6.48
128
0.38
88
0.37
102
0.38
87
0.43
106
0.47
95
0.45
92
NVStereoNet_ROBtwo views1.88
112
1.07
126
1.45
86
1.07
129
1.17
132
1.47
75
1.48
113
1.89
80
1.93
114
1.94
97
4.67
126
3.08
123
1.80
110
6.51
121
1.65
92
1.06
139
0.86
137
1.08
138
1.32
138
0.93
132
1.26
138
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
SANettwo views1.88
112
0.57
85
2.18
104
0.63
41
0.40
27
2.80
124
1.57
115
2.39
124
5.88
137
2.36
107
3.57
122
3.72
128
2.97
127
4.74
109
1.76
95
0.34
76
0.30
80
0.32
59
0.29
64
0.48
97
0.37
73
ADCMidtwo views1.89
114
0.73
107
5.06
124
0.72
82
0.67
84
2.00
104
1.14
99
1.97
97
1.48
82
2.86
119
1.81
89
2.37
110
2.05
118
2.24
72
10.39
134
0.33
69
0.31
84
0.39
92
0.43
106
0.50
101
0.44
91
AnyNet_C32two views1.96
115
1.10
128
5.17
125
0.90
115
1.11
128
2.12
108
2.37
132
1.85
74
1.48
82
2.45
109
1.70
81
2.05
99
1.64
101
2.50
81
10.28
133
0.37
85
0.34
91
0.35
77
0.41
102
0.49
100
0.54
109
MSMD_ROBtwo views1.99
116
0.59
88
0.89
36
0.70
72
0.61
75
3.95
134
0.94
83
1.80
68
1.79
105
4.41
127
4.43
124
8.17
135
3.66
131
3.40
98
1.33
72
0.52
119
0.48
124
0.54
122
0.58
126
0.53
107
0.50
104
ADCP+two views1.99
116
0.48
65
7.73
129
0.66
54
0.91
114
2.30
113
1.05
91
1.82
71
1.34
62
1.54
70
1.32
46
1.74
77
1.61
99
2.17
66
13.37
137
0.24
30
0.21
40
0.32
59
0.28
59
0.37
63
0.29
49
MSC_U_SF_DS_RVCtwo views2.12
118
1.15
132
3.10
117
1.05
126
0.76
100
5.03
137
2.40
133
2.16
110
2.62
125
1.89
94
2.28
106
2.69
118
1.65
102
9.35
135
2.04
107
0.64
131
0.51
129
0.68
132
0.71
131
1.09
137
0.67
127
ADCStwo views2.25
119
0.99
124
5.55
126
0.81
99
0.74
90
2.19
110
1.80
122
2.27
117
2.14
119
2.80
118
2.13
103
2.40
111
2.03
116
2.64
86
13.69
138
0.41
96
0.39
108
0.40
97
0.45
110
0.58
113
0.56
112
AnyNet_C01two views2.26
120
1.78
136
10.22
132
0.93
120
0.74
90
2.92
126
2.20
130
2.29
118
1.80
106
2.53
111
2.41
111
2.71
119
1.73
105
3.41
99
6.72
129
0.41
96
0.39
108
0.40
97
0.42
104
0.67
125
0.63
123
MeshStereopermissivetwo views2.26
120
0.56
83
0.92
40
0.61
35
0.49
44
2.60
119
1.02
89
3.18
133
2.05
117
7.40
139
4.98
129
7.58
133
2.98
128
6.37
120
1.96
104
0.43
102
0.43
114
0.45
105
0.39
96
0.43
84
0.42
86
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
FCDSN-DCtwo views2.32
122
0.63
98
0.81
28
0.84
103
0.75
97
2.23
111
0.94
83
2.09
105
1.80
106
5.45
134
7.72
135
7.77
134
6.93
138
3.39
97
1.80
97
0.52
119
0.48
124
0.52
117
0.51
121
0.57
111
0.58
116
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
DispFullNettwo views2.34
123
2.85
138
3.66
120
3.08
141
2.27
139
1.97
103
0.67
53
2.00
99
1.70
99
2.52
110
2.00
98
2.23
103
5.86
135
3.44
102
1.58
91
1.01
135
0.32
90
2.64
140
1.94
140
2.85
139
2.24
139
pmcnntwo views2.37
124
0.42
49
2.71
115
0.63
41
0.43
34
1.54
81
1.19
104
2.01
100
1.53
89
2.64
114
7.60
133
18.07
142
1.45
89
3.44
102
2.78
114
0.18
3
0.15
10
0.15
1
0.12
3
0.20
11
0.18
9
ELAScopylefttwo views2.37
124
0.74
110
1.54
90
0.99
123
0.92
116
4.78
136
2.33
131
3.33
134
3.37
130
5.05
133
4.77
127
3.67
126
4.53
133
3.42
100
4.50
123
0.62
129
0.53
131
0.55
125
0.53
123
0.63
120
0.64
126
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
EDNetEfficienttwo views2.37
124
1.10
128
8.08
131
0.74
91
0.71
87
0.98
37
1.56
114
1.46
20
4.06
133
4.90
131
2.82
116
2.25
104
3.48
129
2.95
92
9.97
132
0.26
45
0.24
56
0.26
35
0.30
71
0.68
126
0.61
121
SGM+DAISYtwo views2.41
127
1.07
126
2.14
102
1.18
132
1.10
127
2.14
109
1.36
110
1.96
94
1.66
96
5.46
135
7.07
132
4.95
131
4.32
132
5.50
114
2.26
111
1.04
138
1.02
140
0.99
137
0.97
136
1.02
135
1.04
135
ELAS_RVCcopylefttwo views2.48
128
0.74
110
1.90
99
1.05
126
0.92
116
2.76
121
4.01
138
2.76
128
4.11
134
4.69
129
4.63
125
4.62
129
5.96
136
3.97
105
3.96
122
0.63
130
0.53
131
0.56
127
0.52
122
0.64
122
0.63
123
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
SuperBtwo views2.53
129
0.59
88
18.45
138
0.69
68
0.50
46
1.87
101
0.88
71
1.67
45
2.39
121
1.50
66
1.42
60
1.14
23
1.15
67
4.28
108
5.07
124
0.24
30
0.19
29
0.22
20
0.19
18
7.86
144
0.34
64
RTSAtwo views2.67
130
1.38
133
15.28
136
0.99
123
1.26
136
3.78
132
1.96
127
2.15
108
2.62
125
2.61
112
2.85
117
2.60
116
1.59
96
6.27
117
5.71
126
0.40
92
0.28
71
0.35
77
0.35
89
0.50
101
0.48
101
RTStwo views2.67
130
1.38
133
15.28
136
0.99
123
1.26
136
3.78
132
1.96
127
2.15
108
2.62
125
2.61
112
2.85
117
2.60
116
1.59
96
6.27
117
5.71
126
0.40
92
0.28
71
0.35
77
0.35
89
0.50
101
0.48
101
MADNet+two views2.69
132
3.22
140
11.53
134
1.44
138
1.12
130
3.19
129
1.81
123
2.85
130
2.37
120
1.68
81
2.07
101
2.85
122
2.18
119
7.41
126
5.23
125
0.79
132
0.76
135
0.69
134
0.65
130
0.98
133
0.95
133
FC-DCNNcopylefttwo views2.72
133
0.59
88
0.86
32
0.73
89
0.57
60
2.91
125
1.04
90
3.01
132
2.60
124
6.83
136
7.64
134
9.92
137
6.33
137
5.21
113
3.14
117
0.53
124
0.48
124
0.51
116
0.50
119
0.53
107
0.51
107
PWCKtwo views2.88
134
2.05
137
5.72
127
2.08
139
1.11
128
3.55
130
3.90
137
2.86
131
3.54
132
3.03
122
3.63
123
3.10
124
2.31
120
8.15
132
3.09
116
2.12
140
0.91
138
1.75
139
0.98
137
2.57
138
1.18
137
MADNet++two views5.01
135
3.14
139
4.91
123
4.55
142
3.94
140
5.20
138
4.41
139
4.40
138
4.13
135
4.95
132
6.08
130
4.74
130
5.37
134
9.40
136
10.67
135
4.65
142
4.15
141
3.97
141
3.34
141
4.09
141
4.08
140
MANEtwo views6.19
136
0.59
88
1.03
47
0.93
120
1.22
135
13.38
142
2.69
135
12.81
143
17.94
144
8.21
140
10.82
140
14.72
140
11.68
139
11.39
140
11.90
136
0.59
126
0.50
128
0.52
117
1.76
139
0.55
109
0.54
109
LSMtwo views6.33
137
1.10
128
13.19
135
1.41
137
68.17
148
1.64
89
1.90
125
1.92
87
2.46
122
2.99
120
3.11
120
1.88
80
1.80
110
2.61
84
2.06
109
0.41
96
0.58
133
0.50
115
0.57
125
0.64
122
17.66
146
SGM-ForestMtwo views6.52
138
0.38
39
1.26
69
0.63
41
0.35
14
13.59
143
5.32
140
6.32
140
6.70
139
11.14
141
9.18
139
22.51
145
13.93
140
16.89
143
20.07
140
0.36
82
0.37
102
0.36
84
0.35
89
0.36
62
0.34
64
LE_ROBtwo views8.05
139
0.37
37
23.53
141
0.74
91
0.33
11
2.77
122
2.87
136
3.71
137
27.24
145
25.39
145
8.87
138
8.46
136
26.71
145
6.65
122
21.99
141
0.21
15
0.19
29
0.20
14
0.21
25
0.25
29
0.22
27
EDNetEfficientorigintwo views10.57
140
1.47
135
177.42
149
0.67
60
0.53
51
1.58
84
1.16
102
1.90
83
3.37
130
4.71
130
3.38
121
3.10
124
2.69
125
3.13
96
3.58
119
0.25
34
0.23
52
0.33
64
0.27
48
0.83
130
0.81
132
DPSimNet_ROBtwo views11.20
141
4.98
141
35.43
144
2.90
140
4.52
141
7.89
139
17.09
141
4.66
139
6.06
138
14.89
144
10.93
141
17.29
141
36.81
147
13.18
142
15.68
139
2.86
141
6.29
142
5.75
144
5.09
142
3.91
140
7.70
141
DGTPSM_ROBtwo views13.01
142
8.23
142
21.87
139
9.51
143
18.10
142
11.56
140
32.01
145
10.63
141
16.20
140
7.03
137
19.48
144
10.15
138
16.66
141
9.83
137
22.42
142
4.75
143
8.68
143
5.37
142
10.25
143
6.16
142
11.36
142
DPSMNet_ROBtwo views13.02
143
8.23
142
21.91
140
9.53
144
18.11
143
11.56
140
32.02
146
10.64
142
16.23
141
7.05
138
19.49
145
10.16
139
16.66
141
9.85
138
22.43
143
4.77
144
8.68
143
5.38
143
10.26
144
6.17
143
11.36
142
DPSMtwo views19.08
144
19.14
146
25.17
142
22.15
145
20.85
144
28.17
144
37.82
147
26.56
144
16.85
142
14.14
142
14.84
142
21.70
143
18.75
143
21.87
144
26.55
144
10.16
145
9.30
145
10.47
145
10.42
145
14.03
145
12.61
144
DPSM_ROBtwo views19.08
144
19.14
146
25.17
142
22.15
145
20.85
144
28.17
144
37.82
147
26.56
144
16.85
142
14.14
142
14.84
142
21.70
143
18.75
143
21.87
144
26.55
144
10.16
145
9.30
145
10.47
145
10.42
145
14.03
145
12.61
144
BEATNet-Init1two views26.87
146
13.43
145
70.68
148
0.91
117
0.68
85
57.02
149
21.06
142
32.82
146
32.67
146
52.12
149
53.61
149
66.05
149
49.56
150
48.79
149
34.71
146
0.49
118
0.44
116
0.53
121
0.53
123
0.63
120
0.59
117
AVERAGE_ROBtwo views40.43
147
42.37
149
42.73
145
36.96
148
35.58
147
30.50
146
27.61
143
36.71
148
38.39
148
44.91
147
44.36
147
37.45
147
36.70
146
41.88
146
40.35
147
45.43
148
46.81
148
47.11
148
46.35
148
42.51
148
43.87
148
MEDIAN_ROBtwo views42.00
148
44.40
150
44.29
146
35.15
147
34.95
146
31.28
147
29.60
144
35.88
147
40.02
149
47.20
148
46.64
148
37.37
146
38.48
149
44.35
148
42.45
148
48.03
149
49.39
149
49.71
149
49.03
149
45.14
149
46.65
149
LSM0two views42.82
149
38.75
148
50.81
147
47.07
149
109.38
149
57.00
148
76.02
149
53.74
149
33.71
147
29.02
146
30.41
146
43.87
148
37.22
148
43.91
147
53.54
149
20.52
147
18.62
147
21.10
147
21.11
147
28.41
147
42.22
147
MSMDNettwo views0.58
7
ASD4two views10.99
144