|
22秋学期(高起本1709-1803、全层次1809-2103)《数据科学导论》在线作业-000016 `, q0 @7 @- g* c. d" n6 |! D4 X1 y
试卷总分:100 得分:100! p; i3 }/ z% w$ U2 t* Q/ t
一、单选题 (共 20 道试题,共 40 分)
: W# C% k8 {& @1 q1.通过构造新的指标-线损率,当超出线损率的正常范围, 则可以判断这条线路的用户可能存在窃漏电等异常行为属于数据变换中的()+ e3 a+ f# x5 ?
A.简单函数变换
- |! Y2 ^! A M, V2 T/ bB.规范化2 O7 g- B7 J3 x. `
C.属性构造
# K9 b% {% }* n2 g0 HD.连续属性离散化
. N% |2 _7 A3 j( I; ~0 }资料:
) m- x5 j' }! k9 \8 F) j" M, p, S8 v; L! l1 }
2.实体识别的常见形式()
# k; _# m! V' w* c" ?2 E2 R" vA.同名异义! Y- j) K3 V! w+ [. F5 j, j# r
B.异名同义, u8 l% z2 X. o. B) U+ v+ m
C.单位不统一
3 ]; X5 w r) p( RD.属性不同! O' |" N; s" X8 m0 i! J* r! J
资料:0 g; N/ q( M# x2 u4 \8 Q; L
6 A7 D+ [: ~* A6 @
3.置信度(confidence)是衡量兴趣度度量( )的指标。- ? r/ P' X8 v# n9 c# d4 }
A.简洁性0 O9 G! S) {& l6 x Z: S
B.确定性) w) x2 o+ \6 C6 {
C.实用性1 n9 e1 ?8 Q6 k7 _" v; X
D.新颖性
8 T3 Y6 {3 k) y$ @: H6 r( @. k资料:9 H# j+ k" f& ]) Q/ W* i* p) e
3 o7 b2 c: q6 \6 @4.以下哪个不是处理缺失值的方法()' u1 M" O9 i& d; ]
A.删除记录. J G) q" O* a, Y, p
B.按照一定原则补充6 _* K& T3 V5 _ p8 ]
C.不处理1 B6 V3 {+ `& a# n$ F8 q
D.随意填写
$ \1 I6 J: F2 Z1 e% `7 } K3 L资料:' h m, {' s/ U: E2 ^
( A4 B( s9 o3 y. U* [ X3 U: Z
5.设X={1,2,3}是频繁项集,则可由X产生()个关联规则。) ?3 E# j: T9 K1 F: S6 ]
A.4- V$ q+ l1 S/ u# R$ z: |, h
B.57 b5 {+ D, ^7 g( y
C.6
/ z5 a5 z2 {5 O) ~, HD.7' e6 X9 @$ Z3 b- ^! Y" O9 {
资料:' P! L* |4 o1 K: Y
2 [. \2 O2 w$ D3 A8 A
6.为了解决任何复杂的分类问题,使用的感知机结构应至少包含()个隐含层。9 k/ I- W9 ^2 Q. i: n+ t; F8 t
A.1/ S8 g8 r8 S# @# J
B.2
2 k1 N" @" Z% T1 |C.3
" I! h+ l+ _# G3 t. o4 A2 gD.4) w% Y" S& R' \, c, P$ v, n
资料:9 H: C. @! i7 [, P+ o" h2 W
* d1 }# X, l. Y! _" S
7.在一元线性回归模型中,残差项服从()分布。/ Z! }7 g' o3 r9 T' Z/ m+ Q
A.泊松# I# Q) C- K/ `4 C1 w P
B.正态% ?% U: P$ ^" Z# `: x) W2 O: R
C.线性( c- _- r8 [2 j0 z' z) z1 |0 N- @8 q
D.非线性: |; S2 ]/ h7 I4 H5 L7 J
资料:; F5 r; \$ e% N, H
$ O, p8 y2 ?5 G1 n$ c8.以下哪一项不是特征工程的子问题()
- b3 m4 Z' y8 bA.特征创建& |% `6 e) a' F i/ s
B.特征提取
. H/ x. y0 a, H1 RC.特征选择
% L5 ?# j) h8 ~; j2 ~; mD.特征识别
( B6 U2 i5 f2 c资料:
5 e, ]' J: n2 C% j E
6 p% K2 N/ l- i% ^' p* _$ {% W" a& f _9.聚类的最简单最基本方法是()。1 n4 g' b6 `) g V" n/ `/ i
A.划分聚类% b& w. q3 u1 g' [! e; M1 n
B.层次聚类8 \# E, x# Y2 \2 u8 X6 q# W. i2 K
C.密度聚类
$ e1 _! C/ B1 i& ~D.距离聚类; Z; |0 O( ]! |- n1 D- d# j
资料:
- S5 n( M* o* y `8 @
. [: y [2 S k! ~1 ~! x10.单层感知机模型属于()模型。- @8 z% ?/ H7 _
A.二分类的线性分类模型
7 a9 _: e' W. W' e" S$ a/ AB.二分类的非线性分类模型
" H" \, p) `4 i- ^! s" NC.多分类的线性分类模型3 o9 n4 b& v" X/ q. K: W: J5 i$ K
D.多分类的非线性分类模型2 l- K; ~6 T0 S. H
资料:
+ q& C2 v. n5 v' A9 Z/ L# u, P' I" K! `1 `
11.下列两个变量之间的关系中,哪个是函数关系()。
4 P- E5 ^( b( ]9 DA.人的性别和他的身高' a9 P/ m8 T _1 U7 Y4 s5 t. m4 P
B.人的工资与年龄5 K& o, M2 C! L
C.正方形的面积和边长9 ]% S7 z+ I1 A
D.温度与湿度& O# j6 _. U+ A* l
资料:! K8 z0 W4 S3 A4 b! ~% j& x
; U# g8 c; v6 `7 i% J12.特征选择的四个步骤中不包括()
# h. ^1 S' b. [" `1 ~& v# zA.子集产生1 A( z4 w3 H0 h" {& ~$ B
B.子集评估
/ B( S2 w% G! u2 ~3 x) f, b5 hC.子集搜索
- X7 d( t: s7 G' t- Q$ y3 N- Y' }D.子集验证
- `% Z# [6 U/ r/ G4 |0 n$ s+ D资料:
c; J" _) B6 u0 @/ d
; u# t# @ V! g2 |/ t13.在一元线性回归中,通过最小二乘法求得的直线叫做回归直线或()。
6 m5 ?) C. X# p# Z& D' R6 @2 rA.最优回归线
5 M) u% z" ?, A E% m gB.最优分布线3 W/ t6 e: v6 h7 z) O
C.最优预测线" V) u6 l- ^) g: [% M! ]
D.最佳分布线
8 L! a4 x% e! N: e4 n0 [! ]: K资料:
: j* r1 Y0 e1 x, o- w6 w- u/ y4 H4 @6 [; \$ G
14.单层感知机拥有()层功能神经元。
$ [* a4 e( M7 r9 A+ X$ CA.一
+ ] ^# _3 D3 D6 |0 n& XB.二/ t/ L$ \; c0 `7 c0 j4 m
C.三6 g! I1 ]' R% R, h$ T
D.四8 Y6 C1 S( n5 x1 I. I2 {0 O4 W
资料:0 d+ o5 N1 C6 @
! v. Z# i# ]' x* y$ S0 m
15.一元线性回归中,真实值与预测值的差称为样本的()。- G' J9 ?' G" A6 i) ?9 g
A.误差3 v0 Q8 E" ~# k+ k
B.方差- M; A" h: ]! r) o! V' `' K, n
C.测差$ W$ s, o- H9 Q* F& ~9 |
D.残差
+ y+ K1 Y r. Z8 R7 d/ h' z! E# h7 o资料:; t+ v$ i6 g! x( _8 J! @2 Z! g# D9 m
5 ^1 h2 u \! D- w5 P6 J16.比如一张表,从业务上讲,一个用户应该只会有一条记录, 那么如果某个用户出现了超过一条的记录,这就产生了()
( W9 c5 j; D+ M7 ^; d% d0 pA.异常值( P- C4 Q! a, Q) c* x5 F' e
B.不一致的值 G, o( ]/ [ o0 ~, r9 C4 c
C.重复值
8 U) i" ]: {4 z2 S0 E" D7 H: t( iD.缺失值
6 h# x% _' ? \! }2 [( o资料:$ |+ B% ^* A5 M9 s9 I9 y
0 t; z) l: [7 O5 u- Q
17.通过变量标准化计算得到的回归方程称为()。
^+ P9 B5 U2 [& g# qA.标准化回归方程
0 r$ W. p }# |! M- @. [B.标准化偏回归方程' Y% B: p7 x: f+ w% i
C.标准化自回归方程& `0 E5 r' Y# I C( L! j
D.标准化多回归方程8 z! n9 `" m2 [- U- Q
资料:! \- S$ `2 x6 E s
' J% v( L+ Z1 i( M+ ?( w8 h18.维克托?迈尔-舍恩伯格在《大数据时代:生活、工作与思维的大变革》一书中,持续强调了一个观点:大数据时代的到来,使我们无法人为地去发现数据中的奥妙,与此同时,我们更应该注重数据中的相关关系,而不是因果关系。其中,数据之间的相关关系可以通过以下哪个算法直接挖掘( )# i- c+ \5 n. O! L+ q, m- U/ J" T
A.K-means
+ r) y$ U+ a R4 M: ^* G/ yB.Bayes Network
# I" c3 p* t8 V2 E8 y" P( nC.C4.5
$ _" Z' s( W9 J, m2 ~; |4 Q: WD.Apriori4 k7 Z, j. p8 A7 w$ ?0 r2 @& @* I; c
资料:
q1 h2 f' P; i: `
6 w( v. `* u3 [1 u, P9 S19.BFR聚类用于在()欧氏空间中对数据进行聚类
4 {$ b! U J; ?3 d# e2 L9 HA.高维8 J8 Y0 c& j8 ?9 ~2 P
B.中维
) I3 Y0 C; G- W4 @7 |7 }4 WC.低维3 u3 s# o, @: P& m7 y' ~
D.中高维
# F# |0 B5 W% H. A$ |5 Z4 N资料:) r7 x+ e8 J3 h5 u- N7 G
* i; S+ K2 j$ ]' b8 r. s
20.在有统计学意义的前提下,标准化偏回归系数的绝对值越大,说明相应的自变量对y的作用()。
& C# w( k6 X( k( nA.越小# v. ^ y. G) v* o
B.越大
8 s n, J8 C- q& k3 f& l, B$ \& WC.无关' H% ]/ ], Q5 \. `
D.不确定
- Q' t7 a# m) \9 u9 \. U0 u资料:
: g! M) A% O9 v8 s4 R. c9 u( O2 T2 B, O+ }- E
二、多选题 (共 10 道试题,共 20 分): C9 u7 S/ H* a0 b- B, a
21.一元回归参数估计的参数求解方法有()。. G. K+ q: J' a
A.最大似然法7 h8 L9 ~9 c) x3 R; l0 V' m1 d9 W e
B.距估计法7 A2 r Y5 C- y2 f# [0 b5 t
C.最小二乘法
1 I$ X P( R3 R0 }3 K& `% TD.欧式距离法
5 X B( h0 r6 n0 C/ J" {资料:C
) l8 x3 g, e: d0 B ]& t5 w2 Z) C$ i1 c6 h
22.距离度量中的距离可以是()2 n. T" x- f0 D. Q1 V' R
A.欧式距离
! I( y, i8 R4 vB.曼哈顿距离& U4 D" [, T2 v, R; s" y
C.Lp距离. l$ C3 W5 J* W6 p0 L0 a
D.Minkowski距离2 a: y1 v4 }: C2 j0 H* ?1 Q) _9 N& K- ?
资料:CD
4 |2 K7 d6 ~9 Q. a& ?
7 u" E+ r: l& m/ }1 W9 l+ ?23.对于多层感知机,()层拥有激活函数的功能神经元。% M5 X& \+ W* P" z' y8 N) D9 ]
A.输入层" x T+ `9 B9 E! g/ Y4 a
B.隐含层
' G9 v5 C( D; _* m" t- sC.输出层; c1 ~6 q9 c2 y5 W9 |
资料:C
8 Q+ }% |( u8 b3 l2 P" T. R; D# k' O( u: h9 W# _) v7 \
24.Apriori算法的计算复杂度受()影响。
1 y4 r$ m8 |* R7 {- c. H/ R6 qA.支持度阈值
- p. V* F8 ?9 ?5 j( AB.项数
5 J3 t8 p" c9 DC.事务数8 m' V5 v) c" h0 I- | s
D.事务平均宽度/ N, m( f4 x# i L% I
资料:CD
$ @' G( ]# ^* k( P
( P8 R: F( n. k5 T- k2 W3 l25.k近邻法的基本要素包括()。" I' O, f( h5 u* |. O b; W" C
A.距离度量
9 P+ J0 Q: k" t1 A% O1 OB.k值的选择+ D3 G$ }: W' F
C.样本大小' Z p1 F' ?$ N A* l; w4 b" @
D.分类决策规则& Q1 F: m# D) O# r9 s: h+ D+ H2 ^- D
资料:% D( P& h0 x# v2 s1 `* t$ F
: C& S+ x/ r( _; P j" M+ K* Z
26.系统日志收集的基本特征有()/ @& Z9 ^3 E2 K4 K
A.高可用性' w& X4 _, J- M
B.高可靠性
2 @9 m1 ?" ^! I* }C.可扩展性; _2 U1 o" ^0 S3 Y( @% O
D.高效率
# J8 Q/ I! ]; [( @资料:C
& U: _8 ^, n9 G" M5 L5 M$ q& {- W9 x2 P9 }& M6 ^+ X& l
27.什么情况下结点不用划分()
0 M2 k; i3 P; `A.当前结点所包含的样本全属于同一类别
' F0 ?! p/ O# z, qB.当前属性集为空,或是所有样本在所有属性上取值相同
/ \' M5 J. P9 i1 k3 K3 C8 _C.当前结点包含的样本集为空+ z; M7 _" `# T* C
D.还有子集不能被基本正确分类5 D' y0 r$ j3 g( y/ j5 ?! D+ o r
资料:C2 u D( `( D% y8 `+ f
) Q3 }( @" s' d$ `) h1 V" a! H$ E
28.多层感知机的学习过程包含()。. \1 t y; o4 F6 @, B8 U
A.信号的正向传播
V( d% d2 W) ~! D( X0 F) k( `B.信号的反向传播# M$ n9 M: S5 ^, i
C.误差的正向传播
, F& h$ C4 M. LD.误差的反向传播
r; V6 F. I8 P. I资料:
- V/ Y2 y6 [6 a8 H! w
3 H# S `. ?" `) q29.聚类的主要方法有()。
' x( D8 v7 l7 {+ a# H; ?A.划分聚类
: m5 P3 w* R' |, P* w4 NB.层次聚类3 Y/ j" {4 w) [3 g! F, R
C.密度聚类0 h- i% C& W7 A: A, x
D.距离聚类 [( g( Q5 b5 m. w/ x0 ?9 g
资料:C
# w3 Z i. k1 f, X$ X5 K' g8 [0 Y4 w! d
30.层次聚类的方法是() U/ e' H/ y; u* K# j2 [. v' S
A.聚合方法0 M! ~8 p, g0 @
B.分拆方法
& y6 o. I9 [* B) j8 z+ AC.组合方法
) P" ~: m, O8 j3 x# y$ SD.比较方法
- |9 ~/ B6 P7 [- K; K, N资料:
2 I" z9 |1 v0 y5 I4 r: r& _6 G% ~& e* @. A. Z2 X v! O; T
三、资料来源:谋学网(www.mouxue.com) (共 20 道试题,共 40 分)
: q" d; k9 E; K, P, A5 p3 s31.数据分析师的任务:用模型来回答具体问题,了解数据,其来源和结构
0 [' {5 V1 k8 D资料:错误* D! S' u+ m6 u. ]8 m
' X: l F" a9 s- g$ P. w
32.决策树还可以表示给定特征条件下类的条件概率分布,这一概率分布定义在特征空间的一个划分上,将特征空间分为互不相交的单元或区域,并在每个单元定义一个类的概率分布就构成了一个条件概率分布# H8 ]/ R- K: k+ u8 T9 r
资料:正确, \) s/ P7 A/ t3 d, m3 { g
9 o( r8 K5 c# o! u# w33.信息熵越小,样本结合的纯度越低
8 f4 V; m: D5 ?# C$ h资料:错误$ r# E2 B; x9 t& Z; d
: A; ^1 B% `9 y2 g G2 B
34.子集产生本质上是一个搜索过程,该过程可以从空集、随机产生的一个特征子集或者整个特征集开始。 Q8 p4 e) u0 @% v, n) }
资料:正确- S2 q; l4 H1 K5 n
/ p* z. I( ]% @; _
35.BFR聚类簇的坐标可以与空间的坐标保持一致。- |7 {) V" j9 j' d
资料:错误
4 i1 r8 R3 f& P, V, H
7 F1 P1 ^8 D7 ~; j36.探索性数据分析的特点是研究从原始数据入手,完全以实际数据为依据。
/ I2 ?$ S& b4 L7 n5 `资料:正确8 e: n. X& }& b& S r
1 q9 L. l6 O, Q37.特征选择和降维都是用于减少特征数量,进而降低模型复杂度、防止过度拟合。
; w+ p; q% q( z资料:正确
; {, u/ O1 L$ v; S/ ^! _
& |! _( j5 B Z# K1 m38.神经网络中误差精度的提高可以通过增加隐含层中的神经元数目来实现。% R3 D* P% ?5 B+ B" g
资料:正确. L3 o0 a% S. c i$ i/ D7 E; J! z
4 v! \* a) @ R$ V6 X
39.多元线性回归模型中,标准化偏回归系数没有单位。
4 m: B8 g4 ]2 F* T7 Y- l/ [& X资料:正确
6 d! U: V. F& i2 M/ H# x
. i2 a4 y4 j" X% Y2 J40.数据科学运用科学方法分析数据,位于几个学科的交叉点并利用领域特定的知识,使大数据的分析成为可能。9 X7 U/ _" G, T& t" t* t
资料:正确
h, W W5 S+ R- I/ ~" U' M
/ ^- {2 A* |; f8 t41.为了更加准确地描述变量之间的线性相关程度,可以通过计算相关系数来进行相关分析。
: s7 P9 t0 ?% g( w' O( ]# Q资料:正确' u! G+ g& z/ c) L* i
$ e8 a7 J/ g0 l0 } Q
42.赤池信息准则是衡量统计模型拟合优良性的一种标准。
; {. c6 N3 c! v/ l# W: I6 P' @! `资料:正确
: M0 e- f5 b" K( Y: Z
( Z2 g" ^& a7 K! F5 T5 n4 A0 O43.交叉表可以帮助人们发现变量之间的相互作用。
8 t' M4 n- [: e0 A资料:正确
; V: w( \: w1 F3 h* P6 S
; ^1 y$ \4 ?" ^% _' M44.随着特征维数的增加,特征空间呈指数倍增长,样本密度急剧减小,样本稀疏。
) M+ w! [* N ~/ F f资料:正确
5 n0 y- ?, Z4 G/ y7 i9 X7 D/ f8 J `( J
45.EDA可以最大化数据分析者对数据集和数据集底层结构的洞察力,并且为分析者提供数据集中包含的各类信息。+ s; y) [- B- p
资料:正确
% j5 Q( K5 D) ^
3 H% }$ v; \ {. q: A4 W46.利用K近邻法进行分类时,使用不同的距离度量所确定的最近邻点都是相同的。
4 {5 S, d4 b0 n6 L( k资料:错误
# R0 Z* M t* W5 e
0 ]1 d# k, O' Q7 D/ o$ r! ^, Y47.选择较小的k值,相当于用较小的邻域中的训练实例进行预测,学习的"近似误差"会减小,"估计误差"会增大,预测结果会对近邻的点实例点非常敏感。, s$ Q: I; }& C- ^1 t8 K
资料:正确 [; x" x0 r) @9 Z
1 S% ]% n& O) b4 \/ R+ F$ k48.聚合方法是自底向上的方法。
]8 j2 B% ~* X/ I+ h资料:正确. A5 H4 ^0 N: L0 Q/ p
J. ^: N2 e& y1 x& j& P
49.对于分类数据,经常使用表格,来统计各种类别的数据出现的频率。
' Q/ r4 O) i* O* H& e4 j资料:正确
, P* X$ n, E4 f9 Y& b; `3 P+ t$ J& s! X
50.利用K近邻法进行分类时,k值过小容易发生过拟合现象。
. B9 ^' Y3 K* \5 h6 w. {/ W" _资料:正确* N" Y3 i# N4 Y# D2 X0 P
, j0 { c% v1 m! Y5 R
1 ~! W3 H1 E' f4 e( Q
0 K( J# y( h* c; ?2 u
2 }- e5 V0 ^- J1 P, x5 r$ ^5 A* n& _3 p
# B/ r# b& H& K* `' E1 N0 [- l- V; {4 a# Q: n) [5 _$ ~. K
* M& i3 d0 ?) Z" w& R
% n5 }' }$ j2 b: P. u/ K/ }8 i: ?6 p' a0 b
+ J# \( X4 f& |+ u6 y) s/ o; x
6 v+ b" V$ w; g# h1 d
|
|