|
资料来源:谋学网(www.mouxue.com)-[南开大学(本部)]21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《数据科学导论》在线作业
/ [+ {; S; K; o1 g0 }试卷总分:100 得分:1004 g( z" p3 q# N! ~1 D( v$ {; z
第1题,BFR聚类是用于处理数据集()的k-means变体。1 m* O8 m/ [" y$ \$ ~3 C, L
A、大
) [, |6 v7 Z* c; e( U$ o* l6 VB、中& G/ t4 A3 h; `* T, R2 X$ Y: @9 \
C、小
: j, T: |$ H; K; k5 o, tD、所有' K6 [/ \8 d5 E% W' t; B+ h/ {
正确资料:
5 d* O6 J; v$ J# @# N6 N3 ~: j) X& }% M" l- ? Y: l. P/ u9 H) P
) l6 X, h6 ?) E. [) F( d
第2题,考虑下面的频繁3-项集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定数据集中只有5个项,采用 合并策略,由候选产生过程得到4-项集不包含()- w% \" l" ~9 T' ]) r( m& C
A、1,2,3,4
0 u+ t. b% k/ \( g: QB、1,2,3,5
' F( ?9 v9 b h( W# ^C、1,2,4,5, _! E5 L# L) h1 O
D、1,3,4,52 r7 g) N" a+ e9 i
正确资料:
6 y0 t6 z2 A8 }! X$ C! r6 g0 X- v8 V2 T
" N7 ^1 E7 U6 g7 q" l. a第3题,以下哪一项不是特征选择常见的方法()
! b1 I% G, N6 \; Q- O+ i( o$ M5 eA、过滤式
) r( c" _5 }: k4 o4 H% E% i; rB、封装式9 d8 j# z& l3 k$ a7 R4 N
C、嵌入式1 o- ?# H0 K8 t
D、开放式
& X' Y$ T1 \! k* M' E* t$ e正确资料:
( }6 g+ L( O3 m: [6 ?; g }: r* K: \
' l9 k: t+ A4 A/ c1 _7 A
, q" e/ [6 ^3 u3 C% o- ?第4题,例如将工资收入属性值映射到[-1,1]或者[0,1]内属于数据变换中的()
3 |2 L2 M z. P/ N% U0 dA、简单函数变换
9 L) ]" E& x2 c% I# n- W" _; AB、规范化
- y9 Y/ K* R1 w DC、属性构造
3 Y& w5 p& W* |8 O0 O- T6 N5 tD、连续属性离散化
+ ]$ L' Y. @1 L7 {正确资料:3 C4 b, O \0 v q+ [
1 X* |! K; I3 O- j0 A. a
4 @5 [7 p( z% H6 I! d. B资料来源:谋学网(www.mouxue.com),对于k近邻法,下列说法错误的是()。$ h8 Y! ?; ~) ` I
A、不具有显式的学习过程
- m7 s/ \/ c# h' ]9 D, O- \' dB、适用于多分类任务. ]2 l+ v2 X% v( H6 t8 T4 v
C、k值越大,分类效果越好
3 t5 A3 m. m2 ]* H0 o* E* rD、通常采用多数表决的分类决策规则2 Y: `7 L! y- j; M9 B
正确资料:1 E$ ^, G8 H2 }+ m( @
! o- w8 L$ ]5 I3 @5 ~. M/ l
0 `/ T' M; Q: R% V第6题,手肘法的核心指标是()。0 P9 U3 |8 q; d- w
A、SES5 U5 I/ a: T1 h" v
B、SSE
# O: k! H5 s! WC、RMSE+ g0 v( t$ n2 H8 S K3 J# W; w
D、MSE
; m5 F- D+ r" M' w正确资料:# f) E+ n" f) Z+ j- _( g
+ Q% Q* h; K# ?$ G# H1 |* o4 j- z: V
% S# c- t4 e: ?1 }第7题,在k近邻法中,选择较小的k值时,学习的"近似误差"会(),"估计误差"会()。
3 \) I" ]6 B0 C5 I' m1 x) [A、减小,减小) y$ C" F1 V. F; t1 w
B、减小,增大
9 v( ?3 l/ p7 ]. i, j/ O2 ZC、增大,减小
0 K1 T! r0 \$ D0 MD、增大,增大5 N3 U( [( D- j) ^& }
正确资料:
4 g8 R% ^8 N2 Q+ A& A9 m3 |! V' P6 u$ w
' r/ J" G. `: }" Y' S8 w3 i0 R- e: q第8题,变量之间的关系一般可以分为确定性关系与()。
" Y4 z, Q$ [9 k, @+ j3 FA、非确定性关系5 Z- z6 \, R8 U! @! Y U a/ s
B、线性关系
9 B- |- \8 u u% PC、函数关系
: g' d: n/ p7 m& U+ q8 ID、相关关系% Z; v, P" B7 |1 m( J6 q$ {4 w" m
正确资料:
[: f1 T6 ~) f! o. {( J
6 l1 f+ h9 |3 t$ p3 @* B/ K, T, Y7 y1 l4 c/ r; |& D2 i6 G% [
第9题,某商品的产量(X,件)与单位成本(Y,元/件)之间的回归方程为^Y=100-1.2X,这说明()。) f: W( |1 {0 V* ^) \5 q
A、产量每增加一台,单位成本增加100元
% T4 V X* D" Q: H- h1 ]/ O |6 YB、产量每增加一台,单位成本减少1.2元( g2 c: E+ C3 i9 _2 e! Q
C、产量每增加一台,单位成本平均减少1.2元
+ Z% j L1 l! ID、产量每增加一台,单位平均增加100元! b; h/ t0 t0 C! y9 }! m
正确资料:2 x+ S$ U5 q8 G6 b
2 D, `0 k$ n& v7 E3 N
, l1 i2 |" z* |# ^+ d3 h+ x- x资料来源:谋学网(www.mouxue.com),层次聚类对给定的数据进行()的分解。
5 I; ]' W- v4 n: s0 J5 GA、聚合 Z% H3 g! e( p$ w
B、层次
2 B1 h) E+ l( Z. I4 rC、分拆
4 f \2 b& `) wD、复制# g* a. \( L" |+ U. T
正确资料:/ T" R% i5 A- m2 V$ S H9 F! B
8 a+ {1 }/ s0 k' T; a! I& y0 r$ G: {+ b, F, }* m
第11题,下列两个变量之间的关系中,哪个是函数关系()。
5 ]- J7 M, F; k# kA、人的性别和他的身高4 ^8 T, J# @9 ^2 D1 u- ]) j
B、人的工资与年龄$ h3 L7 v, W5 ^ W. |+ B& Y- l+ m
C、正方形的面积和边长
9 O+ [4 j" d5 U! \- ID、温度与湿度
- ]$ W# {$ `. _/ c正确资料:$ e7 W0 W3 s4 S' Z3 p
( n. m ]! o, I, m/ k
6 F- k7 i2 S0 c3 M
资料来源:谋学网(www.mouxue.com),通过变量标准化计算得到的回归方程称为()。2 E: c/ s2 l5 C
A、标准化回归方程
. K( }% y, E: Z$ F& A/ o; VB、标准化偏回归方程2 B5 K0 R4 W4 j/ {. e' K) S, H
C、标准化自回归方程* |1 R- G0 a% Y4 h
D、标准化多回归方程
+ F6 l' N5 |; R& x0 p; o, l; Q7 U# D正确资料:
$ P- j) Q8 l% y# E c. T7 S9 W. _) F' G) K
3 v5 q# j) ^9 M! [* {
第13题,以下属于关联分析的是( )
: e4 j+ }( Y, R0 r6 L. uA、CPU性能预测
/ x3 k3 a. N% x8 pB、购物篮分析
5 B: u' ?: @# @. W) Z2 ?% w( [/ Y. V; TC、自动判断鸢尾花类别% e2 \$ @/ M. ~$ J
D、股票趋势建模8 g$ N0 ~6 k) ^2 j& ~7 Y4 I5 D, Z
正确资料:
9 @4 e. v+ s* c) i; }$ D! A* D0 g$ _8 z( y
1 L3 H, c7 |6 q7 t0 y( c
第14题,单层感知机模型属于()模型。
3 n* P# Y7 a5 n0 H7 oA、二分类的线性分类模型# }7 q4 d8 R j9 j3 E" U6 h
B、二分类的非线性分类模型
3 B! V4 A& \1 p- ^8 U2 S1 oC、多分类的线性分类模型
: o6 r. Z+ w9 c) c7 Z3 sD、多分类的非线性分类模型
5 O4 s8 W& o6 g3 K" H正确资料:- o0 J8 Y" l5 {# P6 F1 l
. @/ j5 T( q, `5 D5 H( M
. ~) m: @3 x- ~% i$ Y+ W+ o资料来源:谋学网(www.mouxue.com),以下哪一项不属于数据变换()1 Z- n2 W) R8 l3 C; {! t, K9 G
A、简单函数变换% ] c# `; V; \1 O3 c
B、规范化( ^" S( J* \+ @6 w5 |
C、属性合并7 Z" j6 X7 x/ u: z) t/ D
D、连续属性离散化+ ]& u' e W+ S! r& w- y. E8 t
正确资料:
" y ?6 O# _" S4 m0 C6 G* c1 x2 r2 ]6 B9 B
* x5 H! L2 {; M- ^/ c9 U
第16题,层次聚类适合规模较()的数据集1 G2 m- e% I" \
A、大
" L6 M# \2 k2 J. O G8 zB、中
5 t' K# n: |3 I' E! h+ _C、小
' @3 j+ [ N3 u/ F* _& B" I: ?D、所有- u, N6 P5 }* r* G1 Q3 F7 K5 E/ Q
正确资料:4 Q) U9 _1 |, i
. q" n8 B* i+ ]) e; ^* `1 m( u
2 j5 i% ?! t; y' W0 u
第17题,维克托?迈尔-舍恩伯格在《大数据时代:生活、工作与思维的大变革》一书中,持续强调了一个观点:大数据时代的到来,使我们无法人为地去发现数据中的奥妙,与此同时,我们更应该注重数据中的相关关系,而不是因果关系。其中,数据之间的相关关系可以通过以下哪个算法直接挖掘( )
' q) ^4 p+ p8 o) N! j0 tA、K-means, j( P D) |. K# ~
B、Bayes Network
+ F1 R; j5 T3 AC、C4.5
* o, B/ X8 d: G* F7 ID、Apriori2 P8 j# O$ ]( ~6 k
正确资料:/ k7 s) s6 q1 P( q/ ^
) W5 q& i- c6 _' S
/ J7 A' m# ]. p5 k
第18题,根据映射关系的不同可以分为线性回归和()。
3 n! A6 t# z& [" q: p; ^9 J. W3 lA、对数回归' F: q7 p. m; q
B、非线性回归7 ^9 n9 e+ d' q5 ~+ a" W& d
C、逻辑回归1 z3 C! V$ Y- L* Y$ o% R: u5 V
D、多元回归
# i. k$ v% Q, a& T' Q4 B正确资料:
0 m% D2 d' n- ?8 }& o
0 G7 @1 D- f8 n, A% J1 _
' f' r& } q6 s) Y& y/ |第19题,数据质量检验的主要任务就是检查原始数据中是否存在"脏数据",概括性来说,脏数据不包括以下()
# b6 l+ e* B- N, QA、普通值
7 E$ S8 e" Y% Q, ?: RB、异常值" D$ q* t8 x' {" V7 A8 |
C、不一致的值% k* Y, f0 w, o9 [3 T
D、重复值
& ~$ l! c: j2 x正确资料:, }! F. `$ W* |
2 p; v2 ?% Z8 X
4 w4 W) f( l& m/ {/ A S% o
资料来源:谋学网(www.mouxue.com),在一元线性回归中,通过最小二乘法求得的直线叫做回归直线或()。
$ |1 P( o# \2 P8 R zA、最优回归线
4 C5 k/ m3 C t+ mB、最优分布线$ C; u5 o& N, ]6 h
C、最优预测线' D3 E" m. g5 T, u6 C# L2 g4 D
D、最佳分布线
8 Q9 \' J& m5 \, u8 S7 P正确资料:! P8 d- n+ b2 W2 ~& u) G2 S
. K# d8 J, G1 e5 U% q% ~
5 S2 }* H; C9 ]" q8 r+ C
第21题,层次聚类的方法是() n, b/ |. o8 |' h3 S' n! e2 W
A、聚合方法
$ \, o' w* \6 c) xB、分拆方法
9 j+ d/ Q1 W5 R7 nC、组合方法+ Z- M, m8 p4 \# [1 H
D、比较方法+ a5 m/ r3 B* \8 X
正确资料:,B; x1 p% H" d: ~6 l
& s, O! k d$ c
1 ^# C6 l$ Z1 X6 [, I" f
第22题,k近邻法的基本要素包括()。7 L& P3 |- V7 ^
A、距离度量$ B- V4 q; e Q8 @5 @' u( S# }) {
B、k值的选择
5 S: |) t( i, \* Z: CC、样本大小
/ M" z% x6 r6 V" ]( ]5 u" ?D、分类决策规则6 @1 W# [/ w- o5 _% g
正确资料:,B,D! G3 j- Z% R, Z* X' t) \
( Q) I8 U- k! [
" c% C' G$ z, s* `
第23题,对于多层感知机,()层拥有激活函数的功能神经元。) m8 v- c! x( H+ D+ S7 n$ Y. s' L3 \
A、输入层, \. L( |+ x2 C9 s" {$ F
B、隐含层, k- g+ q, B8 x
C、输出层; v" k" ^; [: F$ ]1 K
正确资料:,C5 Y: e0 y2 ~+ n8 M1 v6 x
& D' ~6 ]" r1 V2 G
: X. d: I/ f3 |+ n, U* L第24题,Apriori算法的计算复杂度受()影响。
4 M8 P7 O' E0 Y5 u+ KA、支持度阈值
6 C2 T( Y/ N4 MB、项数, {1 r6 P' o! y* b2 o9 l' Y# D3 b
C、事务数* V& g& W2 t3 P4 k* ^. ^0 L$ P
D、事务平均宽度
8 @* g' M, Y' w正确资料:,B,C,D
$ I& O" B2 X# X6 @: K& H! R5 Y
$ t; T4 C1 s$ O/ j4 O% S! ]3 R1 g4 p2 Q, v# _8 n
资料来源:谋学网(www.mouxue.com),系统日志收集的基本特征有()0 [# |8 G l' }! d% M/ D% v
A、高可用性+ m; ?; x4 ~' d% W6 F. `
B、高可靠性$ j; s7 |% K3 g; {9 B& t
C、可扩展性$ e9 p9 q: H& Y! W& I7 I" X
D、高效率9 L( g. j' q# ?# p z; ]
正确资料:,B,C
^# e+ N& r* B/ n- f4 c* I0 c: t/ ~, n* ^5 T: a7 _
! W' }( W0 M. U9 _, d
第26题,K-means聚类中K值选取的方法是()。5 M8 m; g2 `- {. u9 u |
A、密度分类法2 g _ J4 d( q/ c8 r. F( |
B、手肘法
n& X* L! i# U3 QC、大腿法( o# [4 _6 B! f- Q" W
D、随机选取9 H& B4 C6 X4 u" r
正确资料:,B+ p! j9 a* c' J8 l6 x
+ y' Y r, G; t1 W
1 }" @" _# R9 M# ?0 g第27题,多层感知机的学习过程包含()。
4 x3 S, q: q! A. ~- N MA、信号的正向传播
0 c7 ^0 [: J! K: Q& kB、信号的反向传播
8 F; N# f# h' F/ r5 C& r vC、误差的正向传播( x, w L. X |/ i' r. z
D、误差的反向传播6 E, R: ~0 n5 o% {5 h( I
正确资料:,D
* S7 r/ K7 e+ L: ~4 g; F! @0 f+ Y1 J! y M* S" L5 Z) d
* q- }9 N) G% {* a) G0 C; g/ w. i0 x3 K第28题,什么情况下结点不用划分()6 U, [3 p/ ]5 x( J9 J1 O! k! V( P
A、当前结点所包含的样本全属于同一类别
" o* M9 z. b) v7 G' \B、当前属性集为空,或是所有样本在所有属性上取值相同) m5 x/ C3 ^$ I" I8 W7 O
C、当前结点包含的样本集为空5 D- I7 m d5 ^$ w4 o
D、还有子集不能被基本正确分类$ A- y8 s3 o$ F4 _8 m6 F3 z
正确资料:,B,C
: i/ e- X8 O1 Q- A9 m- n( f$ I$ d+ k5 j2 Y4 E
0 g7 [- ?5 T# _0 A5 L' c1 ?第29题,下面例子属于分类的是(); ~. C* n2 R, P+ P
A、检测图像中是否有人脸出现
: O2 P1 j0 q) E' h6 ~7 f6 ^B、对客户按照贷款风险大小进行分类
% L7 T' l+ z9 V. _: ]C、识别手写的数字
/ u; U! ?+ E6 g5 wD、估计商场客流量- V5 o6 S) j) b: G; q# F2 b
正确资料:,B,C+ y m- M# X1 M$ o$ e2 d0 R
5 K5 J( @5 Z. f" S) u8 g" N9 a8 B# ^; n
# i1 L4 i) O& R+ F1 P资料来源:谋学网(www.mouxue.com),距离度量中的距离可以是()
6 T& F% P% w+ S( @9 {0 ^5 [A、欧式距离3 i+ d% V& F9 \9 V% T7 B
B、曼哈顿距离( P& v& r, O7 o K# f* W+ V
C、Lp距离1 k1 `3 M% m# i0 W% `1 s5 d8 y
D、Minkowski距离6 W& e5 b* M$ k1 o3 W8 y- S
正确资料:,B,C,D. m9 Z& Y! w% c2 B) k- L+ X* c; i
1 ]; a' x5 }" b5 z) G7 [( p8 \- R
& \+ A) K# b( C/ k# |* v第31题,增加神经元的个数,无法提高神经网络的训练精度。. \+ T: p2 b6 M3 V6 F/ e) l; E5 a
T、对
7 p4 \, x& v0 q0 \/ V* j& cF、错% u; Z% |+ j9 p( |5 `1 @- O
正确资料:F. v' B8 p' \4 }, s
) E7 k3 k7 s: ~4 {5 x7 {8 P
8 B" G0 L7 Z6 M: `- Y6 }7 C9 F第32题,一个人的身高与体重之间具有函数关系。
$ e5 G' Y* H% G1 d9 P. P. k& f7 L7 sT、对7 o3 J( k" h) n
F、错
9 s* A$ E! j# L- r' A7 L; D% }正确资料:F
. _& @$ ^% ]7 T1 A/ f$ _! U" E7 _* B3 O5 @2 o- v% d
" v% p0 D$ P. S- D* v7 J1 O4 ~第33题,可信度是对关联规则的准确度的衡量。" f8 p- Z6 G+ i" \) v
T、对
$ `0 ^1 e8 c+ n- v# xF、错
4 R4 q/ E" i+ X/ n更多资料下载:谋学网(www.mouxue.com)/ }6 l! [) P" B i' S' }
6 I5 G7 U% K8 |. r* ]4 b# C
4 x5 X& G! K9 a; g8 Y
第34题,给定一组点,使用点之间的距离概念,将点分组为若干簇,不同簇的成员可以相同。
0 S9 F; i+ L# _8 _T、对 n( v- v) k# u. D8 `
F、错+ o, D5 k2 S; Q. r
正确资料:F
; p b: u) C7 e/ ?) {
& A- o. Z. q% x% x' M0 a2 {# g5 U! J
; u5 s# y9 b, b6 M+ \第35题,K均值(K-Means)算法是密度聚类。
$ g) z; T( `$ U6 z# kT、对
- }1 K- l7 t9 F) V4 ~8 ~F、错$ p7 i6 H5 m+ w
正确资料:F* ]; E/ l' I! `7 D
, j. }- w& Q2 @7 h# G! Z, K
7 A8 F. Z& U1 b第36题,具有双隐层的感知机足以用于解决任何复杂的分类问题。) D9 C$ E" O) U) P0 r
T、对9 ^0 R; C$ \" c+ z3 J. n# r) Y; G( K ~3 e
F、错3 {9 \! u6 s+ @
更多资料下载:谋学网(www.mouxue.com)! M( {. Q0 n2 B" T, F' V* x
. t7 G- f7 E: ?) l# H8 e0 P
% a- R6 u y& Y# {9 W. i# b# G第37题,当维度增加时,特征空间的体积增加得很快,使得可用的数据变得稠密。
9 B* Z T( o- c- N! a5 bT、对5 Y4 d7 D: _3 V# U* u6 j
F、错
% Y; K+ n( g; x" T) z! G8 J6 i* Y正确资料:F
: x" T) _9 B7 p! {) D6 x+ ~; h9 t) ]0 ^# e2 I3 z2 q- x
: E4 W. R8 {9 Z6 a" L$ t第38题,集中趋势能够表明在一定条件下数据的独特性质与差异( f u+ P, M6 S
T、对
, V- [( B0 G1 E$ y+ A" \! u5 N* SF、错2 K/ N5 N$ k* w$ q+ B% z* F* e" `3 r* x
正确资料:F! ]% e+ p& R3 c, B
8 ?! d2 O9 a% h
# x- i- p4 u/ u1 o* \+ N
第39题,给定关联规则A→B,意味着:若A发生,B也会发生。
8 e: b6 g; j& d k# p! E# JT、对2 D6 r W+ `6 s0 t. |7 u' e G
F、错 g4 Y( A6 u6 x/ h& W+ @3 F
正确资料:F
$ V% @! l+ U- V/ y& `# N% K+ ^* E2 g- D
+ {& n: u! G1 p) M3 x2 ]0 {, |# B
第40题,数据科学运用科学方法分析数据,位于几个学科的交叉点并利用领域特定的知识,使大数据的分析成为可能。
- l/ v; X5 a6 D$ J: R, B% LT、对% P1 y3 c2 X9 S/ ^8 Z* D4 V+ u1 B
F、错
- Y1 X/ C. C! L% ?更多资料下载:谋学网(www.mouxue.com) Q, E6 G) D4 w7 J2 \
B2 b+ r# ~, U/ s! B4 L( l9 R
3 q0 k( k* l4 D7 c第41题,BFR聚类簇的坐标可以与空间的坐标保持一致。
. a* p; W# N- p5 p9 Z* E; TT、对
, {7 b& Y+ F' J: kF、错
6 D+ Y' l3 w( z正确资料:F
. b0 s3 ~2 g1 r
# f% u" |. z5 g, S! r* K8 p* S& F \, Q8 W7 ^' L" D! |1 C
第42题,剪枝是决策树学习算法对付"过拟合"的主要手段9 Z3 A7 \( B2 p& q+ Q! G
T、对/ s) i0 n9 I. `! G
F、错
* C x- P3 l8 l, t: \' {3 s+ C1 h更多资料下载:谋学网(www.mouxue.com)% B- c- G* A9 j8 t0 A& K
$ [/ q$ d q" ?6 `9 S" e8 {% \
# v# L2 i+ \6 I1 z第43题,决策树还可以表示给定特征条件下类的条件概率分布,这一概率分布定义在特征空间的一个划分上,将特征空间分为互不相交的单元或区域,并在每个单元定义一个类的概率分布就构成了一个条件概率分布
; P6 |4 d% P7 U9 S6 y+ Y, A! ]T、对
- x) S3 F: V+ P1 gF、错
/ U8 [9 v) q. e8 [" L更多资料下载:谋学网(www.mouxue.com); c5 G/ y0 C" K6 I
) h6 n7 |/ O+ l" E5 g" z; S0 ]3 D& a' W0 I- m! _- M
第44题,K-means聚类是发现给定数据集的K个簇的算法。) d- e( ]9 ^ k$ i/ n) D2 h% W% o2 a8 q
T、对) ~7 v, O) X0 k, w
F、错
7 c' ?- H6 K" J5 b0 X4 W% u更多资料下载:谋学网(www.mouxue.com)
9 s* R; F1 g5 u! G+ @7 f o$ o# e7 v/ B" U H# w4 L5 k) Y$ l
& d# i7 Q+ P" ^$ X
第45题,数据分析师的任务:用模型来回答具体问题,了解数据,其来源和结构
9 x7 G0 H- P$ d8 t7 K5 c( ]" @% T9 rT、对+ v' e, h" }" B" t# ^$ z% t
F、错7 @% M( R; U# Q( t/ b+ ~0 ~7 q
正确资料:F
/ q( G* E% l4 V" p& ]( K7 f
" I& R7 ~: C5 L) a ]) T" j6 f# i r4 q8 `+ \8 N5 L* G
第46题,特征的信息增益越大,则其越不重要。4 Z" x) f8 B& g1 n1 y% K3 f% X. M
T、对
; B. J& o. H& S: w V' |- M0 KF、错' t: N, a" p" d
正确资料:F
6 a& L$ I9 f& |& o6 l7 B# ]7 L z) R% d7 F: q5 W& o" T
! D1 `- g/ C$ e5 p* X
第47题,贝叶斯定理是概率论中的一个结果,它与随机变量的条件概率以及联合概率分布 有关。5 {9 K& k! t$ [& C# D- q
T、对
! N @: V& a, b! V, \5 rF、错8 R1 E' b8 |* S$ Q
更多资料下载:谋学网(www.mouxue.com)0 u2 i3 n$ \( R5 H( X3 C$ F
4 F; u/ Z- Y3 v; U0 J0 P
; e; G' Z# \: ~0 m) w
第48题,给定一个数据集,如果存在某个超平面S能够将数据集的部分正实例点和负实例点正确的划分到超平面的两侧,则称该数据集是线性可分数据集。9 R, r: C6 |' O0 S0 D- q2 u1 E: Q
T、对6 E( I7 Q, ~+ F q! D/ f+ p
F、错
8 V9 y. H' ^2 l8 `$ ?正确资料:F% |% y p+ S1 F& q- {
/ E7 q& h+ O2 [3 n* s9 q6 d# j6 e3 X0 G
第49题,对于分类数据,经常使用表格,来统计各种类别的数据出现的频率。
2 Y2 C* |" @4 Y3 N0 C0 v9 mT、对2 c- H1 C+ O& w; m f" U
F、错+ |+ v! O+ c% R3 A
更多资料下载:谋学网(www.mouxue.com)4 Y% y$ @; U7 m9 x- d8 L
: g- ^$ |0 i+ l- w+ W0 }, G7 I0 m
' N/ T9 I: v( W7 j资料来源:谋学网(www.mouxue.com),利用K近邻法进行分类时,使用不同的距离度量所确定的最近邻点都是相同的。/ |) V* p' Z6 |* I ~
T、对
: m5 [6 [+ z" Y [5 G8 {. M7 z; OF、错
* J) l# o, b! s/ d& x& b9 b正确资料:F
% S4 u" x% W/ X d, }1 _
9 |: U( M% @ ?: ]% F Z: M3 D* x
5 ~6 D- d5 V1 e/ W- b4 c7 W
1 V* i/ J* K0 S
/ r6 H: |9 \7 g3 X% _& n; c8 P" K5 z5 i0 A( @# E+ b# `
, {& p; o: h& b0 J* X
: y. D) P% \$ u' C3 P _5 u* h/ }
d( @. k V4 p7 K. w& t' h! o1 i" `1 O2 ~
) e) u1 X7 f) j
8 M& Y7 m6 o+ E: w( Q/ k; i" M& Z% N$ I
- s; L; `2 _ |" X. ~
|
|