|
资料来源:谋学网(www.mouxue.com)-[南开大学]21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《数据科学导论》在线作业
( T3 e m+ w2 {% A' I试卷总分:100 得分:100: ^3 f4 t) F9 v) z6 p# Z( v! t, L" S
第1题,单层感知机是由()层神经元组成。
8 u3 t" \: T; k& M& u2 Y3 t! GA、一
' W5 L" Z6 w% |8 m! s4 mB、二
6 I( O' M$ Q0 v5 {% B9 `3 lC、三; [+ z2 ?- y1 p' @8 j3 L1 g9 d: }+ H
D、四
1 V( ^6 |. h" Q# Q' D" t+ K3 Y正确资料:
& p$ ?. R: K9 @ d. i# Y
. U6 ~7 o/ }5 K1 M. f* g7 T7 Z% q2 q' c* ` U& I0 P# R
第2题,K-means聚类适用的数据类型是()。
2 }5 W+ B0 ^' b3 d- s5 {A、数值型数据
0 l1 `' ~ C/ H8 z# JB、字符型数据9 {" z+ f9 u9 \' G
C、语音数据& k' N# Z+ B3 f) Y E, V: I
D、所有数据
# t0 E+ s/ H+ `, f正确资料:
u; |, E6 |. ?6 E7 [+ N
3 n: A5 I+ f D
& l2 E6 I! _" h7 P4 r7 d第3题,在一元线性回归中,通过最小二乘法求得的直线叫做回归直线或()。
: V8 D( i. w, R# L5 |A、最优回归线
" Q$ ~% _: o3 y* J3 F! _B、最优分布线 i! v) B" X" j) b! c& L2 Y6 I- X
C、最优预测线
! P! ]* i7 F' }8 _- M F4 {% YD、最佳分布线
& p8 s& l) w. `/ O& ^8 j s1 h( c正确资料:" |4 j i8 ] Y3 J) A% m3 ^
6 t0 J' U6 i& p m6 A5 W# `/ O
; E' X+ c$ J6 ?3 f6 {; V第4题,例如将工资收入属性值映射到[-1,1]或者[0,1]内属于数据变换中的()
( X/ f3 \9 b: EA、简单函数变换
6 L: A- i( k6 Z5 M; ?9 D1 ? o B( cB、规范化
2 T3 R5 g+ I& ]9 {# c: u8 Y7 z1 QC、属性构造5 [$ N, y0 d5 x. F6 ?* u
D、连续属性离散化
+ P; M2 Z: N) N! \正确资料:$ t [0 W, L0 D1 m5 m, q* l
& L0 X1 V4 n4 C. K( v6 _& J7 \
- P5 t; w$ u4 E6 D资料来源:谋学网(www.mouxue.com),在k近邻法中,选择较小的k值时,学习的"近似误差"会(),"估计误差"会()。
" ~% s3 N2 Y o5 zA、减小,减小; e; g. q* K8 N
B、减小,增大$ u& E* {; V) c! d- D6 P
C、增大,减小
8 t8 n+ \% E) G- x* l6 D1 q/ u2 GD、增大,增大7 r* |6 k$ k( k3 ~
正确资料:6 I; |9 d. h: y- O$ D
& C& ~ f k( j3 ?# d' i% M
$ O. X; h) \5 M S9 ^) F第6题,聚类的最简单最基本方法是()。1 p6 ~$ H/ [9 s( J
A、划分聚类
$ }+ Z/ @9 [0 T6 Z& t9 B7 \B、层次聚类& y; G" m" P( y3 J% u
C、密度聚类
# n% P( T i( nD、距离聚类
9 H" J0 b* @! _* `% r正确资料:
8 v1 n- b0 z7 g# v% [( A! W8 t9 U; M: \
. y/ |3 X! W, A
第7题,设X={1,2,3}是频繁项集,则可由X产生()个关联规则。
4 F5 K+ P& A0 N" B0 L) w% kA、4& H3 h, j1 e+ d% ]" ~
B、5: w w( v( y9 ~" z( |* H$ F
C、62 _3 I6 n9 l/ d& E: o
D、7
4 L& c! m1 R. Z4 @' A& M: V正确资料:
/ m( s9 x6 j5 |$ l6 |% o; M) N% Y5 y8 u
8 [3 t0 c( _& t
第8题,在回归分析中,自变量为(),因变量为()。: C/ J$ y/ c8 _$ {! ]4 \$ m
A、离散型变量,离散型变量; n7 Y+ k( u6 p& q2 N7 t
B、连续型变量,离散型变量# ~( i, k) I* }$ m3 D
C、离散型变量,连续型变量
* [3 R5 T6 Q) W; g7 S" p+ jD、连续型变量,连续型变量% k; d$ q$ J1 G- X! Y. J+ x S
正确资料:
' t; i8 Q ^4 n+ x- t, ~# P) s. D* a. v8 {# d% ?, j
" f9 u# b# n' x4 S. J4 C) s第9题,哪一项不属于规范化的方法()/ v, `0 Y' d1 ?; |8 b
A、最小-最大规范化# ~( M6 c, s1 D } _& j+ y9 U
B、零-均值规范化
8 z% F5 y% [& i3 }& R; RC、小数定标规范化
3 K' r5 [0 M. c. t% W% hD、中位数规范化8 E. X9 Z8 }# L, ]5 @& f
正确资料:' e( l% t7 }4 c. j
# ]! X7 F7 k; M9 {$ b& u! A( t# f) I1 j# i
资料来源:谋学网(www.mouxue.com),单层感知机模型属于()模型。7 ?7 z# _# o# m% g2 F$ F: u' m
A、二分类的线性分类模型
0 w6 y- W& F6 I: m. S2 s' tB、二分类的非线性分类模型
; Z6 N% o q4 O$ H: t: ^9 r, gC、多分类的线性分类模型( J6 X8 e9 l/ J7 C i
D、多分类的非线性分类模型
6 T' J0 p; o# k正确资料:( Z5 @: F- Q- I, W
" D( ?) {% }2 x) T
9 y+ a. S5 |: v9 _4 z$ i
第11题,以下哪个不是处理缺失值的方法()
0 E5 b5 [/ u* O0 g% c( |; v, i5 p6 H1 wA、删除记录. p6 x; Q6 r: g8 v& \9 s0 ]
B、按照一定原则补充; D! k% X7 f# k. Q
C、不处理, G" H; O2 q/ q9 a( g
D、随意填写+ s9 |; q0 r& T* T3 w
正确资料:
0 R) j6 |+ P7 V$ c- z
- [) R# [; m# f, ^9 Y) ?: P6 ]" j. t* p8 Z& i# t* o, c
资料来源:谋学网(www.mouxue.com),我们需要对已生成的树()进行剪枝,将树变得简单,从而使它具有更好的泛化能力。
$ ?( c+ m, @! b% s5 N+ o5 G( oA、自上而下
0 I9 \2 Q% _5 K+ RB、自下而上* _: K% E, [- S
C、自左而右5 D# J% f4 v" B- O' x
D、自右而左
( p6 F" }: d/ T1 C% {0 V+ b正确资料:
2 J% I) l0 a+ }3 `0 A$ y$ s, |+ D$ p$ @* y- h I$ M8 @
' P. `+ N3 X8 k4 t6 ~7 e; u
第13题,下列两个变量之间的关系中,哪个是函数关系()。: M3 j: w9 |+ W% m
A、人的性别和他的身高9 u3 z0 `8 F( h& T6 z J7 T
B、人的工资与年龄
0 v2 E0 n \0 M& C8 L" ^C、正方形的面积和边长
* ?. @# S0 `3 u& BD、温度与湿度
3 I m+ e" R- G) N- q正确资料:6 Z- @5 V% m: v6 I% L( A
% f+ v& o( Q7 b! u$ d7 ^& \
1 y" d. N! a" y$ H: L9 B: ]
第14题,变量之间的关系一般可以分为确定性关系与()。! r O. U' G8 i0 O: ?* `
A、非确定性关系1 j5 J, {# A T
B、线性关系4 Q5 K9 Y4 S+ g4 R) A
C、函数关系: S' D* g# f- x) D( O# n
D、相关关系
; Z0 v/ p' Z3 L4 W+ ~" v* j/ y- G正确资料:% k' C. m: d1 h* x# R6 m. I
& C3 P# e: C0 B! ]5 M+ h8 u8 I. B; R2 g
资料来源:谋学网(www.mouxue.com),单层感知机拥有()层功能神经元。
0 ^ `- i+ `5 K5 wA、一* [2 L- S% t$ L$ T: G8 u! \5 `
B、二
+ T% _1 F A; R) y) F5 U& EC、三6 z. f* x8 q# |- p/ h. E
D、四5 R6 r2 q; u! P7 V" G/ U) m
正确资料:
7 r w8 e# X* ?8 e* C: S
8 a% m' a; [+ e0 L/ g& d+ ]9 G# r( A2 {3 h
第16题,通过构造新的指标-线损率,当超出线损率的正常范围, 则可以判断这条线路的用户可能存在窃漏电等异常行为属于数据变换中的()
- m. ~* \1 K" b9 dA、简单函数变换
9 U3 | }8 E* p5 \B、规范化
& |' n# k: I! aC、属性构造
9 T5 L1 Z* L* `& U1 nD、连续属性离散化
* V* T- u- c2 k4 b) u! Q1 v0 K9 V正确资料:
9 k0 a% o3 E4 n) H( a F$ f
9 F0 L: `, F. Q" {- y
6 n+ \* F/ Q/ f# D1 }' x/ E第17题,在一元线性回归模型中,残差项服从()分布。1 V% A4 \* u! C* o& @# H3 l
A、泊松
/ Z3 _7 m1 K6 ^( B+ h3 EB、正态; W) F, ~. q, \
C、线性
" }3 {- T) g- e" b% T5 [D、非线性, F5 \3 g6 Z1 z5 a. T5 A% B4 q
正确资料:
/ R0 L* Z q. h+ [% i8 l: |6 w- O" `! a% o/ [
' j8 \- e: d! ]: d1 ` i9 c
第18题,层次聚类对给定的数据进行()的分解。6 Z/ }$ X% g1 t0 Q9 F0 M. n! [: H8 K! X
A、聚合
9 ?6 L8 M5 c! y& m% uB、层次
! t* w6 G/ R4 `& Z, p eC、分拆
/ E5 G* v% p4 e) M& Z: mD、复制
6 w" @/ A* ?0 a7 r) [正确资料:/ T; ~$ L, H& j# L4 |# c
3 J: c# q% H" V/ A& r: \: @' t
! Q$ q0 j2 Y- b" [% n ?/ r
第19题,以下哪一项不是特征选择常见的方法()
/ j- t- R' O5 [1 Z4 i) K+ m3 BA、过滤式: D( Q* h* U- ?2 \# J3 Y' g
B、封装式
) ^9 Z" l- u' p. t: n/ BC、嵌入式
, F" |7 a: B4 N7 Z1 R* jD、开放式2 F; t( v/ I3 o8 y( Z1 P
正确资料:
. N7 b# q! k* D. }5 x7 s1 z0 k/ h1 F5 \9 d% @0 L" X
7 ^( M8 B* C. u% H/ ^% p3 p6 M资料来源:谋学网(www.mouxue.com),对于k近邻法,下列说法错误的是()。
# g4 t% h- t _. x! r7 z6 UA、不具有显式的学习过程2 T! x5 w; m0 B. J8 W# Y
B、适用于多分类任务! v: H$ u/ V% Z( U
C、k值越大,分类效果越好4 d; k- v, F) a) O" a; w
D、通常采用多数表决的分类决策规则
6 L+ `# k9 x1 w% t" b正确资料:
+ C/ s0 L" A& P4 z) C" a- n; I; N. S( \0 t# L# X5 v" s
- L. ]7 m) N! t3 D5 n1 U2 |) d
第21题,聚类的主要方法有()。
" Q ~. l3 j4 E% @7 ]# J. ~A、划分聚类
3 N3 Q! F& ?( t. g- OB、层次聚类4 C/ N4 x% u. ~( d, m6 \ A E
C、密度聚类# |" v3 W2 h# Z
D、距离聚类$ ^7 b; T& H. {$ {. C) D2 A) Y
正确资料:,B,C! _+ I7 V9 a& {+ g" s- ?. G6 C
* K( {% |* ^) x) Y' E6 d# `' {( t# J0 o z7 A
第22题,数据科学具有哪些性质()+ d0 }; v F1 j
A、有效性- e* A. k% y$ S
B、可用性
& a, v& A3 {( {% }( yC、未预料; B( K! n* ?, p3 V, z& j1 }
D、可理解
* t6 y: X3 S$ I& B4 |! x正确资料:,B,C,D
- e* `5 H J+ I, f+ V/ V/ g) W" u, p! O$ f# j7 t1 j6 x1 V$ Z; J8 F1 b
. j$ b& \, M9 _2 d
第23题,下面例子属于分类的是()
; V! b, Q& }5 o/ U* L0 ] W9 BA、检测图像中是否有人脸出现, K [+ ]! }# y: P P+ k& k2 h
B、对客户按照贷款风险大小进行分类
) k. P+ R4 Z# H$ M) l) Z8 ~C、识别手写的数字
# Z! G( b8 l5 l" a3 w; B$ L" X4 D/ _D、估计商场客流量
4 j9 C2 P. x i" q2 B9 f8 l) P正确资料:,B,C
# g( H' [) U+ x8 ~/ `- p& C; }5 c
* n0 o/ a; J* S/ L* N! ], A" `9 d- _( ]! M; Z, k; E8 ^0 I. j
第24题,下列选项是BFR的对象是()
4 B% ` E- l; B' S- s" @% ?8 O5 kA、废弃集
: g" M9 u, |. I7 ^% A6 K( vB、临时集5 F3 d4 v8 W: W: D. B: r
C、压缩集
- H' |5 `& E0 w0 S* M# J3 FD、留存集
9 K# p. @/ w/ Y+ L! M正确资料:,C,D
% i! s H, y8 \5 }, i, B) P0 `4 i$ G$ I& k( y# b1 x+ B: o
T) d0 Y* N2 |3 q% m" k7 S: U; u
资料来源:谋学网(www.mouxue.com),Apriori算法的计算复杂度受()影响。/ B! Y) f) |9 x( ?
A、支持度阈值
% }1 V% O- N T& _B、项数
5 s& q8 T7 f; S( T& s3 f2 NC、事务数) s' G/ r( R- r& R: ^" K
D、事务平均宽度# p$ k' [& F; i A' l* A) U! a0 ]
正确资料:,B,C,D- N4 p3 q# k# |0 _
0 t7 g3 V! z" j% p {5 m
{9 ?" F# y t) V第26题,相关性的分类,按照相关的方向可以分为()。
6 A- Y: B2 m- N' LA、正相关+ X0 z1 l3 ?% ?" D0 C
B、负相关
/ w" \. K% A; \3 a5 j' uC、左相关
5 U% S! D& l* |$ k% Z& vD、右相关2 T5 ]& M: U0 m0 F
正确资料:,B6 ^+ o& w B& J3 E# ]5 D
$ b( {% ~$ Y% b! ?( n" F8 X- D8 X; _
# x# @6 X4 t* M0 ~( B
第27题,系统日志收集的基本特征有() H' I2 k2 i$ B! Z# G7 J1 y
A、高可用性
0 J1 q- b- Y5 y9 c, t- J9 ?B、高可靠性: E% c# m) ]4 A/ K2 @) u$ @, Q
C、可扩展性0 e& D* ^5 r2 o
D、高效率
( H# T6 d4 J( L! Z2 W! T$ p正确资料:,B,C: Y# r H6 y# h0 }, A
) G0 ]! N5 {0 u) ~3 D3 q9 V3 U! E/ t% N- ^' s1 _
第28题,什么情况下结点不用划分()
; _* U- r9 L+ a, D6 LA、当前结点所包含的样本全属于同一类别6 e* p! M# C, ~. H
B、当前属性集为空,或是所有样本在所有属性上取值相同
& o3 S6 ^- F. w2 P. B' U0 YC、当前结点包含的样本集为空
/ G. h: p3 o8 yD、还有子集不能被基本正确分类& T0 O. I/ V8 E e
正确资料:,B,C L; \5 x1 i' h1 X* ~5 j2 S; I
) e s% T) \! M9 Q3 o& f" k3 \9 V$ n5 O V
第29题,k近邻法的基本要素包括()。6 |0 l9 H5 |' Y# u. a
A、距离度量3 r7 b' {$ h- Y" u. I3 Z5 W3 E
B、k值的选择( ]6 h& I `: ?# L+ e
C、样本大小: Z* i' J: W1 ^
D、分类决策规则
+ N1 G; T- D# F& L8 K4 b正确资料:,B,D4 Y2 s7 j. [5 G' B% }+ m6 X
- e4 Z+ G2 A; B, |! E i1 w# A$ u
9 G( n; @" G2 g5 W. z资料来源:谋学网(www.mouxue.com),距离度量中的距离可以是()6 a9 E0 V4 G7 U. y0 o& L' {
A、欧式距离
% z- _- t( \8 `) |& eB、曼哈顿距离; u6 q* b8 ` q2 X: t1 p! b! F
C、Lp距离& h4 E2 P- Q( @+ i3 m
D、Minkowski距离
& Y; Y7 K6 c4 V2 M& Q3 U( u- }正确资料:,B,C,D
( D( @+ u# d. w. n
8 B, n5 l' m% G7 H. R/ L+ t8 M1 y1 @* a/ s+ j: L
第31题,K-means算法采用贪心策略,通过迭代优化来近似求解。
7 o! ]+ w' o* [0 Y: XT、对
, M; S8 @# x, M* ^+ m) lF、错& E5 `# S0 a, c$ p5 B; b4 o$ j; d
更多资料下载:谋学网(www.mouxue.com), a/ p8 Y4 |3 Z& \3 q4 t
$ i+ u1 w5 D, N
: |9 m6 Q6 L! r3 M( u第32题,随着特征维数的增加,特征空间呈指数倍增长,样本密度急剧减小,样本稀疏。& e, g1 z- E; t* N% I
T、对
' Q8 k% j# X( I& C) K( J0 VF、错
h" n3 F% T" ^/ b. \: U1 `更多资料下载:谋学网(www.mouxue.com)4 o$ p. d! g% k4 A
D0 R! n P3 f; N1 q* w7 U+ Z, g/ ?" b* e- G
第33题,一般而言,信息增益越大,则意味着使用属性a来进行划分所获得的"纯度提升越大",因此我们可用信息增益来进行决策树的最优特征选择。" c8 r& b6 L% O" i" s( c( ^
T、对
: r* A) {! L( `! X% W$ ]- V/ L. CF、错: }1 R7 z3 @& f
更多资料下载:谋学网(www.mouxue.com)
# z0 j1 G8 _; y, i' h: o4 b3 ^7 L6 m6 t
3 ?! f, S5 b$ L& q' V- Y; v第34题,关联规则可以用枚举的方法产生。
* d' N1 N3 a( x, y+ h: c @5 DT、对
7 h7 I$ ]5 Y$ GF、错
6 p! s# _- P. `4 F& w5 u( A4 |# k1 l更多资料下载:谋学网(www.mouxue.com)
) ~5 F) T$ x. z) f) s" ~# D' y5 ?# p- k, u8 ~
9 Z6 {0 r" l- g4 Q8 m* Q y: ~7 P
第35题,Jaccard系数只关心个体间共同具有的特征是否一致这个问题。
9 L0 ?/ A3 U. `' i& `- p' IT、对. e$ R" B& b. F& t. E6 [
F、错4 N0 _# G0 o: S- i' l; ?
更多资料下载:谋学网(www.mouxue.com): q9 l3 _# k2 o: d3 { z
! A' I( r- P% g% ~
! T4 N, p+ d" Q4 w) ?) D- C: T
第36题,特征选择和降维都是用于减少特征数量,进而降低模型复杂度、防止过度拟合。0 Q8 ]4 X- D$ ^" h T
T、对
9 s% Q( h A3 c6 X/ u5 iF、错$ f% B! U5 o2 A3 k; ~2 j* ^
更多资料下载:谋学网(www.mouxue.com)
/ a* o* F3 H( _& C }, x' p9 b* y$ l$ n* ]1 Z
* p7 r6 e! b* c
第37题,由不同的距离度量所确定的最近邻点是不同的. `! g9 ?/ u6 I, N* i' ^9 L
T、对" T) C* ]' W) n, t* f$ {& G
F、错 P8 @ X( D/ B
更多资料下载:谋学网(www.mouxue.com)" d9 C' q. K0 ?
$ {3 Z; A+ Y( t4 B1 D/ W$ F- k/ C2 x3 o3 e# s
第38题,Apriori算法是一种典型的关联规则挖掘算法。9 w5 b& T0 d+ d) z p. b& U
T、对/ k! z( N( X2 n4 [! r) W
F、错
, i* f9 `+ o- J& [: f更多资料下载:谋学网(www.mouxue.com)
4 v A0 S' ^: G- a& W+ |* ]" V2 b/ x4 I, J6 G
+ _4 {# k. R1 r3 w, h
第39题,决策树的输入为训练集,输出为以node为根结点的一棵决策树3 f3 [7 s6 Q& U" {# ]1 G
T、对
" x2 }% R8 K9 V2 ~+ ^, H3 b5 wF、错. @/ o* Z: i, M4 i
更多资料下载:谋学网(www.mouxue.com)0 C% t2 k4 X5 U& N* m f
% X. K/ K$ O3 R5 [
+ H" n: g5 ^5 Q' u* f9 q' J; N* z第40题,K均值(K-Means)算法是密度聚类。2 d( u* l. Z( m+ u. d+ z
T、对) n! \: u- W4 t
F、错
2 F$ g# t* }, f3 I正确资料:F/ f( e6 T- O0 A
) V/ v/ v1 V5 _. L" S; Z5 b* ~! \; c% x" V* H
第41题,如果一个候选集至少有一个子集是非频繁的,根据支持度的反单调属性,这样的候选项集肯定是非频繁的。
P. u& h/ t8 aT、对
) M: f6 c' b+ YF、错
0 h( R' _! T" k- [. [更多资料下载:谋学网(www.mouxue.com)
9 r- x n) x8 C$ G. c) h- i6 R6 P7 c
, a9 ]1 E6 k0 q7 `- i5 I
第42题,啤酒与尿布的故事是聚类分析的典型实例。
" W0 {6 i( Y0 C* F) _% FT、对0 r2 k/ w+ g% F7 d+ \, ~! }* T7 h
F、错
8 n) b/ U d& n P' |2 q正确资料:F. ~# Z# x5 @/ s3 j8 S
6 X$ j( S- p* \
% ~# m, I3 x8 ~7 s; z' Q
第43题,对于分类数据,经常使用表格,来统计各种类别的数据出现的频率。
$ e: r/ W) O( ?# d8 oT、对
- e- ~" _7 ~) `0 dF、错
! m* ^, ~3 @ b( t) X: ]更多资料下载:谋学网(www.mouxue.com)3 o) h; h7 k, F. i ?
" a- w) g$ v4 K
5 U% ~5 ]( y3 A' d" W. s3 y第44题,标准BP算法是在读取全部数据集后,对参数进行统一更新的算法。
3 k8 Y3 o6 _- KT、对
2 j5 H1 i/ Z* s4 C: V; ^; mF、错
y. r Q$ z+ Z6 t1 i正确资料:F! M. ~ H+ C) R5 L/ s4 `; W' B3 J
0 x. H: h# h+ ?( R& H
2 e8 \: A% C8 p1 I' Z' a第45题,特征的信息增益越大,则其越不重要。$ K) _+ i% d" C
T、对
# U! c0 k; B7 O( L& fF、错
! M+ U+ n) s9 b n2 O4 \' K# J正确资料:F( x3 R/ Q: e: v! y! L! H
6 U: f! e( s, |
* ^2 N5 a1 J! R% c, s& W+ r第46题,为了尽可能正确分类训练样本,结点划分过程将不断重复,有时会造成决策树分支过少,以致于把训练集自身的一些特点当作所有数据都具有的一般性质而导致过拟合: O) E& Z+ v3 T6 x# a5 t# ]
T、对
" O; K2 }# j' Z U5 |# fF、错( `6 D/ u/ u- ]- e
正确资料:F
( L1 K5 y$ A! [# u1 z
8 |* F* j5 i% L G9 a
# B' ]9 y, o/ F; N第47题,不满足给定评价度量的关联规则是无趣的。0 t: z4 t D7 f2 d% C6 D
T、对. N# A8 Q- X4 Z& r ~) O" y( X
F、错( o- E) a4 g/ ~- \6 w5 ~
正确资料:F
6 q5 ^ _$ w! F9 t l k/ C7 r; u+ B0 f" i4 x$ W" L4 J2 y5 i" z
( I( p4 _- W2 D H$ o第48题,具有双隐层的感知机足以用于解决任何复杂的分类问题。
' ?2 H: p% `8 r, }, B, e1 \T、对
) D% T" P4 V: f; `- ~4 A kF、错) U9 V) l1 u: S& v7 Z! |' i
更多资料下载:谋学网(www.mouxue.com)
2 ?. j2 }( S. p( u* M, d1 o) D2 g# a4 Q& ?4 u5 D8 y
# |- J& r; F6 m第49题,多层感知机的学习能力有限,只能处理线性可分的二分类问题。3 v- g7 U+ _, |/ H" |
T、对
N% }! o2 O1 j: k8 ^F、错( o0 ~8 m d6 p3 t, I6 ?( |
正确资料:F
# e& b; N+ l( b" |+ E9 w
: n& b% H. `7 u D- A2 e7 {' R; j7 I! Z/ t; U
资料来源:谋学网(www.mouxue.com),uBFR算法所使用数据中的簇在不同坐标下的标准差有所不同
, v. ?$ {3 K% e' |) V$ m7 r4 OT、对1 \" M/ v7 `$ @# }
F、错
; [9 C( A- J3 d3 W8 N0 A正确资料:* E P4 d4 |2 v
1 N- V# T6 }& o; h
3 p" @+ r0 P, c3 c# T7 Y" @5 {; [, O1 ^) C: Y( t7 ^& ^1 i& g1 J
N- [% O+ C# ], `: R$ @" u
, m" g( x5 ?- H+ `. X6 I f
4 q, X9 W% j% J! a% q& \5 T; q0 P: s8 }
K( M+ R6 Y [4 C; I
% q( B7 W6 r% P5 L8 v9 f! N
7 [! B0 G5 E5 t x( P- G6 w) x# ~6 I( T ~
; ? A7 u3 u1 }5 n: A
5 g. g- r( F9 C9 i" j
* ~! _" Y- ~. i- V |
|