最新文章专题视频专题问答1问答10问答100问答1000问答2000关键字专题1关键字专题50关键字专题500关键字专题1500TAG最新视频文章推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37视频文章20视频文章30视频文章40视频文章50视频文章60 视频文章70视频文章80视频文章90视频文章100视频文章120视频文章140 视频2关键字专题关键字专题tag2tag3文章专题文章专题2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章专题3
当前位置: 首页 - 正文

(完整word版)数据挖掘计算题参

来源:动视网 责编:小OO 时间:2025-09-25 04:52:15
文档

(完整word版)数据挖掘计算题参

数据仓库与数据挖掘复习题1.假设数据挖掘的任务是将如下的8个点(用(x,y)代表位置)聚类为3个类:X1(2,10)、X2(2,5)、X3(8,4)、X4(5,8)、X5(7,5)、X6(6,4)、X7(1,2)、X8(4,9),距离选择欧几里德距离。假设初始选择X1(2,10)、X4(5,8)、X7(1,2)为每个聚类的中心,请用K_means算法来计算:(1)在第一次循环执行后的3个聚类中心;答:第一次迭代:中心点1:X1(2,10),2:X4(5,8),X7(1,2)X1X2X3X4X5
推荐度:
导读数据仓库与数据挖掘复习题1.假设数据挖掘的任务是将如下的8个点(用(x,y)代表位置)聚类为3个类:X1(2,10)、X2(2,5)、X3(8,4)、X4(5,8)、X5(7,5)、X6(6,4)、X7(1,2)、X8(4,9),距离选择欧几里德距离。假设初始选择X1(2,10)、X4(5,8)、X7(1,2)为每个聚类的中心,请用K_means算法来计算:(1)在第一次循环执行后的3个聚类中心;答:第一次迭代:中心点1:X1(2,10),2:X4(5,8),X7(1,2)X1X2X3X4X5
数据仓库与数据挖掘复习题

1. 假设数据挖掘的任务是将如下的8个点(用(x,y)代表位置)聚类为3个类:X1(2,10)、X2(2,5)、X3(8,4)、X4(5,8)、X5(7,5)、X6(6,4)、X7(1,2)、X8(4,9),距离选择欧几里德距离。假设初始选择X1(2,10)、X4(5,8)、X7(1,2)为每个聚类的中心,请用 K_means算法来计算:

(1)在第一次循环执行后的3个聚类中心;

答:第一次迭代:中心点1:X1(2,10),2:X4(5,8),X7(1,2)

X1X2X3X4X5X6X7X8
102536+369+425+2516+361+4+1
29+49+99+1604+91+1616+361+1
31+1+95316+364529058
答案:在第一次循环执行后的3个聚类中心:

1:X1(2,10)  

2:X3,X4,X5,X6,X8   (6,6)

3:X2,X7  (1.5,3.5)

(2)经过两次循环后,最后的3个族分别是什么?

第二次迭代:

X1X2X3X4X5X6X7X8
102536+369+425+2516+361+4+1
232178524411+1
35²+6.5²5²+1.5²6.5²+0.5²3.5²+4.5²5.5²+1.5²4.5²+0.5²0.5²+1.5²2.5²+5.5²
答案:1:X1,X8 (3.5,9.5)

      2:X3,X4,X5,X6  (6.5,5.25)

      3:X2,X7  (1.5,3.5)

2. 数据库有4个事务。设min_sup=60%,min_conf=80%。

TIDdataTransaction
T1006/6/2007K,A,D,B
T2006/6/2007D,A,C,E,B
T3006/7/2007C,A,B,E
T4006/10/2007B,A,D
a.使用Apriori算法找出频繁项集,并写出具体过程。

答:

(a)Apriori算法:  

{K}  1      {A}  4     {A,B}  4    {A,B,D}  3 

{A}  4       {B}  4      {A,D}  3 

{B}  4       {D}  3      {B,D}  3

{D}  3 

{C}  2 

{E}  2    

频繁项集为3项集{A,B,D}:3 

  b.列出所有的强关联规则,使它们与下面的元规则匹配,其中,X是代表顾客的变量,是表示项的变量(例如,“A”、“B”等):

        [s,c]

答:所有频繁子项集有{A},{B},{D},{A,B},{A,D},{B,D} 

A^B=>D  conf=3/4=75%       ×

A^D=>B  conf=3/3=100%      √ 

B^D=>A  conf=3/3=100%        √ 

因此,满足条件的强关联规则有:

A^D=>B{supp=75%,conf=100%}

B^D=>A{supp=75%,conf=100%}

1.给定如下的数据库表:

IDSkyAirTempHumidityWindWaterForecastEnjoysport
1SunnyWarmNormalStrongWarmSameYes
2SunnyWarmHighStrongWarmSameYes
3RainyColdHighStrongWarmChangeNo
4SunnyWarmHighStrongCoolChangeyes
请计算属性Sky的信息增益。

答:

C1 :Enjoysport=yes=3

C2 :Enjoysport=no=1

I(yes,no)=-3/4log2 3/4-1/4log2 1/4=0.811

skyC1C2
rainy01
sunny30
I(sky)=1/4I(0,1)+3/4I(3,0)=0

Gain(sky)=0.811

习题:

1.以汽车保险为例:假定训练数据库具有两个属性:年龄和汽车类型。

年龄————序数属性

汽车类型——分类属性

类————L:低(风险)  ,H:高(风险)

年龄汽车类型
>21MarutiL
>21HyundaiH
<21MarutiH
<21IndicaH
>21MarutiL
>21HyundaiH
使用ID3算法得到一个决策树。

2.下面是一个超市某商品连续24个月的销售数据(单位:百万元):21,16,21, 19, 24, 27, 23, 22, 21, 20, 17, 16, 20, 23, 22, 18, 24, 26, 25, 20, 26, 23, 21, 15, 17。

请使用等深、等宽和自定义区间的方法对数据进行分箱,做出利用各种分箱方法得到的直方图。

3.数据库有4 个事务。设min_sup = 60%,min_conf = 80%。使用Apriori 算法找出所有的频繁项集,并针对每个频繁项集构造强关联规则,列出每个规则的支持度和置信度。

答:

(b)Apriori算法:  

{K}  1      {A}  4     {A,B}  4    {A,B,D}  3 

{A}  4       {B}  4      {A,D}  3 

{B}  4       {D}  3      {B,D}  3

{D}  3 

{C}  2 

{E}  2    

频繁项集为3项集{A,B,D}:3 

所有频繁子项集有{A},{B},{D},{A,B},{A,D},{B,D} 

A^B=>D  conf=3/4=75%       ×

A^D=>B  conf=3/3=100%      √ 

B^D=>A  conf=3/3=100%        √ 

因此,满足条件的强关联规则有:

A^D=>B{supp=75%,conf=100%}

B^D=>A{supp=75%,conf=100%}

文档

(完整word版)数据挖掘计算题参

数据仓库与数据挖掘复习题1.假设数据挖掘的任务是将如下的8个点(用(x,y)代表位置)聚类为3个类:X1(2,10)、X2(2,5)、X3(8,4)、X4(5,8)、X5(7,5)、X6(6,4)、X7(1,2)、X8(4,9),距离选择欧几里德距离。假设初始选择X1(2,10)、X4(5,8)、X7(1,2)为每个聚类的中心,请用K_means算法来计算:(1)在第一次循环执行后的3个聚类中心;答:第一次迭代:中心点1:X1(2,10),2:X4(5,8),X7(1,2)X1X2X3X4X5
推荐度:
  • 热门焦点

最新推荐

猜你喜欢

热门推荐

专题
Top