教学设计
课程名称: 数据结构与算法(C语言篇)_____
授课年级: ___________________________
授课学期: ___________________________
教师姓名: ___________________________
2020年03月01日
课程名称 | 第1章 数据结构与算法 | 计划学时 | 2学时 |
内容分析 | 本章主要介绍数据结构的概念、逻辑结构与物理结构、算法的概念 | ||
教学目标 与 教学要求 | 要求学生了解数据结构的概念与专业术语、了解数据的逻辑结构与物理结构、了解算法的概念与特性 | ||
教学重点 | 逻辑结构与物理结构、算法的概念 | ||
教学难点 | 逻辑结构与物理结构、算法的概念 | ||
教学方式 | 课堂讲解及ppt演示 | ||
教 学 过 程 | 第一课时 (数据结构的概念、逻辑结构与物理结构) 了解数据结构与算法 1. 讲述数据结构与算法内容,引出本课时主题。 数据结构是计算机专业的一门基础课,其主要研究程序设计中的操作对象及它们之间的关系。算法指的是解决问题的策略,只要有符合一定规范的输入,在有限时间内就能获得所要求的输出。虽然数据结构与算法属于不同的研究课题,但优秀的程序设计离不开二者的相辅相成。因此,本章将主要介绍数据结构与算法的基本概念,包括数据结构的基本术语、数据的结构分类以及算法的各种特性。 2. 明确学习目标 (1)能够了解数据 (2)能够了解数据元素与数据项 (3)能够了解数据对象 (4)能够掌握数据结构 (5)能够掌握逻辑结构 (6)能够掌握物理结构 知识讲解 数据 数据(Data)在计算机科学中是指计算机操作的对象,是输入到计算机中被计算机程序处理的符号集合。例如,一个读取终端输入的程序,其操作的对象可能是字符串,那么字符串就是计算机程序处理的数据。数据不仅可以是整型、字符型等数值类型,也可以是音频、图片、视频等非数值类型。 综上所述,数据的本质就是符号,且这些符号都满足以下特定的需求。 (1)可以输入到计算机中。 (2)可以被计算机程序处理。 其中数值类型的数据可以被执行数值计算,而非数值类型的数据可以被执行非数值的处理,例如,音频、图片、视频等资源在计算中都是被编码转换为字符数据来处理的。 数据元素与数据项 数据元素(Data Element)是组成数据的基本单位。数据的基本单位是一种抽象的概念,并没有具体的数值化标准。例如,可以将公司看作一个数据元素,也可以将员工视为一个数据元素。 数据元素由数据项组成,并且数据项是数据不可分割的最小单位。例如,将公司看作一个数据元素,则行政部、人事部、财务部都可以视为该元素的数据项,也可以将董事长、经理、总监作为该元素的数据项。 数据对象 数据对象(Data Object)指的是具有相同性质的数据元素的集合,是数据的子集。相同性质指的是数据项的数量与类型的相同。例如,每一个人都有姓名、年龄、性别、出生地址这些数据项。 在实际开发应用中,处理相同性质的数据元素时,默认将数据对象简称为数据。也就是说,“数据”在数据结构这一课题中代指数据对象,即具有相同性质的多个数据元素。 数据结构 结构(Structure)通常指的是数据元素之间的特定关系。因此,数据结构(Data Structure)通常指的是相互之间存在一种或多种特定关系的数据元素的集合。 数据结构主要研究的是数据的逻辑结构与数据的物理(存储)结构以及它们之间的相互关系。其目的是对这种结构设计相应的算法,确保经过运算后得到的新结构仍保持原来的结构类型。 逻辑结构 按照数据元素之间存在的逻辑关系的不同数学特性,通常可以将逻辑结构分为4种类型。 1.线性结构 线性结构中的数据元素之间是一对一的关系,即数据元素存在依次排列的先后次序关系,且只有一个起始数据元素和一个终止数据元素,如图所示。 生活中的城市公交路线类似于上述结构,其站点就是数据元素,每一条公交线路都有一个起点和终点,中间各站都按先后次序排列。 2.树形结构 树形结构中的数据元素之间存在一对多的关系,即层次关系或分支关系。这种结构只有一个起始数据元素(称为树根),其他数据元素称为树叶,如图所示。
3.图形结构 图形结构中的数据元素之间存在多对多的网络关系,即数据元素之间相互连接成网状,如图所示。
4.集合结构 集合结构中的数据元素除了同属一个集合外,没有其他关系,各个元素是“平等”的,该结构类似于数学中的集合,如图所示。
物理结构 物理结构即存储结构,主要指的是数据的逻辑结构在实际的计算机内存中存储的形式。通常数据的物理结构有以下4种类型。 1.顺序存储 顺序存储指的是将相邻的数据元素存放在计算机地址连续的存储单元中,如图所示。
2.链式存储 链式存储不同于顺序存储,在顺序存储中,逻辑上相邻的数据元素在内存中也是相邻的,而链式存储中,逻辑上相邻的数据元素在内存中不一定相邻。简单地说,链式存储中的数据元素可以存储在内存的任意位置。如图所示,C语言程序通过指针指向地址的方式来连接不同存储位置上的数据元素。
3.索引存储 索引存储指的是在存储数据元素的同时建立索引列表,存储元素之间的关系。这是一种为了加速检索而创建的存储结构。例如,一所大学在安排学生宿舍时,一定不能按照学生的学号依次分配宿舍,学号并不考虑性别,也就是说不可能采用顺序存储;其次,也不能是链式存储,因为学号只是学生的一个标识,没有其他意义。因此,为学生分配宿舍可采用索引存储,即建立一个索引列表记录学号与宿舍关系,根据索引列表即可找到与学号对应的宿舍。 4.散列存储 散列存储指的是根据数据元素的关键字直接计算出该数据元素的存储位置。其基本的设计思想是以数据元素的关键字K为自变量,通过一个确定的函数关系f(称为散列函数),计算出对应的函数值f(K),将这个值解释为数据元素的存储地址,最后将数据元素存入f(K)所指的存储位置上。查找时只需根据要查找的关键字用同样的函数计算地址,然后到相应的地址提取要查找的数据元素。 第二课时 (算法的概念) 内容回顾 1. 回顾上节内容,引出本课时主题。 上节已经介绍了数据、数据元素与数据项、数据对象、数据结构、逻辑结构、物理结构,下面将介绍算法的描述、算法的特性、算法的设计要求、算法效率的度量方法、算法的时间复杂度和算法的空间复杂度。 2. 明确学习目标 (1)能够掌握算法的描述 (2)能够掌握算法的特性 (3)能够掌握算法的设计要求 (4)能够掌握算法效率的度量方法 (5)能够掌握算法的时间复杂度 (6)能够掌握算法的空间复杂度 知识讲解 算法的描述 算法可以用自然语言、数学语言、约定的符号语言或计算机程序语言来描述。例如,“从3个整数中选出最大的1个整数输出”这一问题,可采用以下3种方法来描述。 1.自然语言描述 (1)输入3个整数a、b、c。 (2)先从前两个整数a、b中选出较大的一个整数,设为x。 (3)从x、c中选出较大的整数,设为y。 (4)输出y的值。 使用自然语言描述算法通俗易懂,但算法整体的数据流向不够清晰。 2.符号语言描述 描述算法的符号语言有很多种类型,其中比较有特点的是程序流程图,如图所示。
3.计算机程序语言描述 计算机程序语言有很多,本次使用C语言,如例所示。 算法的特性 算法有5个基本的特性:输入、输出、有穷性、确定性、可行性。 1.输入 一个算法可以有多个或没有输入,具体的输入量取决于算法中的数据对象。有些算法的输入需要在执行过程中进行,有些算法则将输入嵌入到算法之中,如例所示。 2.输出 一个算法必须有一个或多个输出,这些输出是算法对输入进行运算后的结果。如果一个算法没有输出,则算法没有任何意义。 3.有穷性 有穷性指的是算法在执行有限次数的操作后自动停止,不会出现无限循环的情况,且每次操作都可以在有限时间内完成。简单地说,算法运行一定有结束的时刻。 4.确定性 确定性指的是算法的每次操作都具有确定的含义,不会出现二义性。算法在一定条件下,应只有一条执行路径,相同的输入在任何时刻执行都应该导向相同的结果。 5.可行性 可行性指的是算法中描述的操作都可以通过将已经实现的基本运算执行有限次来实现。简单地说,算法可以转换为程序上机运行,并可以输出正确的结果。 算法的设计要求 同一个问题可以有很多种算法。判断一个算法是否为最优算法,可以从以下4个方面分析。 1.正确性 算法的正确性指的是算法能正确反映问题的需求,经得起一切可输入数据的测试。算法的正确性包括以下4个层次。 (1)算法程序无语法错误。 (2)算法程序对于合法的输入数据能够产生满足要求的输出结果。 (3)算法程序对于非法的输入数据能够产生满足规格的说明。 (4)算法程序对于极端的输入数据能够产生满足要求的输出结果。 2.可读性 可读性指的是算法的设计应该尽可能简单,便于阅读、理解。 3.健壮性 健壮性指的是算法可以对不合法的输入数据做出处理,而不是产生异常或极端的结果。 4.高效率 高效率指的是算法的执行时间要尽量短,对存储空间的使用要尽可能少。在满足前3个要求的前提下,高效率是体现算法优异的重要指标。 算法效率的度量方法 由1.3.3节可知,高效率算法应该具备运行时间短和存储量低的特点。接下来介绍如何对算法效率进行测试。 1.事后统计法 事后统计法指的是通过设计好的测试程序和数据,对不同算法程序的运行时间进行比较,从而确定算法效率的高低。 通常情况下,不采用事后统计法进行算法效率测试,其原因如下。 (1)解决问题的算法有很多,为了测试某算法效率的高低,需要尽可能多地编写算法程序与之进行比较测试,而设计编写算法程序需要大量的时间和精力。 (2)程序运行时间受计算机硬件等环境因素影响,有时会掩盖算法本身的优劣。例如,八核处理器明显比单核处理器处理程序的速度要快。 (3)算法测试数据设计困难,效率高的算法在测试数据规模小时表现不明显。 2.事前分析法 事前分析法指的是设计算法程序之前,根据统计方法对算法进行估算。一个好的算法所消耗的时间,应该是算法中每条语句执行的时间之和;每条语句的执行时间是该语句的执行次数与该语句执行一次所需时间的乘积。 算法的时间复杂度 在1.3.4节中的例1-5、例1-6、例1-7中,变量n称为问题规模,算法中语句的执行次数称为时间频度,记为T(n)。例1-5和例1-7中,当n不断变化时,时间频度T(n)也会不断变化。 如果有某个辅助函数f(n),并且存在一个正常数c使得 f(n)×c≥T(n)恒成立,则记作 T(n)=O(f(n))。通常将 O(f(n))称为算法的渐进时间复杂度,简称时间复杂度。使用O( )计算时间复杂度的记法称为大O记法。一般情况下,随着n的增大,T(n)增长最慢的算法为最优算法。 利用上述时间复杂度的公式,分别计算例1-5、例1-6、例1-7中算法的时间复杂度,具体分析如下。(辅助函数 f(n)获取执行次数,正常数c视为单次执行时间,可以忽略。) (1)例1-5的算法时间为 2×n+5,则 f(n)=2n+5。当问题规模n变为无穷大时,该算法的执行时间可估算为n,使用大O记法表示时间复杂度为 O(n)。 (2)例1-6的算法时间为3,则 f(n)=3。此值相较于无穷大的n值可忽略不计,因此使用大O记法表示时间复杂度为 O(1)。( O(1)表示执行次数或时间是一个常数,不随着n的变化而变化) (3)例1-7的算法时间为 3×n 2 +3×n+3,则 f(n)=3(n 2 +n+1)。当问题规模n变为无穷大时,该算法的执行时间可估算为 n 2 ,使用大O记法表示时间复杂度为 O(n 2 )。 通常情况下,将 O(1)、O(n)、O(n 2 )分别称为常数阶、线性阶、平方阶。除此之外,还有对数阶、指数阶等其他阶。 1.常数阶 例中的算法时间为3,根据上述时间复杂度计算方法可知,该算法的时间复杂度没有最高阶项,就是一个常数。使用平面直角坐标系表示常数阶,如图所示。
2.线性阶 例中的算法时间为 2n+5,根据上述时间复杂度计算方法可知,随着问题规模n变大,时间复杂度成线性增长。使用平面直角坐标系表示线性阶,如图所示。
3.平方阶 例中的算法执行时间为 3(n 2 +n+1),根据上述时间复杂度计算方法可知,随着问题规模n变大,时间复杂度线性增长变快。使用平面直角坐标系表示平方阶,如图所示。
算法的空间复杂度 了解算法的空间复杂度之前,需要先理解算法存储量的概念。算法的存储量指的是算法执行过程中所需的最大存储空间,其主要包括3个部分:输入/输出数据所占空间、程序代码所占空间、程序运行临时占用空间。 1.输入/输出数据所占空间 算法的输入/输出数据所占用的存储空间是由要解决的问题决定的,是通过参数表由调用函数传递而来的,它不会随着算法的不同而改变,因此在算法比较时不予考虑。 2.程序代码所占空间 算法的程序代码所占用的存储空间与程序的长度成正比,要压缩这部分存储空间,就必须编写出较短的程序。程序代码本身所占空间对不同算法来说不会有数量级的差别。 3.程序运行临时占用空间 根据程序在运行过程中临时占用存储空间的不同,可以将算法分为两类。 (1)原地算法:只占用较小的临时空间,且占有量不会随着问题规模n的改变而改变。 (2)非原地算法:占用临时空间的大小与问题规模n有关,n越大占用的临时空间越大。 通过计算算法存储量可以得到算法的空间复杂度,算法空间复杂度的计算公式记作 S(n)=O(f(n)),其中,n为问题的规模,f(n)为关于n所占存储空间的函数。随着问题规模n的增大,算法存储量的增长率与 f(n)的增长率相同。 | ||
习题 | 教材第1章习题 | ||
教 学 后 记 |
电子商务是与数据分析关系非常紧密的重要行业之一,也是数据分析广泛应用的行业之一。通过数据分析对数据进行有效的整理和分析,为企业经营决策提供参考依据,进而为企业创造更多的价值,是数据分析在电子商务领域应用的主要目的。
电子商务数据分析的相关概念
电子商务数据分析是运用分析工具研究电子商务数据信息,搭建数据分析与电子商务管理的桥梁,指导电子商务决策的一门新兴学科。通常概念下,电子商务数据分析指的是对电子商务经营过程中产生的数据进行分析,在研究大量的数据的过程中寻找模式、相关性和其他有用的信息,从而帮助商家做出决策。通过对相关数据的有效统计、分析和使用,形成多种模型,促进客户、商业伙伴之间的沟通及优化应用,通常需要计算机软件的支持。
数据分析
“数据”是人们通过观察、实验或计算得出的结果。数据有很多种,最简单的就是数字,也可以是文字、图像、声音等。数据可用于各类研究、设计、查证等工作。“分析”是将研究对象的整体分为若干部分、方面、因素和层次,并分别加以考察的认识活动。分析的意义在于细致地寻找能够解决问题的主线,并以此解决问题。
数据分析是指用适当的统计分析方法对收集来的大量数据进行分析,将它们加以汇总和理解并消化,以求最大化地开发数据的功能,发挥数据的作用。数据分析是为了提取有用信息和形成结论而对数据加以详细研究和概括总结的过程。数据分析可帮助人们做出正确的判断,以便采取适当行动。数据分析的数学与统计学基础在20世纪早期就已确立,但直到计算机的出现才使得实际操作成为可能,并使得数据分析得以推广。数据分析是数学、统计学、计算机科学等相关学科相结合的产物。
数据分析的目的
数据分析的目的是把隐藏在大量看来杂乱无章的数据中的信息集中和提炼出来,从而找出所研究对象的内在规律。在实际应用中,数据分析可帮助人们做出判断,以便采取适当的行动。数据分析是有组织有目的地收集数据、分析数据,使之成为信息的过程。这一过程是质量管理体系的支持过程。在产品的整个寿命周期,包括从市场调研到售后服务和最终处置的各个过程都需要适当运用数据分析过程,以提升有效性。例如,设计人员在开始一个新的设计以前,要通过广泛的设计调查,分析所得数据以判定设计方向。因此数据分析具有极其广泛的应用。
数据分析的分类
一般把数据分析分为三类:探索性数据分析(Exploratory Data Analysis,EDA),验证性数据分析(Confirmatory Data Analysis,CDA)和定性数据分析。①EDA是指对已有的数据在尽量少的先验假定下进行探索,侧重于在数据之中发现新的特征。本质上是从客观数据出发,探索其内在的数据规律,让数据自己说话。②CDA是指在进行分析之前一般都有预先设定的模型,侧重于已有假设的证实或证伪。③定性数据分析是依据预测者的主观判断分析能力来推断事物的性质和发展趋势的分析方法。
数据可视化
数据可视化旨在将数据分析的结果通过表格、图标和信息图的方式直观地展示出来,使他人更容易、更快速得到并理解数据分析结果。数据可视化工具有很多,如Tableau、Power BI、Python、Excel、World、PowerPoint等。现代社会已经进入一个速读时代,好的可视化图表可以清楚地表达数据分析的结果,节约人们思考的时间。
数据分析的使用者有大数据分析专家和普通客户,他们对于大数据分析最基本的要求就是数据可视化,因为数据可视化能够直观地呈现大数据的特点,让观者直接看到结果,发现数据规律,获取敏锐洞察,让数据分析更简单、更智能。
大数据
大数据(big data)是指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。
大数据的特点
IBM提出大数据的5V特点:Volume(大量)、Velocity(高速)、Variety(多样)、Value(低价值密度)、Veracity(真实性)。①Volume:数据量大,即采集、存储和计算的数据量都非常大。真正大数据的起始计量单位往往是TB(1 024GB)、PB(1 024TB)。②Velocity:数据增长速度快,处理速度也快,时效性要求高。比如,搜索引擎要求几分钟前的新闻能够被用户查询到,个性化推荐算法尽可能要求实时完成推荐。这是大数据区别于传统数据挖掘的显著特征。③Variety:种类和来源多样化。种类上包括结构化、半结构化和非结构化数据,具体表现为网络日志、音频、视频、图片、地理位置信息等,数据的多类型对数据处理能力提出了更高的要求。数据可以由传感器等自动收集,也可以由人类手工记录。④Value:数据价值密度相对较低。随着互联网及物联网的广泛应用,信息感知无处不在,信息量大,但价值密度较低。如何结合业务逻辑并通过强大的机器算法来挖掘数据的价值,是大数据时代最需要解决的问题。⑤Veracity:数据的准确性和可信赖度高,即数据的质量高。数据本身如果是虚假的,那么它就失去了存在的意义,因为任何通过虚假数据得出的结论都可能是错误的,甚至是相反的。
大数据的作用
①对大数据的处理分析正成为新一代信息技术融合应用的结点。通过对不同来源数据的管理、处理、分析与优化,将创造出巨大的经济和社会价值。②大数据是信息产业持续高速增长的新引擎。面向大数据市场的新技术、新产品、新服务、新业态会不断涌现。③大数据利用将成为提高核心竞争力的关键因素。各行各业的决策正在从“业务驱动”转变为“数据驱动”。数据分析可以使零售商实时掌握市场动态并迅速做出应对;可以为商家制定更加精准有效的营销策略提供决策支持;可以帮助企业为消费者提供更加及时和个性化的服务。④大数据时代科学研究的方法手段将发生重大改变。在大数据时代可通过实时监测、跟踪研究对象在互联网上产生的海量行为数据进行挖掘分析,揭示出规律性的东西,提出研究结论和对策。
【知识拓展】
对大数据常见的两个误解
数据不等于信息。经常有人把数据和信息当作同义词来用。其实不然,数据指的是一个原始的数据点(无论是通过数字,文字,图片还是视频等),信息则直接与内容挂钩,需要有资讯性(informative)。数据越多,不一定就能代表信息越多,更不能代表信息就会成比例增多。有两个简单的例子,一是备份,很多人如今已经会定期的对自己的硬盘进行备份。每次备份都会创造出一组新的数据,但信息并没有增多。二是多个社交网站上的信息,当人们接触到的社交网站越多,获得的数据就会成比例的增多,获得的信息虽然也会增多,但却不会成比例的增多。因为很多网站上的内容十分类似。
信息不等于智慧。通过技术手段可以去除数据中所有重复的部分,也整合了内容类似的数据,这样的信息对我们就一定有用吗?不一定,信息要能转化成智慧,至少要满足以下3个标准:①可破译性。这可能是大数据时代特有的问题,越来越多的企业每天都会生产出大量的数据,却不知该如何利用,企业就将这些数据暂时非结构化(unstructured)的存储起来,但这些非结构化的数据却不一定可破译,因此不可能成为智慧。②关联性。无关的信息,至多只是噪音。③新颖性。例如,某电子商务公司通过一组数据/信息分析出了客户愿意为当天送货的产品多支付10元,接着又通过另一组完全的数据/信息得到了同样的内容。这样的情况下,后者就不具备新颖性。因此,很多时候只有在处理了大量的数据和信息以后才能判断它们的新颖性。
云计算
云计算(cloud computing)是一种分布式计算技术,通过网络将庞大的计算处理程序自动分拆成无数个较小的子程序,再交由多部服务器所组成的庞大系统经搜寻、计算分析之后将处理结果回传给用户。云计算是一种资源交付和使用模式,通过网络获得应用所需的资源(硬件、平台、软件),提供资源的网络被称为“云”。“云”中的资源在使用者看来是可以无限扩展的,并且可以随时获取。通过这项技术,网络服务提供者可以在数秒之内达成处理数以千万计甚至亿计的信息,达到和“超级计算机”同样强大效能的网络服务。目前云计算包含三个层次的内容:IaaS、PaaS和SaaS。①IaaS(Infrastructure as a Service):基础设施即服务,指把IT基础设施作为一种服务通过网络对外提供,并根据用户对资源的实际使用量或占用量进行计费的一种服务模式。②SaaS(Software as a Service):软件即服务,即通过网络提供软件服务。SaaS平台供应商将应用软件统一部署在自己的服务器上,客户可以根据工作实际需求,通过互联网向厂商定购所需的应用软件服务,按定购的服务多少和时间长短向厂商支付费用,并通过互联网获得SaaS平台供应商提供的服务。③PaaS(Platform as a Service):平台即服务,即把服务器平台或者开发环境作为一种服务提供的商业模式。
【数据视野】
云计算的实际应用
在2020天猫双11全球狂欢季纪录之夜,据双11实时交易数据显示,11月1日至11日,2020天猫双11订单创建峰值达58.3万笔/秒。成功扛住大规模流量、支撑各大电商平台“双11”购物盛况的正是背后的阿里云、腾讯云等各大云计算服务平台。有了云计算,用户可以不用关心机房建设、机器运行维护、数据库等IT资源建设,而可以结合自身需要,灵活地获得对应的云计算整体解决方案。阿里巴巴、腾讯、华为等行业领先企业在满足自身需求后,又将这种软硬件能力提供给有需要的其他企业。云平台的成本、安全和管理集约优势可以降低IT架构和系统构建的成本并按需提供弹性的IT服务。云计算已被广泛应用在互联网、金融、零售、政务、医疗、教育、文旅、出行、工业、能源等各个行业,并发挥了巨大作用。如,铁路12306系统就使用阿里云平台支撑春运等购票峰值的IT需求,保障系统在高峰期的稳定运行。另一方面,云计算也成为城市、和各行业数字化转型的基础支撑。当前无论是电商平台,还是网上外卖平台、在线游戏中心、热点网站,或是工业互联网都离不开云计算。
数据挖掘
数据挖掘又称数据库中的知识发现(Knowledge Discover in Database,KDD),是目前人工智能和数据库领域研究的热点问题,所谓数据挖掘是指从数据库的大量数据中揭示出隐含的、先前未知的并有潜在价值的信息的非平凡过程。数据挖掘是一种决策支持过程,它主要基于人工智能、机器学习、模式识别、统计学、数据库、可视化技术等,高度自动化地分析企业的数据,做出归纳性的推理,从中挖掘出潜在的模式,帮助决策者调整市场策略,减少风险,做出正确的决策。
利用数据挖掘进行数据分析常用的方法主要有分类、回归分析、聚类、关联规则、特征提取、变化和偏差分析、Web文本挖掘等。
分类。分类是找出数据库中一组数据对象的共同特点并按照分类模式将其划分为不同的类。其目的是通过分类模型,将数据库中的数据项映射到某个给定的类别。它可以应用到客户的分类、客户的属性和特征分析、客户满意度分析、客户的购买趋势预测等,如一个汽车零售商将客户按照对汽车的喜好划分成不同的类,这样营销人员就可以将新型汽车的广告手册直接邮寄到有这种喜好的客户手中,从而增加了商业机会。
回归分析。回归分析方法反映的是事务数据库中属性值在时间上的特征,产生一个将数据项映射到一个实值预测变量的函数,发现变量或属性间的依赖关系,其主要研究问题包括数据序列的趋势特征、数据序列的预测以及数据间的相关关系等。它可以应用到市场营销的各个方面,如客户寻求、保持和预防客户流失活动、产品生命周期分析、销售趋势预测及有针对性的促销活动等。
聚类分析。聚类分析是把一组数据按照相似性和差异性分为几个类别,其目的是使得属于同一类别的数据间的相似性尽可能大,不同类别中的数据间的相似性尽可能小。它可以应用到客户群体的分类、客户背景分析、客户购买趋势预测、市场的细分等。
关联规则。关联规则是描述数据库中数据项之间所存在的关系的规则,即根据一个事务中某些项的出现可导出另一些项在同一事务中也出现,即隐藏在数据间的关联或相互关系。在客户关系管理中,通过对企业的客户数据库里的大量数据进行挖掘,可以从大量的记录中发现有趣的关联关系,找出影响市场营销效果的关键因素,为产品定位、定价与定制客户群,客户寻求、细分与保持,市场营销与推销,营销风险评估和诈骗预测等决策支持提供参考依据。
特征提取。特征分析是从一组数据中提取出关于这些数据的特征式,这些特征式表达了该数据集的总体特征。如营销人员通过对客户流失因素的特征提取,可以得到导致客户流失的一系列原因和主要特征,利用这些特征可以有效地预防客户的流失。
变化和偏差分析。偏差包括很大一类潜在有趣的知识,如分类中的反常实例,模式的例外,观察结果对期望的偏差等,其目的是寻找观察结果与参照量之间有意义的差别。在企业危机管理及其预警中,管理者更感兴趣的是那些意外规则。意外规则的挖掘可以应用到各种异常信息的发现、分析、识别、评价和预警等方面。
Web文本挖掘。随着Internet的迅速发展及Web的全球普及,使得Web上的信息量无比丰富,通过对Web的挖掘,可以利用Web的海量数据进行分析,收集政治、经济、、科技、金融、各种市场、竞争对手、供求信息、客户等有关的信息,集中精力分析和处理那些对企业有重大或潜在重大影响的外部环境信息和内部经营信息,并根据分析结果找出企业管理过程中出现的各种问题和可能引起危机的先兆,对这些信息进行分析和处理,以便识别、分析、评价和管理危机。
数据质量
更好的数据意味着更好的决策,数据分析的前提就是要保证数据质量。因此,在数据分析和数据挖掘之前,必须完成数据质量的处理工作,主要包括两方面:数据的集成和数据的清洗,关注的对象主要有原始数据和元数据两方面。
数据的集成。数据的集成主要解决信息孤岛的问题,包括两方面:数据仓库对元数据的集成和元数据系统对不同数据源中的元数据集成。相应地,数据质量管理也关注两方面:对数据仓库中真实数据的质量探查和剖析,以及对元数据系统中元数据的数据质量的检查。元数据的管理目标是整合信息资产、支撑数据在使用过程中的透明可视,提升数据报告、数据分析、数据挖掘的可信度。
数据的清洗。数据质量处理主要是采用一些数据清洗规则处理缺失数据、去除重复数据、去除噪声数据、处理异常(但真实)的数据,从而保证数据的完整性、唯一性、一致性、精确性、合法性和及时性。
【知识拓展】
元数据
元数据是指信息的信息,是描述信息的属性信息。一个信息的元数据可以分为三类。①固有性元数据:是指事物固有的与事物构成有关的元数据;②管理性元数据:是指与事物处理方式有关的元数据;③描述性元数据:是指与事物本质有关的元数据。以摄像镜头为例,镜头的固有性元数据包括品牌、参数、类型、重量、光圈、焦距等信息;镜头的管理性元数据包括商品类型、上架时间及库存情况;镜头的描述性元数据包括用途和特色,如人文纪实和人像摄影。
电子商务数据分析的意义
优化市场定位
电子商务企业要想在互联网市场站稳脚跟,必须架构大数据战略,对外要拓宽电子商务行业调研数据的广度和深度,从数据中了解电子商务行业市场的构成、细分市场特征、消费者需求和竞争者状况等众多因素;对内企业想进入或开拓某一区域电子商务行业市场,首先要进行项目评估和可行性分析,决定是否开拓某块市场,最大化规避市场定位不精准给投资商和企业自身带来的毁灭性损失。市场定位对电子商务行业市场开拓非常重要,但是,要想做到这一点,就必须有足够的信息数据来供电子商务行业研究人员分析和判断。数据的收集、整理就成了最关键的步骤之一。
在传统分析情况下,分析数据的收集主要来自统计年鉴、行业管理部门数据、相关行业报告、行业专家意见及属地市场调查等,这些数据大多存在样品量不足、时间滞后和准确度低等缺陷,研究人员能够获得的有效信息量非常有限,使准确的市场定位存在着数据瓶颈。但在互联网时代,借助信息采集和数据分析技术,不仅能够给研究人员提供足够的样本量和数据信息,而且能够建立基于大数据的数学模型对企业未来市场进行预测。
优化市场营销
从搜索引擎、社交网络的普及到手机等智能移动设备,互联网上的信息总量正以极快的速度不断暴涨。每天的社交网络、微博、微信、论坛、新闻评论、电子商务平台上分享的各种文本、照片、视频、音频等信息高达几百亿甚至几千亿条,涵盖商家信息、个人信息、行业资讯、产品使用体验、商品浏览记录、商品成交记录、产品价格动态等海量信息。这些数据通过集成融合可以形成电子商务行业的大数据,其背后隐藏的是电子商务行业的市场需求、竞争情报。在电子商务行业市场营销中,无论是产品、渠道、价格还是客户,可以说每一项工作都与数据的采集和分析息息相关,以下两个方面内容是电子商务行业市场营销工作的重中之重:①对外:通过获取数据并加以统计分析来充分了解市场信息,掌握竞争者的商情和动态,知晓产品在竞争群中所处的市场地位,达到“知己知彼,百战不殆”的目的;②对内:企业通过积累和挖掘电子商务行业消费者数据,有助于分析消费者的消费行为和价值趋向,便于更好地为消费者服务和发展忠诚客户。
助力电子商务企业的收益管理
收益管理是起源于20世纪80年代,是谋求收入最大化的新经营管理技术,意在把合适的产品或服务在合适的时间以合适的价格,通过合适的销售渠道出售给合适的顾客,最终实现企业收益最大化目标。要达到收益管理的目标,需求预测、细分市场和敏感度分析是此项工作的3个重要环节,而这3个环节推进的基础就是数据分析。①需求预测。通过数据统计与分析,采取科学的预测方法建立数学模型,使企业管理者掌握和了解电子商务行业的潜在市场需求、未来一段时间每个细分市场的产品销售量和产品价格走势等,从而使企业能够通过价格的杠杆来调节市场的供需平衡,针对不同的细分市场来实行动态的前瞻性措施,并在不同的市场波动周期以合适的产品和价格投放市场,获得潜在的收益。②细分市场。为企业预测销售量和实行差别定价提供条件,其科学性体现在通过电子商务行业市场需求预测来制定和更新价格,使各个细分市场的收益最大化。③敏感度分析。通过需求价格弹性分析技术,对不同细分市场的价格进行优化,最大限度地挖掘市场潜在的收入。
需求预测、细分市场和敏感度分析对数据需求量很大,而传统的数据分析大多是采集企业自身的历史数据来进行预测和分析的,容易忽视整个电子商务行业的信息数据,因此预测结果难免存在偏差。企业在实施收益管理的过程中,在自有数据的基础上,依靠自动化信息采集软件来收集更多的电子商务行业数据,了解更多的电子商务行业市场信息,将会对制定准确的收益策略、赢得更高的收益起到推进作用。
协助创造客户新的需求
差异化竞争的本质在于不停留在产品原有属性的优化上,而是创造产品的新属性。满足客户需求是前提,但创造客户新需求才是行业的必要条件。随着网络社交媒体的技术进步,公众分享信息变得更加便捷自由,微博、微信、点评网、评论版上众多的网络评论形成了交互性的数据,其中蕴藏了巨大的电子商务行业需求开发的价值,这些数据已经受到了电子商务企业管理者的高度重视。很多企业已把“评论管理”作为核心任务,既可以通过客户评论及时发现负面信息进行危机公关,更重要的是可以通过对这些数据进行分析,挖掘客户需求,进而改良产品,提升客户体验。
电子商务数据分析的流程及原则
电子商务数据分析的流程
电子商务数据分析是基于商业目的,有目的地收集、整理、加工和分析数据,提炼有价信息的过程。最初的数据可能杂乱无章且无规律,要通过作图、制表和各种形式的整合来计算某些特征量,探索规律性的可能形式。这时就需要研究用何种方式去寻找和揭示隐含在数据中的规律性。首先在探索性分析的基础上提出几种模型,再通过进一步的分析从中选择所需的模型,最后使用数理统计方法对所选定模型或估计的可靠程度和精确程度做出推断。数据分析流程如图1.1所示,具体步骤如下。
确定分析目的与框架
针对数据分析项目,首先要明确数据对象是谁、目的是什么、要解决什么业务问题,然后基于商业的理解,整理分析框架和分析思路。常见的分析目的有减少客户的流失、优化活动效果、提高客户响应率等。不同项目对数据的要求不同,使用的分析手段也不同。
收集数据
数据收集是按照确定的数据分析和框架内容,有目的地收集、整合相关数据的过程,它是数据分析的基础。收集数据的渠道包括内部渠道和外部渠道两类。内部渠道包括企业内部数据库、内部人员、客户调查,以及专家与客户访谈;外部渠道包括网络、书籍、统计部门、行业协会、展会、专业调研机构等。数据收集的常用方法包括观察和提问、客户访谈、问卷调查、集体讨论、工具软件等。
数据处理与集成
数据处理与集成是指对所收集到的数据进行加工、整理,以便开展数据分析,它是数据分析前必不可少的环节。这个过程在整个数据分析过程中最占时间,在一定程度上保证了数据仓库的搭建和数据质量。数据处理方法主要是针对残缺数据、错误数据和重复数据进行清洗和转化等。
数据分析
数据分析是指通过分析手段、方法和技巧对准备好的数据进行探索分析,从中发现因果关系、内部联系和业务规律,为企业提供决策参考。到了这个环节,要能驾驭数据、开展数据分析,就要涉及工具和方法的使用。一要熟悉常规数据分析方法,最基本的要了解如方差、回归、因子、聚类、分类、时间序列等数据分析方法的原理、使用范围、优缺点和对结果的解释;二要熟悉数据分析工具,如Excel、SPSS、Python、R语言等,以便于进行专业的统计分析、数据建模等。
数据可视化
一般情况下,数据分析的结果是通过图表等可视化的方式来呈现。借助数据展现可视化工具,数据分析师和管理者能更直观地表达想呈现的信息、观点和建议。常用的图型包括饼图、柱形图、条形图、折线图、散点图、雷达图、矩阵图、漏斗图等。
撰写分析报告
最后一个环节是撰写数据分析报告,分析报告可以把数据分析的目的、过程、结果及方案完整地呈现出来,以供企业参考。一份好的数据分析报告,首先需要有一个好的分析框架,并且层次明晰、结构完整、主次分明,可使读者正确理解报告的内容;其次要图文并茂,令数据更加生动活泼,提高视觉冲击力,有助于读者更形象、更直观地看清楚问题和结论从而产生思考;另外,数据分析报告需要有明确的结论、建议和解决方案。
电子商务数据分析的原则
科学性.科学方法的显著特征是数据的收集、分析和解释的客观性。数据统计分析要具有同其他科学方法一样的客观标准。
系统性.数据分析不是单个资料的记录、整理或分析活动,而是一个周密策划、精心组织、科学实施,并由一系列工作环节、步骤、活动和成果组成的过程。一次完整的数据分析,应包含分析目的与框架、数据收集、数据处理、数据分析、数据展现和撰写报告六个环节。
针对性.不同的数据分析方法,无论是基础的分析方法,还是高级的分析方法,都会有它的适用领域和局限性。例如,行业宏观分析时采用PEST模型(P—Politics,E—Economy,S—Society,T—Technology)、用户行为分析使用5W2H模型(5W—What,Why,Who,When,Where,2H—How,How Much)、客户价值分析采用RFM模型(最近一次消费Recency,消费频率Frequency;消费金额Monetary)、销售推广分析常采用指标监测等。根据分析目标,选择适合的方法与模型才能保证分析的准确有效。
实用性.电子商务数据分析是为企业决策服务的,在保证其专业性和科学性的同时也不能忽略其现实意义。在进行数据分析时,还应考虑指标可解释性、报告可读性、结论的指导意义与实用价值。
趋势性.市场所处的环境是不断变化的,在进行电子商务数据分析时要以一种发展的眼光看待问题,眼光不能局限于当前现状与滞后指标,要充分考虑社会宏观环境、市场变化与先行指标。
数据库系统
Database System
课程代码:15015190
学 时 数:总学时56(讲课32、研讨0、实验24、实习实践0) 学 分 数:3.5
课程类别:专业核心课 开课学期: 5
主讲教师:专业核心课
编写日期:
一、课程性质和目的
1.课程性质:数据库系统是计算机科学与技术、计算机科学与技术(创新实践班)、数据科学与大数据技术、网络工程专业的专业核心课。
2.主要目的:
讲解关系数据库的基本概念和基础理论,使学生掌握扎实的关系数据库理论基础。讲授关系的基本概念、关系数据模型、关系代数、关系演算、函数依赖、Armstrong公理、关系模式的分解、关系模式的规范化等内容。
讲解关系数据库操作语言SQL,使学生掌握通过SQL语句操纵和查询关系型数据库的方法。全面讲授SQL语言创建数据库、修改数据库、删除数据库、创建数据表、插入数据表、修改数据表、删除数据表、数据查询、视图、索引等方面的语言知识和应用方法。
围绕Microsoft SQL Server,讲解关系数据安全管理相关知识,提升学生关系数据安全和运维方法。讲授数据库系统数据安全机制、完整性控制机制、并发控制技术和数据库的恢复技术。
讲解关系数据设计方法,使学生掌握关系数据库的设计方法以及实现方法讲授关系数据库设计的步骤、方法。重点讲解使用E-R图进行数据库概念设计的方法以及数据库概念设计到物理设计的方法。
讲解数据库技术的前沿技术,拓展学生视野,为后续相关学习奠定基础。讲解有关分布式数据库、数据挖掘、大数据技术等内容,为学生后续开展大数据分析、数据挖掘、机器学习等内容的学习和研究奠定基础。
通过实验环节,综合提高学生的数据库实际操作能力,为学生的后续发展打下坚实基础。
二、课程教学内容、学时分配和课程教学基本要求
数据库系统课程的重点内容是数据库系统的基本概念和原理、关系数据模型、关系数据理论和关系数据库系统、SQL语言、数据库安全保护、数据库设计等内容。课程教学的基本要求是通过教学活动,使每一个学生较好地掌握课程的主要内容,能够运用数据库的理论、方法与技术解决一般的实际问题。课程的教学内容主要包括如下知识点:
1.数据库系统概述 (理论4学时)
教学内容:
(1)数据库系统概论(数据和信息;数据库;数据库管理系统;数据库系统;数据管理技术的产生和发展;数据库系统的特点)。
(2)数据库系统结构(数据库系统的体系结构;数据库系统的内部体系结构;数据库系统模式的概念;数据库系统的三级模式结构;数据库的二级映像功能与数据性;数据库系统的外部体系结构)。
(3)数据模型(数据模型的组成要素;概念模型;层次模型;网状模型;关系模型;对象模型)。
(4)数据库技术的研究领域。(数据挖掘、大数据、我国应用大数据提升政务治理能力、提升公众服务水平方面的案例等)
基本要求:
了解:信息、数据与数据处理的正确含义;数据管理技术发展的3个阶段的特点;数据库系统的组成、结构;现实世界二级抽象和实体模型的基本概念和术语;层次、网状、关系和面向对象的模型的含义、特点和主要区别;大数据技术的特点。
理解:数据库模式的概念;关系数据库的概念;数据库管理系统的三级模式结构的概念、原理和优势;数据逻辑性和性的含义。
混合式教学方法:线上讲课教学2学时,线下讲课教学2学时。
2.关系模型 (理论6学时)
教学内容:
(1)关系模式及关系数据结构的形式化定义(关系的形式化定义;关系的性质;关系模式;关系数据库模式)。
(2)关系的完整性(候选码和主码;关系的实体完整性;关系参照完整性;关系的用户自定义完整性)。
(3)关系代数(关系代数的分类及运算符;传统的集合运算;专门的关系运算)。
(4)关系演算(元组关系演算;域关系演算)。
基本要求:
了解:域、笛卡尔积;关系的性质;关系模式定义;关系数据库模式定义;关系数据库定义;关系数据库语言的分类;域关系演算。
理解:候选码、主码、外码的概念;实体完整性、参照完整性和用户定义完整性;元组关系演算。
掌握:关系代数的传统集合运算;专门的关系运算(选择,投影,连接和除法)。
混合式教学方法:线上讲课教学4学时,线下讲课教学2学时。
3.关系数据库标准语言-SQL语言 (实验12学时)
教学内容:
(1)SQL基本概念和特点(SQL标准化过程;SQL基本概念;SQL特点)。
(2)SQL Server介绍(SQL发展与版本;SQL Server主要组件)。
(3)创建和使用数据库(数据库的结构;SQL Server数据库;数据库的创建
;数据库的修改;数据库的删除;查看数据库信息)。
(4)创建和使用数据表(数据类型;创建数据表;定义数据表约束;修改数据表;删除数据表;查看数据表)。
(5)创建和使用索引(索引概述;索引类型;索引设计;索引使用和优化)。
(6)数据查询(SELECT命令格式;条件查询;常用库函数;分组查询;查询排序;数据库连接查询;子查询;合并查询;存储查询结果到表中)。
(7)数据操纵(修改数据;添加数据;删除数据)。
(8)视图(创建视图;修改视图;删除视图;查询视图;更新视图)。
(9)数据控制(权限与角色;系统和数据库的授权;系统和数据库回收权限)。
基本要求:
了解:SQL基本概念和特点;SQL Server介绍;SQL发展与版本;索引使用和优化;SQL Server主要组件。
理解:权限与角色;系统和数据库的授权;系统和数据库回收权限;索引概述;索引类型;SELECT命令格式;存储查询结果到表中;常用库函数;数据类型;视图的概念;使用Management Studio进行数据库、数据表的常用操作。
掌握:使用SQL语句进行数据表的创建、修改、删除和查询;使用SELECT语言进行数据库的条件查询、分组查询、查询排序、数据库连接;子查询;使用SQL语句创建视图、删除视图;使用SQL语句修改数据;添加数据和删除数据。
混合式教学方法:线上实验教学4学时,线下实验教学8学时。
实验一:
建立数据库、表和数据完整性、查询操作(4学时):了解SQL Server的安装方法和使用环境,掌握SQL语句进行数据库和数据表操作方法,了解Management Studio的工作环境,掌握SQL语言进行数据条件查询、分组查询、查询排序、连接查询、子查询的方法。
实验二:
数据更新、索引和视图操作(2学时):掌握使用SQL语言进行数据更新的方法,掌握定义和使用视图的方法,掌握索引的使用方法
实验三:
使用程序设计语言连接数据库和数据库持久层构建方法(2学时):理解通过程序设计语言连接及操纵数据库的方法,理解使用程序设计语言构建关系数据库简单持久层的方法。
4.关系数据库理论 (理论8学时)
教学内容:
(1)规范化问题的提出。
(2)函数依赖(定义;逻辑蕴含;函数依赖的推理规则;完全函数依赖;部分函数依赖;传递函数依赖;属性集闭包算法;候选码求解算法;函数依赖集的等价性;最小函数依赖)。
(3)关系模式的分解(问题概述;无损连接分解;无损分解测试算法;保持函数依赖的分解)。
(4)关系模式的范式(第一范式;第二范式;第三范式;BC范式)。
(5)关系模式的规范化(关系模式规范化的步骤;关系模式规范化的要求)。
基本要求:
了解:规范化问题的提出;BC范式;函数依赖的形式化定义;函数依赖推理规则。
理解:完全函数依赖;部分函数依赖;传递桉树依赖;函数依赖集的等价性;无损连接分解;保持函数依赖的分解;关系模式规范化的步骤;关系模式规范化的要求。
掌握:属性集闭包算法;候选码求解算法;最小函数依赖集;无损分解测试算法;第一范式;第二范式;第三范式。
混合式教学方法:线上讲课教学4学时,线下讲课4学时。
5.数据库安全保护 (理论4学时,实验4学时)
教学内容:
(1)数据库安全性控制(数据库安全性含义;安全性控制一般方法;SQL Server安全性机制;SQL Server身份验证模式;SQL Server登录账号;SQL Server数据库账号)。
(2)数据库完整性控制(数据完整性含义;完整性规则的组成;完整性约束条件的分类;数据库完整性的实施;规则;默认)。
(3)数据库并发控制(数据库并发性含义;事务性质;并发操作与数据不一致性;封锁)。
(4)数据库的恢复(数据库恢复的含义;数据库恢复及其实现技术;数据库的故障和恢复的策略)。
基本要求:
了解:数据库安全性含义;安全性控制一般方法;SQL Server安全性机制;数据完整性含义;完整性约束条件的分类;数据库并发性含义;。
理解:SQL Server身份验证模式;SQL Server登录账号;SQL Server数据库账号;完整性规则的组成;默认;事务性质;并发操作与数据不一致性;封锁;数据库恢复的含义;数据库的故障和恢复的策略。
掌握:规则;数据库恢复及其实现技术。
混合式教学:线上教学2学时,线下理论2学时,实验4学时。
实验一:
数据库的安全性管理(2学时):理解SQL Server登录账号建立、授权和删除方法;理解SQL Server数据库账号的关联、授权和删除方法。
实验二:
数据库完整性控制(2学时):理解数据库完整性控制实施中规则和默认的创建、绑定、解除绑定、删除方法。
6.关系数据库的设计 (理论6学时,实验4学时)
教学内容:
(1)数据库设计的概述(数据库设计任务;数据库设计方法;数据库设计步骤;华人科学家在数据库设计领域中的贡献)。
(2)系统需求分析(需求分析的任务;需求分析的方法)。
(3)概念结构设计(概念结构设计的必要性;概念模型的特点;概念模型的E-R表示方法;概念结构设计的方法和步骤)。
(4)逻辑结构设计(逻辑结构设计的任务和步骤;关系模式的规范化;模式的评价和改进;)。
(5)物理结构设计(物理结构设计的内容;评价物理结构)。
(6)数据库实施与维护(数据库实施的重点;数据库运行维护的重点)。
基本要求:
了解:数据库设计任务;数据库设计方法;需求分析的任务;概念结构设计的必要性;概念模型的特点;关系模式的规范化;物理结构设计的内容;数据库实施的重点;数据库运行维护的重点。
理解:数据库设计步骤;需求分析的方法;概念模型的E-R表示方法;逻辑结构设计的任务和步骤;模式的评价和改进;评价物理结构。
掌握:概念结构设计的方法和步骤;概念结构设计到逻辑结构设计的转换方法;逻辑结构设计到物理结构设计的转化方法。
混合式教学:线上教学4学时,线下理论2学时,实验4学时。
实验:
业务应用系统的数据库设计以及数据库设计工具的使用(实验:4学时):掌握使用E-R图进行业务应用系统概念结构设计的步骤、方法和注意事项;掌握概念结构设计向逻辑结构设计的转换方法;掌握逻辑结构设计向物理结构设计的转化方法;理解使用数据库建模工具进行概念结构设计、逻辑结构设计和物理结构设计的自动化转化过程。
7.SQL Server 高级应用 (理论4学时,实验4学时)
教学内容:
(1)Transact-SQL程序设计(变量、批处理、流程控制命令、常用命令和常用函数)。
(2)存储过程和触发器(存储过程的概念;创建存储过程;查看存储过程;执行存储过程;修改存储过程;触发器概述;触发器工作原理;创建触发器;查看触发器;修改触发器;)。
(3)备份和还原(数据库备份和还原概述;备份数据库的方法;还原数据库的方法)。
基本要求:
了解:T-SQL的常用命令和常用函数;存储过程的概念;触发器概述;数据库备份和还原概述。
理解:T-SQL的变量和批处理;流程控制语句;查看和修改存储过程;触发器工作原理;查看和修改触发器。
掌握:创建和执行存储过程;创建触发器;备份和还原数据库的方法。
混合式教学:线上讲课教学2学时,线下讲课教学2学时、线下实验教学4学时。
实验一:
存储过程和触发器(2学时):掌握存储过程的创建和执行方法;掌握触发器的创建方法。
实验二:
数据库的备份和还原(2学时):掌握数据库的备份和还原方法。
三、本课程与其它课程的联系和分工
先导课程:离散数学(笛卡尔积和关系的相关概念);数据结构(线性数据结构和树状数据结构);操作系统(操作系统的作用)。
后续课程:软件工程;No SQL数据库原理;机器学习;Java Web技术。
四、本课程的考核方式
期末考试形式为笔试。总评成绩由平时成绩和期末成绩组成。
平时成绩占30%--40%,期末考试占70%--60%。
平时成绩由实验成绩、出勤成绩、随堂作业和课堂表现组成。