单选题 在数据挖掘中,比较成熟的预测算法包括Logistic回归模型、()、决策树、神经网络等
A、线性回归
B、时间序列
C、灰色模型
D、贝叶斯网络
单选题 回归分析中定义的()
A、 解释变量和被解释变量都是随机变量
B、 解释变量为非随机变量,被解释变量为随机变量
C、 解释变量和被解释变量都为非随机变量
D、 解释变量为随机变量,被解释变量为非随机变量
单选题 关于模型参数(权重值)的描述,错误的说法是
A、在训练神经网络过程中,参数不断调整,其调整的依据是基于损失函数不断减少
B、每一次Epoch都会对之前的参数进行调整,迭代次数越多,损失函数一般越小
C、模型参数量越多越好,没有固定的对应规则
D、训练好的神经网络模型存储于一定结构的神经元之间的权重和神经元的偏置中
单选题 关于集成学习,以下说法错误的是
A、集成学习一定能提升个体学习器的性能&
B、&Bagging 方法中,个体学习器之间彼此独立&
C、&Boosting 是一种重视错误样本的学习方法&
D、&Boosting 方法中,个体学习器存在强依赖
单选题 比较成熟的分类预测模型算法包括Logistic回归模型、广义线性模型、()、神经网络
A、决策树
B、arima模型
C、holt-winter模型
D、k-means模型
单选题 马尔可夫预测模型是将时间序列看作一个过程,通过对事物不同状态的()与状态之间转移概率的研究,确定状态变化趋势,预测事物的未来。
单选题 决策树模型刚建立时,有很多分支都是根据训练样本集合中的异常数据(由于噪声等原因)构造出来的。树枝修剪正是针对这类数据()问题而提出来的。
单选题 最小二乘法就是试图找到一条直线,使所有样本到直线上的()之和最小。
A、 曼哈顿距离
B、 欧氏距离
C、 马氏距离
D、 切比雪夫距离