第三天 python
1. csv文件的读取确实要比excel文件快不少; 数组
2. 在panython3中的range就是python2中的xrange; spa
第四天 excel
3. 发现300天的拟合出现了严重的准度问题,都出现负值了,首先我把负值都处理为0,状况仍然,而后,开始我怀疑是本身的predict超出了fit范围致使,可是发现predict的x即便和fit的相同,仍然y_predict很是离谱;接着,因而我怀疑是否是数据须要标准化一下。后来发现standardScaler以后,数据平稳性果真好了。 it
生成相同的数组信息 变量
new_array = np.zeros((5,4)) for i in range(3): new_array[i] = np.array([0.25]*4) csv
第五天 数据
scaler缩放问题 dict
发现scaler有问题,以前是所有数据scaler,发现有问题,其实应该是每行数据进行缩放,这样才可以意义;并且这样还能够实现同维度缩放,能够把预测数据放回;不然会由于维度问题而没法缩放回来; di
可是另一个问题来了;就是对于预测问题这种缩放其实只是暂时的经过缩小数据进而缩小差距,提升了精准度;可是其实一旦缩放回去以后,即放大以后,发现差距仍是很明显。我以为预测问题其实标准化意义不是很大;分类领域缩放意义比较大,这个是由于在计算距离上面缩放能够减少距离由于量纲不一样致使的变量权重影响;可是在回归问题上面则不一样。
降维
数据1维升2维,经过reshape(-1,1)来实现;二维降一维能够经过np.array.flatten()实现。
还能够经过for语句方式实现:
X=[[[1,2,3],[3,4,5]]]
X = [x for y in X for x in y]
print(X)
X = [x for y in X for x in y]
print(X)
output:
[[1, 2, 3], [3, 4, 5]] [1, 2, 3, 3, 4, 5]
第六天
后来我决定定位一下咱们的系统为数据过滤
ravel()
将多维数组降维为一维数组。
z = np.array([[[[3]]],[[[3]]]]) z.ravel()
array([3, 3])