出现这些问题,不少时候是由于,忘记了机器上有两个Python环境。python
默认环境是py2,而本身的工做环境是py3。linux
好比Linux上默认有py2.7,本身又安装了py3.5。好比Windows上,安装了py2,也安装了py3。git
命令行直接输入python、pip等使用的是默认是py2,应该切换到py3的bin目录。github
再使用./pip 等形式来运行。windows
其实就应该用anaconda prompt窗口运行pip命令,就能避免这个问题。测试
一般咱们用下面这种方式安装一个库网站
C:\Users\Administrator>pip install tensorflow Collecting tensorflow Could not find a version that satisfies the requirement tensorflow (from versions: ) No matching distribution found for tensorflow
因而想到去网站上本身下载一个whl文件,再本地安装。ui
或者spa
https://www.lfd.uci.edu/~gohlke/pythonlibs/
可选的文件就这有两个,因而选择了cp36的版本。
PS D:\ML> pip install .\tensorflow-1.7.0-cp36-cp36m-win_amd64.whl tensorflow-1.7.0-cp36-cp36m-win_amd64.whl is not a supported wheel on this platform.
可是也报错,版本不匹配。因而搜索了下这个错误信息。
参考这篇文章:https://www.jianshu.com/p/dd8b4869d4fb
这个文件是amd64平台的版本,显然个人电脑不是。
下载之。
D:\>pip install tensorflow-1.7.0-cp36-cp36m-win32.whl tensorflow-1.7.0-cp36-cp36m-win32.whl is not a supported wheel on this platform.
仍是报错,再换一种方式。
D:\>python Python 3.6.4 |Anaconda, Inc.| (default, Jan 16 2018, 10:22:32) [MSC v.1900 64 bit (AMD64)] on win32 >>> import tensorflow as tf D:\ProgramData\Anaconda3\lib\site-packages\h5py\__init__.py:36: FutureWarning: Conversion of the second argument of issubdtype from `float` to `np.floating` is deprecated. In future, it will be treated as `np.float64 == np.dtype(float).type`. from ._conv import register_converters as _register_converters >>> w = tf.Variable([[0.5,1.0]]) >>> x = tf.Variable([[2.0],[1.0]]) >>> y = tf.matmul(w,x) >>> y <tf.Tensor 'MatMul:0' shape=(1, 1) dtype=float32> >>>
上面的tensorflow装在anaconda的py3.6环境。
上面为何出现pip命令没法安装tensorflow呢?
本地安装了原生的Python2.7,也安装了anaconda3.6。
由于直接用pip命令,电脑默认是调用Python2.7的pip命令。要切换到anaconda目录下,使用py3.6的pip命令(tensorflow只有py3的)。
D:\ProgramData\Anaconda3\Scripts> pip install jieba
优先用命令行pip安装,由于使用方便。
有的包在anaconda导航里搜索不到,可是用pip能够安装(好比jieba)。
用pip install pyspark
命令,在Windows上安装成功,可是在linux上,每次都是到99%失败。 (在Windows上用anaconda安装pyspark,总是安装不成功。)
linux上报错信息
[root@txy bin]# pip install pyspark ## 【错误】若是直接用pip,调用的是系统默认的py2,而个人工做环境是py3。 Collecting pyspark Downloading https://files.pythonhosted.org/packages/ee/2f/709df6e8dc00624689aa0a11c7a4c06061a7d00037e370584b9f011df44c/pyspark-2.3.1.tar.gz (211.9MB) 99% |████████████████████████████████| 211.9MB 57.2MB/s eta 0:00:01Killed
Windows上的安装过程提示
(base) C:\Users\Administrator>pip install pyspark Collecting pyspark Downloading https://files.pythonhosted.org/packages/ee/2f/709df6e8dc00624689aa0a11c7a4c06061a7d00037e370584b9f011df44c/pyspark-2.3.1.tar.gz (211.9MB) 100% |████████████████████████████████| 211.9MB 57kB/s Collecting py4j==0.10.7 (from pyspark) Downloading https://files.pythonhosted.org/packages/e3/53/c737818eb9a7dc32a7cd4f1396e787bd94200c3997c72c1dbe028587bd76/py4j-0.10.7-py2.py3-none-any.whl (197kB) 100% |████████████████████████████████| 204kB 1.1MB/s Building wheels for collected packages: pyspark Successfully installed py4j-0.10.7 pyspark-2.3.1
linux出现到99%失败的缘由未知,不过我应该使用以下的安装命令。
[root@txy bin]# cd /root/anaconda3/bin [root@txy bin]# ./pip install pyspark
下载Apache spark,解压配置好PATH后,也可使用pyspark
,要注意环境是py2仍是py3。