scrapy爬虫框架windows下的安装问题

windows操做系统
 
python版本是3.6.0
 
 
 
经过Anaconda命令conda install scrapy安装scrapy,安装过程当中没有问题。
 
而后在命令行输入命令准备新建项目时,输入 scrapy startproject firstscrapy时出现了
 
from cryptography.hazmat.bindings._openssl import ffi, lib
ImportError: DLL load failed: 操做系统没法运行 %1。
上面的错误。经过百度查到了两种网友的解决方案:
 
一、用pip uninstall scrapy 和 conda remove scrapy 两次卸载掉scrapy,而后再从新安装
二、把c:/windows/system32 目录下的 ssleay32.dll和libeay32.dll两个文件删掉
 
 
以后再输入命令行准备新建项目时,输入scrapy startproject firstscrapy时出现了
from cryptography.hazmat.bindings._openssl im ImportError: DLL load failed: 找不到指定的程序问题
操做系统没法运行的问题确实解决了,可是openssl又找不到了
 
以后又从新去安装了openssl,
 
1)下载openssl程序并安装:  https://slproweb.com/products/Win32OpenSSL.html 注意下载
 
Win64 OpenSSL v1.0.2j Light 版本就能够了,其它版本可能也会出现问题,反正官网上下载的试过下面的方法就不行;
 
2)将openssl安装路径下的bin文件夹内的ssleay32.dll和libeay32.dll两个文件复制到C:\system32文件夹下,覆盖原有的文件;
 
3)在系统的环境变量中增长openssl下bin文件夹路径,相似这样:C:\OpenSSL-Win64\bin。
 
可是问题依然没有解决:
 
 
输入conda list
 
发现openssl的版本依然是1.1.1
说明新安装的openssl并无覆盖~~
 
以后打算将openssl删除,
conda remove openssl
可是删除不了~~~
输入conda install openssl从新安装也没有用
 
以后又继续去找方法
又有人说从新安装各类最新的版本包
conda create -n scrapyenv scrapy -c conda-forge
 
 
能够看到,他说下列的包将会被更新,可是实际状况是并无更新
仍然停留在1.1.1
仍然报错:找不到指定程序
 
最后按照官网的
这个命令
输入后:
 
提示我openssl降级到1.0.2
可见以前的更新并无用,仍是在1.1.1
以后按y肯定继续,并无怎么抱但愿的我,仍是按照惯例的输入conda list 
发现openssl居然真的降级到了1.0.2
 
 
再建立一个新的项目
scrapy startproject tutorial 
果不其然,成功了
 
 
饶了这么多的弯路,真的是~~~
 
 
以后又从新将scrapy删除,验证一下这方法是否真的可行
pip uninstall scrapy
conda remove scrapy 
 
再conda install -c conda-forge scrapy安装
scrapy startproject tutoria

水到渠成~~~~~~~
相关文章
相关标签/搜索