Windows virtualenv下安装Scrapy的各种依赖

    Scrapy依赖的Openssl、libxml在Windows各种麻烦,先照着Scrapy官方安装教程解决Openssl依赖,然后依据pip install Scrapy命令的出错提示再安装几个包的Windows版本,去包的官网下或Pypi找。
    一句话,Scrapy这货自己是不大,但其依赖的东西好多。

    Windows virtualenv下安装Scrapy的各种依赖_第1张图片

    Scrapy安装总结:
    这货依赖如下包,没列出依赖的依赖:     

Scrapy==0.16.5
Twisted==13.1.0
lxml==3.0.1
pyOpenSSL==0.13
w3lib==1.3
zope.interface==4.0.5

    因在virtualenv环境下安装,其中lxml下载的只有exe格式,安装时不能选择安装在哪个Python环境下,所以先安装到主Python环境下,然后site-package下把lxml两个文件copy到virtualenv对应目录下完成安装。其它如pyOpenSSL有提供msi文件,安装时可选择安装在哪个Python环境下,相当不错。
    当然还有终极方法,就是下载源码,然后用easy_install安装,加--complie=MinW之类的编辑器参数,在此先这样了。

    2013.07.12更新:
    原来exe格式的二进制除了双击安装外,可以在cmd下安装,这样就能够安装在virtualenv下了。方法是:首先激活某个virtualenv,然后esay_install *.exe,这个便捷。现在终于理解virtualenv的强大了,可以几乎不影响系统环境变量而建立多个隔离的Python环境。exe格式居然能够同时图形与命令行两种方式下运行,怎么解释?
    附上一张Python 4种安装工具关系图:Windows virtualenv下安装Scrapy的各种依赖_第2张图片

你可能感兴趣的:(Windows virtualenv下安装Scrapy的各种依赖)