Python爬取网站数据

编码问题

由于涉及到中文,因此必然地涉及到了编码的问题,这一次借这个机会算是完全搞清楚了。html

问题要从文字的编码讲起。本来的英文编码只有0~255,恰好是8位1个字节。为了表示各类不一样的语言,天然要进行扩充。中文的话有GB系列。可能还据说过Unicode和UTF-8,那么,它们之间是什么关系呢?python

Unicode是一种编码方案,又称万国码,可见其包含之广。可是具体存储到计算机上,并不用这种编码,能够说它起着一个中间人的做用。你能够再把Unicode编码(encode)为UTF-8,或者GB,再存储到计算机上。UTF-8或者GB也能够进行解码(decode)还原为Unicode。数据库

在python中Unicode是一类对象,表现为以u打头的,好比u'中文',而string又是一类对象,是在具体编码方式下的实际存在计算机上的字符串。好比utf-8编码下的'中文'和gbk编码下的'中文',并不相同。能够看以下代码:express

1vim

2cookie

3网络

4学习

5网站

6ui

7

8

9

>>> str=u'中文'

>>> str1=str.encode('utf8')

>>> str2=str.encode('gbk')

>>> print repr(str)

u'\u4e2d\u6587'

>>> print repr(str1)

'\xe4\xb8\xad\xe6\x96\x87'

>>> print repr(str2)

'\xd6\xd0\xce\xc4'

能够看到,其实存储在计算机中的只是这样的编码,而不是一个一个的汉字,在print的时候要知道当时是用的什么样的编码方式,才能正确的print出来。有一个说法提得很好,python中的Unicode才是真正的字符串,而string是字节串

文件编码

既然有不一样的编码,那么若是在代码文件中直接写string的话,那么它究竟是哪种编码呢?这个就是由文件的编码所决定的。文件老是以必定的编码方式保存的。而python文件能够写上coding的声明语句,用来讲明这个文件是用什么编码方式保存的。若是声明的编码方式和实际保存的编码方式不一致就会出现异常。能够见下面例子: 以utf-8保存的文件声明为gbk

1

2

3

4

5

6

7

8

9

#coding:gbk

str=u'汉'

str1=str.encode('utf8')

str2=str.encode('gbk')

str3='汉'

print repr(str)

print repr(str1)

print repr(str2)

print repr(str3)

提示错误 File "test.py", line 1 SyntaxError: Non-ASCII character '\xe6' in file test.py on line 1, but no encodi ng declared; see http://www.python.org/peps/pep-0263.html for details 改成

1

2

3

4

5

6

7

8

9

#coding:utf8

str=u'汉'

str1=str.encode('utf8')

str2=str.encode('gbk')

str3='汉'

print repr(str)

print repr(str1)

print repr(str2)

print repr(str3)

输出正常结果 u'\u6c49' '\xe6\xb1\x89' '\xba\xba' '\xe6\xb1\x89'

更多内容可参见这篇文章http://www.cnblogs.com/huxi/archive/2010/12/05/1897271.html

基本方法

其实用python爬取网页很简单,只有简单的几句话

1

2

import urllib2

page=urllib2.urlopen('url').read()

这样就能够得到到页面的内容。接下来再用正则匹配去匹配所须要的内容就好了。

可是,真正要作起来,就会有各类各样的细节问题。

登陆

这是一个须要登陆认证的网站。也不太难,只要导入cookielib和urllib库就行。

1

2

3

import urllib,urllib2,cookielib

cookiejar = cookielib.CookieJar()

urlOpener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookiejar))

这样就装载进一个cookie,用urlOpener去open登陆之后就能够记住信息。

断线重连

若是只是作到上面的程度,不对open进行包装的话,只要网络情况有些起伏,就直接抛出异常,退出整个程序,是个很很差的程序。这个时候,只要对异常进行处理,多试几回就好了:

1

2

3

4

5

6

7

8

9

def multi_open(opener,*arg):

    while True:

        retryTimes=20

        while retryTimes>0:

            try:

                return opener.open(*arg)

            except:

                print '.',

                retryTimes-=1

正则匹配

其实正则匹配并不算是一个特别好的方法,由于它的容错性很很差,网页要彻底统一。若是有稍微的不统一,就会失败。后来看到说有根据xpath来进行选取的,下次能够尝试一下。

写正则实际上是有必定技巧的:

  • 非贪婪匹配。好比这样一个标签:<span class='a'>hello</span>,要取出a来,若是写成这样的表达式,就不行了:<span class=.*>hello</span>。由于*进行了贪婪匹配。这是要用.?:<span class=.?>hello</span>。
  • 跨行匹配。实现跨行有一种思路是运用DOTALL标志位,这样.就会匹配到换行。可是这样一来,整个匹配过程就会变得很慢。原本的匹配是以行为单位的。整个过程最多就是O(nc2),n是行数,c是平均列数。如今极有可能变为O((nc)2)。个人实现方案是运用\n来匹配换行,这样能够明确指出匹配最多跨跃多少行。好比:abc\s*\n\s*def,就指出查找的是隔一行的。(.\n)?就能够指定是匹配尽量少的行。
  • 这里其实还要注意一个点。有的行末是带有\r的。也就是说一行是以\r\n结尾的。当初不知道这一点,正则就调试了好久。如今直接用\s,表示行末空格和\r。
  • 无捕获分组。为了避免对捕获的分组形成影响,上面的(.\n)能够改成(?:.\n),这样捕获分组时,就会忽略它。
  • 单括号要进行转义。由于单括号在正则里是用来表示分组的,因此为了匹配单括号就进行转义。正则字符串最好用的是带有r前缀的字符串,若是不是的话,则要对\再进行转义。
  • 快速正则。写了那么多模式,也总结出一规律出来。先把要匹配的字符相关的段落拿出来。要匹配的东西用(.?)代替。把换行\n替换为字符串\s\n\s*,再去掉行首行末的空格。整个过程在vim中能够很快就写好。

Excel操做

此次的数据是放进Excel的。到后面才意识到若是放进数据库的话,可能就没有那么多事了。可是已经写到一半,难以回头了。

搜索Excel,能够得出几个方案来,一个是用xlrt/xlwt库,这个无论电脑上是否安装了Excel,均可以运行,但只能是xls格式的。还有一个是直接包装了com,须要电脑上安装了软件才行。我采用的是前一种。

基本的读写没有问题。可是数据量一大起来,就有问题了。

  • 内存不够。程序一跑起来,内存占用就一点一点往上涨。后面再查了一下,知道要用flush_row_data。可是仍是会出错。一看内存占用,没有什么问题,一直很平稳。但最后仍是会出现memory error。这真是见鬼了。又是反复地查, 反复地运行。一点结果都没有。要命的是bug只在数据量大起来才出现,而等数据量大起来每每要好几个小时,这debug的成本实在是过高了。一个偶然的机会,忽然发现内存占用,虽然整体平稳,可是会规律性的出现小的高涨,而这规律性,会不会和flush_row_data,有关。一直疑惑的是data被flush到了哪里。原来xlwt的做法是很蛋疼的做法。把数据存在内存里,或者flush到一个temp,到save的时候,再一次性写入。而问题正出在这一次性写入,内存猛涨。那我要flush_row_data何用?为何不一开始就flush进要写入的地方。
  • 行数限制。这个是xls格式自己决定的,最多行数只能是65536。并且数据一大,文件打开也不方便。

结合以上两点,最终采起了这么一个策略,若是行数是1000的倍数,进行一次flush,若是行数超过65536,新开一个sheet,若是超过3个sheet,则新建一个文件。为了方便,把xlwt包装了一下

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

#coding:utf-8#

import xlwt

 

class XLS:

    '''a class wrap the xlwt'''

    MAX_ROW=65536

    MAX_SHEET_NUM=3

 

    def __init__(self,name,captionList,typeList,encoding='utf8',flushBound=1000):

        self.name=name

        self.captionList=captionList[:]

        self.typeList=typeList[:]

        self.workbookIndex=1

        self.encoding=encoding

        self.wb=xlwt.Workbook(encoding=self.encoding)

        self.sheetIndex=1

        self.__addSheet()

        self.flushBound=flushBound

     

    def __addSheet(self):

        if self.sheetIndex != 1:

            self.wb.save(self.name+str(self.workbookIndex)+'.xls')

        if self.sheetIndex>XLS.MAX_SHEET_NUM:

            self.workbookIndex+=1

            self.wb=xlwt.Workbook(encoding=self.encoding)

            self.sheetIndex=1

 

        self.sheet=self.wb.add_sheet(self.name.encode(self.encoding)+str(self.sheetIndex))

        for i in range(len(self.captionList)):

            self.sheet.write(0,i,self.captionList[i])

 

        self.row=1

 

    def write(self,data):

        if self.row>=XLS.MAX_ROW:

            self.sheetIndex += 1

            self.__addSheet()

 

        for i in range(len(data)):

            if self.typeList[i]=="num":

                try:

                    self.sheet.write(self.row,i,float(data[i]))

                except ValueError:

                    pass

            else:

                self.sheet.write(self.row,i,data[i])

 

        if self.row % self.flushBound == 0:

            self.sheet.flush_row_data()

        self.row+=1

 

    def save(self):

        self.wb.save(self.name+str(self.workbookIndex)+'.xls')

转换网页特殊字符

因为网页也有本身独特的转义字符,在进行正则匹配的时候就有些麻烦。在官方文档中查到一个用字典替换的方案,私觉得不错,拿来作了一些扩充。其中有一些是为保持正则的正确性。

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

html_escape_table = {

    "&": "&amp;",

    '"': "&quot;",

    "

编码问题

由于涉及到中文,因此必然地涉及到了编码的问题,这一次借这个机会算是完全搞清楚了。

问题要从文字的编码讲起。本来的英文编码只有0~255,恰好是8位1个字节。为了表示各类不一样的语言,天然要进行扩充。中文的话有GB系列。可能还据说过Unicode和UTF-8,那么,它们之间是什么关系呢?

Unicode是一种编码方案,又称万国码,可见其包含之广。可是具体存储到计算机上,并不用这种编码,能够说它起着一个中间人的做用。你能够再把Unicode编码(encode)为UTF-8,或者GB,再存储到计算机上。UTF-8或者GB也能够进行解码(decode)还原为Unicode。

在python中Unicode是一类对象,表现为以u打头的,好比u'中文',而string又是一类对象,是在具体编码方式下的实际存在计算机上的字符串。好比utf-8编码下的'中文'和gbk编码下的'中文',并不相同。能够看以下代码:

1

2

3

4

5

6

7

8

9

>>> str=u'中文'

>>> str1=str.encode('utf8')

>>> str2=str.encode('gbk')

>>> print repr(str)

u'\u4e2d\u6587'

>>> print repr(str1)

'\xe4\xb8\xad\xe6\x96\x87'

>>> print repr(str2)

'\xd6\xd0\xce\xc4'

能够看到,其实存储在计算机中的只是这样的编码,而不是一个一个的汉字,在print的时候要知道当时是用的什么样的编码方式,才能正确的print出来。有一个说法提得很好,python中的Unicode才是真正的字符串,而string是字节串

文件编码

既然有不一样的编码,那么若是在代码文件中直接写string的话,那么它究竟是哪种编码呢?这个就是由文件的编码所决定的。文件老是以必定的编码方式保存的。而python文件能够写上coding的声明语句,用来讲明这个文件是用什么编码方式保存的。若是声明的编码方式和实际保存的编码方式不一致就会出现异常。能够见下面例子: 以utf-8保存的文件声明为gbk

1

2

3

4

5

6

7

8

9

#coding:gbk

str=u'汉'

str1=str.encode('utf8')

str2=str.encode('gbk')

str3='汉'

print repr(str)

print repr(str1)

print repr(str2)

print repr(str3)

提示错误 File "test.py", line 1 SyntaxError: Non-ASCII character '\xe6' in file test.py on line 1, but no encodi ng declared; see http://www.python.org/peps/pep-0263.html for details 改成

1

2

3

4

5

6

7

8

9

#coding:utf8

str=u'汉'

str1=str.encode('utf8')

str2=str.encode('gbk')

str3='汉'

print repr(str)

print repr(str1)

print repr(str2)

print repr(str3)

输出正常结果 u'\u6c49' '\xe6\xb1\x89' '\xba\xba' '\xe6\xb1\x89'

更多内容可参见这篇文章http://www.cnblogs.com/huxi/archive/2010/12/05/1897271.html

基本方法

其实用python爬取网页很简单,只有简单的几句话

1

2

import urllib2

page=urllib2.urlopen('url').read()

这样就能够得到到页面的内容。接下来再用正则匹配去匹配所须要的内容就好了。

可是,真正要作起来,就会有各类各样的细节问题。

登陆

这是一个须要登陆认证的网站。也不太难,只要导入cookielib和urllib库就行。

1

2

3

import urllib,urllib2,cookielib

cookiejar = cookielib.CookieJar()

urlOpener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookiejar))

这样就装载进一个cookie,用urlOpener去open登陆之后就能够记住信息。

断线重连

若是只是作到上面的程度,不对open进行包装的话,只要网络情况有些起伏,就直接抛出异常,退出整个程序,是个很很差的程序。这个时候,只要对异常进行处理,多试几回就好了:

1

2

3

4

5

6

7

8

9

def multi_open(opener,*arg):

    while True:

        retryTimes=20

        while retryTimes>0:

            try:

                return opener.open(*arg)

            except:

                print '.',

                retryTimes-=1

正则匹配

其实正则匹配并不算是一个特别好的方法,由于它的容错性很很差,网页要彻底统一。若是有稍微的不统一,就会失败。后来看到说有根据xpath来进行选取的,下次能够尝试一下。

写正则实际上是有必定技巧的:

  • 非贪婪匹配。好比这样一个标签:<span class='a'>hello</span>,要取出a来,若是写成这样的表达式,就不行了:<span class=.*>hello</span>。由于*进行了贪婪匹配。这是要用.?:<span class=.?>hello</span>。
  • 跨行匹配。实现跨行有一种思路是运用DOTALL标志位,这样.就会匹配到换行。可是这样一来,整个匹配过程就会变得很慢。原本的匹配是以行为单位的。整个过程最多就是O(nc2),n是行数,c是平均列数。如今极有可能变为O((nc)2)。个人实现方案是运用\n来匹配换行,这样能够明确指出匹配最多跨跃多少行。好比:abc\s*\n\s*def,就指出查找的是隔一行的。(.\n)?就能够指定是匹配尽量少的行。
  • 这里其实还要注意一个点。有的行末是带有\r的。也就是说一行是以\r\n结尾的。当初不知道这一点,正则就调试了好久。如今直接用\s,表示行末空格和\r。
  • 无捕获分组。为了避免对捕获的分组形成影响,上面的(.\n)能够改成(?:.\n),这样捕获分组时,就会忽略它。
  • 单括号要进行转义。由于单括号在正则里是用来表示分组的,因此为了匹配单括号就进行转义。正则字符串最好用的是带有r前缀的字符串,若是不是的话,则要对\再进行转义。
  • 快速正则。写了那么多模式,也总结出一规律出来。先把要匹配的字符相关的段落拿出来。要匹配的东西用(.?)代替。把换行\n替换为字符串\s\n\s*,再去掉行首行末的空格。整个过程在vim中能够很快就写好。

Excel操做

此次的数据是放进Excel的。到后面才意识到若是放进数据库的话,可能就没有那么多事了。可是已经写到一半,难以回头了。

搜索Excel,能够得出几个方案来,一个是用xlrt/xlwt库,这个无论电脑上是否安装了Excel,均可以运行,但只能是xls格式的。还有一个是直接包装了com,须要电脑上安装了软件才行。我采用的是前一种。

基本的读写没有问题。可是数据量一大起来,就有问题了。

  • 内存不够。程序一跑起来,内存占用就一点一点往上涨。后面再查了一下,知道要用flush_row_data。可是仍是会出错。一看内存占用,没有什么问题,一直很平稳。但最后仍是会出现memory error。这真是见鬼了。又是反复地查, 反复地运行。一点结果都没有。要命的是bug只在数据量大起来才出现,而等数据量大起来每每要好几个小时,这debug的成本实在是过高了。一个偶然的机会,忽然发现内存占用,虽然整体平稳,可是会规律性的出现小的高涨,而这规律性,会不会和flush_row_data,有关。一直疑惑的是data被flush到了哪里。原来xlwt的做法是很蛋疼的做法。把数据存在内存里,或者flush到一个temp,到save的时候,再一次性写入。而问题正出在这一次性写入,内存猛涨。那我要flush_row_data何用?为何不一开始就flush进要写入的地方。
  • 行数限制。这个是xls格式自己决定的,最多行数只能是65536。并且数据一大,文件打开也不方便。

结合以上两点,最终采起了这么一个策略,若是行数是1000的倍数,进行一次flush,若是行数超过65536,新开一个sheet,若是超过3个sheet,则新建一个文件。为了方便,把xlwt包装了一下

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

#coding:utf-8#

import xlwt

 

class XLS:

    '''a class wrap the xlwt'''

    MAX_ROW=65536

    MAX_SHEET_NUM=3

 

    def __init__(self,name,captionList,typeList,encoding='utf8',flushBound=1000):

        self.name=name

        self.captionList=captionList[:]

        self.typeList=typeList[:]

        self.workbookIndex=1

        self.encoding=encoding

        self.wb=xlwt.Workbook(encoding=self.encoding)

        self.sheetIndex=1

        self.__addSheet()

        self.flushBound=flushBound

     

    def __addSheet(self):

        if self.sheetIndex != 1:

            self.wb.save(self.name+str(self.workbookIndex)+'.xls')

        if self.sheetIndex>XLS.MAX_SHEET_NUM:

            self.workbookIndex+=1

            self.wb=xlwt.Workbook(encoding=self.encoding)

            self.sheetIndex=1

 

        self.sheet=self.wb.add_sheet(self.name.encode(self.encoding)+str(self.sheetIndex))

        for i in range(len(self.captionList)):

            self.sheet.write(0,i,self.captionList[i])

 

        self.row=1

 

    def write(self,data):

        if self.row>=XLS.MAX_ROW:

            self.sheetIndex += 1

            self.__addSheet()

 

        for i in range(len(data)):

            if self.typeList[i]=="num":

                try:

                    self.sheet.write(self.row,i,float(data[i]))

                except ValueError:

                    pass

            else:

                self.sheet.write(self.row,i,data[i])

 

        if self.row % self.flushBound == 0:

            self.sheet.flush_row_data()

        self.row+=1

 

    def save(self):

        self.wb.save(self.name+str(self.workbookIndex)+'.xls')

转换网页特殊字符

因为网页也有本身独特的转义字符,在进行正则匹配的时候就有些麻烦。在官方文档中查到一个用字典替换的方案,私觉得不错,拿来作了一些扩充。其中有一些是为保持正则的正确性。

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

html_escape_table = {

    "&": "&amp;",

    '"': "&quot;",

    "'": "&apos;",

    ">": "&gt;",

    "<": "&lt;",

    u"·":"&#183;",

    u"°":"&#176;",

    #regular expression

    ".":r"\.",

    "^":r"\^",

    "$":r"\$",

    "{":r"\{",

    "}":r"\}",

    "\\":r"\\",

    "|":r"\|",

    "(":r"\(",

    ")":r"\)",

    "+":r"\+",

    "*":r"\*",

    "?":r"\?",

}

 

def html_escape(text):

    """Produce entities within text."""

    tmp="".join(html_escape_table.get(c,c) for c in text)

    return tmp.encode("utf-8")

'": "&apos;",

    ">": "&gt;",

    "<": "&lt;",

    u"·":"&#183;",

    u"°":"&#176;",

    #regular expression

    ".":r"\.",

    "^":r"\^",

    "$":r"\$",

    "{":r"\{",

    "}":r"\}",

    "\\":r"\\",

    "|":r"\|",

    "(":r"\(",

    ")":r"\)",

    "+":r"\+",

    "*":r"\*",

    "?":r"\?",

}

 

def html_escape(text):

    """Produce entities within text."""

    tmp="".join(html_escape_table.get(c,c) for c in text)

    return tmp.encode("utf-8")

加群一块儿交流学习813622576