python socket.error: [Errno 10054] 远程主机强迫关闭了一个现有的链接。问题解决方案:html
前几天使用python读取网页。由于对一个网站大量的使用urlopen操做,因此会被那个网站认定为攻击行为。有时就再也不容许下载。致使urlopen()后,request.read()一直卡死在那里。最后会抛出errno 10054.python
这 个错误是connection reset by peer.也就是传说的远端主机重置了此链接。缘由多是socket超时时间过长;也多是request = urllib.request.urlopen(url)以后,没有进行request.close()操做;也多是没有sleep几秒,致使网站认定 这种行为是攻击。网络
具体解决方案以下面的代码:socket
import socket import time timeout = 20 socket.setdefaulttimeout(timeout)#这里对整个socket层设置超时时间。后续文件中若是再使用到socket,没必要再设置 sleep_download_time = 10 time.sleep(sleep_download_time) #这里时间本身设定 request = urllib.request.urlopen(url)#这里是要读取内容的url content = request.read()#读取,通常会在这里报异常 request.close()#记得要关闭 import socket import time timeout = 20 socket.setdefaulttimeout(timeout)#这里对整个socket层设置超时时间。后续文件中若是再使用到socket,没必要再设置 sleep_download_time = 10 time.sleep(sleep_download_time) #这里时间本身设定 request = urllib.request.urlopen(url)#这里是要读取内容的url content = request.read()#读取,通常会在这里报异常 request.close()#记得要关闭
由于urlopen以后的read()操做实际上是调用了socket层的某些函数。因此设置socket缺省超时时间,就可让网络本身断掉。没必要在read()处一直等待。函数
固然你也能够再外层再写几个try,except,例如:测试
try: time.sleep(self.sleep_download_time) request = urllib.request.urlopen(url) content = request.read() request.close() except UnicodeDecodeError as e: print('-----UnicodeDecodeErrorurl:',url) except urllib.error.URLError as e: print("-----urlErrorurl:",url) except socket.timeout as e: print("-----socket timout:",url) try: time.sleep(self.sleep_download_time) request = urllib.request.urlopen(url) content = request.read() request.close() except UnicodeDecodeError as e: print('-----UnicodeDecodeErrorurl:',url) except urllib.error.URLError as e: print("-----urlErrorurl:",url) except socket.timeout as e: print("-----socket timout:",url)
一 般来讲就莫有问题了。我测试了几千个网页的下载,而后才说出此话。不过若是是下载成千上万的,我作了下测试,ms仍是会跳出这个异常。多是 time.sleep()的时间过短,也多是网络忽然中断。我使用urllib.request.retrieve()测试了一下,发现不停的下载数 据,总会有失败的状况出现。网站
简单的处理方法是:首先参照的个人文章:python检查点简单实现 。先作一个检查点。而后将以上会跑出异常的那段代码while True一下。参见下面的伪代码:url
def Download_auto(downloadlist,fun,sleep_time=15): while True: try: # 外包一层try value = fun(downloadlist,sleep_time) # 这里的fun是你的下载函数,我当函数指针传进来。 # 只有正常执行方能退出。 if value == Util.SUCCESS: break except : # 若是发生了10054或者IOError或者XXXError sleep_time += 5 #多睡5秒,从新执行以上的download.由于作了检查点的缘故,上面的程序会从抛出异常的地方继续执行。防止了由于网络链接不稳定带来的程序中断。 print('enlarge sleep time:',sleep_time) def Download_auto(downloadlist,fun,sleep_time=15): while True: try: # 外包一层try value = fun(downloadlist,sleep_time) # 这里的fun是你的下载函数,我当函数指针传进来。 # 只有正常执行方能退出。 if value == Util.SUCCESS: break except : # 若是发生了10054或者IOError或者XXXError sleep_time += 5 #多睡5秒,从新执行以上的download.由于作了检查点的缘故,上面的程序会从抛出异常的地方继续执行。防止了由于网络链接不稳定带来的程序中断。 print('enlarge sleep time:',sleep_time)
不过对于找不到相应的网页,又要作另外的一番处理:spa
# 打印下载信息 def reporthook(blocks_read, block_size, total_size): if not blocks_read: print ('Connection opened') if total_size < 0: print ('Read %d blocks' % blocks_read) else: # 若是找不到,页面不存在,可能totalsize就是0,不能计算百分比 print('downloading:%d MB, totalsize:%d MB' % (blocks_read*block_size/1048576.0,total_size/1048576.0)) def Download(path,url): #url = 'http://downloads.sourceforge.net/sourceforge/alliancep2p/Alliance-v1.0.6.jar' #filename = url.rsplit("/")[-1] try: # python自带的下载函数 urllib.request.urlretrieve(url, path, reporthook) except IOError as e: # 若是找不到,好像会引起IOError。 print("download ",url,"\nerror:",e) print("Done:%s\nCopy to:%s" %(url,path)) # 打印下载信息 def reporthook(blocks_read, block_size, total_size): if not blocks_read: print ('Connection opened') if total_size < 0: print ('Read %d blocks' % blocks_read) else: # 若是找不到,页面不存在,可能totalsize就是0,不能计算百分比 print('downloading:%d MB, totalsize:%d MB' % (blocks_read*block_size/1048576.0,total_size/1048576.0)) def Download(path,url): #url = 'http://downloads.sourceforge.net/sourceforge/alliancep2p/Alliance-v1.0.6.jar' #filename = url.rsplit("/")[-1] try: # python自带的下载函数 urllib.request.urlretrieve(url, path, reporthook) except IOError as e: # 若是找不到,好像会引起IOError。 print("download ",url,"\nerror:",e) print("Done:%s\nCopy to:%s" %(url,path))
若是你们仍是遇到了问题...请再评论里注上其余解决方案。.net
原网址:http://www.cnblogs.com/mmix2009/archive/2013/07/30/3224954.html