一款真正可以用于爬百度图片的爬虫python代码,自己改进的!!

来源:互联网 发布:ab plc编程软件 编辑:程序博客网 时间:2024/06/10 00:07
我用的pycharm,有三种注释方式:
1.用 一对""" 括起来要注释的代码块。
2.用一对'''括起来要注释的代码块。

3.选中要注释的代码,按下ctrl+/注释。

由于深度学习训练或者数据分析需要大量数据,其中获取数据的方法有很多,要么去各种比赛官网上下载,要么自己去下载,自己下载的最好方法就是使用爬虫技术,方便简单。下面是自己结合网上的一些爬虫代码修改的python代码,其可以无限制的爬百度图片,已经可以满足很多需求了。具体代码如下:

#coding: utf-8import osimport reimport urllibimport urllib2import itertools  #迭代器from string import maketransimport socketstr_table = {    '_z2C$q': ':',    '_z&e3B': '.',    'AzdH3F': '/'}char_table = {    'w': 'a',    'k': 'b',    'v': 'c',    '1': 'd',    'j': 'e',    'u': 'f',    '2': 'g',    'i': 'h',    't': 'i',    '3': 'j',    'h': 'k',    's': 'l',    '4': 'm',    'g': 'n',    '5': 'o',    'r': 'p',    'q': 'q',    '6': 'r',    'f': 's',    'p': 't',    '7': 'u',    'e': 'v',    'o': 'w',    '8': '1',    'd': '2',    'n': '3',    '9': '4',    'c': '5',    'm': '6',    '0': '7',    'b': '8',    'l': '9',    'a': '0'}intab="wkv1ju2it3hs4g5rq6fp7eo8dn9cm0bla"outtab="abcdefghijklmnopqrstuvw1234567890"trantab = maketrans(intab, outtab)char_table = {ord(key): ord(value) for key, value in char_table.items()}def deCode(url):    # 先替换字符串    for key, value in str_table.items():        url = url.replace(key, value)    # 再替换剩下的字符    d=url.translate(trantab)    return ddef getMoreURL(word):    word = urllib.quote(word)    url = r"http://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&fp=result&queryWord={word}" \          r"&cl=2&lm=-1&ie=utf-8&oe=utf-8&st=-1&ic=0&word={word}&face=0&istype=2nc=1&pn={pn}&rn=30"    urls = (url.format(word=word, pn=x) for x in itertools.count(start=0, step=30))    #itertools.count 0开始,步长30,迭代    return urlsdef getHtml(url):    page=urllib.urlopen(url)    html=page.read()    return html#解析图片url解码def getImg(html):    reg=r'"objURL":"(.*?)"'   #正则    # 括号表示分组,将括号的内容捕获到分组当中    #  这个括号也就可以匹配网页中图片的url了    imgre=re.compile(reg)    imageList=re.findall(imgre, html)    imgUrls=[]    for image in imageList:        imgUrls.append(deCode(image))    l=len(imgUrls)    print l    return imgUrlsdef downLoad(urls,path):    global index    for url in urls:        print("Downloading:", url)        try:            res = urllib2.Request(url)        except:            print"request error!"            continue        try:            response = urllib2.urlopen(res ,data=None, timeout=15)  #超时处理        except:   #抓取代码执行产生的所有错误。            # if hasattr(e,'code'):            #     error_status = e.code            #     print(error_status, "未下载成功:", url)            #     continue            # elif hasattr(e,'reason'):            #     print( "time out", url)            #     continue            continue   #对抛出的错误不进行处理,重新爬取下一帧图片        filename = os.path.join(path, str(index) + ".jpg")        print "start"        try:            #下载数据代码可能会因为网速、图像数据大等原因导致代码一直卡死,加上socket就是限制下载时间,如果超过设定          #时间仍无响应则抛弃此帧图片            socket.setdefaulttimeout(5.0)            retval=urllib.urlretrieve(url,filename)        #直接将远程数据下载到本地。        except:   #抓取代码执行产生的所有错误,主要错误有下载的图像数据小于原始图像数大小,抛出异常。            print "time_caoshi"            retval=None            continue        print "end"        index += 1        # urllib.urlretrieve(url[, filename[, reporthook[, data]]])        # 参数说明:        # url:外部或者本地url        # filename:指定了保存到本地的路径(如果未指定该参数,urllib会生成一个临时文件来保存数据);        # reporthook:是一个回调函数,当连接上服务器、以及相应的数据块传输完毕的时候会触发该回调。我们可以利用这个回调函数来显示当前的下载进度。        # data:指post到服务器的数据。该方法返回一个包含两个元素的元组(filename, headers),filename表示保存到本地的路径,header表示服务器的响应头。        if index-1==1000:            breakif __name__ == '__main__':    keyWord="番茄" #这是百度图片搜索里的关键字    index = 1    Savepath = "D:\TestDownload"    urls=getMoreURL(keyWord)   #这里把中文关键字进行编码    for url in urls:        downLoad(getImg(getHtml(url)),Savepath)        if index-1>1000:            break


阅读全文
0 0
原创粉丝点击