十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
本文实例讲述了Python使用爬虫抓取美女图片并保存到本地的方法。分享给大家供大家参考,具体如下:
成都创新互联公司服务项目包括青河网站建设、青河网站制作、青河网页制作以及青河网络营销策划等。多年来,我们专注于互联网行业,利用自身积累的技术优势、行业经验、深度合作伙伴关系等,向广大中小型企业、政府机构等提供互联网行业的解决方案,青河网站推广取得了明显的社会效益与经济效益。目前,我们服务的客户以成都为中心已经辐射到青河省份的部分城市,未来相信会继续扩大服务区域并继续获得客户的支持与信任!图片资源来自于www.qiubaichengren.com
代码基于Python 3.5.2
友情提醒:血气方刚的骚年。请
谨慎阅图!
谨慎阅图!!
谨慎阅图!!!
code:
#!/usr/bin/env python # -*- coding: utf-8 -*- import os import urllib import urllib.request import re from urllib.error import URLError class QsSpider: def __init__(self): self.user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' self.header = {'User-Agent': self.user_agent} self.save_dir = './pic' self.url = 'http://www.qiubaichengren.com/%s.html' def start(self): for i in range(1, 10): self.load_html(str(i)) def load_html(self, page): try: web_path = self.url % page request = urllib.request.Request(web_path, headers=self.header) with urllib.request.urlopen(request) as f: html_content = f.read().decode('gb2312') # print(html_content) self.pick_pic(html_content) except URLError as e: print(e.reason) return def save_pic(self, img): print(img) save_path = self.save_dir + "/" + img.replace(':', '@').replace('/', '_') if not os.path.exists(self.save_dir): os.makedirs(self.save_dir) print(save_path) urllib.request.urlretrieve(img, save_path) pass def pick_pic(self, html_content): regex = r'src="(http:.*?\.(?:jpg|png|gif))' patten = re.compile(regex) pic_path_list = patten.findall(html_content) for i in pic_path_list: self.save_pic(str(i)) print(i) spider = QsSpider() spider.start()