设为首页 加入收藏

TOP

[原创] Python3.6+request+beautiful 半次元Top100 爬虫实战,将小姐姐的cos美图获得(一)
2017-09-30 16:59:12 】 浏览:3662
Tags:原创 Python3.6 request beautiful Top100 爬虫 实战 姐姐 cos 美图 获得

1 技术栈

Python3.6 Python的版本

request 得到网页html、jpg等资源的lib

beautifulsoup 解析html的利器

html5lib 指定beautifulsoup按什么方式解析

os 创建文件夹需要用到系统操作lib

2 IDE

Anaconda Spider

3 如何正确的获取半次元网页内容

3.1 https请求的user head参数的设置

agent='Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36 OPR/46.0.2597.57'
user_head={     
    'Accept': "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8", 
    'Accept-Encoding': "gzip, deflate, sdch, br",
    'Accept-Language': "zh-CN,zh;q=0.8,en;q=0.6,zh-TW;q=0.4,ja;q=0.2",
    'Cache-Control':'max-age=0',
    "Connection": "keep-alive",
    'Referer': 'https://bcy.net/start',
    'User-Agent': agent    
}

Accept 网络处理的类型

Accept-Encoding 编码方式

Accept-Language 编码语言

Cache-Control 控制缓存的生命周期

Connection 连接方式,选择keep-alive长期连接

Referer 从哪个页面发来的请求

User-Agent 浏览器标志,防止半次元服务器识别http请求为浏览器发起

3.2 cookie文件的读取

cookie_file = "bcy_cookie.txt"  
    if os.path.exists(cookie_file):
        #如果cookies文件存在则直接读取cookie
        bcy_cookies = {}
        with open(cookie_file,'r',buffering = 4*1024) as fp:
            for line in fp.read().split(';'):
                name,value = line.strip().split('=',1)
                bcy_cookies[name] = value
            fp.flush()  
        print('load cookies is Success')
    else: 
        print('you have no cookie')
    print ("bcy cookies:" + str(bcy_cookies))

bcy_cookie是一个对象

bcy_cookie.txt中的内容为:

acw_tc=AQAAACHqkjHLZQcAtVPt3f8ifalDKgni; 
PHPSESSID=vgeda76lj7339cov0n76390rl0; 
lang_set=zh; 
mobile_set=no

3.3 request 读取html内容并转为soup对象

   GALLERY_START_URL = 'https://bcy.net/coser/toppost100'
   #浏览器打开首页
   gallery_content = requests.get(GALLERY_START_URL,cookies=bcy_cookies,headers=user_head,timeout=9).text.encode('utf-8')    
   #得到首页的soup的对象
   gallery_soup = BeautifulSoup(gallery_content,'html5lib')

requests.get 获取一个html对象,timeout是设置允许的最大时间延迟
BeautifulSoup 将html对象转为可以被解析的soup对象,采用html5lib解析

3.4 soup对象查找源代码中的连接


注意应该查找source(源代码)中作品连接入口,
elements是经过浏览器chrome加载js渲染后的dom,所以对应的css class可能不一样

    # 得到所有的作品入口
    all_work = gallery_soup.findAll('li',class_ = 'l-work-thumbnail')

3.5 遍历每一个all_work对象获取标题和作品进入的连接

    # 得到所有的作品入口
    for work in all_work:
        work_a = work.find('div',class_ = 'work-thumbnail__topBd').find('a')
        title = work_a['title']  
        #去掉保存到本地图片文件名中非法字符
        unvalid_str = '<>,\/|,:,"",*,?'
        for ch in unvalid_str:
            title = title.replace(ch,'') 
        title = title.strip()                
        work_url = 'https://bcy.net' + work_a['href']

因为Windows系统不允许文件夹出现<>,\/|,:,"",*,?等字符,所以需要做delete处理

3.6 新建作品文件夹

专门写一个函数用于作品文件夹创建,并做是否创建的处理

# @创建gallery文件夹
# @input:GALLERY_NAME gallery保存的文件夹
# @output:
def mkdir(GALLERY_NAME):
    GALLERY_NAME = GALLERY_NAME.strip()
    GALLERY_NAME = GALLERY_NAME.rstrip("\\")

    if not os.path.exists(GALLERY_NAME):  # 如果不存在则创建目录
        print(GALLERY_NAME + ' Success')   # 创建目录操作函数
        os.makedirs(GALLERY_NAME)
        return True
    else:  # 如果目录存在则不创建,并提示目录已存在
        print(GALLERY_NAME + ' existence')
        return False

主函数中的步骤

    #新建作品
    WORK_FOLD_NAME = GALLERY_NAME + '\\' +str(top_index).zfill(3) + '_' + title
    mkdir(WORK_FOLD_NAME)

3.7 点击进入作品连接,遍历读取所有的图片

    #得到作品html对象
    image_content = requests.get(work_url,cookies=bcy_cookies,headers=user_head,timeout=20).text.encode('utf-8') 
    
    #得到作品soup对象
    image_group_soup = BeautifulSoup(
首页 上一页 1 2 下一页 尾页 1/2/2
】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇python特殊方法定制类 下一篇python安装Scrapy

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目