开发者

python网络爬虫基于selenium爬取斗鱼直播信息

开发者 https://www.devze.com 2022-12-13 09:39 出处:网络 作者: 馆主阿牛
目录一、本文使用的第三方包和工具二、selenium的介绍和浏览器驱动的安装1.selenium的介绍2.浏览器驱动的安装三、代码思路分析1.解析数据的函数2.保存数据的函数3.主函数设计四、完整代码总结一、本文使用的第三方包
目录
  • 一、本文使用的第三方包和工具
  • 二、selenium的介绍和浏览器驱动的安装
    • 1.selenium的介绍
    • 2.浏览器驱动的安装
  • 三、代码思路分析
    • 1.解析数据的函数
    • 2.保存数据的函数
  • 3.主函数设计
    • 四、完整代码
      • 总结

        一、本文使用的第三方包和工具

        pytwww.cppcns.comhon 3.8  

        谷歌浏览器

        selenium(3.141.0)(pip install selenium == 3.141.0)注意4.0系列和3.0系列方法不同

        浏览器驱动(和你的浏览器版本对应)

        二、selenium的介绍和浏览器驱动的安装

        1.selenium的介绍

            selenium是一款web自动化测试工具,可以很方便地模拟真实用户对浏览器进行操作,它支持各种主流浏览器:IE、Chrome、Firefox、Safari、Opera等。你可以使用selenium做web测试或者爬虫,自动抢票、自动下单也可以用selenium来做。

        2.浏览器驱动的安装

           网上方法很多,友友们自行搜索,在这里提一点注意事项:本文用的是谷歌浏览器,浏览器驱动要对应谷歌的http://www.cppcns.com哦,注意浏览器驱动与你的浏览器版本相对应,这里给出谷歌浏览器驱动的下载地址,友友们按照自己浏览器的版本对应现在即可

        http://chromedriver.storage.googleapis.com/index.html

        下载完成后注意配置环境变量哦,不配置也行,不配置就要在代码中写上你的Chromedriver.exe文件的路径或者不写路径将你的Chromedriver.exe和py文件放到同一目录下也可以哦

        三、代码思路分析

        进入斗鱼官网,点到直播,下面的在线直播信息就是我们需要爬取的​

        可以看到有标题,类型,姓名,以及热度,我们爬取这四个字段就行

        然后滑到底部,这里的下一页是我们控制爬取页数的​

         注意:当我们进入页面时,虽然有滚动条,但所有直播信息已经加载好,并不是通过滑动然后Ajax加载的,所以在代码中并不需要写滑动,直接提取就可以拿到整个页面的数据。

        1.解析数据的函数

         #解析数据的函数
            def parse(self):
                #强制等待两秒,等待页面数据加载完毕
                sleep(2)
                li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
                #print(len(li_list))
                data_list = []
                for li in li_list:
                    dic_data = {}
                    dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text
                    dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text
                    dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
                    dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
                    data_list.append(dic_data)
                return data_list

        2.保存数据的函数

         #解析数据的函数
            def parse(self):
                #强制等待两秒,等待页面数据加载完毕
                sleep(2)
                li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
                #print(len(li_list))
                data_list = []
                for li in li_list:
                    dic_data = {}
                    dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text
                    dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text
                    dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
                    dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
                    data_list.append(dic_data)
                return data_list

        (1)保存为txt文本

        #保存数据的函数
            def save_data(self,data_list,i):
                #在当前目录下将数据存为txt文件
                with open('./douyu.txt','w',encoding='utf-8') as fp:
                    for data in data_list:
                        data = str(data)
                        fp.write(data+'\n')
                    print("第%d页保存完成!" % i)

        (2)保存为json文件

        #保存数据的函数
            def save_data(self,data_list,i):
                with open('./douyu.json','w',encoding='utf-8') as fp:
                     #里面有中文,所以注意ensure_ascii=False
                     data = json.dumps(data_list,ensure_ascii=False)
                     fp.write(data)
                     print("第%d页保存完成!" % i)

        3.主函数设计

        #主函数
            def run(self):
                #输入要爬取的页数,如果输入负整数,转化成她的绝对值
                page_num = abs(int(input("请输入你要爬取的页数:")))
                #初始化页数为1
                i = 1
                #判断输入的数是否为整数
                if isinstance(page_num,int):
                    #实例化浏览器对象
                    self.bro = webdriver.Chrome(executable_path='../../可执行文件/chromedriver.exe')
                    # chromedriver.exe如果已添加到环境变量,可省略executable_path='../../可执行文件/chromedriver.exe'
                    self.bro.get(self.url)
                    while i <= page_num:
                        #调用解析函数
                        data_list = self.parse()
                        #调用保存函数
                        self.save_data(data_list,i)
                        try:
                            #定位包含“下一页”字段的按钮并点击
                            button = self.bro.find_element_by_xpath('//span[contains(text(),"下一页")]')
                            button.click()
                            i += 1
                        except:
                            break
                    self.bro.quit()
               编程客栈 else:
                    print("输入格式错误!")

        四、完整代码

        from selenium import webdriver
        from time import sleep
        import json
        #创建一个类
        class Douyu():
            def __init__(self):
                self.url = 'https://www.douyu.com/directory/all'
            #解析数据的函数
            def parse(self):
                #强制等待两秒,等待页面数据加载完毕
                sleep(2)
                li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
                #print(len(li_list))
                data_list = []
                for li in li_list:
                    dic_data = {}
                    dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text
                    dic_data['name'] = li编程客栈.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text
                    dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
                    dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
                    data_list.append(dic_data)
                return data_list
            #保存数据的函数
            def save_data(self,data_list,i):
                #在当前目录下将数据存为txt文件
                with open('./douyu.txt','w',encoding='utf-8') as fp:
                    for data in data_list:
                        data = str(data)
                        fp.write(data+'\n')
                    print("第%d页保存完成!" % i)
                # json文件的存法
                # with open('./douyu.json','w',encoding='utf-8') as fp:
                # 里面有中文,所以注意ensure_ascii=False
                #     data = json.dumps(data_list,ensure_ascii=False)
                #     fp.write(data)
                #     print("第%d页保存完成!" % i)
            #主函数
            def run(self):
                #输入要爬取的页数,如果输入负编程客栈整数,转化成她的绝对值
                page_num = abs(int(input("请输入你要爬取的页数:")))
                #初始化页数为1
                i = 1
                #判断输入的数是否为整数
                if isinstance(page_num,int):
                    #实例化浏览器对象
                    self.bro = webdriver.Chrome(executable_path='../../可执行文件/chromedriver.exe')
                    # chromedriver.exe如果已添加到环境变量,可省略executable_path='../../可执行文件/chromedriver.exe'
         
                    self.bro.get(self.url)
                    while i <= page_num:
                        #调用解析函数
                        data_list = self.parse()
                        #调用保存函数
                        self.save_data(data_list,i)
                        try:
                            #定位包含“下一页”字段的按钮并点击
                            button = self.bro.find_element_by_xpath('//span[contains(text(),"下一页")]')
                            button.click()
                            i += 1
                        except:
                            break
                    self.bro.quit()
                else:
                    print("输入格式错误!")
        if __name__ == '__main__':
            douyu = Douyu()
            douyu.run()

        总结

           本文是为了练习selenium而写的,由于一个页面有120条数据,所以采集效率较低,感兴趣的小伙伴们可以试一试requests库写,爬取速度更快哦!希望大家以后多多支持我们!

        0

        精彩评论

        暂无评论...
        验证码 换一张
        取 消

        关注公众号