导入:from bs4 import BeautifulSoup

#爬取某豆的电影榜单
import pprint
import requests
from bs4 import BeautifulSoup
class pachong:
 #pass #这段代码的意思如果暂时没有想好在类中定义任何属性和方法,你可以先写pass Python就会认为这段不会运行直接跳过,不会报错。
    def __init__(self):
         self.url = 'https://movie.douban.com/top250'
         # 'https://movie.douban.com/top250?start={start}'.format(start='')
         self.startnum = []
         for Turn_pages in range(0,51,25):#这段代码首先是从0到250遍历,取值的间隔是25,为什么我写的是251因为Python语法规定一般最右边的数值会减去1,,我们获取的页面数据就会0,25,50,.......
             # print(Turn_pages)
             self.startnum.append(Turn_pages) # 将从range中获取的数据添加到空列表startnum当中
         self.headers = {
             'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36'}
    def get_top(self):
         for starts in self.startnum:
             start = int(starts)
             html = requests.get(self.url,params={'start':starts},headers=self.headers).text #text 的意思转换成认识文字格式
             # print(html)
             soup = BeautifulSoup(html,'lxml') # 不要用xx.parser 了,它太老了,可以用 lxml
             name = soup.select('#content > div > div.article > ol > li > div > div.info > div.hd > a > span ')
             fp = open('.豆瓣Top250.txt', 'w', encoding='utf-8')
             for time in name:
                title = time.text
                fp.write(title+'\n')
                print(title)
         print('over')
            # pprint.pprint(title) #可以尝试打印这段代码
             # content > div > div.article > ol > li:nth-child(1) > div > div.info > div.hd > a > span:nth-child(1)
             # content > div > div.article > ol > li:nth-child(1) > div > div.info > div.hd > a > span:nth-child(1)
             # name1 = soup.find_all('content > div > div.article > ol > li:nth-child(1)')

                # pprint.pprint(time)




#这里的作用就像工厂的发动机,点火操作,一点火前面的机器开始运转起来了
if __name__ == "__main__":
    #对象调用
    call = pachong()
    # print(call)
    #对象调用自身的方法
    call.get_top()

教大家一个获取url的好方法:

使用谷歌浏览器:

  1. 点击你需要获取信息的页面

  1. 鼠标右击检查

  1. 进入下图界面后,点击NetWork (现在啥都没有)

  1. 刷新界面(ctrl + r 键盘)这次爬虫课程中是向下滑查看网页的翻页方式

  1. 切换页面(点击第2页)因为只有切换了页面抓包工具network才会抓到数据

  1. 查找存放我们需要获取的关键信息的储存位置(在 Name 这一列中查找)

显然我们这次获取的信息在就在红色框框,框起来的文件包中,点击红色框框,框起来的那段文字就会进入出现右边菜单栏的一些信息。

  1. 找到黄色框框中的Headers,在Headers 的下面找到Rrequest URL (发送请求的url地址)和 User-Agent:(UA 伪装,以那种浏览器的形式访问)还有Request Method(查看发起的post请求还是get请求)

  1. cooike有的网页爬取数据时也需要加上(复制cookie的内容,给其添加到headers当中)

关于url的动态参数,有的网页时静态大部分是动态,静态就是网页地址不变,动态就是有的参数会发生变化。

显然这次获取数据的参数strat是发生变化的,

注意观察代码的规律,start = 0 是第一页,start = 25是第二页,说明第三页就是start = 50

Logo

GitCode 天启AI是一款由 GitCode 团队打造的智能助手,基于先进的LLM(大语言模型)与多智能体 Agent 技术构建,致力于为用户提供高效、智能、多模态的创作与开发支持。它不仅支持自然语言对话,还具备处理文件、生成 PPT、撰写分析报告、开发 Web 应用等多项能力,真正做到“一句话,让 Al帮你完成复杂任务”。

更多推荐