久久r热视频,国产午夜精品一区二区三区视频,亚洲精品自拍偷拍,欧美日韩精品二区

您的位置:首頁技術(shù)文章
文章詳情頁

python - 使用scrapy的時候,循環(huán)為什么只能獲取第一頁的

瀏覽:145日期:2022-07-04 18:26:20

問題描述

python - 使用scrapy的時候,循環(huán)為什么只能獲取第一頁的

class OnlineSpider(scrapy.Spider):name = 'online'allowed_domains = ['www.onlinedown.net']start_urls = [’http://www.onlinedown.net/new/android/’,’http://www.onlinedown.net/new/ios/’,’http://www.onlinedown.net/new/windows/’]#model = Model(’onlinedown’)def start_request(self): for url in self.start_urls:for x in range(1, 100): detail_url = url + str(x) + ’.html’ print detail_url yield scrapy.Request(detail_url, callback = self.parse)

每頁是35條,結(jié)果是105條。這是為什么呢。

問題解答

回答1:

parse函數(shù)怎么寫的啊

回答2:

你的parse方法呢?

標簽: Python 編程
主站蜘蛛池模板: 迁西县| 正蓝旗| 浑源县| 磐安县| 松滋市| 卫辉市| 遂溪县| 井研县| 江安县| 上栗县| 彩票| 佛山市| 扶余县| 广南县| 甘南县| 上思县| 玛多县| 瑞金市| 英吉沙县| 鸡西市| 佛冈县| 馆陶县| 辉县市| 泸州市| 志丹县| 古交市| 广灵县| 延吉市| 卢湾区| 淳安县| 遂溪县| 当涂县| 鄱阳县| 张家港市| 敖汉旗| 通州区| 呈贡县| 贵溪市| 绿春县| 娄底市| 图片|