久久r热视频,国产午夜精品一区二区三区视频,亚洲精品自拍偷拍,欧美日韩精品二区

您的位置:首頁技術文章
文章詳情頁

Python使用requests模塊爬取百度翻譯

瀏覽:4日期:2022-07-13 09:44:53

requests模塊:

python中原生的一款基于網絡請求的模塊,功能非常強大,簡單便捷,效率極高。

作用:模擬瀏覽器發請求。

提示:老版使用 urllib模塊,但requests比urllib模塊要簡單好用,現在學習requests模塊即可!

requests模塊編碼流程

指定url

1.1 UA偽裝

1.2 請求參數的處理

2.發起請求

3.獲取響應數據

4.持久化存儲

環境安裝:

pip install requests

案例一:破解百度翻譯(post請求)

1.代碼如下:

#爬取百度翻譯#導入模塊import requestsimport json#UA偽裝:將對應的User-Agent封裝到一個字典中headers = { ’user-agent’: ’Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) ’ ’Chrome/57.0.2987.98 Safari/537.36’} #網頁訪問連接 url=’https://fanyi.baidu.com/sug’ #處理url攜帶的參數:封裝到字典中word=input('input a word: ')data={ ’kw’: word}#請求發送res=requests.post(url=url,data=data,headers=headers)#獲取響應數據:json()方法返回的是obj(如果確認響應數據是json類型的,才可以使用json())dic_obj=res.json()#持久化存儲filename=word+’.json’fp=open(filename,’w’,encoding=’utf-8’)json.dump(dic_obj,fp=fp,ensure_ascii=False)#打印完成提示print(’finish’)

其中:

https://fanyi.baidu.com/sug 這個url的定位如下圖:

Python使用requests模塊爬取百度翻譯

2.運行結果

Python使用requests模塊爬取百度翻譯

Python使用requests模塊爬取百度翻譯

案例二:爬取搜狗頁面數據(get請求)

1.代碼如下

import requestsif __name__ == '__main__': #step_1:指定url url = ’https://www.sogou.com/’ #step_2:發起請求 #get方法會返回一個響應對象 response = requests.get(url=url) #step_3:獲取響應數據.text返回的是字符串形式的響應數據 page_text = response.text print(page_text) #step_4:持久化存儲 with open(’./sogou.html’,’w’,encoding=’utf-8’) as fp: fp.write(page_text) print(’爬取數據結束?。?!’)

2.運行結果如下:

Python使用requests模塊爬取百度翻譯

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持好吧啦網。

標簽: 百度 Python
相關文章:
主站蜘蛛池模板: 武冈市| 小金县| 独山县| 扬州市| 沙田区| 离岛区| 平塘县| 岳普湖县| 莲花县| 汕尾市| 淮北市| 毕节市| 福泉市| 宁津县| 化隆| 太湖县| 东乡族自治县| 石台县| 体育| 金堂县| 安义县| 壶关县| 太康县| 清水河县| 东光县| 尼玛县| 唐河县| 论坛| 桑植县| 聊城市| 临沧市| 布尔津县| 文昌市| 夏邑县| 陵川县| 若羌县| 长宁县| 白山市| 体育| 紫金县| 精河县|