• wordpress api无法创建标签/分类/文章解决思路

    使用wordpress api接口创建标签、分类、文章时,返回的结果是列表而不是字典,并且没有创建对应信息解决方法:1. 查看网址链接是否是http开头,如果是,请切换成https。

    爬虫 75 人阅读 0 条评论
  • wordpress api错误:The provided password is an invalid application password

    使用wordpress 接口时,提示错误信息:{ 'code': 'incorrect_password',  'message': 'The provided password is an invalid application password.',  'data': {'status': 401} }相关代码:class WordPress(): &nbs

    爬虫 83 人阅读 0 条评论
  • python flickr api模块

    None
    爬虫 117 人阅读 0 条评论
  • urllib.request.urlopen get配置参数

    urllib.request.urlopen get配置参数from urllib import request,parse def get(url: str,params=None) -> str:     if params:         params=parse.urlencode(params)        

    爬虫 173 人阅读 0 条评论
  • requests get参数配置样例

    requests get参数配置样例import requests def get_dynasty(dynasty="xianqin",page=1):     url="https://shici.com.cn/poet/"     params={         "dynasty" :"xianqin",  

    爬虫 168 人阅读 0 条评论
  • python selenium清除信息

    python selenium清除信息from selenium.webdriver.common.action_chains import ActionChains from selenium.webdriver.common.keys import Keys import time driver = webdriver.Chrome("path/to/chromedriver.exe") def delete_cache(first=False):  &nbs

    爬虫 221 人阅读 0 条评论
  • python selenium打开多个窗口,和窗口之前切换

    selenium 打开多个窗口from selenium import webdriver driver = webdriver.Chrome(executable_path="./chromedriver 2") for i in range(5):     tab_name = f'tab{i}'     script = f"win

    爬虫 395 人阅读 0 条评论
  • blogger javascript使用google api

    与 WordPress 一样,您也可以使用 Google Apps 脚本管理您的 Blogger 博客。您需要从 Google Developers 控制台启用 Blogger API,并在您的 Google Apps 脚本项目中包含 Apps Script oAuth2 库。范围应设置为以下任一项,具体取决于是要对博客进行读访问还是写访问。  https://www.googleapis.com/auth/blogger.readonly该代码段连接到 Blogger API 并获取当前经过身份验证的用户的 Blogger 博客列表。然后在控制台日志中输出博客的 ID、名称和博客

    爬虫 375 人阅读 0 条评论
  • beautifulsoup 使用正则(re) 匹配标签

    使用beautifulsoup 使用正则(re) 匹配标签示例网址:https://baike.baidu.com/item/%E5%88%98%E5%8F%8B/7196 提取页面上链接格式为:/historylist/from bs4 import BeautifulSoup soup = BeautifulSoup(html_content, 'lxml') a_ele=soup.find("a",{'href':re.compile("/historylist/

    爬虫 961 人阅读 0 条评论
  • python3 requests 爬虫请求头解决gzip, deflate, br中文乱码问题

    使用python3做爬虫的时候,一些网站为了防爬虫会在请求头设置一些检查机制,因此我们就需要添加请求头,伪装成浏览器正常访问。字段情况,详见下表:请求头字段说明响应头字段Accept告知服务器发送何种媒体类型Content-TypeAccept-Language告知服务器发送何种语言Content-LanguageAccept-Charset告知服务器发送何种字符集Content-TypeAccept-Encoding告知服务器采用何种压缩方式Content-Encoding"Accept-Encoding":是浏览器发给服务器,声明浏览器支持的编码类型。一般有gzip,d

    爬虫 3170 人阅读 0 条评论