歡迎您來到潮人地東莞seo博客,本站專業免費分享多元化的seo網站優化技術干貨以及解答seo各種常見問題的博客網站

熱門關鍵詞: seo優化 seo推廣 seo技術 seo博客 seo網站推廣怎么做 seo怎么做 新手做seo怎么做
當前位置:seo博客首頁 > seo技術分享 >

seo技術:Python批量查詢域名whois信息(到期域名時間查詢小工具)

發布時間:2023-08-20 21:24:02 文章出處:潮人地東莞seo博客 作者:東莞seo博客 閱讀數量:

潮人地東莞seo博客小編下面跟大家分享關于seo技術:Python批量查詢域名whois信息(到期域名時間查詢小工具)等問題,希望seo專員在做seo優化的過程中有所幫助,內容僅供參考。

前言

由于公司有大量域名信息需要定期查看是否需要續期,前期都是人工操作比較耗時、耗力。所以衍生了這個小工具。

實現了查詢域名到期時間、并且將近7天內到期的域名在Excel中標紅,當然你也可以添加短信提醒和郵件提醒

代碼步驟1、將域名粘貼到指定txt文件中

比如:domain.txt

seo博客相關推薦閱讀:seo優化技術:塔城seo網站優化(塔城網站推廣)

2、將指定txt文件中內容讀取到list中

# 批量讀取文件中的域名defread_file(filePath):withopen(filePath, "r") asf: # 打開文件data = f.readlines() # 讀取文件returndata3、通過某網站獲取域名到期時間

# 通過某網站獲取域名到期時間 def geseo實戰課堂外推快速排名t_expiry_date(url_list): url_expiry_date_list = [] forurl inurl_list: url_expiry_date_dict = {} time.sleep(random.randrange(3)) req_whois = urllib.request.urlopen('http://whois.xxxxxx.com/'+ url) result = req_whois.read().decode() html = etree.HTML(result) endTimes = html.xpath('//a[@]/preceding-sibling::span[1]/text()') iflen(endTimes) > 0: endTime = endTimes[0].replace('年', '-').replace('月', '-').replace('日', '') else: errorInfo = html.xpath('//p[@]') endTime = errorInfo[0].xpath('string(.)').strip() url_expiry_date_dict['url'] = url.replace('\n', '') url_expiry_date_dict['endTime'] = endTime pprint.pprint(url_expiry_date_dict) url_expiry_date_list.append(url_expiry_date_dict) pprint.pprint(url_expiry_date_list) returnurl_expiry_date_list4、將結果寫入Excel文件

# 寫入Excel文件def write_excel(domain_list): # 創建一個新的文件withxlsxwriter.Workbook('host_ip.xlsx') asworkbook: # 添加一個工作表worksheet = workbook.add_worksheet('域名信息') # 設置一個加粗的格式bold = workbook.add_format({"bold": True}) # 分別設置一下 A 和 B 列的寬度worksheet.set_column('A:A', 50) worksheet.set_column('B:B', 15) # 先把表格的抬頭寫上,并設置字體加粗worksheet.write('A1', '域名', bold) worksheet.write('B1', '信息', bold) # 設置數據寫入文件的初始行和列的索引位置row= 1col= 0fordomain_ex_date indomain_list: url= domain_ex_date['url'] endTime = domain_ex_date['endTime'] currDate = datetime.today().date() try: endDate = datetime.strptime(endTime, "%Y-%m-%d").date() diffDate = endDate - currDate ifdiffDate.days <= 7: style= workbook.add_format({'font_color': "red"}) else: style= workbook.add_format({'font_color': "black"}) except: style= workbook.add_format({'font_color': "red"}) pprint.pprint(url+ ': '+ endTime) worksheet.write(row, col, url, style) worksheet.write(row, col+ 1, endTime, style) row+= 15、運行

urls = read_file('domain.txt') urls_list = get_expiry_date(urls) write_excel(urls_list)

運行結果:

seo技術:Python批量查詢域名whois信息(到期域名時間查詢小工具)

6、完整代碼

#!/usr/bin/env python# -*- coding: utf-8 -*-# Author:高效碼農import pprint import time import random import xlsxwriter from datetime import datetime import urllib.request from lxml import etree # 批量讀取文件中的域名def read_file(filePath): withopen(filePath, "r") asf: # 打開文件data= f.readlines() # 讀取文件returndata# 通過某網站獲取域名到期時間defget_expiry_date(url_list): url_expiry_date_list = [] forurlinurl_list: url_expiry_date_dict = {} time.sleep(random.randrange(3)) req_whois = urllib.request.urlopen('http://whois.xxxxxx.com/'+ url) result= req_whois.read().decode() html = etree.HTML(result) endTimes = html.xpath('//a[@]/preceding-sibling::span[1]/text()') iflen(endTimes) > 0: endTime = endTimes[0].replace('年', '-').replace('月', '-').replace('日', '') else: errorInfo = html.xpath('//p[@]') endTime = errorInfo[0].xpath('string(.)').strip() url_expiry_date_dict['url'] = url.replace('\n', '') url_expiry_date_dict['endTime'] = endTime pprint.pprin東莞seo優化網站排名t(url_expiry_date_dict) url_expiry_date_list.append(url_expiry_date_dict) pprint.pprint(url_expiry_date_list) returnurl_expiry_date_list # 寫入Excel文件defwrite_excel(domain_list): # 創建一個新的文件withxlsxwriter.Workbook('host_ip.xlsx') asworkbook: # 添加一個工作表worksheet = workbook.add_worksheet('域名信息') # 設置一個加粗的格式bold = workbook.add_format({"bold": True}) # 分別設置一下 A 和 B 列的寬度worksheet.set_column('A:A', 50) worksheet.set_column('B:B', 15) # 先把表格的抬頭寫上,并設置字體加粗worksheet.write('A1', '域名', bold) worksheet.write('B1', '信息', bold) # 設置數據寫入文件的初始行和列的索引位置row= 1col= 0fordomain_ex_date indomain_list: url= domain_ex_date['url'] endTime = domain_ex_date['endTime'] currDate = datetime.today().date() try: endDate = datetime.strptime(endTime, "%Y-%m-%d").date() diffDate = endDate - currDate ifdiffDate.days <= 7: style= workbook.add_format({'font_color': "沈陽優化seo排名前十red"}) else: style= workbook.add_format({'font_color': "black"}) except: style= workbook.add_format({'font_color': "red"}) pprint.pprint(url+ ': '+ endTime) worksheet.write(row, col, url, style) worksheet.write(row, col+ 1, endTime, style) row+= 1urls = read_file('domain.txt') urls_list = get_expiry_date(urls) write_excel(urls_list)

以上是潮人地東莞seo博客跟大家分享關于seo技術:Python批量查詢域名whois信息(到期域名時間查詢小工具)等問題,希望能對大家有所幫助,若有不足之處,請諒解,我們大家可以一起討論關于網站seo優化排名的技巧,一起學習,以上內容僅供參考。

閱讀全文
本文標題"seo技術:Python批量查詢域名whois信息(到期域名時間查詢小工具)":http://www.420113.com/jsfx_25476.html
本文版權歸潮人地seo博客所有,歡迎轉載,但未經作者同意必須在文章頁面給出原文連接,否則保留追究法律責任的權利。
標簽:
合作伙伴
主站蜘蛛池模板: 国产成人无码区免费网站| 亚洲AV日韩AV永久无码色欲| 国产AV无码专区亚洲AWWW| 无码国产精品一区二区免费模式| 无码国产乱人伦偷精品视频| 无码播放一区二区三区| 日韩加勒比一本无码精品| 高清无码视频直接看| 免费无码精品黄AV电影| 人妻丰满熟妇无码区免费| 精品无码成人网站久久久久久| 亚洲av无码国产精品色午夜字幕| 人妻无码久久精品人妻| 人妻无码中文久久久久专区| 无码人妻AⅤ一区二区三区水密桃| 久久av无码专区亚洲av桃花岛| 亚洲&#228;v永久无码精品天堂久久| 亚洲AV永久纯肉无码精品动漫| 国产在线观看无码免费视频| 99国产精品无码| 无码精品久久久天天影视| 亚洲中文字幕无码爆乳av中文| 伊人久久一区二区三区无码| 亚洲AV日韩AV高潮无码专区| 一级电影在线播放无码| 亚洲AV无码一区二区三区网址| 亚洲一区精品无码| 人妻无码一区二区不卡无码av | 下载天堂国产AV成人无码精品网站 | 无码专区AAAAAA免费视频| 国产精品无码国模私拍视频 | 99国产精品无码| 人妻丰满熟妇AV无码片| 亚洲熟妇无码另类久久久| 亚洲伊人成无码综合网| 无码精品人妻一区二区三区免费| 无码中文2020字幕二区| 东京热av人妻无码| 狠狠躁狠狠爱免费视频无码| 无码的免费不卡毛片视频| 亚洲日韩VA无码中文字幕|