【Python安全攻防】【网络安全】一、常见被动信息搜集本领 ...

嚴華  金牌会员 | 2024-6-15 02:30:09 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 548|帖子 548|积分 1644

一、IP查询

原理:通过目标URL查询目标的IP地址。
所需库socket
Python代码示例:
  1. import socket
  2. ip = socket.gethostbyname('www.163.com')
  3. print(ip)
复制代码
上述代码中,使用gethostbyname函数。该函数位于Python内置的socket库中,其原型如下:
  1. def gethostbyname(host): # real signature unknown; restored from __doc__
  2.     """
  3.     gethostbyname(host) -> address
  4.    
  5.     Return the IP address (a string of the form '255.255.255.255') for a host.
  6.     """
  7.     pass
复制代码
参数host为目标的URL,返回对应的ip地址。
示例代码输出:
  1. 125.39.47.211
  2. Process finished with exit code 0
复制代码
二、Whois查询

原理:用来查询域名是否已经被注册,以及注册域名的具体信息。
所需库:whois
安装whois模块:
  1. pip install python-whois
复制代码

记录
执行上述命令后,导入会报错(找不到Whois模块)(在PyCharm中,IDLE则未出现此问题),需要在报错处再次执行安装命令。另一个方法是在终端中直接执行安装命令,并在IDLE中运行代码:


Python代码示例:
  1. from whois import whois
  2. data = whois("www.163.com")
  3. print(data)
复制代码
示例代码输出(含注释阐明):
  1. {
  2.   "domain_name": [  # 域名:163.com
  3.     "163.COM",
  4.     "163.com"
  5.   ],
  6.   "registrar": "MarkMonitor Information Technology (Shanghai) Co., Ltd.",  # 注册公司
  7.   "whois_server": "whois.markmonitor.com",  # whois服务器地址
  8.   "referral_url": null,
  9.   "updated_date": [  # 更新日期和时间
  10.     "2023-09-22 06:35:34",
  11.     "2024-04-29 01:59:31+00:00"
  12.   ],
  13.   "creation_date": [  # 创建日期和时间
  14.     "1997-09-15 04:00:00",
  15.     "1997-09-15 04:00:00+00:00"
  16.   ],
  17.   "expiration_date": [  # 过期日期和时间
  18.     "2027-09-14 04:00:00",
  19.     "2027-09-14 04:00:00+00:00"
  20.   ],
  21.   "name_servers": [  # DNS解析服务器地址
  22.     "NS1.NEASE.NET",
  23.     "NS2.166.COM",
  24.     "NS3.NEASE.NET",
  25.     "NS4.NEASE.NET",
  26.     "NS5.NEASE.NET",
  27.     "NS6.NEASE.NET",
  28.     "NS8.166.COM",
  29.     "ns4.nease.net",
  30.     "ns2.166.com",
  31.     "ns1.nease.net",
  32.     "ns6.nease.net",
  33.     "ns5.nease.net",
  34.     "ns8.166.com",
  35.     "ns3.nease.net"
  36.   ],
  37.   "status": [  # 服务器状态
  38.     "clientDeleteProhibited https://icann.org/epp#clientDeleteProhibited",
  39.     "clientTransferProhibited https://icann.org/epp#clientTransferProhibited",
  40.     "clientUpdateProhibited https://icann.org/epp#clientUpdateProhibited",
  41.     "serverDeleteProhibited https://icann.org/epp#serverDeleteProhibited",
  42.     "serverTransferProhibited https://icann.org/epp#serverTransferProhibited",
  43.     "serverUpdateProhibited https://icann.org/epp#serverUpdateProhibited",
  44.     "clientUpdateProhibited (https://www.icann.org/epp#clientUpdateProhibited)",
  45.     "clientTransferProhibited (https://www.icann.org/epp#clientTransferProhibited)",
  46.     "clientDeleteProhibited (https://www.icann.org/epp#clientDeleteProhibited)"
  47.   ],
  48.   "emails": [  # 联络邮箱
  49.     "abusecomplaints@markmonitor.com",
  50.     "whoisrequest@markmonitor.com"
  51.   ],
  52.   "dnssec": "unsigned",
  53.   "name": null,
  54.   "org":  "\u5e7f\u5dde\u7f51\u6613\u8ba1\u7b97\u673a\u7cfb\u7edf\u6709\u9650\u516c\u53f8",
  55.   "address": null,
  56.   "city": null,
  57.   "state": "Guang Dong",  # 城市(对应美国的“州”):广东
  58.   "registrant_postal_code": null,  # 注册者邮编(无)
  59.   "country": "CN"  # 国家码
  60. }
复制代码
三、子域名挖掘

通过必应(必应搜刮引擎)举行子域名搜集:
起首确保安装有requests库、bs4库、urllib库,安装这些库的命令和过程如下:


Python代码示例:
  1. import requests
  2. from bs4 import BeautifulSoup
  3. from urllib.parse import urlparse
  4. import sys
  5. def bing_search(site, pages):
  6.     Subdomain = []
  7.     headers = {"User-Agent": "Mozilla/5.0 (X11; Linux x86_64; rv:68.0) Gecko/20100101 Firefox/68.0",
  8.                "Accept": "text/html,application/xhtml+xml, application/xml;q=0.9,*/*;q=0.8",
  9.                "Referer": "https://cn.bing.com"
  10.               }
  11.     for i in range(1, int(pages)+1):
  12.         url = "https://cn.bing.com/search?q=site%3a"+site+"&go=Search&qs=ds&first="+ str((int(i)-1) * 10) + "&FROM=PERE"
  13.         html = requests.get(url, headers=headers)
  14.         soup = BeautifulSoup(html.content, 'html.parser')
  15.         job_bt = soup.findAll('h2')
  16.         for i in job_bt:
  17.             link = i.a.get('href')
  18.             domain = str(urlparse(link).scheme + "://" + urlparse(link).netloc)
  19.             if domain in Subdomain:
  20.                 pass
  21.             else:
  22.                 Subdomain.append(domain)
  23.                 print(domain)
  24. if __name__ == '__main__':
  25.     if len(sys.argv) == 3:
  26.         site = sys.argv[1]  # 参数1:网址
  27.         page = sys.argv[2]  # 参数2:获取搜索引擎页数
  28.     else:
  29.         print("usage: %s baidu.com 10" % sys.argv[0])
  30.         sys.exit(-1)
  31.     Subdomain = bing_search(site,page)
复制代码
对域名baidu.com举行子域名网络,获取50页搜刮结果:

参考书目

《Python安全攻防——渗透测试实战指南》,MS08067安全实验室 编著,北京,机械工业出版社,2021年10月第1版。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

嚴華

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表