当前位置:Gxlcms > Python > 使用Python编写基于DHT协议的BT资源爬虫

使用Python编写基于DHT协议的BT资源爬虫

时间:2021-07-01 10:21:17 帮助过:83人阅读

关于DHT协议

DHT协议作为BT协议的一个辅助,是非常好玩的。它主要是为了在BT正式下载时得到种子或者BT资源。传统的网络,需要一台中央服务器存放种子或者BT资源,不仅浪费服务器资源,还容易出现单点的各种问题,而DHT网络则是为了去中心化,也就是说任意时刻,这个网络总有节点是亮的,你可以去询问问这些亮的节点,从而将自己加入DHT网络。

要实现DHT协议的网络爬虫,主要分3步,第一步是得到资源信息(infohash,160bit,20字节,可以编码为40字节的十六进制字符串),第二步是确认这些infohash是有效的,第三步是通过有效的infohash下载到BT的种子文件,从而得到对这个资源的完整描述。

其中第一步是其他节点用DHT协议中的get_peers方法向爬虫发送请求得到的,第二步是其他节点用DHT协议中的announce_peer向爬虫发送请求得到的,第三步可以有几种方式得到,比如可以去一些保存种子的网站根据infohash直接下载到,或者通过announce_peer的节点来下载到,具体如何实现,可以取决于你自己的爬虫。

DHT协议中的主要几个操作:

主要负责通过UDP与外部节点交互,封装4种基本操作的请求以及相应。

ping:检查一个节点是否“存活”

在一个爬虫里主要有两个地方用到ping,第一是初始路由表时,第二是验证节点是否存活时

find_node:向一个节点发送查找节点的请求

在一个爬虫中主要也是两个地方用到find_node,第一是初始路由表时,第二是验证桶是否存活时

get_peers:向一个节点发送查找资源的请求

在爬虫中有节点向自己请求时不仅像个正常节点一样做出回应,还需要以此资源的info_hash为机会尽可能多的去认识更多的节点。如图,get_peers实际上最后一步是announce_peer,但是因为爬虫不能announce_peer,所以实际上get_peers退化成了find_node操作。

2016319114959666.png (204×120)

announce_peer:向一个节点发送自己已经开始下载某个资源的通知

爬虫中不能用announce_peer,因为这就相当于通报虚假资源,对方很容易从上下文中判断你是否通报了虚假资源从而把你禁掉。

基于Python的DHT爬虫
修改自github开源爬虫,原作者名字有些。。,这里直接将项目地址列出:https://github.com/Fuck-You-GFW/simDHT,有github帐号的请给原作者star,后续我将结果放入db,外加用tornado做一个简单的查询界面出来放在github上,先备份一下代码

  1. #!/usr/bin/env python
  2. # encoding: utf-8
  3. import socket
  4. from hashlib import sha1
  5. from random import randint
  6. from struct import unpack
  7. from socket import inet_ntoa
  8. from threading import Timer, Thread
  9. from time import sleep
  10. from collections import deque
  11. from bencode import bencode, bdecode
  12. BOOTSTRAP_NODES = (
  13. ("router.bittorrent.com", 6881),
  14. ("dht.transmissionbt.com", 6881),
  15. ("router.utorrent.com", 6881)
  16. )
  17. TID_LENGTH = 2
  18. RE_JOIN_DHT_INTERVAL = 3
  19. TOKEN_LENGTH = 2
  20. def entropy(length):
  21. return "".join(chr(randint(0, 255)) for _ in xrange(length))
  22. def random_id():
  23. h = sha1()
  24. h.update(entropy(20))
  25. return h.digest()
  26. def decode_nodes(nodes):
  27. n = []
  28. length = len(nodes)
  29. if (length % 26) != 0:
  30. return n
  31. for i in range(0, length, 26):
  32. nid = nodes[i:i+20]
  33. ip = inet_ntoa(nodes[i+20:i+24])
  34. port = unpack("!H", nodes[i+24:i+26])[0]
  35. n.append((nid, ip, port))
  36. return n
  37. def timer(t, f):
  38. Timer(t, f).start()
  39. def get_neighbor(target, nid, end=10):
  40. return target[:end]+nid[end:]
  41. class KNode(object):
  42. def __init__(self, nid, ip, port):
  43. self.nid = nid
  44. self.ip = ip
  45. self.port = port
  46. class DHTClient(Thread):
  47. def __init__(self, max_node_qsize):
  48. Thread.__init__(self)
  49. self.setDaemon(True)
  50. self.max_node_qsize = max_node_qsize
  51. self.nid = random_id()
  52. self.nodes = deque(maxlen=max_node_qsize)
  53. def send_krpc(self, msg, address):
  54. try:
  55. self.ufd.sendto(bencode(msg), address)
  56. except Exception:
  57. pass
  58. def send_find_node(self, address, nid=None):
  59. nid = get_neighbor(nid, self.nid) if nid else self.nid
  60. tid = entropy(TID_LENGTH)
  61. msg = {
  62. "t": tid,
  63. "y": "q",
  64. "q": "find_node",
  65. "a": {
  66. "id": nid,
  67. "target": random_id()
  68. }
  69. }
  70. self.send_krpc(msg, address)
  71. def join_DHT(self):
  72. for address in BOOTSTRAP_NODES:
  73. self.send_find_node(address)
  74. def re_join_DHT(self):
  75. if len(self.nodes) == 0:
  76. self.join_DHT()
  77. timer(RE_JOIN_DHT_INTERVAL, self.re_join_DHT)
  78. def auto_send_find_node(self):
  79. wait = 1.0 / self.max_node_qsize
  80. while True:
  81. try:
  82. node = self.nodes.popleft()
  83. self.send_find_node((node.ip, node.port), node.nid)
  84. except IndexError:
  85. pass
  86. sleep(wait)
  87. def process_find_node_response(self, msg, address):
  88. nodes = decode_nodes(msg["r"]["nodes"])
  89. for node in nodes:
  90. (nid, ip, port) = node
  91. if len(nid) != 20: continue
  92. if ip == self.bind_ip: continue
  93. if port < 1 or port > 65535: continue
  94. n = KNode(nid, ip, port)
  95. self.nodes.append(n)
  96. class DHTServer(DHTClient):
  97. def __init__(self, master, bind_ip, bind_port, max_node_qsize):
  98. DHTClient.__init__(self, max_node_qsize)
  99. self.master = master
  100. self.bind_ip = bind_ip
  101. self.bind_port = bind_port
  102. self.process_request_actions = {
  103. "get_peers": self.on_get_peers_request,
  104. "announce_peer": self.on_announce_peer_request,
  105. }
  106. self.ufd = socket.socket(socket.AF_INET, socket.SOCK_DGRAM, socket.IPPROTO_UDP)
  107. self.ufd.bind((self.bind_ip, self.bind_port))
  108. timer(RE_JOIN_DHT_INTERVAL, self.re_join_DHT)
  109. def run(self):
  110. self.re_join_DHT()
  111. while True:
  112. try:
  113. (data, address) = self.ufd.recvfrom(65536)
  114. msg = bdecode(data)
  115. self.on_message(msg, address)
  116. except Exception:
  117. pass
  118. def on_message(self, msg, address):
  119. try:
  120. if msg["y"] == "r":
  121. if msg["r"].has_key("nodes"):
  122. self.process_find_node_response(msg, address)
  123. elif msg["y"] == "q":
  124. try:
  125. self.process_request_actions[msg["q"]](msg, address)
  126. except KeyError:
  127. self.play_dead(msg, address)
  128. except KeyError:
  129. pass
  130. def on_get_peers_request(self, msg, address):
  131. try:
  132. infohash = msg["a"]["info_hash"]
  133. tid = msg["t"]
  134. nid = msg["a"]["id"]
  135. token = infohash[:TOKEN_LENGTH]
  136. msg = {
  137. "t": tid,
  138. "y": "r",
  139. "r": {
  140. "id": get_neighbor(infohash, self.nid),
  141. "nodes": "",
  142. "token": token
  143. }
  144. }
  145. self.send_krpc(msg, address)
  146. except KeyError:
  147. pass
  148. def on_announce_peer_request(self, msg, address):
  149. try:
  150. infohash = msg["a"]["info_hash"]
  151. #print msg["a"]
  152. tname = msg["a"]["name"]
  153. token = msg["a"]["token"]
  154. nid = msg["a"]["id"]
  155. tid = msg["t"]
  156. if infohash[:TOKEN_LENGTH] == token:
  157. if msg["a"].has_key("implied_port") and msg["a"]["implied_port"] != 0:
  158. port = address[1]
  159. else:
  160. port = msg["a"]["port"]
  161. if port < 1 or port > 65535: return
  162. self.master.log(infohash, (address[0], port),tname)
  163. except Exception:
  164. pass
  165. finally:
  166. self.ok(msg, address)
  167. def play_dead(self, msg, address):
  168. try:
  169. tid = msg["t"]
  170. msg = {
  171. "t": tid,
  172. "y": "e",
  173. "e": [202, "Server Error"]
  174. }
  175. self.send_krpc(msg, address)
  176. except KeyError:
  177. pass
  178. def ok(self, msg, address):
  179. try:
  180. tid = msg["t"]
  181. nid = msg["a"]["id"]
  182. msg = {
  183. "t": tid,
  184. "y": "r",
  185. "r": {
  186. "id": get_neighbor(nid, self.nid)
  187. }
  188. }
  189. self.send_krpc(msg, address)
  190. except KeyError:
  191. pass
  192. class Master(object):
  193. def log(self, infohash,address=None,tname=None):
  194. hexinfohash = infohash.encode("hex")
  195. print "info_hash is: %s,name is: %s from %s:%s" % (
  196. hexinfohash,tname, address[0], address[1]
  197. )
  198. print "magnet:?xt=urn:btih:%s&dn=%s" % (hexinfohash, tname)
  199. # using example
  200. if __name__ == "__main__":
  201. # max_node_qsize bigger, bandwith bigger, speed higher
  202. dht = DHTServer(Master(), "0.0.0.0", 6882, max_node_qsize=200)
  203. dht.start()
  204. dht.auto_send_find_node()

PS: DHT协议中有几个重点的需要澄清的地方:

1. node与infohash同样使用160bit的表示方式,160bit意味着整个节点空间有2^160 = 730750818665451459101842416358141509827966271488,是48位10进制,也就是说有百亿亿亿亿亿个节点空间,这么大的节点空间,是足够存放你的主机节点以及任意的资源信息的。

2. 每个节点有张路由表。每张路由表由一堆K桶组成,所谓K桶,就是桶中最多只能放K个节点,默认是8个。而桶的保存则是类似一颗前缀树的方式。相当于一张8桶的路由表中最多有160-4个K桶。

3. 根据DHT协议的规定,每个infohash都是有位置的,因此,两个infohash之间就有距离一说,而两个infohash的距离就可以用异或来表示,即infohash1 xor infohash2,也就是说,高位一样的话,他们的距离就近,反之则远,这样可以快速的计算两个节点的距离。计算这个距离有什么用呢,在DHT网络中,如果一个资源的infohash与一个节点的infohash越近则该节点越有可能拥有该资源的信息,为什么呢?可以想象,因为人人都用同样的距离算法去递归的询问离资源接近的节点,并且只要该节点做出了回应,那么就会得到一个announce信息,也就是说跟资源infohash接近的节点就有更大的概率拿到该资源的infohash

4. 根据上述算法,DHT中的查询是跳跃式查询,可以迅速的跨越的的节点桶而接近目标节点桶。之所以在远处能够大幅度跳跃,而在近处只能小幅度跳跃,原因是每个节点的路由表中离自身越接近的节点保存得越多,如下图

2016319115044824.jpg (490×417)

5. 在一个DHT网络中当爬虫并不容易,不像普通爬虫一样,看到资源就可以主动爬下来,相反,因为得到资源的方式(get_peers, announce_peer)都是被动的,所以爬虫的方式就有些变化了,爬虫所要做的事就是像个正常节点一样去响应其他节点的查询,并且得到其他节点的回应,把其中的数据收集下来就算是完成工作了。而爬虫唯一能做的,是尽可能的去多认识其他节点,这样,才能有更多其他节点来向你询问。

6. 有人说,那么我把DHT爬虫的K桶中的容量K增大是不是就能增加得到资源的机会,其实不然,之前也分析过了,DHT爬虫最重要的信息来源全是被动的,因为你不能增大别人的K,所以距离远的节点保存你自身的概率就越小,当然距离远的节点去请求你的概率相对也比较小。

人气教程排行