爬虫程序优化DNS请求的必要性
当爬虫程序从HTML页面上提取URL时,一般情况下,应该有很多都是这个站点内部的URL。那么当这个站点里的某个URL请求过DNS以后,就应该采用某种数据结构把这个值保存起来。以后再发现这个站点内的URL后,就把域名部分的IP取出给这个URL,从而减少不必要的DNS请求。这样可以大大加快抓取页面的速度,提高效率。
优化DNS请求的方式
对于同一个站点内部的页面应该设一个数据结构以保存,并且方便查找。这样,当爬虫系统得到了一个新的URL以后,可以快速的转换地址格式并进行连接。
void * urlparser(void *none) { Surl *url = NULL; Url *ourl = NULL; map<string, string>::const_iterator itr; while(1) { pthread_mutex_lock(&sq_lock); while (surl_queue.empty()) { pthread_cond_wait(&sq_cond, &sq_lock); } url = surl_queue.front(); surl_queue.pop(); pthread_mutex_unlock(&sq_lock); ourl = surl2ourl(url); itr = host_ip_map.find(ourl->domain); if (itr == host_ip_map.end()) { /* not found */ /* dns resolve */ event_base * base = event_init(); evdns_init(); evdns_resolve_ipv4(ourl->domain, 0, dns_callback, ourl); event_dispatch(); event_base_free(base); } else { ourl->ip = strdup(itr->second.c_str()); push_ourlqueue(ourl); } } //evdns_base_free(dnsbase, 0); //event_base_free(base); return NULL; }