最近看了node能做爬虫,所以就试了一下,一下是整个过程的记录
1、新建文件夹baidunews
2、在上边新建的文件夹下输入npm init进行初始化
3、初始化完成后下载需要的依赖包
npm install express
npm install cheerio
npm install superagent
4、在baidunews文件夹下新建index.js文件
5、在文件中加入一下代码
const express = require('express'); const app = express(); // ... let server = app.listen(3000, function () { let host = server.address().address; let port = server.address().port; console.log('Your App is running at http://%s:%s', host, port); }); /** * [description] - 跟路由 */ // 当一个get请求 http://localhost:3000时,就会后面的async函数 app.get('/', async (req, res, next) => { res.send(hotNews); }); // 引入所需要的第三方包 const superagent= require('superagent'); let hotNews = []; // 热点新闻 let localNews = []; // 本地新闻 /** * index.js * [description] - 使用superagent.get()方法来访问百度新闻首页 */ superagent.get('http://news.baidu.com/').end((err, res) => { if (err) { // 如果访问失败或者出错,会这行这里 console.log(`热点新闻抓取失败 - ${err}`) } else { // 访问成功,请求http://news.baidu.com/页面所返回的数据会包含在res // 抓取热点新闻数据 hotNews = getHotNews(res) } }); /** * index.js * [description] - 抓取热点新闻页面 */ // 引入所需要的第三方包 const cheerio = require('cheerio'); let getHotNews = (res) => { let hotNews = []; // 访问成功,请求http://news.baidu.com/页面所返回的数据会包含在res.text中。 /* 使用cheerio模块的cherrio.load()方法,将HTMLdocument作为参数传入函数 以后就可以使用类似jQuery的$(selectior)的方式来获取页面元素 */ let $ = cheerio.load(res.text); // 找到目标数据所在的页面元素,获取数据 $('div#pane-news ul li a').each((idx, ele) => { // cherrio中$('selector').each()用来遍历所有匹配到的DOM元素 // 参数idx是当前遍历的元素的索引,ele就是当前便利的DOM元素 let news = { title: $(ele).text(), // 获取新闻标题 href: $(ele).attr('href') // 获取新闻网页链接 }; hotNews.push(news) // 存入最终结果数组 }); return hotNews };
6、在当前文件夹下中打开命令行,并在命令行中输入
node index.js
7、在浏览器中访问localhost:3000
8、在页面中显示爬取的数据