当前位置:Gxlcms > JavaScript > nodeJs爬虫的技术点总结

nodeJs爬虫的技术点总结

时间:2021-07-01 10:21:17 帮助过:10人阅读

背景

最近打算把之前看过的nodeJs相关的内容在复习下,顺便写几个爬虫来打发无聊,在爬的过程中发现一些问题,记录下以便备忘。

依赖

用到的是在网上烂大街的cheerio库来处理爬取的内容,使用superagent处理请求,log4js来记录日志。

日志配置

话不多说,直接上代码:

  1. const log4js = require('log4js');
  2. log4js.configure({
  3. appenders: {
  4. cheese: {
  5. type: 'dateFile',
  6. filename: 'cheese.log',
  7. pattern: '-yyyy-MM-dd.log',
  8. // 包含模型
  9. alwaysIncludePattern: true,
  10. maxLogSize: 1024,
  11. backups: 3 }
  12. },
  13. categories: { default: { appenders: ['cheese'], level: 'info' } }
  14. });
  15. const logger = log4js.getLogger('cheese');
  16. logger.level = 'INFO';
  17. module.exports = logger;

以上直接导出一个logger对象,在业务文件里直接调用logger.info()等函数添加日志信息就可以,会按天生成日志。相关信息网络上一堆。

爬取内容并处理

  1. superagent.get(cityItemUrl).end((err, res) => {
  2. if (err) {
  3. return console.error(err);
  4. }
  5. const $ = cheerio.load(res.text);
  6. // 解析当前页面,获取当前页面的城市链接地址
  7. const cityInfoEle = $('.newslist1 li a');
  8. cityInfoEle.each((idx, element) => {
  9. const $element = $(element);
  10. const sceneURL = $element.attr('href'); // 页面地址
  11. const sceneName = $element.attr('title'); // 城市名称
  12. if (!sceneName) {
  13. return;
  14. }
  15. logger.info(`当前解析到的目的地是: ${sceneName}, 对应的地址为: ${sceneURL}`);
  16. getDesInfos(sceneURL, sceneName); // 获取城市详细信息
  17. ep.after('getDirInfoComplete', cityInfoEle.length, (dirInfos) => {
  18. const content = JSON.parse(fs.readFileSync(path.join(__dirname, './imgs.json')));
  19. dirInfos.forEach((element) => {
  20. logger.info(`本条数据为:${JSON.stringify(element)}`);
  21. Object.assign(content, element);
  22. });
  23. fs.writeFileSync(path.join(__dirname, './imgs.json'), JSON.stringify(content));
  24. });
  25. });
  26. });

使用superagent请求页面,请求成功后使用cheerio 来加载页面内容,然后使用类似Jquery的匹配规则来查找目的资源。

多个资源加载完成,使用eventproxy来代理事件,处理一次资源处罚一次事件,所有事件触发完成后处理数据。

以上就是最基本的爬虫了,接下来就是一些可能会出问题或者需要特别注意的地方了。。。

读写本地文件

创建文件夹

  1. function mkdirSync(dirname) {
  2. if (fs.existsSync(dirname)) {
  3. return true;
  4. }
  5. if (mkdirSync(path.dirname(dirname))) {
  6. fs.mkdirSync(dirname);
  7. return true;
  8. }
  9. return false;
  10. }

读写文件

  1. const content = JSON.parse(fs.readFileSync(path.join(__dirname, './dir.json')));
  2. dirInfos.forEach((element) => {
  3. logger.info(`本条数据为:${JSON.stringify(element)}`);
  4. Object.assign(content, element);
  5. });
  6. fs.writeFileSync(path.join(__dirname, './dir.json'), JSON.stringify(content));

批量下载资源

下载资源可能包括图片、音频等等。

使用Bagpipe处理异步并发 参考

  1. const Bagpipe = require('bagpipe');
  2. const bagpipe = new Bagpipe(10);
  3. bagpipe.push(downloadImage, url, dstpath, (err, data) => {
  4. if (err) {
  5. console.log(err);
  6. return;
  7. }
  8. console.log(`[${dstpath}]: ${data}`);
  9. });

下载资源,使用stream来完成文件写入。

  1. function downloadImage(src, dest, callback) {
  2. request.head(src, (err, res, body) => {
  3. if (src && src.indexOf('http') > -1 || src.indexOf('https') > -1) {
  4. request(src).pipe(fs.createWriteStream(dest)).on('close', () => {
  5. callback(null, dest);
  6. });
  7. }
  8. });
  9. }

编码

有时候直接使用 cheerio.load处理的网页内容,写入文件后发现是编码后的文字,可以通过

  1. const $ = cheerio.load(buf, { decodeEntities: false });

来禁止编码,

ps: encoding库和iconv-lite未能实现将utf-8编码的字符转换为中文,可能是还对API不熟悉,稍后可以关注下。

最后,附上一个匹配所有dom标签的正则

  1. const reg = /<.*?>/g;

人气教程排行