最近因为剧荒,老大追了爱奇艺的一部网剧,由丁墨的同名小说《美人为馅》改编,目前已经放出两季,虽然整部剧槽点满满,但是老大看得不亦乐乎,并且在看完第二季之后跟我要小说资源,直接要奔原著去看结局……
随手搜了下,都是在线资源,下载的话需要登录,注册登录好麻烦,写个爬虫玩玩也好,于是动手用 node 写了一个,这里做下笔记
工作流程
- 获取 URLs 列表(请求资源
request
模块) - 根据 URLs 列表获取相关页面源码(可能遇到页面编码问题,
iconv-lite
模块) - 源码解析,获取小说信息(
cheerio
模块) - 保存小说信息到 Markdown 文件,并且加适当修饰以及章节信息(写文件
fs
、同步请求资源sync-request
模块) - Markdown 转 PDF (使用 Pandoc 或者 Chrome 的打印功能)
获取 URLs
根据小说的导航页,获取小说所有章节的 URL,并且以 JSON 数组的方式存储。
- 首选通过
http.get()
方法获取页面源码 - 获取到源码,打印发现中文乱码,查看发现
charset = 'gbk'
,需要进行转码 - 使用
iconv-lite
模块进行转码,中文显示正常后开始解析源码,获取需要的 URL,为了更方便地解析,需要引进cheerio
模块,cheerio
可以理解为运行在后台的 jQuery,用法与 jQuery 也十分相似,熟悉 jQuery 的同学可以很快的上手 - 将源码加载进
cheerio
,分析了源码后得知所有章节信息都存于被div
包裹的a
标签中,通过cheerio
取出符合条件的a
标签组,进行遍历,获取章节的 title 和 URL,保存为对象,存进数组,(因为链接中存储的 URL 不完整,所以存储时需要补齐) - 将对象数组序列化,写进
list.json
文件
var http = require("http") var fs = require("fs") var cheerio = require("cheerio") var iconv = require("iconv-lite") var url = 'http://www.17fa.com/files/article/html/90/90747/index.html' http.get(url, function(res) { //资源请求 var chunks = [] res.on('data', function(chunk) { chunks.push(chunk) }) res.on('end', function() { var html = iconv.decode(Buffer.concat(chunks), 'gb2312') //转码操作 var $ = cheerio.load(html, { decodeEntities: false }) var content = $("tbody") var links = [] $('div').children('a').each(function(i, elem) { var link = new Object() link.title = $(this).text() link.link = 'http://www.17fa.com/files/article/html/90/90747/' + $(this).attr('href') //补齐 URL 信息 if (i > 5) { links.push(link) } }) fs.writeFile("list.json", JSON.stringify(links), function(err) { if (!err) { console.log("写文件成功") } }) }).on('error', function() { console.log("网页访问出错") }) })
获取的列表示例
[{ "title": "3 法医司白", "link": "http://www.17fa.com/files/article/html/90/90747/16548771.html" }, { "title": "4 第1个梦 ", "link": "http://www.17fa.com/files/article/html/90/90747/16548772.html" }, { "title": "5 刑警韩沉 ", "link": "http://www.17fa.com/files/article/html/90/90747/16548773.html" }, { "title": "6 最初之战", "link": "http://www.17fa.com/files/article/html/90/90747/16548774.html " }]
获取数据
有了 URLs 列表,接下来的工作就很机械了,遍历 URLs 列表请求资源,获取源码,解析源码,获取小说,写文件,但是,因为最终将所有的章节保存入一个文件,要保证章节的顺序,因此写文件需要 同步操作,实际上,我在编码的时候所有的操作都改成了同步方式
获取源码
通过解析读取的 list.json
文件,获取到 URLs 列表,遍历列表获取资源,因为需要确保章节的顺序,所以这里引进 sync-request
模块进行同步 request 请求资源,请求资源后照例转码
var http = require("http") var fs = require("fs") var cheerio = require("cheerio") var iconv = require("iconv-lite") var request = require('sync-request') var urlList = JSON.parse(fs.readFileSync('list.json', 'utf8')) function getContent(chapter) { var res = request('GET',chapter.link) var html = iconv.decode(res.body, 'gb2312') //获取源码 } for (let i = 0; i < urlList.length; i++) { getContent(urlList[i]) }
解析源码,获取小说
还是通过 cheerio
模块获取小说内容,避免影响观感,写操作之前去除内容中的的 html 标签
function getContent(chapter) { var res = request('GET',chapter.link) var html = iconv.decode(res.body, 'gb2312') var $ = cheerio.load(html, { decodeEntities: false }) var content = ($("div#r1c").text()).replace(/\ /g, '') }
保存小说
写操作也需要同步操作,因此使用了同步写函数 fs.writeFileSync()
和 同步添加函数 fs.appendFileSync()
,第一次写使用写函数,之后的内容都是进行 append 操作,为了改善阅读体验,每个章节前添加标题
var http = require("http") var fs = require("fs") var cheerio = require("cheerio") var iconv = require("iconv-lite") var path = require('path') var urlList = JSON.parse(fs.readFileSync('list.json', 'utf8')) function getContent(chapter) { console.log(chapter.link) http.get(chapter.link, function(res) { var chunks = [] res.on('data', function(chunk) { chunks.push(chunk) }) res.on('end', function() { var html = iconv.decode(Buffer.concat(chunks), 'gb2312') var $ = cheerio.load(html, { decodeEntities: false }) var content = ($("div#r1c").text()).replace(/\ /g, '') if (fs.existsSync('美人为馅.md')) { fs.appendFileSync('美人为馅.md', '### ' + chapter.title) fs.appendFileSync('美人为馅.md', content) } else { fs.writeFileSync('美人为馅.md', '### ' + chapter.title) fs.appendFileSync('美人为馅.md', content) } }) }).on('error', function() { console.log("爬取" + chapter.link + "链接出错!") }) } for (let i = 0; i < urlList.length; i++) { console.log(urlList[i]) getContent(urlList[i]) }
Markdown 转 PDF
我将小说保存在 Markdown 文件中,为了提升阅读体验,可以将 Markdown 文件转换成 PDF 文件,目前我较为喜欢的两种方式,通过 Chrome 的打印功能 以及 pandoc 转换
Chrome 打印
SublimeText 有个插件 markdown preview
,可通过 Alt + m
快捷键在 Chrome 中预览 Markdown,在 Chrome 页面中右键,选择打印,调整好参数后,选择另存为 PDF,简单,粗暴,深得我心
pandoc 转换
pandoc 是十分强大的文件格式转换工具,可以将 Markdown 文件转换成多种格式,今晚在 windows10 下折腾了半天,始终检索不到 pdflatex,关于 pandoc,后面会专门写一篇总结。
PDF 已经发给老大了,现在正在看
关于python、node、爬虫
在之前很长的一段时间里,很想用 Python,很想写爬虫,更想用 Python 写爬虫,甚至成为了心里的一块执念,随着接触的知识更全面,执念也逐渐淡去,少了很多“想”,遇事想着多去动手,实践出真知。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
P70系列延期,华为新旗舰将在下月发布
3月20日消息,近期博主@数码闲聊站 透露,原定三月份发布的华为新旗舰P70系列延期发布,预计4月份上市。
而博主@定焦数码 爆料,华为的P70系列在定位上已经超过了Mate60,成为了重要的旗舰系列之一。它肩负着重返影像领域顶尖的使命。那么这次P70会带来哪些令人惊艳的创新呢?
根据目前爆料的消息来看,华为P70系列将推出三个版本,其中P70和P70 Pro采用了三角形的摄像头模组设计,而P70 Art则采用了与上一代P60 Art相似的不规则形状设计。这样的外观是否好看见仁见智,但辨识度绝对拉满。
更新日志
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]