node中的Stream-Readable和Writeable解读

在node中,只要涉及到文件IO的场景一般都会涉及到一个类-Stream。Stream是对IO设备的抽象表示,其在JAVA中也有涉及,主要体现在四个类-InputStream、Reader、OutputStream、Writer,其中InputStream和OutputStream类针对字节数据进行读写;Reader和Writer针对字符数据读写。同时Java中有多种针对这四种类型的扩展类,如节点流、缓冲流和转换流等。比较而言,node中Stream类型也和Java中的类似,同样提供了支持字节和字符读写的Readable和Writeable类,也存在转换流Transform类,本文主要分析node中Readable和Writeable的实现机制,从底层的角度更好的理解Readable和Writeable实现机制,解读在读写过程中发生的一些重要事件。

Readable类

Readable对应于Java中的InputStream和Reader两个类,针对Readable设置encode编码可完成内部数据由Buffer到字符的转换。Readable Stream有两种模式,即flowing和paused模式。这两种模式对于用户而言区别在于是否需要手动调用Readable.prototype.read(n),读取缓冲区的数据。查询node API文档可知触发flowing模式有三种方式:

  • 侦听data事件
  • readable.resume()
  • readable.pipe()

    而触发paused模式同样有几种方式:
  • 移除data事件
  • readable.pause()
  • readable.unpipe()

    可能这样讲解大家仍不明白Readable Stream这两种模式的区别,那么下文从更深层次分析两种模式的机制。

深入Readable的实现

Readable继承EventEmitter,大家也都知道。但是相信大家应该不怎么熟悉Readable的实例属性_readableState。该属性是一个ReadableState类型的对象,保存了Readable实例的重要信息,如读取模式(是否为对象模式)、highWaterMark(缓冲区存放的最大字节数)、缓冲区、flowing模式等。在Readable的实现中,处处使用ReadableState对象记录当前读取状态,并设置缓冲区保证读操作的顺利进行。

首先需要针对Readable.prototype.read方法进行特别解读:

  if (n === 0 &&
state.needReadable &&
(state.length >= state.highWaterMark || state.ended)) {
debug('read: emitReadable', state.length, state.ended);
if (state.length === 0 && state.ended)
endReadable(this);
else
emitReadable(this);
return null;
}

当读入的数据为0时,执行emitReadable操作。这意味着,针对Readable Stream执行read(0)方法会触发readable事件,但是不会读当前缓冲区。因此使用read(0)可以完成一些比较巧妙的事情,如在readable处理函数中可以使用read(0)触发下一次readable事件,可选的操作读缓冲区。

继续分析代码,如果读入的数据并不是0,则计算读取缓冲区的具体字节数,

n = howMuchToRead(n, state);

function howMuchToRead(n, state) {
if (state.length === 0 && state.ended)
return 0; if (state.objectMode)
return n === 0 ? 0 : 1; if (n === null || isNaN(n)) {
// only flow one buffer at a time
if (state.flowing && state.buffer.length)
return state.buffer[0].length;
// 若是paused状态,则读全部的缓冲区
else
return state.length;
} if (n <= 0)
return 0; if (n > state.highWaterMark)
state.highWaterMark = computeNewHighWaterMark(n); // don't have that much. return null, unless we've ended.
if (n > state.length) {
if (!state.ended) {
state.needReadable = true;
return 0;
} else {
return state.length;
}
} return n;
}

针对对象模式的读取,每次只读一个;对于处在flowing模式下的读取,每次只读缓冲区中第一个buffer的长度;在paused模式下则读取全部缓冲区的长度;若读取的字节数大于设置的缓冲区最大值,则适当扩大缓冲区的大小(默认为16k,最大为8m);若读取的长度大于当前缓冲区的大小,设置needReadable属性并准备数据等待下一次读取。

接下来,判断是否需要准备数据。在这里,依赖于needReadable的值,

var doRead = state.needReadable;
debug('need readable', doRead); if (state.length === 0 || state.length - n < state.highWaterMark) {
doRead = true;
debug('length less than watermark', doRead);
} // reading, then it's unnecessary.
if (state.ended || state.reading) {
doRead = false;
debug('reading or ended', doRead);
}

如果当前缓冲区为空,或者缓冲区并未超出我们设定的最大值,那么就可以继续准备数据;如果此时正在准备数据或者已经结束读取,那么就放弃准备数据。一旦doRead为true,那么进入准备数据阶段,


if (doRead) {
debug('do read');
state.reading = true;
state.sync = true;
// if the length is currently zero, then we *need* a readable event.
if (state.length === 0)
state.needReadable = true;
// call internal read method
// 默认Readable未实现_read,抛出Error
// 针对自定义的Readable子类,_read可修改state.buffer的数量,进行预处理,
// 然后由下面的fromList读出去缓存中的相关数据
this._read(state.highWaterMark);
state.sync = false;
}

接下来设置相关的标志位,进行_read处理。针对这个私有方法_read,文档上有特殊说明,自定义的Readable实现类需要实现这个方法,在该方法中手动添加数据到Readable对象的读缓冲区,然后进行Readable的读取。可以理解为_read函数为读取数据前的准备工作(准备数据),针对的是流的实现者而言。

  if (doRead && !state.reading)
n = howMuchToRead(nOrig, state); var ret;
if (n > 0)
ret = fromList(n, state);
else
ret = null; if (ret === null) {
state.needReadable = true;
n = 0;
} state.length -= n; if (state.length === 0 && !state.ended)
state.needReadable = true; if (nOrig !== n && state.ended && state.length === 0)
endReadable(this); // flowing模式下的数据读取依赖于 read函数
// data事件触发的次数,依赖于howMuchToRead计算的次数
if (ret !== null)
this.emit('data', ret);

一旦在_read中更新了缓冲区,那么我们需要重新计算(消费者,即可写流)读取的字节数。fromList方法完成了读缓冲区的slice,如果是objectMode下的读,则只读缓冲区的第一个对象;针对未传参数的read方法而言,默认读取全部缓冲区等等。从读缓冲区读取完数据之后设置相关flag,如needReadable,最终,触发data事件,结束!

上节提到,设置data事件的执行函数会进入flowing模式的读,而上文看到正是read方法触发了data事件,而默认条件下Readable处于paused状态,因此在paused状态读取数据需要手动执行read函数,每次read读取完毕触发一次data事件。从这点看出,flowing和paused状态区别在于是否需要手动执行read()来获取数据。flowing状态下,我们无需执行read,仅需要设置data事件处理函数或者设定导流目标pipe;而在paused状态下,不仅仅是简单的执行read方法,因为读缓冲区的内容时刻在改变,一旦读缓冲区又有新数据,简单执行read()就没法满足需求(因为我们无法知道是否又有新数据到来),因此需要侦听读缓冲区的相关事件,即readable事件,在该事件处理函数中进行read相关数据。

那么,什么情况下会触发readable事件呢?在实现_read私有方法中,我们使用stream.push(chunk)或stream.unshift(chunk)方法注入数据到读缓冲区,那么push和unshift方法都实现了下面的逻辑,

if (state.flowing && state.length === 0 && !state.sync) {
stream.emit('data', chunk);
stream.read(0);
} else {
// update the buffer info.
state.length += state.objectMode ? 1 : chunk.length;
if (addToFront)
state.buffer.unshift(chunk);
else
state.buffer.push(chunk); if (state.needReadable)
emitReadable(stream);
} function emitReadable(stream) {
var state = stream._readableState;
state.needReadable = false;
if (!state.emittedReadable) {
debug('emitReadable', state.flowing);
state.emittedReadable = true;
if (state.sync)
process.nextTick(emitReadable_, stream);
else
emitReadable_(stream);
}
} function emitReadable_(stream) {
debug('emit readable');
stream.emit('readable');
flow(stream);
}
// 在flowing状态下,自动读取流(替代paused状态下手动read)
function flow(stream) {
var state = stream._readableState;
debug('flow', state.flowing);
if (state.flowing) {
do {
var chunk = stream.read();
} while (null !== chunk && state.flowing);
}
}

一旦处于flowing模式并且当前缓冲区没有数据,那么就立即将预处理的push(unshift)数据传递给data事件处理函数,并执行stream.read(0)。前文已经交代过,read(0)仅仅用来触发readable事件,并不读取缓冲区,这就是触发readable的第一种情况。

第二种则是第一种情况之外的所有情景,即根据操作(push、unshift)的不同将数据插入读缓冲区的不同位置。最后执行emitReadable函数,触发readable事件。针对emitReadable函数,它的作用就是异步触发readable事件,并执行flow函数。flow函数则针对flowing状态的Readable做自适应读取,免去了手动执行read函数和何时执行read函数的苦恼。

这样,对于Readable的实现者,一旦在_read函数插入有效数据到读缓冲区,都会触发readable事件,在paused状态下,设置readable事件处理函数并手动执行read函数,便可完成数据的读取;而在flowing状态下,通过设置data事件处理函数或者定义pipe目标流同样可以实现读取。

既然pipe同样可以触发Readable进入flowing状态,那么pipe方法具体做了什么呢?其实pipe针对Readable和Writeable做了限流,首先针对Readable的data事件进行侦听,并执行Writeable的write函数,当Writeable的写缓冲区大于一个临界值(highWaterMark),导致write函数返回false(此时意味着Writeable无法匹配Readable的速度,Writeable的写缓冲区已经满了),此时,pipe修改了Readable模式,执行pause方法,进入paused模式,停止读取读缓冲区。而同时Writeable开始刷新写缓冲区,刷新完毕后异步触发drain事件,在该事件处理函数中,设置Readable为flowing状态,并继续执行flow函数不停的刷新读缓冲区,这样就完成了pipe限流。需要注意的是,Readable和Writeable各自维护了一个缓冲区,在实现的上有区别:Readable的缓冲区是一个数组,存放Buffer、String和Object类型;而Writeable则是一个有向链表,依次存放需要写入的数据。

Writeable解读

Writeable对应Java的OutputStream和Writer类,实现字节和字符数据的写。与Readable类似,Writeable的实例对象同样维护了一个状态对象-WriteableState,记录了当前输出流的状态信息,如写缓冲区的最大值(hightWaterMark)、缓冲区(有向链表)和缓冲区长度等信息。在本节中,主要分析输出流的关键方法write和事件drain,并解析输出流的实现者需要实现的方法_writewrite的关系。

function write
----------------------------
if (state.ended)
writeAfterEnd(this, cb);
else if (validChunk(this, state, chunk, cb)) {
state.pendingcb++;
ret = writeOrBuffer(this, state, chunk, encoding, cb);
} return ret;

在write方法中,判断写入数据的格式并执行writeOrBuffer函数,并返回执行结果,该返回值标示当前写缓冲区是否已满。真正执行写入逻辑的是writeOrBuffer函数,该函数的作用在于刷新或者更新写缓冲区,下面看看主要做了什么,

function writeOrBuffer(stream, state, chunk, encoding, cb) {
chunk = decodeChunk(state, chunk, encoding); if (chunk instanceof Buffer)
encoding = 'buffer';
var len = state.objectMode ? 1 : chunk.length; state.length += len; // 如果缓存的长度大于highWaterMark,需要刷新缓冲,所以设置needDrain标志
var ret = state.length < state.highWaterMark;
// we must ensure that previous needDrain will not be reset to false.
if (!ret)
state.needDrain = true; // 缓存未处理的写请求,在clearBuffer中执行缓存
// 由此看出,Readable和Writeable都有缓存,Readable 中缓存的方式是数组(项为Buffer,字符串或对象),Writeable的
// 缓存则是对象链表
if (state.writing || state.corked) {
var last = state.lastBufferedRequest;
state.lastBufferedRequest = new WriteReq(chunk, encoding, cb);
if (last) {
last.next = state.lastBufferedRequest;
} else {
state.bufferedRequest = state.lastBufferedRequest;
}
state.bufferedRequestCount += 1;
} else {
doWrite(stream, state, false, len, chunk, encoding, cb);
} return ret;
}

writeOrBuffer首先针对数据进行编码,字符串转换成Buffer类型,如果设置了Writeable的ObjectMode模式则仍为Object类型;接下来更新写缓冲区的长度,并判断写缓冲区长度是否超过设定的Writeable的最大值(默认16k),如果超过超过则ret=false并更新WriteableState的属性needDrain=true。ret的结果其实就是write方法返回值,因此一旦write返回值为false,意味着当前写缓冲区已满,需要停止继续写入数据。

在Readable的pipe方法中,涉及到了Writeable的drain事件。该事件的触发意味着写缓冲区已可以继续缓存数据,可见drain事件与写缓冲区严格相关。继续分析writeOrBuffer函数,若当前输出流正在写数据,那么则当前数据缓存至写缓冲区(创建WriteReq对象);否则执行doWrite函数,刷新缓冲区。

function doWrite(stream, state, writev, len, chunk, encoding, cb) {
state.writelen = len;
state.writecb = cb;
state.writing = true;
state.sync = true;
if (writev)
stream._writev(chunk, state.onwrite);
else
stream._write(chunk, encoding, state.onwrite);
state.sync = false;
}

doWrite函数设置了需要写入数据的长度、写入状态等信息,并执行输出流实现者需要实现的_write函数。在_write函数中,针对数据流向做最后的处理,这里分析_write函数的具体实现。_write函数有三个参数,分别为chunk,encoding和state.onwrite回调函数,对该回调函数稍后分析,先着重讲解_write函数的实现。在node的fs模块中,可以通过fs.createWriteStream创建Writeable实例,通过执行

var writeStream = fs.createWriteStream('./output',{decodeStrings: false});
console.log(writeStream._write.toString()); -----------------输出----------------- function (data, encoding, cb) {
if (!(data instanceof Buffer))
return this.emit('error', new Error('Invalid data')); if (typeof this.fd !== 'number')
return this.once('open', function() {
this._write(data, encoding, cb);
}); var self = this;
fs.write(this.fd, data, 0, data.length, this.pos, function(er, bytes) {
if (er) {
self.destroy();
return cb(er);
}
self.bytesWritten += bytes;
cb();
}); if (this.pos !== undefined)
this.pos += data.length;
}

看出,在_write实现中,只接受Buffer类型的数据,接着执行fs.write操作,写入到对应文件描述符fd对应的文件中,写入成功或失败后执行回调函数,即state.onwrite函数。

function onwrite(stream, er) {
var state = stream._writableState;
var sync = state.sync;
var cb = state.writecb; onwriteStateUpdate(state); // 默认未重写_write方法,会收到er值
if (er)
onwriteError(stream, state, sync, er, cb);
else {
// Check if we're actually ready to finish, but don't emit yet
var finished = needFinish(state); // 写缓存的数据
if (!finished &&
!state.corked &&
!state.bufferProcessing &&
state.bufferedRequest) {
clearBuffer(stream, state);
} // 异步触发drain事件
if (sync) {
process.nextTick(afterWrite, stream, state, finished, cb);
} else {
afterWrite(stream, state, finished, cb);
}
}
}

在state.onwrite函数中主要工作有两个:

  • 写缓冲区的数据
  • 写完缓冲区的数据后,异步触发drain事件

第一步,在clearBuffer函数中,就是取出写缓冲区(有向链表)的第一个WriteReq对象,执行doWrite函数,写入缓冲区的第一个数据;这样循环往复最终清空写缓冲区,重置一些标志位。

第二步,异步执行afterWrite函数,触发drain事件,并判断是否写操作完毕触发“finish”事件。这里之所以强调异步触发drain事件,是因为为了保证先获得write()返回值为false,给用户绑定drain处理函数的时隙,然后再触发drain事件。

至此,Writeable的重要流程已全部走通。可以看出来,在核心的write()中,判断写缓冲区是否已满并返回该值,在适当条件下缓存数据或调用_write()写数据,在Writeable实现者需要实现的** _write() 中,主要任务是数据写入方向控制,完成最基本的任务**。

总结

对比Readable的read()和_read(),我总结了下这四个函数在“读写过程”中的执行顺序与关系,如下图所示:

node中的Stream-Readable和Writeable解读

上一篇:图解微信小程序---scroll_view实现首页排行榜布局


下一篇:java_jdbc_可滚动结果集与分页