论大缓存操作
我们经常要在内存中搬迁大数据(可能几G,甚至更大)。如果一次性地开辟几G的缓存,想一次就完成大数据的搬迁,这几G的缓存很可能超过了系统的物理内存,这时会造成服务器卡死。鉴于此,大数据如此搬迁,是行不通的。当然小数据这样,是没有问题的。
那么,如何完成大数据通过缓存实现搬迁?
正确答案是——蚂蚁搬家。一次搬一点,分成N次搬完。
将这个问题进一步引申,网络通信,通过流传输大数据,试图通过网络,一次传输完大数据,会造成网路堵塞,因此网络传输,也应该是蚂蚁搬家。
再说点题外话,有时我们让程序SLEEP(指定时间),等待程序的执行结果。如果这个SLEEP时间较大,程序就会因睡眠而长时间无反应,其实可以分成较小的SLEEP时间,分成N次执行,一旦程序已经有了执行结果,就立即终止SLEEP。
综上所述,不论是大数据、还是长时间,只要是大任务,我们都应该分割成N个小任务来执行。这就是道。
DELPHI的流类的一个方法为我们作了最好的阐述。附上源码:
function TStream.CopyFrom(const Source: TStream; Count: Int64): Int64; const MaxBufSize = $F000; var BufSize, N: Integer; Buffer: TBytes; begin if Count <= 0 then begin Source.Position := 0; Count := Source.Size; end; Result := Count; if Count > MaxBufSize then BufSize := MaxBufSize else BufSize := Count; SetLength(Buffer, BufSize); try while Count <> 0 do begin if Count > BufSize then N := BufSize else N := Count; Source.ReadBuffer(Buffer, N); WriteBuffer(Buffer, N); Dec(Count, N); end; finally SetLength(Buffer, 0); end; end;