5分の2のファイルをランダムにものすごい勢いで削除する そしてrsync3.0検証

巷で話題のrsync3.0を検証するのに、意図的に差分を作りたかった。
最初はxargs、$RANDOMを使ってやろうと思ったけど、うまくいかなかったのでperlで。某弾さんのサンプルまんまだな。

find . -type f -print0 |perl -0lne 'unlink if int( rand(5) ) < 2'


で、サイズ10G、ファイル数50万ほどのデータを使って、上のように機械的にデータ消したり、作ったり、書き換えたりして、2系rsyncといろいろ比較してみましたよ。もちろん各テストの前にはメモリ上のバッファはフラッシュしてね。
意外と3にしても早くないね。ほとんど一緒。
でも差分リストを作らない分、プロセスサイズが大きくならないのはいいねー。2系だとファイル数が多いとき(今回のテストデータではそうでもないけど)は100Mとか超えるから大変なことになるんだけど、3.0は終始サイズが一定。
ファイル数が異常に多いデータを同期させる場合以外は、積極的に導入する必要は無さそう。逆にファイル数が多い環境ならさっさと乗り換えるベシ。