で、なんで「貯め込んでいる」のかってのを問題解決の軸のひとつとしないと、この問題は絶対解決しない。

 例えば、YouTubeみたいなやつが理想的なP2Pベースになって
異様に画質がよくなってダウンロードが瞬時に近く状態を想像すると、
手元には必要最低限のファイルしか置く必要がないので、
全ての動画は共有された莫大な「目録」と
必要分のファイルの「必要な部分」だけが
適時ダウンロード・アップロードされるようになってくる。
大量にアップロードする側には一時的に回線負担がかかるかもしれないけど、
将来的にはその負荷も随分とバランスされていってくる。
 
 動画ファイルのチェック・シークしたい数秒分の部分を
適時ベストな状態でチェックすることが出来れば
無駄に動画を丸ごとダウンロードして帯域を消費する必要はない。
もちろん、全部見たければ適時キャッシュからデータを落とせばいい*1
 
 けど、キャッシュの一部が消えたら、丸ごと再生は出来ないんだよなぁ。
ファイルの所有欲と、未知のファイルに偶然出会える期待と、
高画質ダウンロードの「遅さ」*2
ファイルが見つからなくなるという不安感と
見る側の時間を節約したいという感覚とかが色々とセットになって、
ここまで大量のダウンロードが行われているんじゃないでしょうか
 

*1:この発想を、P2Pではなく、クライアントとサーバーの関係で、まずは軽いテキストベースでやって「実験」しているのが、GoogleとかAmazonの書籍「なか見」検索やページごとのダウンロード販売なのかなぁ?

*2:まだまだまだまだネットの世界は全然遅いよ!