アカウント名:
パスワード:
Amazon Cloud Driveサービス中止のお知らせが来て慌てるまでがお約束
別のある日、Amazon Cloud Driveの運用担当者は思いました。
「結局、各アカウントで同じ番組を録画し、同じデータを保存してるだけだなぁ。これらを一つにまとめられたら、データ容量を劇的に少なくできるのになぁ。」
「各アカウントがどの番組を録画予約したかというデータ(ポインタ)だけ保存しておきマスターとなる録画データを配信するやり方にすれば・・・あれ?これって」
重複削除は通常、ファイルをテキトーなサイズのブロックで分割して個々のブロックに対し手重複検出しますから、録画開始時刻が微妙にずれている、といったブロック境界より小さい内容のズレが発生した場合、重複削除は難しいんじゃないですかね。
#Foltia の方で、「デジタル放送データ内の時刻情報・プログラムIDを元に、録画開始・録画終了のタイミングを判定」するようなやり方なら、バイナリ的にズレのない録画ファイルの同期ができるかも。
TSストリームを認識して、パケット単位で重複排除をやれば良いのでは?
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
弘法筆を選ばず、アレゲはキーボードを選ぶ -- アレゲ研究家
そしてある日 (スコア:0)
Amazon Cloud Driveサービス中止のお知らせが来て慌てるまでがお約束
Re: (スコア:0)
別のある日、Amazon Cloud Driveの運用担当者は思いました。
「結局、各アカウントで同じ番組を録画し、同じデータを保存してるだけだなぁ。
これらを一つにまとめられたら、データ容量を劇的に少なくできるのになぁ。」
「各アカウントがどの番組を録画予約したかというデータ(ポインタ)だけ保存しておき
マスターとなる録画データを配信するやり方にすれば・・・あれ?これって」
Re: (スコア:1)
# けっこうホットワードです
Re: (スコア:1)
重複削除は通常、ファイルをテキトーなサイズのブロックで分割して個々のブロックに対し手重複検出しますから、
録画開始時刻が微妙にずれている、といったブロック境界より小さい内容のズレが発生した場合、重複削除は難しいんじゃないですかね。
#Foltia の方で、「デジタル放送データ内の時刻情報・プログラムIDを元に、録画開始・録画終了のタイミングを判定」するようなやり方なら、バイナリ的にズレのない録画ファイルの同期ができるかも。
Re:そしてある日 (スコア:0)
TSストリームを認識して、パケット単位で重複排除をやれば良いのでは?