バケット名の変更、リージョンの変更っていうことも別のバケットを作成してコピーすることで実現可能
利用したツールはDragonDiskというS3に対応したクライアントツール
まずは、コピー先となるアカウントのAWS Management ConsoleのS3の項目で、コピー元のアカウントに対してアクセス権限を付与
- 設定するバケット名をクリック
- Permissionsのところをクリックして開く
- Edit bucket policyをクリック
- bucket policyを入力してSaveをクリック
- PermissionsのところのSAveをクリック
{
"Version": "2008-10-17",
"Id": "2c08cdf1-ddfc-4765-ac19-26b03a8e8b5e",
"Statement": [
{
"Sid": "AllowUser",
"Effect": "Allow",
"Principal": {
"AWS": "arn:aws:iam::<12桁の数字からなるAWSのユーザID>:root"
},
"Action": "s3:*",
"Resource": [
"arn:aws:s3:::[S3 bucket name]/*",
"arn:aws:s3:::[S3 bucket name]"
]
}
]
}
今回は、コピー先のS3バケットとその中のオブジェクトに対する全権限を付与しましたそして、いよいよDragonDiskの出番
DragonDiskにはコピー元のアカウントだけ登録されていればOK
- Rootのプルダウンからコピー元のアカウントを選択
- アクティブになったAdd external bucketをクリック
- コピー先になるS3バケット名を入力してOKをクリック
- 右ペインでもRootのプルダウンからコピー元のアカウントを選択
- ∞みたいなアイコンで追加されたコピー先のS3バケットを選択
- 左ペインでコピー元のS3バケットを選択
- コピー元のバケットのオブジェクトを選択し右ペインへドラッグアンドドロップ
約119.59GB
6,176ファイル
2,274フォルダ
のコピーが約1分で行えましたよヾ(*・ω・)シ
ちなみに、1ファイルで1GBぐらいあるとそれだけで1分ぐらい
52MBぐらいのファイルを東京→us-eastへのコピーだと70秒ぐらいを要しました
その際、Tools -> Options -> OperationsでMaximum number of concurrent operationsの値を256に InterfaceのところでMaximum number of concurrent operationsの値を10に 変更して同時に行える処理量を増やしています







0 件のコメント:
コメントを投稿