S3のStandardとOneZoneの使い分け方

SAAの問題で使い分けについての問題間違えちゃったので備忘録。 特徴 S3のストレージクラスの耐久性はすべて99.999999999%(イレブン・ナイン)で、オブジェクトは即時に取り出すことが可能です。 また、StandardとOneZoneのそれぞれの特徴については以下のとおりです。 Standard 複数のAZにデータを複製する 可用性高(99.99%) 高頻度アクセス向き Standard-IA 複数のAZにデータを複製する 可用性高(99.99%) 低頻度アクセス向き OneZoneより重要なマスタデータの保存に向いている OneZone 一つのAZにデータを保存 Standardに比べて低コスト 可用性はStandardより下(99.5%) 低頻度アクセス向き 重要度の低いログデータなどの保存に最適 重要度の低いデータで、即時に取り出す必要があるデータはOneZoneということになります。 (Standard−IAはどういうデータを保存するのが最適か結構難しいけど、重要なデータでかつコストは抑えたいみたいなケースには向いているのかな?)

7月 7, 2023 · にあえん

Route53とCloudFrontのざっくりした使い分け

SAAの問題を解いている際に、以下のようなケースの問題が出てきたので備忘録として書き残します。 「オンプレミスサーバーが一つしかなく、海外に事業を展開するケースで、どのサービスを選択するのがよいか?」といった趣旨の問題です。 ここで安易に「Route53の位置ルーティングを使えばいいんじゃない?」と思っていたのですが、サーバーは一つしかないのでCloudFront使ってエッジロケーションで処理するのが効率的ということで正解となっていました。 簡易的に特徴をまとめてみました。 特徴 以下のような特徴があります。 Route53 サーバーに対するルーティングを行う キャッシュの蓄積は行わない 位置情報や加重に基づいたルーティングを行うことができる CloudFront サーバーに対するルーティングを行う キャッシュを蓄積する アクセスに基づいたエッジロケーションにルーティングする まとめ Route53だけではうまくキャッシュ処理ができないので、使い分けが大事だよね。

7月 7, 2023 · にあえん

S3から手動でクロスリージョンレプリケーションを行う

クロスリージョンレプケーションはマネジメントコンソールからは実施できませんが、AWS CLIからは実行可能です。 aws s3 cp s3://(レプリケーション元バケット名) s3://(レプリケーション先バケット名) --recursive シンプルにcpコマンドを使うだけでできます。 参考

7月 7, 2023 · にあえん

Kinesisのざっくりした使い分け

どうもこんにちは。 最近AWSについて勉強しているのですが、Kinesisには3つ(正確にはビデオ用のKinesis Video Streamsってのもあるみたいだけど)のサービスがあり、どう使い分ければいいのかよくわかりません。 Kinesis Data Streams Kinesis Data Firehose Kinesis Data Analytics そこで、自分向けにまとめました。 Kinesis Data Streams イメージ図 名前の通りストリーム。 リアルタイム処理が必要なデータをここに流して、任意のサービスと連携することでデータ処理が可能。 これ単体でなにかできるというよりは、SQSみたいに他のサービスで処理するためのサービス、みたいなイメージ。 (SQSはポーリングが必要だけど、こっちは後続のサービスにそのまま流す感じ) Kinesis Data Firehose 主にStreamsから来たデータの変換を行って、S3とかHTTPリクエストとかにして配信するサービス。 配信の際はデータをまとめて配信します。 配信するための条件として「バッファサイズ」「バッファ間隔」というものがあり、どちらかの条件が満たされた場合に配信を行うという仕組みになっています。 設定可能な値範囲は以下のとおりです。 バッファサイズ: 最小: 1 MiB、最大: 128 MiB。推奨: 5 MiB。 バッファ間隔:最小: 60 秒、最大: 900 秒。推奨: 300 秒。 データの変換にLambdaを指定できますが、そこではまとまったデータではなく1つのデータが渡されます。 なので、一つのデータを変換したいだけなら単にStreams + Lambdaで構成するのが早いです。 (もっと言えばStreams通さなくていいこともあるけど、まぁケースバイケース) Kinesis Data Analytics リアルタイムに情報を分析して出力するサービスです。 内部的には「Apache Flink」を利用しています。 入力はS3やStreamsが主になっていて、出力もS3やStreamsに行うようになっています。 具体的なことは正直パッと見じゃわからんけど、この記事とか参考になるかも? さいごに Analyticsむずい

7月 1, 2023 · にあえん