AWS Developer Associate 勉強メモ その4
前回の続きです。
ここまでで1/3です。
各セッションが少し短めだったので、その分一個多くなっています。
セクション9
- S3
- Versioning
- Encryption for Objects
- Security & Bucket Policies
- S3 Websites
- S3 CORS
- Consistency Model
セクション10
- AWS CLI
- SDK
- IAM Role & Policies
- Policy Simulator
- AWS CLI Dry Runs
- STS Decode
- EC2 Instance Metadata
- CLI Profiles
- CLI with MFA
- Exponential Backoff & Service Limit Increase
- AWS Credentials Provider & Chain
- AWS Signature v4 Signing
セクション11
- S3 MFA Delete
- S3 Default Encryption
- S3 Access Logs
- S3 Replication(CRR & SRR)
- S3 Pre-Signed URLs
- Storage Tiers + Glacier
- S3 Lifecycle Policeis
- S3 Performance
- S3 & Glacier Select
- S3 Event Notifications
- Athena
- Object lock & Glacier Vault Lock
セッション12
- CloudFront
- CloudFront Caching & Caching Invalidations
- CloudFront Security
- CloudFront Signed URL / Cookies
知らなかったこと・忘れてたこと
S3のキー
- S3のオブジェクト(ファイル)にはキーがあり、接頭辞 + オブジェクト名で構成される。
- 例:s3://my-bucket/my_file.txt - s3://my-bucket/my_folder1/another_folder/my_file.txt
- UIに騙されるかもしれないが、バケット内には「ディレクトリ」という概念はない。
- スラッシュ("/")を含む非常に長い名前のキーのみ。
自分は完全に騙されてました。
IAMPolicy Simulator
実際に作成したIAMポリシーが想定したリソースへのアクセスが可能かどうかを確認できる。
Dry Runs
- いくつかのAWS CLIコマンド(EC2など)は、実行するとコストが高くなることがあるため、不用意にコマンドを実行するのはNG。
- 全てではないがいくつかのAWS CLIコマンドには --dry-runオプションが含まれており、APIコールをシュミレートすることが可能。
STS Decord
- API 呼び出しを実行して失敗すると、長いエラーメッセージが表示される。
- このエラーメッセージは、STS コマンドラインを使用してデコードすることが可能。
- 例:sts decode-authorization-message
- ただしデコードするには専用のポリシーが必要
CLI with MFA
CLIでMFAを使用するには一時的なセッションを作成する必要があり、STS GetSessionToken API コールを実行する必要がある。
例:
aws sts get-session-token -serial-number arn-of-the-mfa-device --tokencode code-from-token --duration-seconds 3600
Amazon Glacier
Amazon Glacierの検索オプション
- 迅速(1~5分)
- 標準(3~5時間)
- 大容量(5~12時間)
Amazon Glacier Deep Archiveの検索オプション
- 標準(12時間)
- バルク(48時間)
S3のパフォーマンス
- Amazon S3は自動的に高リクエスト率、レイテンシ100-200msにスケーリングする。
- 少なくとも 3,500回のPUT/COPY/POST/DELETE および、バケット内のプレフィックス1つにつき1秒間に5,500回のGET/HEADリクエストが可能。
- バケット内のプレフィックスの数に制限はない。
- 例 (オブジェクトパス => プレフィックス)
- bucket/folder1/sub1/file => /folder1/sub1/
- bucket/folder1/sub2/file => /folder1/sub2/
- bucket/1/file => /1/
- bucket/2/file => /2/ - 4つのプレフィックスすべてに均等に広げれば、GETとHEADは22,000回/秒まで可能。
Athena
- S3ファイルに対して直接分析を実行するサーバーレスサービス。
- SQL言語を使用してファイルを照会する。
- JDBC / ODBCドライバを持っている。
- クエリごととスキャンしたデータ量によって課金。
- CSV, JSON, ORC, Avro, Parquet をサポート (Presto 上に構築)
- 使用例:ビジネスインテリジェンス/分析/レポーティング、分析、クエリ、VPCフローログ、ELBログ、CloudTrailトレイルなど。
- S3で直接データを分析する場合はAthenaを使うと覚えておくと◎
CloudFrontとS3 Cross Region Replicationの使い分け
CloudFront
- グローバルエッジネットワーク。
- ファイルはTTL(おそらく1日)の間キャッシュされる。
- どこでも利用可能な静的コンテンツに最適。
S3 Cross Region Replication
- レプリケーションを実行したいリージョンごとに設定する必要がある。
- ファイルはほぼリアルタイムで更新。
- 読み取り専用。
- 少ないリージョンで低レイテンシーで利用できる必要があるダイナミックコンテンツに最適。
まとめ
今回は小ネタというか、そんなのあるんだ!ってなるようなものが多かったです。
特にS3やCloudFrontの細かい設定方法などに実際に触れる機会がなかなかないので勉強になりました。
あとAthenaは完全に初めて知りました(もしかしたらチラッと名前だけは聞いたことあったかも?)
こちらも具体的な設定方法やクエリの実行方法などが学ぶことができたので良かったです。
次回から結構ボリュームがあるところなので引き続き頑張っていこうと思います。