- EC2はSESインフラ案件の約80%で登場する必須スキル
- Graviton4インスタンスで最大40%のコスト削減が可能
- Auto Scalingの設計パターンを理解すれば高単価案件が狙える
「AWSの案件に入りたいけど、EC2って具体的に何を知っておけばいいの?」「Auto Scalingの設定は難しそう…」
EC2(Elastic Compute Cloud)はAWSの最も基本的かつ重要なサービスです。SESのインフラ案件ではほぼ確実に登場するため、しっかりと理解しておく必要があります。
この記事では、AWS完全攻略シリーズEp.13として、EC2の基礎からAuto Scalingの設計パターンまで、SESエンジニアが実務で使える知識を体系的に解説します。
- EC2がSES案件で必須な理由
- インスタンスタイプの選定基準
- 起動テンプレートとAMIのベストプラクティス
- Auto Scalingの仕組みと設計パターン
- SES面談でのアピールポイント
EC2はSES案件でなぜ必須スキルなのか
SESインフラ案件におけるEC2の出現率
SES BASEのインフラ案件データを分析すると、AWSインフラ案件の約80%でEC2に関するスキルが求められています。ECS/FargateやLambdaといったサーバーレス・コンテナ系サービスの利用が増えていますが、以下の理由からEC2は依然として主力です。
- レガシーシステムの運用: 多くの企業がEC2ベースの既存システムを運用中
- カスタマイズ性: OS・ミドルウェアの細かな設定が必要なワークロード
- ライセンス制約: 特定のライセンス形態がEC2を要求するケース
- パフォーマンス要件: ベアメタルに近い性能が必要なケース
EC2スキルと案件単価の関係
EC2の経験レベルによる単価差は以下の通りです。
| EC2スキルレベル | 月単価レンジ |
|---|---|
| EC2基本操作(起動・停止・SSH接続) | 55〜65万円 |
| EC2+VPC+セキュリティグループ設計 | 65〜80万円 |
| EC2+Auto Scaling+ALB設計 | 75〜90万円 |
| EC2全般+IaC+監視設計 | 85〜105万円 |
Auto Scalingを含むスケーラブルなアーキテクチャ設計ができるエンジニアは、月単価で10〜20万円のプレミアムが付く傾向にあります。
EC2の基本:インスタンスタイプと選定基準
汎用 / コンピューティング最適化 / メモリ最適化の使い分け
EC2のインスタンスタイプは用途別に大きく分類されます。
| ファミリー | 代表的なタイプ | 最適なユースケース |
|---|---|---|
| 汎用(M系) | m7g, m7i | Webサーバー、アプリケーションサーバー |
| コンピューティング最適化(C系) | c7g, c7i | バッチ処理、科学計算、ゲームサーバー |
| メモリ最適化(R系) | r7g, r7i | データベース、インメモリキャッシュ |
| ストレージ最適化(I系) | i4g, i4i | データウェアハウス、分散ファイルシステム |
| GPU(P/G系) | p5, g6 | 機械学習、動画エンコーディング |
SES案件で最も遭遇するのは**M系(汎用)とR系(メモリ最適化)**です。Webアプリケーションの一般的なワークロードにはM系、RDSの代わりにEC2上でデータベースを運用するケースではR系が選ばれます。
Graviton4インスタンスのコストパフォーマンス
2026年現在、コストパフォーマンスの観点で最も注目すべきはGraviton4(Arm)プロセッサ搭載のインスタンスです。
- M7g / C7g / R7g: Intel/AMD版と比較して最大40%のコスト削減
- ほとんどのLinuxアプリケーションがそのまま動作: Docker、Node.js、Python、Java等
- 一部のWindows/.NETアプリケーションも対応: .NET 6以降
新規構築の案件では、まずGravitonインスタンスを検討するのが2026年のベストプラクティスです。
起動テンプレートとAMIの運用ベストプラクティス
Auto Scalingを使うためには、起動テンプレートと**AMI(Amazon Machine Image)**の適切な管理が不可欠です。
起動テンプレートに含めるべき設定
- インスタンスタイプ(複数指定可能)
- AMI ID
- セキュリティグループ
- IAMロール
- ユーザーデータスクリプト(初期セットアップ)
- EBSボリューム設定
- タグ設定
AMI運用のベストプラクティス
- Golden AMI パターン: アプリケーションと設定を含んだAMIを事前に作成
- 定期的な更新: セキュリティパッチを適用した新しいAMIを定期作成
- バージョニング: AMI名にタイムスタンプやバージョンを含める
- テスト: 新しいAMIは必ずステージング環境でテスト
# AMIの作成例
aws ec2 create-image \
--instance-id i-0123456789abcdef0 \
--name "web-server-2026-03-10" \
--description "Web server with latest security patches"
Auto Scalingの仕組みと設定
スケーリングポリシーの種類
Auto Scalingには3種類のスケーリングポリシーがあります。
1. ターゲット追跡スケーリング(推奨)
特定のメトリクスを目標値に維持するよう自動調整します。
# CPU使用率を60%に維持する設定
aws autoscaling put-scaling-policy \
--auto-scaling-group-name my-asg \
--policy-name cpu-target-tracking \
--policy-type TargetTrackingScaling \
--target-tracking-configuration '{
"PredefinedMetricSpecification": {
"PredefinedMetricType": "ASGAverageCPUUtilization"
},
"TargetValue": 60.0
}'
2. ステップスケーリング
アラームの閾値に応じて段階的にスケーリングします。細かな制御が必要な場合に使用。
3. 予測スケーリング
過去のトラフィックパターンを学習し、事前にスケーリングします。定期的なトラフィックパターン(毎朝のアクセス増加等)がある場合に効果的。
スケーリンググループの設計パターン
Auto Scalingグループの設計で重要なパラメータ:
| パラメータ | 説明 | 推奨設定 |
|---|---|---|
| 最小インスタンス数 | 常時稼働する最低台数 | 2(可用性確保) |
| 希望インスタンス数 | 通常時の台数 | トラフィック量に応じて |
| 最大インスタンス数 | スパイク時の上限 | 希望の3〜5倍 |
| ヘルスチェック猶予期間 | 起動後のヘルスチェック開始までの待機時間 | 300秒(アプリの起動時間に合わせる) |
| クールダウン期間 | スケーリング後の待機時間 | 300秒 |
EC2 + Auto Scaling実践ハンズオン
ALB連携の構成例
最も一般的な構成は、ALB(Application Load Balancer)+ Auto Scaling グループです。
[ユーザー] → [ALB] → [Auto Scaling Group]
├── EC2 (AZ-a)
├── EC2 (AZ-c)
└── EC2 (AZ-d) ← トラフィック増加時に自動追加
この構成のポイント:
- マルチAZ配置: 最低2つのAZにインスタンスを分散
- ヘルスチェック: ALBのヘルスチェックで異常インスタンスを自動置換
- 接続ドレイニング: スケールイン時にリクエストを完了してから終了
CloudWatchアラームとの連動
Auto ScalingはCloudWatchメトリクスと連動して動作します。
監視すべき主要メトリクス:
- CPUUtilization: CPU使用率(最も基本的な指標)
- NetworkIn/Out: ネットワークトラフィック
- RequestCountPerTarget: ALBからの1台あたりリクエスト数
- カスタムメトリクス: アプリケーション固有の指標(キュー長等)
# カスタムメトリクスの送信例
aws cloudwatch put-metric-data \
--namespace "MyApp" \
--metric-name "QueueLength" \
--value 42 \
--unit Count
出典: AWS公式ドキュメント「Amazon EC2 Auto Scaling」によると、Auto Scalingを適切に設計することで、オーバープロビジョニングによるコストを最大60%削減できるとされています。
SES面談でのEC2アピールポイント
EC2関連のスキルを面談でアピールする際のポイント:
具体的な数値を示す
- 「月間○万リクエストを処理するEC2環境を設計・運用」
- 「Auto Scalingの導入でインフラコストを○%削減」
- 「Graviton移行により性能を維持しながらコスト30%削減を実現」
設計判断の理由を説明できる
- なぜそのインスタンスタイプを選んだのか
- スケーリングポリシーの設計根拠
- 可用性とコストのトレードオフの判断
トラブルシューティング経験
- Auto Scalingの障害対応経験
- インスタンスの性能問題の解決
- スポットインスタンスの中断対応
まとめ:EC2 & Auto Scalingをマスターして案件獲得
EC2とAuto Scalingは、AWSインフラエンジニアの基盤スキルです。
学習ステップ
- EC2の基本操作をマスターする(起動・停止・SSH接続・セキュリティグループ)
- インスタンスタイプの選定基準を理解する
- 起動テンプレートとAMIの運用を学ぶ
- Auto Scalingの設計パターンをハンズオンで実践する
- ALB+Auto Scalingの構成を構築してみる
これらのスキルを身につけることで、AWSインフラ案件の幅が格段に広がります。
SES BASEでは、AWS案件を多数掲載しています。SES BASEで最新のAWS案件をチェックしましょう。
関連記事: