基盤・デプロイ自動化

【連載】

ソフトウェア開発自動化入門

【第4回】基盤・デプロイ自動化

[2019/02/05 08:00] ブックマーク ブックマーク

開発ソフトウェア

第1回から第3回までの連載で、コーディング、テストの自動化についてそれぞれ解説してきました。 今回は、基盤・デプロイ自動化の発展経緯を整理し、最近のトレンドであるマイクロサービスアーキテクチャのアプリケーションのCI/CDおよびアプリケーション基盤構築の実現例を記述します。

なお、これまで紹介してきた4つの自働化領域に当てはめると、今回の内容は「ビルド・リリースの自動化」「システム基盤構築の自動化」の2つに該当します。

4つの自動化領域

No 対象領域 内容
1 コーディングの自動化 複雑・多様なロジックの自動生成
2 テストの自動化 試験項目の自動生成と自動実行
3 ビルド・リリースの自動化 ビルドやテスト環境へのリリースの自動化
4 システム基盤構築の自動化 システム基盤の自動インストール・設定

基盤構築自動化の発展経緯

Amazon Web ServiceなどのIaaSおよびOpenStackなどのクラウドコンピューティングオープンソースソフトウェアの登場により、 ロードバランサやAPサーバ、監視といったアプリケーション実行環境を自動構築することが身近になってきました。

従来、オンプレミス環境(企業が持つ自社のデータセンタ環境)では、各々物理サーバを導入し、アプリケーションを配備していました。 一度構築した後も、ハードウェアの保守期限を迎えるまで、手間暇かけてメンテナンスしつつ長く使うのが一般的で、ゼロから構築するケースは稀でした。

しかし、クラウド環境下では、さまざまなユーザが、クラウド上でサーバリソースを共有するため、仮想マシン上にゲストOSをプロビジョニングする(OSをロードし、固有の設定を行う)形態が主となります。

OSを停止するたびにアプリケーション環境は破棄され、同一の実行環境を繰り返し、構築することが必要になります。 それに加えて、オートスケールなど、サーバリソースを動的に増減できる、クラウドならではのスケーラビリティを活かすために、サーバを素早く正確に構築し、アプリケーション環境に組み込まなければなりません。

こうした事情から、一度サーバ環境を構築した後は特に変更を加えず、破棄して新しく作り直す概念「イミュータブルインフラストラクチャ 」が生まれました。

イミュータブルインフラストラクチャを実現する手段として、アプリケーション環境構築の実行スピードや作業品質の向上を目的に、 作業をコード化して実行する「Infrastructure As Code」が求められます。例えば、「Puppet」「Ansible」「Chef」といった基盤環境構築ツールが普及していきます。

他方、仮想化技術は発展を続け、OSを丸ごと実行するハイパーバイザ型と比べて、ハードウェアリソースの消費コストが小さいDockerなどのコンテナ技術が近年広く普及しつつあります。また、Kubernetesなど、コンテナのリソース管理・スケール調整などが行え、大規模なコンテナアプリケーション実行環境を管理できるオーケストレションツールが脚光を浴びています。

これらのミドルウェアを含め、クラウド上でのアプリケーション実行環境全体の包括的なInfrastructure As Codeのツールとして、「Amazon Cloud Formation」や「Terraform」を使った基盤構築のコード化が近年のトレンドとなっています。

継続的インテグレーション、継続的デリバリの発展

継続的インテグレーション(Continuous Integration:CI)・継続的デリバリ(Continuous Delivery:CD)では、オープンソースソフトウェアのJenkinsを中心に、 以下の一連のソフトウェア開発・リリースサイクルを自動化する手法が発展してきました。

  1. GitHubなどのソースコードチェックアウト
  2. Maven/Gradleなどのビルドツールの実行
  3. 静的解析ツールを用いたインスペクション
  4. JUnitなどのテストコードを用いたテスト実行
  5. 商用環境サーバやライブラリ管理ツールへのデプロイ


基盤構築自動化と同様、CI/CDにおいても、仮想化技術やコンテナ技術の普及により、物理サーバを中心とした環境だけに留まらなくなってきています。

例えば、リソースの有効活用や起動の即時性を目的として、ソースコードコミット時に、Jenkinsがコンテナを起動して仮想のテスト環境を構築し、マルチコンテナで並列的にテストを行うなどの手法が活用されます。

また、リリースに関連した技術としては、ブルーグリーンデプロイメント の実現のため、 アプリケーションのマルチコンテナ化を利用して、迅速な環境構築かつ、ロールバックが容易なローリングアップデートリリース手法が脚光を浴びています。

ますます多様化するCI/CD実行環境において、ステージング環境・プロダクション環境への一連のリリースサイクルをパイプライン化して可視化する、 AWS CodePipelineなどのツールも活用の機会が増えつつあります。

マイクロサービスにおける基盤自動化

疎結合性・独立性を重視し、開発のアジリティを向上させるマイクロサービスアーキテクチャが基盤構築の自動化・継続的インテグレーションにも変化をもたらしつつあります。

従来のモノリシックなアプリケーション(全ての機能が一つのアプリケーションパッケージにまとまっている形)に比べ、 マイクロサービスでは、アプリケーション構成はもとより、チーム間での開発体制からリリースの単位までこれまでとは異なる形で開発することが求められます。

マイクロサービス間で影響を局所化し、開発におけるアジリティ向上を実現するために、以下のようにアプリケーションを構成・開発することが求められます。

  • アプリケーションは複数のマイクロサービスで構成する。各サービス単位にチームが分けられ、リリース・デプロイまでの開発プロセスを独立して構築する。
  • 多数のサービスはコンテナをベースに構築され、各サービスそれぞれがスケーリング可能な形でデプロイされる。

    • こうした近年のトレンドに基づき、マイクロサービスアーキテクチャのアプリケーション構成、基盤自動化/継続的インテグレーション・デリバリを実現する例を実際に見てみましょう。

      以下に、マイクロサービスアーキテクチャで構築されるアプリケーションの構成例を示します。

      アプリケーションの構成

      • アプリケーションはAmazon Web Service上に構築するWebアプリケーションとする。
      • アプリケーションはフロントエンド(Backend For Frontend: BFF)とバックエンドのサービスに分割し、各サービスはAWS ECSコンテナ上にデプロイされるものとする。
      • ECSコンテナ内の各サービスは組み込みTomcatを内蔵するSpringBootアプリケーションで実装する。
      • 各サービス間はRESTベースのHTTPリクエストでメッセージ通信を行い、ApplicationLoadBalancerを介して負荷分散する。

      サービスをフロントエンドとバックエンドに分割した場合のそれぞれの役割は以下の通りです。

      フロントエンドとバックエンドの役割

      フロントエンドの役割 バックエンドの役割
      • サービスマッピング(IP・ポート)
      • ブラウザからHTTPメソッド変換(GET・POST⇔GET・POST・PUT・DELETE・OPTION)
      • セッション共有(キャッシュサーバ)
      • セキュリティ
        • 認証・認可
        • 入力チェック
        • バックエンドサービスURIの隠蔽
        • クライアント⇔バックエンドの直接アクセス禁止
      • クラウド依存処理の集約(S3アクセス等)
      • RESTfulアーキテクチャインタフェース(GET/POST/PUT/DELETE/OPTIONS)
      • Resource Base URI (/api/v1/users/1)
      • 耐障害性を高めることを目的とした、冪等性の実現
      • スケーラビリティを容易にするステートレス処理の実現
      • データベースなどセキュリティ的に保護する必要があるリソースへのアクセス
      クライアントがSPA(シングルページアーキテクチャ)で、サーバ側が単純なAPIを提供する場合など、フロントエンド部分をAPI Gatewayなどの商用のプロダクト・サービスで代替する例も多くあります。

      各マイクロサービスがECSコンテナにより管理、Application Load Balancer(ALB)を介することで、以下のようなマイクロサービスアーキテクチャの設計要素をカバーできます。

      • ヘルスチェックによるサービス監視
      • サービスディスカバリ(ヘルスチェックでNGだと再起動)
      • ロードバランシング
      • ハードリソース調整/監視(CloudWatch)
      • パスベースルーティング

      クラウド環境を前提とした実行環境の構成は、単純な構成管理ツールだけでは実現できません。そのため、AWSリソースを含めた環境構築を自動化する「AWS CloudFormation」や、マルチクラウドプラットフォームをサポートする「Terraform」などを活用します。

      マイクロサービスにおける継続的インテグレーション・デリバリ

      以下のように、各サービスを構成するマルチコンテナ環境下でのステージング・プロダクション環境へのデプロイまでの一連のサイクルを可視化するパイプラインを構成できます。

      デプロイまでのサイクル

      AWS CodePipelineを用いて、以下の一連のプロセスを自動化・可視化します。

      1. GitHub上のDevelopブランチへソースコードをコミットもしくはプルリクエスト
      2. AWS CodeBuildを使って、ビルド・テストを実行
      3. コンテナイメージを作成して、DockerHub上へプッシュ
      4. アプリケーションをステージング環境のAWS ECSへデプロイ

      CodePipeLineの設定例

      ステージング環境でテストしたアプリケーションを、そのままプロダクション環境へ自動でリリースします。

      *  *  *

      これまで基盤自動化・ビルド・リリースの自動化は仮想化技術とともに発展してきました。さらに、コンテナ技術、それらを活用したマイクロサービスアーキテクチャが進展することにより、基盤自動化や継続的インテグレーション・デリバリの分野にも大きな影響を及ぼしています。

      今後の自動化はアーキテクチャ・基盤・リリースプロセスを一体として考え、構築していく必要があります。

      著者紹介


      川畑 光平(KAWABATA Kohei) - NTTデータ 課長代理

      金融機関システム業務アプリケーション開発・システム基盤担当を経て、現在はソフトウェア開発自動化関連の研究開発・推進に従事。

      Red Hat Certified Engineer、Pivotal Certified Spring Professional、AWS Certified Solutions Architect Professional等の資格を持ち、アプリケーション基盤・クラウドなどさまざまな開発プロジェクト支援にも携わる。

※ 本記事は掲載時点の情報であり、最新のものとは異なる場合がございます。予めご了承ください。

もっと知りたい!こちらもオススメ

【連載】RPA入門 - ツールで学ぶ活用シーン

【連載】RPA入門 - ツールで学ぶ活用シーン

AIには、ルールベース、機械学習、深層学習(ディープラーニング)の3つのレベルがあり、レベルが上がるに連れてより高度な人工知能を実現しますが、AIのスピンオフという位置付けで、Digital Labor(仮想知的労働者)によるホワイトカラー業務の自動化を実現するRPAが注目されています。

関連リンク

この記事に興味を持ったら"いいね!"を Click
Facebook で IT Search+ の人気記事をお届けします

会員登録(無料)

注目の特集/連載
知りたい! カナコさん 皆で話そうAIのコト
教えてカナコさん! これならわかるAI入門
Kubernetes入門
RPA入門
ソフトウェア開発自動化入門
PowerShell Core入門
Swagger 3.0 入門
徹底研究! ハイブリッドクラウド
マイナビニュース スペシャルセミナー 講演レポート/当日講演資料 まとめ
セキュリティアワード特設ページ

一覧はこちら

今注目のIT用語の意味を事典でチェック!

一覧はこちら

ページの先頭に戻る