Dockerってなんですか? それ、JavaEEで分かるよ。
はじめに
最近、Dockerが大人気ですね。GoogleやMicrosoftも参入してることはもちろんですが、Oracle Weblogicのサポート対象に入ってたりとミドルウェア側、それもエンタープライズ系製品が対応してきたのは面白い動きです。
とはいえDockerって何?っていう人もまだまだ結構多いと思います。
Dockerとはvmwareなどの技術の先にある軽量な仮想マシンである、と捉えてもあまり間違ってないと思いますが、個人的にはJavaEEコンテナの類似品というか、それと同じ文脈で考えたほうがしっくりきました。
なので、自分の理解を深めるためにも、JavaEEエンジニアはどのようにDocker及びその周辺技術を理解すればいいのか、という視点でまとめてみました。
そもそもDockerって?
Dockerとvmwareのような従来の仮想化で何が違うかですが、vmwareがOSの仮想化をしているのに対し、 DockerはOSの上でアプリケーションとミドルウェアを仮想化するコンテナ技術です。 まあ、chrootやjailの偉いやつです。Solarisでいうところのゾーンですね。
OSレイヤーを仮想化しないので、オーバーヘッドが非常に少なく高速に動作します。 それでいて、アプリケーションの動作環境をパッケージングしてるので、 ライブラリのバージョンや依存関係を含めて競合しない形で配布できるので 開発環境と本番環境が違う、みたいな問題も従来の仮想環境同様に解決できます。
むしろ、従来の仮想環境ではそうは言っても複数台立ち上げるのはコストが高いので、 似たようなロールは同じサーバに置く運用でしたが、Dockerの場合は軽量なのでロール毎に厳密に分けるのに向いていますね。その辺が人気の秘密です。
Dockerとwarとアプリケーションのパッケージング
さて、アプリケーションを依存ライブラリも含めてパッケージングと言われると、どこかで聞いたことがある気がしますね?
そう、「war(Web Application Archive)」です。 JavaEEの場合、依存するライブラリ(jar)を含めてパッケージングし、異なるwar間での依存を切り離します。 なので、同じサーバにデプロイしていても、あるアプリケーションはバージョン1系を使い、 別のアプリケーションはバージョン2系を使うというようなケースでも、問題が起こることはありません。
JavaEEはJavaとして閉じることで、これを実現していましたが、DockerはLinuxアーキテクチャで動作するものであればパッケージングが可能です。 なので、例えば「Apache + ImageMagic + Rails + アプリコード」をまとめてパッケージングする、という形になります。 デプロイもDockerコンテナに配置するだけなので、ImageMagicが無いとか、Apacheの設定が違うとかに悩まされることもなく、すぐに動作します。 この辺も、GlassFishにwarを配置するときとイメージは同じです。
JavaEEのwarと一番の違いはミドルウェアもパッケージングしちゃうところですね。 なので、JavaEEアーキテクチャで作成した、アプリをDocker化する場合はTomcatやJetty, あるいはGlassFishやWeblogicごとパッケージングする形になります
DockerfileとMavenと構成管理
warを作るためには通常はMavenかGradleを使いますね? この辺を使えば、手順をコード化出来るのはもちろんのこと、依存関係も自動解決してくれて便利ですよね。
Dockerの場合はDockerfileが概ねこれに当たります。 また、依存関係の解決事態はDockerの中で使うyumだとかaptだとかのパッケージマネージャに任せるのが基本となります。
より高度なビルドをしたいときにはPackerやChef/Ansibleなんかを組み合わせるケースもあります。
MavenにMavenリポジトリがあり各ライブラリを自動で落とせるように、 DockerにもDockerHubがあり必要なイメージを自動でダウンロードして使うことが出来ます。
オーケストレーションとクラスタリング
JavaEEの仕様では無いですが、GlassFishやWildFly、Weblogicといった一般的なJavaEEコンテナはクラスタリング機能を持っています。
これは複数のサーバを束ね、グループとして扱うことで、設定の同期やデプロイの一元化あるいは負荷分散や高可用性を提供します。
Dockerは基本的にはパッケージングに特化した技術なので、同等の機能はありませんが、SerfやConsulのようなオーケストレーションツールを使うことで実現できます。
オーケストレーションツールが何を提供するかといえば、基本的にはグルーピング(クラスタリング)とサービスディスカバリ、トリガの管理です。
詳細は後述しますが、簡単に言えばGlassFishやWeblogicのクラスタ機能/管理サーバを「自作するための機能」です。
残念ながら現時点でGlasFishのクラスタ機能と同じものを完成品として提供するツールは無いと思います。(使ったことがないけどGoogleのk8sはそれに当たるかも?) まあ、もうちょっと標準化されたものは今後出てくるでしょうが、根本的にインフラ構成に依存するので、 Consulをベースとした「Java + Dockerのソリューション」とか「Rails + Dockerのソリューション」みたいな感じで出てくるんじゃないかと思います。
これだけ書くと微妙ですが、クラウド、特にDockerを使うケースだとインスタンスの追加と削除を非常に頻繁に行うことになるので、 既存のGlassFishなどのクラスタ機能では不向きな部分がありますが、この点によくマッチします。
個人的にはGlassFishもWeblogicもクラスタ機能が微妙なので、この辺りは気になるところです。
では、クラスタリング、サービスディスカバリ、トリガ管理に関して、Consulを例に記載します。
クラスタリング
Consulでのクラスタリングは単なる名前付けです。主に後述するトリガ管理で有用な機能ですが、 Consulの場合は各クラスタに関してDNS登録をするので、単純な負荷分散はこの時点で対応できます。
サービスディスカバリ
サービスディスカバリはサービス、今回の話で言えばDockerコンテナを見つけるてクラスタに登録する機能です。
と言っても、難しいことをしているわけではなく、各DockerコンテナにConsul Agentをインストールし、 Consul Serverに起動時にリクエストを投げることで発見をします。
発見だけではなく、ヘルスチェックも提供していて、落ちれば自動的にクラスタから外されます。
トリガ管理
トリガ管理はイベントを起点に何らかの処理をクラスタに対して実行する機能です。
イベントはサービスディスカバリによりクラスタに追加されたり、削除されることはもちろん、外部から任意に実行することも出来ます。
トリガ機能を使うことで、クラスタに対するデプロイやZabbixやSensuといった監視システムに対して自動で登録削除をすることが出来ます。
上記の機能を組み合わせてGlassFishのクラスタ機能や管理ツールと同等の機能を作成していくことになります。JavaEEコンテナの提供するクラスタ機能だと、当然JavaEEで完結するものにしか提供されません。
結果として、同じシステムに対してGlassFishのクラスタとZabbixのクラスタが二重管理されるような形になります。Consul等を使うことでこれを集約して管理できるのは大きな利点です。
リソース管理
各コンテナが使うリソースが適切に配分されるように多くのGlassFishやWeblogicでは同時にさばけるリクエスト数はDBコネクション数などのリソース制御を行います。
これと同様の仕組みはDocker単独では提供していませんが、Mesosやk8s(Kubernetes)を組み合わせて使います。このあたりは正直まだ成熟してないので、今後に期待。
フェイルオーバー
Dockerにはフェイルオーバーに類する機能はありません。こちらはDockerコンテナ内の各ミドルウェアの機能に頼ることになります。
例えばWebシステムであればセッションさえフェイルオーバーできれば基本は問題ないので、 KVSで外部に出して、各APPサーバ、各KVSサーバ自体は状態を持たないかレプリを持つのが基本となります。
JavaEEであればGlassFish, WeblogicであればCohrerence、WildflyであればInfinispanを使うことになります。 もちろんクラスタを作ってインメモリレプリケーションをすることも出来ます。
個人的にはインメモリレプリケーションをJavaEEコンテナ側でするよりも、外部に取りたいのでSpring-Sessin + RedisがJSF等でも使えないか検討中です。
Immutable InfrastructureとJavaEE
Dockerそのものとは関係ありませんが、Dockerを取り巻く概念の一つにImmutable Infrastructureがあります。
これは、その名の通り、サーバなどのインフラに対して一切設定変更を行わず、修正やアプリケーションのデプロイをしたい場合はサーバごと作りなおす、という手法です。
これにより、Chefなどのように冪等性を気にせずスクリプトが作れますし、ローカルにファイルを出力するなどの状態が無いのでサーバの増減が非情に簡単になります。
もちろん、手動オペレーション + 物理サーバでこんなことが出来るはずがなく、自動構成管理と仮想化が基本になるのですが、Dockerはこの運用に非常にマッチします。
一見新しい概念なのですが、実はJavaEEは元々これを強く意識したアーキテクチャーです。
最近は出来ますが、JavaEEではトランザクションとポータビリティを意識してEJBへのローカルファイルへのアクセスは禁止でした。今は利便性のため可能ですが、やはりDBなどを使うのが基本となります。
EJBがJNDI Lookupで引いた場合、クラスタ内のどのサーバで動くか分からないため、そのような作ります。warまたはearをデプロイすればどこのサーバでも全く同様に動くのがJavaEEの基本思想です。 これって、Immutable Infrastructureと左程変わらないですよね? 当時と違いDockerはJava以外のものもパッケージングできるため適用対象が増えただけで、概念としては同様です。
なので、JavaEEエンジニアであればImmutable Infrastructureは考え方としてしっくりくるので、さほど警戒する必要は無いと思います。
まとめ
今回はJavaEEエンジニアはどのようにDocker及びその周辺技術を理解すればいいのか、という視点でまとめてみました。
Dockerやオーケストレーション、Immutable Infrastructureは非情にホットな技術で新しい用語も多いですが、 基本的には、JavaEEでも考慮されていたユースケースをより汎用的に、現代的に解決するための手段なので、 今回みたいに対応づけて考えると分かりやすいんじゃないかなー、と思います。
逆に言えば被ってる部分も多いので、機能の使い分けが重要になってくると思います。特にクラスタ周り。 Docker時代のJavaEEインフラをどう構成するのが良いのかは、なかなか面白そうなので継続して考えていきたいです。
この辺を考えると、未来のJavaEEコンテナはクラスタとかデプロイとかの運用要件を外部システムに任せて軽量なアプリケーションコンテナとして生きる道もあると思います。
また、現時点では要素技術が良くも悪くも独立していますが、Google Compute EngineのようなPublic PaaSやOpenShift 3.0のようなPrivate PaaSがPaaSという形で統合する統合する形になるかと思います。
それではHappy Hacking!
萌える瞬間英作文バージョン 0.401をリリースしました!
毎年、エイプリルフールはなんか作ろう! と画策しているのですが、今年は「萌える瞬間英作文」というAndroidアプリを作りました。
萌える瞬間英作文 - Google Play の Android アプリ
さて、瞬間英作文ってご存知でしょうか?
こちらの英語上達完全マップ●瞬間英作文で触れられている英語学習方法で、簡単な英文を大量に作成することで英語を瞬時に理解・作成できるように訓練する方法です。
基本的な方法は
- 日本語の文章を読む
- 1で状況をイメージしながら、英文を作成する
となります。慣れないうちは中学1年生レベルの英語ですら、結構疲れるのですが私もこの学習方法をするようになってからTOEICが100点くらい上がったのでそれなりに効果あるんじゃないかと。 ※ 他の勉強もしてたので瞬間英作文だけの効果じゃないとは思いますけど。
この学習を進めるためにこういう本も出てますし
どんどん話すための瞬間英作文トレーニング(CDなしバージョン) |
こんな感じのiOSアプリもあります。
なので、どんどん瞬間英作文を進めていくことができそうな気がするんですが、一つこの手の教材には致命的な欠点が...
というのも、英文が単調すぎたり、不自然すぎてイマイチ状況がイメージし難いんですよね。
例えば例文として出てくるのは
「私は学生です。/I am a student.」
とかなんですが、そんな事を言うシーンがあまりないので、ぱっとイメージが思いつきませんよね? イメージしながら英文を作ることが、この学習方法の最大のポイントなので、これは結構微妙です。
では、これならどうでしょう?
「ジャッジメントですの!/I am a "Judgement".」
ばっちり、ドヤ顔の少女の顔が即座に浮かびましたよね?
掲載してある英文の例としては他にも
「もう、何も怖くない/I'm not afraid of anything anymore.」 「俺の妹がこんなに可愛いわけがない/My little sister can't be this cute!」 「そうそう!も~っと私に頼っていいのよ!/Yes, you can count on me more and more!」 「あぁー心がぴょんぴょんするんじゃーっ/Ah^ My Mind is hopping.」 「煩わしい太陽ね。/Good morning.」 「くおえうえーーーるえうおおお/I am Chloe Lemaire.」
こういったイメージしやすく、日常的に使える英文をとりあえず90個くらい作ってみました。
文法はせいぜい中学2年生くらいで習うものなので、どんどん声に出していきましょう! ただし、英語がわかる人が近くにいるときはちょっと気を付けたほうがいいかも?
なお、英文の追加および間違いの指摘は随時募集中なので、ブログコメントかTwitter、あるいは
に直接PRいただければと思います。
それでは、Happy Hacking! And let's study English!
Meteorが見せるIsomorphicなDBとリアクティブな開発モデル
最近、Meteorを試して見てます。これはちょっとスゴイ。正直、当時Railsに受けたのと同じ興奮がある。
Meteorの説明は「リアルタイムWebアプリケーションフレームワークMeteorについて」あたりが分かりやすいので、こちら参照。
実は、2012年の公開時から存在は知ってたんだけど、チュートリアル見たくらいで特に興味はありませんでした。 しかし、今は違います。それは主にスマホアプリの開発にかなりの威力を発揮しそうだと気づいたからです。
まず、なんで公開時にあまり興味がなかったかですが、そもそもRailsなど同レイヤーのWebアプリケーションの開発FWとして考えていました。
その場合
- SPA
- リアクティブな開発モデル
- クライアントとサーバを同一コード(JS)で書ける
- サーバサイドのDBをクライアントから透過的に呼び出せる(IsomorphicなDBモデル)
という特徴はせいぜいリアクティブな開発モデルがちょっと気になるくらいで、他はさほど気になりませんでした。 むしろ、クライアントコードとサーバサイドを同一でってのは初期のASPやGWTはじめ多くのFWが目指したものの、そこまで流行らなかった印象だけがありました。 リアクティブプログラミングも気にはなるものの、私が当時書いていたWebアプリはさほどUIがリッチではなかったので、修正したコードが更新ボタン押さなくても反映されるのはスゴイな、という印象止まり。
SPAにはSEOの問題もついて回りますし、ざっくりフルスタック過ぎて密結合なシステムになりそうだなーと、むしろ悪い印象。
というわけで、さほど興味を引くものではなかったのですが、Meteor + PhoneGap/Cordovaと連携して使うことで、クライアントとサーバ(クラウド)のデータ同期というかアクセスモデルを超シンプルにしてくれると気づきました。
そもそも何が問題?
スマホ開発の課題をあげよ、と言われると人によって多くの課題が上がると思いますが、その一つにサーバサイドと連携したデータアクセスがあると考えています。
いろんなケースがあるかとは思いますが、サーバサイドと連携したアプリを書くときは全体として以下の様な構成にするとことが多いかと思います。
図:モデル1
このモデル1のケースでは以下の様な問題があります。
- モデルを一致させるためにサーバサイドとクライアントサイドに類似コードが大量のボイラーコードが発生する(+ REST周りのコードが必要)
- Server DBとClient DBの同期が困難(安定したネットワークではないため不整合の吸収が必須)
クライアントサイドにデータを一切持たず、サーバサイドに直接アクセスすることで、同期の複雑さ等は解決できます。しかし、反面ネットワークに繋がってない時は利用できず、繋がってる時もレスポンスに影響が出るので使い勝手に影響がでます。
実際のシステムモデルはともかくとして、プログラム上はこんな感じでシンプルにアクセスしたい。
図:モデル2
この場合、クライアントのDBは基本キャッシュになっていて、クライアントDBへの操作を行えば、サーバサイドにも自動的に反映。モデルのメタ情報も何らかの方法でサーバサイドと同期を取っておけばボイルコードが一気に減り、やる気も上がって生産性アップ! となります。
そう、Meteorはこのモデルを実現してくれてるんです。
MeteorにおけるIsomorphicなDBモデル
Meteorがサーバとクライアントを意識しないIsomorphicなDBモデルをどのように実現しているかですが、minimongoというmongodbのJS実装を使っていて、これをクライアントのキャッシュDBとして使っています。
ユーザへのレスポンスは基本的にminimongoの結果をまず返され、それと同時に投げているサーバサイドのリクエストをバックエンドで待つ。
この時、もしサーバサイドのmongodbとクライアントサイドのminimongoの結果が違った場合は、非同期でこっそり書き換えるという仕様。
厳密なデータ一貫性が必要なケースには使えないけれど、リアルタイムなデータを表示するレポート系ツールやチャットやSNSのような場合なら基本問題無いでしょう。
また、Meteorの場合、サーバサイドがnode.jsなので当然のようにモデルが共有されます。
Meteorがサーバサイドもクライアントサイドも同一のコードで書ける、という点は単に同じコードでvalidationロジックが実行出来る、というよりもモデルの共有ができるので、サーバサイドとクライアントサイドで違うビジネスロジック部分だけを意識すれば良いという点が大きいです。
IsomorphicなDBモデルとリアクティブプログラミング
Meteorの特徴はIsomorphicなDBモデルということに加えて、リアクティブプログラミングを採用している点も大きいです。
リアクティブプログラミングはExcelのように宣言的に関係を記述することでデータの変更による再計算を自動化する開発モデル。
GUIだとデータバインディングを利用したMVVMとかがその具体的な方法の認識。
この2つを組み合わせることでMeteorはリアルタイムアプリケーション--- 言い方を変えるとユーザ関連系などサーバサイドの頻繁な更新が伴うアプリケーションを非常にシンプルに書ける。
というのも、モデル1のような通常のシステム構成でchatのようなユーザ間連携があるシステムを作る場合
- クライアント側の書き込みのUIからモデルに値を渡す
- クライアントのモデルがサーバサイドのREST/IFをコールする
- REST/IFから受け取った値をサーバのモデルに渡す
- サーバのモデルはDBに値を書き込む
- サーバはDBの変更を別のクライアントに呼び出すモデルを実行(WebSocketではなくクライアントがポーリングしてるならクライアントにその実装がいる)
- 5で呼び出されたモデルはDBから値を取得してREST/IFに渡す
- クライアントはREST/IFから受け取った値をクライアントのモデルに値を渡す
- クライアントのモデルはUIに値を渡して変更する
という感じになります。FWによって記述量が変わるところはあっても、1から8の工程を明示的に何かしら記述をしないといけません。これは単純にサーバサイドもクライアントサイドもJSで書いたからといって変わるものではありません。
対してMeteorの場合は
- UIからクライアントのDBに書き込むモデルを作る
- モデルとクライアントのDBを紐付ける(※ モデルをJSONハードコーディングじゃなくてDBの戻り値にする)
- UIとモデルを紐付ける
これだけです。それぞれのステップでの記述量もかなり短くなるのですが、それ以前にステップが8個から3個に減っています。
これが実現できるのはIsomorphicなDBモデルなので、各クライアントは自分たちのローカルDBへの操作だけ意識すれば良く、かつリアクティブなので、データに変更があれば、UIにも自動的に反映されるからです。
この点が開発のシンプルさを激的に改善してくれる部分です。各工程のコストを小さくするのと、工程自体が無くなるのではたとえ1秒で終わることでも人間の意識としては結構違いますしね。
まとめ
では、Meteorは万能で同様の開発モデルを採用していくべきでしょうか? 必ずしもそうではないと思います。 まず、Meteorに限って言えば未成熟な部分もあります。特にモバイル周りはUI周りが弱かったり、Cordovaとの連携にまだ不備があったりとめんどくさい部分もあります。ただ、コレは時間が解決してくれる気もします。
そうではなく、そもそもあまり向いてないケースとしては、トランザクションが厳密なケースと、既存の連携システムが多い場合です。
トランザクションが厳密であれば信頼性の低いクライアントのDBは使えず、結局常にサーバにアクセスする以外ありません。
また、このアプローチは基本的にクライアントに合わせてサーバサイドを作る場合に適したモデルなので、すでに他システムなどでサーバサイドが存在する場合にはかえって面倒になるかもしれません。
ただ、逆に言えば厳密性が重要ではなく、プロトタイプや新規アプリを開発するには非常に向いた方法だと思うので、MBaaSとの連携含めてもうちょっと研究してきたいと思います。
そもそも、AndroidやiOSを前提にしたネイティブなMeteorっぽい仕組みのが個人的には嬉しいですし。
それではHappy Hacking!
参考
JavaEEだけどDockerがしたい!- GlassFish on Docker
Java EE Advent Calendar 2014 14日目です。
今年はDockerが大躍進した年だな、と思います。
そこで、このビックウェーブに乗り遅れないように、GlassFishを使って、Dockerベースの環境を作ってみました。
今回利用するコンテナはこちら
Appコンテナ
GlassFishが乗っているサーバです。下記のプロセスが動いています。このコンテナの数を増やす事でスケールアウトが可能。
- GlassFish
- Fluentd
- Consul client agent
本体はGlassFishですが、周辺システムとしてFluentdとConsulをインストールしてあります。
Dockerテクニック的に言えば、FuluentdやConsulを入れた状態でいったんイメージを構築して、それを継承する形で、glassfishイメージを作ってるので、wildflyやtomcatにすげ替えることも、比較的簡単に出来る構成にしてあります。
また、通常、Dockerでは1プロセスしか起動できないので、"run.sh"を作って、Fuluentd, Consul, GlassFishの3つのプロセスを起動させています。この辺りは、もしかたしたらKubernetesとかコンテナを管理するシステムを用いることでもっとシンプルに出来るかもしれないです。
他にも、Dockerらしく作るために気をつけた点としてApplicationを最初からデプロイしています。最初は起動前からデプロイしてある構成を想定してたのですが、アプリケーションのデプロイ時にJDBC Sourceを参照するためエラーになるので、auto-deployにして、起動時にデプロイする方式にしました。
DBコンテナ
App Serverが使うDBコンテナです。GlassFish上のアプリがJDBCを利用しているので、App コンテナより先に起動する必要があります。
Consulコンテナ
サービスディスカバリやオーケストレーションを提供するConsulの中央サーバです。今回の構成ではDNSも兼ねています。
- Consul server agent
Log集計コンテナ
Fuluentdのログ集計サーバです。今回はファイルに吐いてますが、本番だとmongodbとかasticsearchに連携する形になるかと思われます。
ConsulやFuluentdを入れてる理由は、Dockerを使うユースケースでは古き良きオンプレの静的な構成ではなく、クラウド的な動的な構成が想定されるためです。
起動
コンテナは構築済み&docker-hubに上げてあるので、動作確認はシンプルに下記で実施できます。
git clone https://github.com/koduki/docker-javaee.git cd docker-javaee ./docker-mng.sh up
これで動作します。"http://localhost:8080/javaee-simple-tester/"にアクセスして頂ければ、アクセスが可能です。
まとめ
こんかいはGlassFishのクラスタも組んでませんし、リバースプロクシも入れてないので、高可用構成にはなっていません。
ConsulのDNSを経由してラウンドロビンにアクセスすることは可能ですが、HA ProxyとしてConsulを使っても潰れないのかは調査不足。
一方、Consulのイベント通知機能を使えば、Consulクラスタになった時点でGlassFishのクラスタに入れるのは簡単そうです。
ただ、その構成にすべきかは、いまいち思案中。設定もデプロイもDockerレベルで完了しちゃうので、GlassFishクラスタを組むメリットは小さいです。
それよりもLBを入れて、負荷分散するほうがよっぽど重要。ただ、GlassFishは原則スティッキーなアクセスを求めるので、この辺をどう解決するのかが課題。クラスタ組まないとセッションレプリケーションもできないですしね。
単純にセッションを無理やりKVSに詰める仕組みを自作してもJavaEEとの相性が悪いので、なんとかHttpSessionレベルをフックする必要があるので、こと辺りは課題として要調査。
来年はこの構成をベースに、もっとスケールアウト出来る仕組みを考えないとなー。
明日はemagさんの「Arquillian Cubeについて」です。
参考
Excelを使わない技術 - 正しい神の殺し方
ドキュメント作成技術 Advent Calendar 2014 13日目です。
※ なお、本題とは一切関係ありませんが中2力全開気味なのでご注意ください。
Excel、というツールをご存知でしょうか? まあ、知らない人はいないと思います。
それは表計算ツールであり、グラフ描画ツールであり、データーベースであり、ワープロであり、DTPであり、時にはゲームエンジンとなる万能の釜です。
はじめは計算をシンプルにしたいという素朴な願いから生まれたそれは、やがてアレもしたい、コレもしたいという人の願いを叶え続け、万能と成り果てました。 今では、こんなことも出来ます。
Excelすげーですね!
ここまでスゴイ使い方はあまり見ませんが、方眼紙Excelで作った入力フォームとか、方眼紙Excelで作ったUMLとか、あまつさえ方眼紙Excelで作った表とかを見たりメンテナンスして、職人の凄さにむせび泣いた方なら多いかと思います。人はそれらを神Excelといいい、おそれ、あるいは尊びました。
「ネ申 Excel」問題 という論文もありますし、職人ならざる我々もドキュメントを書き、育てることを来年の抱負とするためにも、Excelを使わない技術に関して紹介していきます。
はじめに言葉があった
Advent Calendarを読むような方の期待をいきなり裏切って申し訳ないですが、Wordを使いましょう。文章書きたいなら、ね。
Wordだけではありません。UMLを描きたいならastahを使いましょう、WBSを描きたいならProjectLibreを使いましょう、画像を表示したいならそもそもjpegで良いのです。なんのために貼り付けてあるんですか?
もちろんツールは何でも良いのですが、餅は餅屋です。無理して全部Excelでやるから無駄に保守性が下がるので、適切なツールを使って、それをチーム/社内標準にすれば良いですし、印刷や他社配布ならPDFにプリントしてやれば良いのです。最近のOS使ってるならそのくらい造作も無いことなので、その作業は本当にExcelでするべきか考えてみましょう
どうでも良いですがWordを「言葉 -> コトノハ」と読むと素敵ですね。
されど我は愚者の夢を見る
神Excelには適切なツールを使うことでさっくりと消滅してもらえば良いのですが、まだ不満はあります。
それはgitなどのバージョン管理システムとの相性です。
「履歴」という謎のシートやページに編集内容や編集者を記載し、さらに「変更箇所の色を赤で変えておきました」的なコメントを見かける事があります。これはExcelを表として適切に使ってても起こる悲しい問題です。
バイナリの差分管理が適切にできれば良いのですが、あいにく私は良いツールを知らないので、コミットログなんかだけだと更新内容が判断できません。
ソースコードみたいにdiffが出ればいいんですけど。
そう、逆に言えばソースコードみたいにテキストで管理することでdiffを含めて適切に管理できます。テキストファイルで管理することで、Pull Requestで差分管理/レビューできますし、良いことづく目ですね。
テキストで書いた場合は専用ツールで書いた場合に比べて表現力が劣ることが多いですが、後述するツールでかなり補えますし、意外に気にならないものです。
巨人の肩
かのニュートンは言いました。「私がより遠くまで見渡せたとすれば、それは巨人の肩の上に乗ることによってです。」と。先人に倣って、まずは既存のツールを紹介します。
最初の一つは一日目のsky_yさんも紹介されているPandocとMarkdown. Markdownはプレーンテキストで論理構造をいい感じに表現出来る単なる「記法」ですが、githubを初め多くのツールやWebサービスが対応してるため、標準化されたWiki記法として人気を博しています。
私も普段書くメモもそうですし、このブログもMarkdown形式で書いています。pandocはMarkdownをHTMLやPDFあるいはWord形式で出力してくれるツールです。 これもかなり便利。以前書いた記事ですが、書きのようにプレゼン資料を作ることも出来ます。
Keynote風のプレゼンテーションをMarkdownで作ってみた - ブログなんだよもん
他にも図形を書くblockdiagとか、サーバの設定を記述するserverspecとか、テスト仕様書を記述するCucumberやturnipも便利です。
そして13番目の奴は訪れる
既存ツールも紹介したことなので、個人的にJSONを使った表なんかも作ってるのでちょっと紹介。 Excelを使った表でデータを管理ってのは個人的にというか仕事でよくやります。サーバ一覧とかACL一覧とかパラメータシートとかそういう奴。Excelで作るのが簡単だし、見栄えも悪く無いですしね。
ただ、前述したとおり、まともにdiffが取れないので、更新履歴シートを作ったり、変更箇所を赤色にしたり、ゴミみたいな運用をせざるえません。
更新が噛み合ったらマージも出来ない阿鼻叫喚。マスタドキュメント系なのでこれはかなり不便で、下手をすると変更担当の人に依頼するという謎の運用になります。
そんな時はこんな感じでJSONで記述して、それを埋め込んだHTMLのJavaScriptを使って表として表示することが出来ます。
"Description":"GlassFish Application Server", "Environment":["production"], "Network":{ "Host":["localhost.localdomain"], "IP":["enp0s3", "10.0.2.15"] }, "OSName":["Linux dev-ubuntu 3.13.0-32-generic"],
わりと見栄えも悪くないので、個人的には結構お気に入り。
JSONだけ外出しにした方が、そのJSONを解析するツールとかが作りやすくて便利(事実、私もserverspec風のツールを作ってます)ですが、IE以外はセキュリティの問題でローカルファイルは参照禁止なので ローカルで管理が中心の時はgistに書いたみたいにHTMLの中に埋め込む方が良いかと思います。
ちなみに、XMLの方が好きって人はXSLTを使うことも出来ます。なにげにIE, Chrome, Firefox, Sfari, Operaとほぼすべてのブラウザが対応していますしね。 こいつが普及してたらまた違ったのかなー。
幼年期の終わり
Excelは良いツールですが、なんでもExcelでするのは微妙ですし、そもそも現代のソフトウェア技術は残念ながらテキストの方が管理に向いています。
私達は、Excelという揺りかごを飛び立ち、新しい世界へと行く必要があります。ドキュメントを作って印刷するだけの時代は終わりました。現在は、作って、メンテナンスし育てる必要があるので、それに見合った方法を色々模索していかないとなー、と思います。
以上、酔っ払った勢いで、主に見出し的に中2力を出した文章を最後まで読んでいただきありがとうございました。
それでは、Happy Hacking!
Consul with Dockerを手軽に試せる環境を作ってみた
Consulを使ってDockerの名前解決を簡単に実現する - Qiita でConsulを使って、サービスディスカバリをして、DNSの名前解決をする方法を書いたんだけど、検証用の環境を簡単に作れるようにしたのでこっちに公開。
koduki/consul-with-docker-example · GitHub
まあ、基本的に、Qiitaで書いたことをそのまま実行するためのスクリプトとDockerイメージを作っただけだど。
最初はfigで作ってたんだけど、起動のタイミングとかでどうも名前解決が出来ないこととかあって、シンプルにシェルにした。Consulが起動してから、sleepで3秒待つので、その間にクラスタの構築を待つ感じ。
sudo ./docker-mng.sh up # 起動 sudo ./docker-mng.sh stop # 終了
ってだけの超シンプルシェル。この辺は先達もいるし、本格的に使うなら良いツールはいっぱいあるだろうしね。fig含めて。
あと、Qiitaの記事でも少し触れたけど、おそらくRH7系及びFedoraでDocker起動すると、セキュリティの関係かわからないけど、docker0にフォーワードしたポートはコンテナからはアクセス出来ない。
セキュリティ的には当たり前といえば当たり前の気がするし、かと言ってiptablesを毎回イジるのはさすがに面倒なので、Consulのクライアントになる側ではコンテナをRUNするときにlink名でconsulのサーバIPを抽出して、resolve.confを書き換えるというハックを入れています。
DNS_HOST=consulboot DNS_IP=`grep ${DNS_HOST} /etc/hosts|awk '{print $1}'` sed "s/172.17.42.1/${DNS_IP}/g" /etc/resolv.conf > resolv.conf.tmp \cp -f resolv.conf.tmp /etc/resolv.conf rm -f resolv.conf.tmp
ちょっと、特殊なイメージになってしまい、使い回ししづらいけど、致し方なし...
この辺はDockerコンテナをホスティングしてるサービスによってもやり方違いそうだから、本番に上げるときには再度研究かなー。
それでは、Happy Hacking!
Java VM別の簡単なベンチマークをしてみた
最近のJavaは速い。
この言葉は良く聞くけど基本Java1.2とか1.4みたいな古代のバージョンと比較してのこと(まだ動いてそうだが...)
最近のバージョンはどうなんだろう? と気になったのだけど、あんまりVM毎のベンチって出回って無さそうだったので、試しに実施してみた。 本当はベンチマークキットみたいな適切なベンチ項目があれば良いのだけど、良いのが見当たらなかったので、とりあえず自前で適当に。
評価項目は下記の通り。
- StringBuilderによる文字列結合(100,000,000回)
- プラス演算子による文字列結合(100,000回)
- リフレクションによるプロパティアクセス
- BeanUtilsによるプロパティアクセス
結果はそれぞれ10回呼び出して計測時間の中央値を使ってる。実行した時のマシン状況による差分を多少でも減らすために、一応2回実行してみた。ソースコードはこちら。
実行結果は下記の通り。
concat string with StringBuilder(100,000,000) | concat string with plus(100,000) | replace string with regular expression | property access with refrection | property access with beanutils |
---|---|---|---|---|
Apple Inc. Java HotSpot(TM) 64-Bit Server VM 1.6.0_65(1回目) | 1428.5 | 12100.5 | 4434 | 1133.5|1783 |
Apple Inc. Java HotSpot(TM) 64-Bit Server VM 1.6.0_65(2回目) | 1194.5 | 10400 | 3012 | 1076.5|1726 |
Oracle Java HotSpot(TM) 64-Bit Server VM 1.7.0_65(1回目) | 1166.5 | 2135 | 2768.5 | 2037.5|1785.5 |
Oracle Java HotSpot(TM) 64-Bit Server VM 1.7.0_65(2回目) | 1133 | 2178 | 2828.5 | 2040.5|1754.5 |
Oracle Java HotSpot(TM) 64-Bit Server VM 1.8.0_11(1回目) | 1170 | 1788 | 2363 | 2144.5|1900 |
Oracle Java HotSpot(TM) 64-Bit Server VM 1.8.0_11(2回目) | 1209.5 | 1779.5 | 2202.5 | 2087.5|1942.5 |
評価項目のせいかもだけど、あまり劇的に性能が変わるところは無さそう。プラス演算子による文字列結合だけやたら1.6で遅いのは、1.6はApple製なことと影響してるのかな? Linuxでも測ってみる必要もあるな。
正規表現と文字列結合は順調にバージョンが上がる毎にパフォーマンスが向上してるみたい。リフレクション周りが少し微妙だけど他の性能を上げるために犠牲になったのかな?
1.8でPermMemoryの使い方とかも変わってるので、メモリとかをもっといっぱい使うようなベンチをちゃんと作らないと面白いデータは取れ無さそう。
まあ、少なくとも遅くなってないことはわかったので、それはそれで収穫か。
それではLet's Happy Hacking!