それが僕には楽しかったんです。

僕と MySQL と時々 MariaDB

MySQL を使った最高に頭の悪いポートフォリオを作った話

はじめに

JVM オプションをいい感じに比較してくれるサービスを作ったが、サブドメインに割り当ててしまったので大元の lrf141.dev に何もないという状況はあれだなと思い半年ぐらい前に作った頭の悪いポートフォリオサイトを作ったのでまとめる。

技術スタック

  • Go 1.14
  • React 16.13.1
  • MySQL 8.0.21
  • Redis 6.0.5
  • Docker

作ったもの

https://lrf141.dev/

f:id:RabbitFoot141:20210226000601p:plain

f:id:RabbitFoot141:20210226002414p:plain

f:id:RabbitFoot141:20210226002437p:plain

画面はこんな感じ。どこかでみたことのある画面ですね?

portfolio データベースが存在し、そこにあるテーブルをいい感じに select * from で呼び出すとテーブルのフォーマットのまま表示してくれる。
ポイントはテーブルのフォーマットのまま表示してくれるというところ。

仕組み

Go + Gin で Web バックエンドを作り、フロントエンドは React で作っている。
ここで何が起こっているかというと、SQL をターミナルに入力するとそれを API に飛ばし、APIMySQL の docker コンテナに対して mysql コマンドを実行し
標準出力をアタッチしてそれをレスポンスとして返却している。そのためテーブルのフォーマットで表示されるようになる。

自分は web デザインが苦手なので、この形式であれば css とか描かなくても秩序のあるスタイルで表示してくれるので楽だった。

この時点で非常に頭が悪い。

もっと頭の悪いことは、なんでこんな形にしたかというとポートフォリオサイトをまともに更新したためしがなかったのでマイグレーションを走らせればいい感じにサイトを更新してくれる上に楽という発想。

絶望的に頭が悪い。

技術的な話

docker コンテナに対して何かを実行させる

API がコールされた段階で docker コンテナに対してコマンドを投げるがここは Go で作ったので moby を使っている。
結構便利でコマンドも投げられるし、コンテナ内の標準出力をアタッチする API も用意されていてこれだけでどうにかなった。
Docker Engine API を呼び出しているらしく、この辺りを使えばもっと面白いこともできる。

Redis を使ったキャッシュ

テーブルが3,4つしかないので毎度コンテナに叩きにいかないで同じクエリであれば redis にキャッシュされてるデータを引っ張るようになっている。Redis は最高。

MySQL User の権限を絞る

クエリが投げつけられてなんでも実行されると平気な顔をして破綻するからユーザの権限を絞っている。

CREATE DATABASE IF NOT EXISTS `portfolio`;
GRANT SELECT ON `portfolio`.* TO 'portfolio'@'%';
FLUSH PRIVILEGES;

こんな感じの設定をいくつか追加している。

デプロイ時の色々

Dockerfile で COPY /var/run/docker.sock を突っ込もうと思ったが Dockerfile では Dockerfile のあるディレクトリ以下のディレクトリしか参照できない。これはハマった。
また Dockerfile で CMD をやってしまって /var/run/docker.sock を docker-compose でボリュームマウントしたが認識されなかった。そのため、docker-compose で commands を使って上書きした。面倒だったので。

おわりに

何かまずいところあったら教えてくださいな。

Springboot アプリケーションのデプロイ準備を考える

はじめに

最近趣味で Springboot アプリケーションを作っていてデプロイ準備が地味に面倒だったので備忘録としてまとめる。
いくつかうまくいかなかった方法があるので、ここではうまく行った方法をまとめていく。

準備すること

環境別の properties を用意する

Redis や MySQL を利用している場合、開発環境と本番環境で異なる設定を利用したい場合がある。
この時 gradle のタスクとして切り出して、それぞれの環境に適用するべき properties ファイルを生成することが出来るがもう少し手抜きをする。
以下のようなディレクトリ構成で spring.profiles.active オプションで環境別の設定を利用することができる。

./src/main
├── java
│   └── net
└── resources
    ├── application-dev.properties
    ├── application-prod.properties
    ├── public
    └── templates

具体的には -Dspring.profile.active=dev だと application-dev.properties が読み込まれるようになる。
この設定を前提にする場合は、各環境毎のプロパティファイルを用意しておくだけでよい。

dev 環境を整える

普段、開発環境では Springboot を手元で立ち上げていて、アプリケーションで利用するミドルウェア群は docker-compose を使って用意したコンテナを利用している。
そのため開発環境で Springboot を立ち上げる時の設定を若干手を加える必要がある。
普段は bootRun を使用しているので bootRun の設定を以下のように書き換える。

bootRun {
	args = ["--spring.profiles.active=dev"]
}

これで常に dev 環境用のプロパティファイルを ./gradlew bootRun 実行時に読み込める。

jar と resources を固める

単純に ./gradlew build の成果物である build/libs/*.jar と build/resources を tar に固めてどこかに置いておくだけ。
これは github action を使っていい感じにまとめる。
以下の yaml でよろしくやってくれる。

name: Create Application archive

on:
  push:
    branches: [ main ]
  pull_request:
    branches: [ main ]

jobs:
  build:
    runs-on: ubuntu-latest
    steps:
    - uses: actions/checkout@v2
    - uses: actions/setup-java@v1
      with:
          java-version: '11' # The JDK version to make available on the path.
          java-package: jdk # (jre, jdk, or jdk+fx) - defaults to jdk
          architecture: x64 # (x64 or x86) - defaults to x64
    - name: Setup npm
      uses: actions/setup-node@v1
      with:
        node-version: 14.x
    - run: cd ./frontend && npm i && npm run build && npm run postbuild
    - name: Grant execute permission for gradlew
      run: chmod +x gradlew
    - name: Build with Gradle
      run: ./gradlew build
    - name: Create Archive
      run: |
        mkdir archive
        cp ./build/libs/jvm-*.jar ./archive/jvm.jar
        cp -R ./build/resources ./archive/resources
        tar czvf archive.tar.gz archive/
    - uses: actions/upload-artifact@v2
      with:
        name: archive
        path: ./archive.tar.gz

番外編: redis でちょっとハマった

docker-compose で java, redis をいい感じにデプロイしようとしたらこけた。
この時の原因は参照している properties ファイルが異なることだった。
ここの準備を終えるまで環境別の properties ファイルを用意してなかったが、それが面倒なのであれば redis のコネクションドライバをコード内で上書きしてしまうのが楽だった。
結局この記事でやったことが適用できたので特にそういったことをする必要はなくなった。

おわりに

アーカイブ作ったり、環境別の設定をいい感じにする方法はわかったのでデプロイを自動化したい

2020 年を振り返って

はじめに

仕事納めなる概念が降って湧いてきたにさっき気がついたので一足先に今年の振り返りを。(仕事納めは28日)
ずっと取っていなかった夏休みを23から取っているので気分は年末です。
会社がどうとか言うのはあまり書くつもりがなく、一年経った時にでも気が向いたら書こうかなと思っている。あくまでもエンジニアとして今年どうだったかとかを中心に書きたい。

今年の総括

仕事忙しかった

これに尽きる。自社サービスかつメンテフェーズになっているプロダクト・ミドルウェアに関わっているので工数ヤベェとかもあんま無いと聞いていたので暇なのかなーって思っていたけどそんなことはなかった。先輩がごついプロジェクトやっている間にプロダクトのバックログ捌いたりとか結構あった。兼務が多いチームだけど専任でやっているので大手を振って工数使っていた。ので、忙しい時はまじで忙しかった。
あとは別プロダクトの新機能開発に関わったり、認証周りみたり、障害起こしてデグレしたりとかまぁ結構いろんなイベントがあった。これもなかなかにタスクの進捗が悪い時に重なると忙しさの元凶となっていた。
それ以外だと、弊社ではモブプロが主流になっているところ多いけど完全に個人作業で拾ったタスクを捌いては拾って捌いては拾ってを繰り返していたので気が抜けるところあんまりなかった。
忙しいには忙しいけど、自分の本部の中でもベテラン勢が集まっているところなので仕事は楽しかった。鋭いレビューを頂いたり、しっかり面倒みてもらったり。レベルアップしているなっていう実感があったのでとても良い。

インプット多かった

これはまじで多かった。
複数製品の基盤になっていたり、それぞれの設定を持っていたりしているプロダクトに関わっている + 個人作業だとかなり学ぶ必要のあることが多かった。
基本的には Java なんだけど、フロントエンドもやったりミドルウェア周りみたり認証周りみたりとめちゃくちゃ多岐に渡るなというのが感想。

  • Java, Jetty, SpringBoot
  • Javascript, Closure Library, TypeScript, React
  • MySQL, Elasticsearch, Gorush, FCM, Docker
  • SAML, 2FA, TOTP

このあたりを結構がっつりみた感じある。これ結構理解しながらやるのは大変だった。
それ以外だとスプリントレビューとかリファイメントとかのお作法だったり、タスク管理、試験、CI周り、デプロイ、障害対応のイロハ、本番環境(正確には本番環境のバックアップ)の歩き方とかこれもこれで理解しなきゃいけないことがたくさんあって大変だった。

あんまりアウトプットできなかった

こんだけインプットしているとアウトプットが全然できなかった。
強いて言えばこの辺りとか。
speakerdeck.com

この辺りぐらいかなと言う感じ
github.com

ブログも全然更新できていないしな。

責任を痛感する一年でもあった

これは地味だけど確実に刺さってくるもので、自分の決断が製品に影響すると思うと結構責任あるなぁと痛感した。特に何か追加しようとした時のシステムアーキテクチャとか、工数はかかるがやらねばならぬこととか。何をどう判断するか、そのあたり結構くるものがあった一年だった。割と慣れてきたけど。

どこを目指していたんだ俺は。

色々やらんといけないこと、わからないといけないことはその都度捌いてきたけど、これ書いてて思った、今年の目標ってなかったなと。何を目指して今年エンジニアやってきたんだろうと。
来年はなんか細かく目標立ててやっていきたいなとは思うが何を目指そうかというところ。まぁゆっくり探しますか。

その他・雑感

よく言われているやつ

基本在宅だった。途中、感染者数が二桁前半の時とか出社してたけど基本家。UberEats が捗る一年だった。満員電車も全然乗らなかったし。 ただし諸々の健康には悪いなという感想しかない。

知り合いあんまり増えなかった

リモートで働けるのまぁ楽だなって思っていたんだけどその後の配属先とかの関係で全然知り合いが増えないなという思いがあった。やっぱりリアルで会わないと家で仕事して1日が終わり、1ヶ月が終わり、気がつけば1年が終わろうとしていた。あと基本的にチーム以外で話をすることがなくなった。

会社の部活動なるものに参加した

知り合い増えないのやばいなと思って会社の部活動(オンライン開催)に顔を出してみた。エンジニア以外の方と接するのが久々すぎて何話せばいいかわからんかった。けど、そういった気持ちになるのも久々で楽しかった。そこからたびたび参加している。良い。

会社の同期、先輩とちょくちょく出かけた

これが社会人かという感じ。総じて楽しかった。

まとめ

今年は色々レベルアップしたなぁと思うこと多いけど、なんのためにレベルアップしてきたのかと思うこともあるので来年はなんか目標持ちたいとこれ書いてて思った。
人生の進捗は虚無です。

JIT コンパイラのコンパイラスレッド、コード最適化について

はじめに

今回は前回の内容に引き続きJIT コンパイラについての話。割と薄くなる予定。
コンパイラスレッドとか最適化とかそのあたり。
Java パフォーマンスには、 JVM エンジニアが JVM の振る舞いを検証するために利用したり、コンパイルに興味を持った人が読むと良いとある。

コンパイラのスレッド

前回の記事で、コンパイルには閾値があると書いたがそれに関連している。
JVM ではコンパイル対象になったメソッドやループはキューに配置され、バックグラウンドで動く一つ以上のスレッドによって非同期プロセスとしてコンパイルが行われる。
そのためコードを実行中であってもコンパイルすることが可能となる。
またその時に利用されるキューは FIFO ではなく、呼び出しカウンタの値が大きいメソッドが優先的に処理される。

デフォルトでは C1 コンパイラはスレッドが一つで、C2 コンパイラはスレッドを二つ利用する。
この値は -XX:CICompilerCount=N で合計数を指定することでスレッド数を制御できる。

コンパイラのスレッドは単一 CPU マシン上であれば、一つにしてしまい競合状態を減らす方がパフォーマンス的には良いとされているがそれはウォームアップ時に大きなメリットがあるだけで多くのホットスポットコンパイルされたあとではメリットが少ない。

また階層型コンパイルを利用している環境下ではスレッド数を多くするとコンパイルスレッドも増えシステム全体に影響を及ぼす場合がある。
この時はスレッド数を減らした方がウォームアップの期間が長くなるというデメリットはあるものの全体のスループットを向上させることができる。

あまり使わないとは思うけど。

コードの最適化

インライン化

以下のコードを考える。

public class Point {
    private int x, y;
    public int getX() { return x; }
    public void setX(int i) { x = i; }
}
Point p = getPoint();
p.setX(p.getX() * 2);

このように呼び出されるコードがある場合、次のようにインライン化される。

Point p = getPoint();
p.x = p.x * 2;

これによりメソッド呼び出しが省略されるため、処理速度が向上する。
これまでのコードキャッシュやスレッドとは異なり、インライン化が行われる場合の振る舞いを見る術がない。
しかし、JVMソースコードビルドするのであれば -XX:+PrintInlining というフラグを利用可能にすることもできる。

インライン化するかどうかの判断基準はメソッドがよく利用されるかどうかとそれ自体のサイズに大きく影響される。
そのため、 -XX:MaxFreqInlineSIze, -XX:MaxInlineSize でインライン化するメソッドのサイズを調整することもできる。

エスケープ分析

次はエスケープ分析について。
これはデフォルトで有効になっていて、これが利用できる場合は積極的に最適化を行う。
最適化を行う項目はいろいろとあるらしいが、書籍に書かれているものであればループ内でのみ特定のオブジェクトが利用されている場合
同期ロックを取らないようにしたり、フィールドの値をメモリに持つ必要がなければレジスタに配置したり、オブジェクト自体が各フィールドだけ管理するようになったりと様々。

これはシンプルなコードだけでなく複雑なコードに対しても同様に適用される。
最適化がうまくいかない場合は、JVM のバグであることが多いそうだが、一番簡単で効果のある対処法として対象のコードをシンプルにすることが有効らしい。

おわりに

JIT コンパイルの話はいったんここまで。
次は GC とか。

JIT コンパイラのコードキャッシュ

はじめに

前回は JIT コンパイラの基礎について触れたので、今回は JIT コンパイラのコードキャッシュとそのチューニングついて。

基本的なものだと、どちらのコンパイラを選択するか、階層コンパイルを利用するかどうかがあるらしいが
もう少し踏み込んだ内容について書いていく。

今回も例によって Java パフォーマンスを参考文献にしている。

コードキャッシュとそのチューニング

コードキャッシュとは

コードキャッシュとは JVM がコードをコンパイルすることによって生成されたネイティブコードを持っている領域のことで Java 9 以降ではコードヒープと呼ばれている。
この領域を圧迫すると、一部のホットスポットだけコンパイルが適用され、その他の部分はインタープリターで実行される or コンパイル適用を一旦破棄するなど性能に大きな影響を及ぼす。

コードキャッシュの確認

  • XX:+PrintCodeCache オプションをつけることで確認できる。
❯ java -XX:+PrintCodeCache -version
openjdk version "11.0.8" 2020-07-14 LTS
OpenJDK Runtime Environment Corretto-11.0.8.10.1 (build 11.0.8+10-LTS)
OpenJDK 64-Bit Server VM Corretto-11.0.8.10.1 (build 11.0.8+10-LTS, mixed mode)
CodeHeap 'non-profiled nmethods': size=120032Kb used=15Kb max_used=15Kb free=120016Kb
 bounds [0x0000000126cd2000, 0x0000000126f42000, 0x000000012e20a000]
CodeHeap 'profiled nmethods': size=120028Kb used=97Kb max_used=97Kb free=119931Kb
 bounds [0x000000011f79b000, 0x000000011fa0b000, 0x0000000126cd2000]
CodeHeap 'non-nmethods': size=5700Kb used=972Kb max_used=977Kb free=4728Kb
 bounds [0x000000011f20a000, 0x000000011f47a000, 0x000000011f79b000]
 total_blobs=299 nmethods=71 adapters=141
 compilation: enabled
              stopped_count=0, restarted_count=0
 full_count=0

CodeHeap の種類は 3 つあり

  • non-profiled nmethods
  • profiled nmethods
  • non-nmethods

と分かれている*1
これらを合計しておおよそ 240MB の領域が割り当てられている。

コードキャッシュが圧迫された場合の挙動

このコードキャッシュ(コードヒープ)の挙動で重要となるのは、コードキャッシュが圧迫された場合の挙動で、コンパイルしたネイティブコードをコードキャッシュに配置できなくなると JIT コンパイルを停止する。この時、コードキャッシュがいっぱいになったというログメッセージが出力される。
コードキャッシュにネイティブコードを配置できなくなると JVM は一度最適化したネイティブコードを破棄し、Java のプログラムを実行する際に設定されている最低量のコードキャッシュを確保しようとする。*2
それらの処理が完了した段階で JIT コンパイルを再開する。

単純なチューニング

これらからわかるようにコードキャッシュのことを考慮した場合、重要となるのはコードキャッシュの上限サイズとなる。
上限サイズをどのように設定すればよいといった定量的な基準はなく場当たり的に設定する必要が出てくる。*3

コンパイル時の基準

コードキャッシュ自体のチューニングと言うとサイズを調整するぐらいしか見当たらないが、JIT コンパイルの特性を知る事で間接的にパフォーマンスに影響を与えることができる。
そのうちの一つがどのタイミングでコンパイルが行われるかということを明示的に指定する方法。
前回は JIT コンパイルで C1, C2 コンパイラについてまとめたが、それらがどう言った基準で適用されているかについて知り、それを設定することでコードキャッシュを有効活用できる場合がある。
JIT コンパイル時は呼び出しカウンタとバックエッジカウンタの二つを JVM が記録しておりこの総和が閾値を超えた段階で JIT コンパイルが適用される。
呼び出しカウンタはそのままの意味だが、バックエッジカウンタとはメソッド内のループ内で処理が完了した回数を示している。
やたら複雑で巨大なメソッドを実行する場合 JVM はメソッドの終了を待つ事なくコンパイルを実行するケースがある。その時はバッグエッジカウンタが個別の閾値を超えるとメソッド全体ではなく該当するループ処理がコンパイル対象となる。
こういったコンパイルを OSR *4*5 と呼ぶ。

ここまで長々とまとめたがカウンタについては -XX:CompileThreshold でどれだけその値を変更することができる。デフォルトでは C1 コンパイラが 1500, C2 コンパイラが 10000 と設定されている。

コンパイルプロセスを理解する

コードキャッシュと密接な関わりがある JIT コンパイルを理解することはチューニングとは直接関係しないが大事なことなのでまとめる。
前回も行った -XX:PrintCompilation フラグを利用して JIT コンパイルの挙動を知るという操作。これについてもう少し解説する。
次のログを参考にする。

    460  902       3       com.sun.tools.javac.comp.Flow$BaseAnalyzer::scan (27 bytes)
    460  903       3       com.sun.tools.javac.code.Types::isSignaturePolymorphic (111 bytes)
    462  904       3       com.sun.tools.javac.tree.JCTree::pos (2 bytes)
    462  906       3       com.sun.tools.javac.tree.JCTree::hasTag (14 bytes)
    462  907       3       com.sun.tools.javac.code.Type$ClassType::accept (9 bytes)
    462  905       1       com.sun.tools.javac.code.Type$JCPrimitiveType::isPrimitive (2 bytes)
    463  225   !   3       jdk.internal.jimage.BasicImageReader::slice (32 bytes)   made not entrant
    464  663       4       java.util.HashMap::put (13 bytes)
    464  908       3       java.lang.invoke.DirectMethodHandle::make (263 bytes)
    464   96       3       java.util.HashMap::put (13 bytes)   made not entrant
    465  736       4       java.lang.String::toString (2 bytes)
    465  472       3       java.lang.String::toString (2 bytes)   made not entrant
    465  910       3       java.lang.invoke.MethodHandles$Lookup::<init> (15 bytes)
    465  909       3       java.lang.invoke.MemberName::isField (7 bytes)
    465  911       3       java.util.ArrayList::isEmpty (13 bytes)
    466  912       3       com.sun.tools.javac.jvm.Code::typecode (141 bytes)
    467  913       3       com.sun.tools.javac.jvm.Code::width (42 bytes)
    467  914       3       com.sun.tools.javac.jvm.Code::width (16 bytes)
    467  915       3       com.sun.tools.javac.code.Type::typeNoMetadata (19 bytes)
    468  713       4       java.lang.StringLatin1::indexOf (121 bytes)   made not entrant
    470  916 %     3       SampleAlgorithm::main @ 15 (65 bytes)
    470  917       3       SampleAlgorithm::main (65 bytes)
    470  918 %     4       SampleAlgorithm::main @ 15 (65 bytes)
    472  916 %     3       SampleAlgorithm::main @ 15 (65 bytes)   made not entrant
    672  918 %     4       SampleAlgorithm::main @ 15 (65 bytes)   made not entrant

まず重要なこととしてこのログは以下のフォーマットを取る。

タイムスタンプ コンパイルID 属性 階層型コンパイルレベル メソッド名 サイズ 非最適化

コンパイルレベルに関しては前回の通りなので省略。

タイムスタンプは JVM が起動してからコンパイルが完了するまでの相対的な時間を示している。
コンパイルID は内部的な ID で単調増加するが C2 コンパイラや、非同期処理が利用されると必ずしも昇順になるとは限らない。
属性はコンパイルされるコードの属性を示していて以下の通り

残りで重要なものは非最適化についての記述。
これには made not entrant, made zombie があるがここではまとめない。次の記事でまとめる。

ここにはないがコンパイラログにはコードキャッシュがいっぱいになったことや、コンパイル中に対象クラスが変更されたため再コンパイルが行われることなどが出力される場合もある。
これらログから想定されたコンパイルが行われているかなどの確認が可能なので、性能に思うところがあればみる事がおすすめされる。

非最適化について

PrintCompilation で非最適化される場合の挙動について。
非最適化とはすでに行われて完了している最適化をもとの状態に戻すことで、次の二つのパターンで非最適化が行われる。

entrant ではないコード

entrant *6ではないコードは非最適化の対象となる。
これが発生する原因はクラスとインターフェースの仕組みに起因するものと、階層型コンパイルに起因するものがある。

まずインターフェースに起因する場合。
次のような実装を考える。

HogeRepository repository;
String param = request.getParameter("hoge");
if (param != null && param.equals("hoge")) {
     repository = new HogeRepositoryImpl();
} else {
    repository = new HogeLogger();
}

このように特定のパラメータか何かに強く依存し、インターフェースのインスタンスが異なる場合 param が hoge を取り続け C2 コンパイルが適用されると repository の型が HogeRepositoryImpl だと判断される場合がある。
そうなった場合、 else の処理が何らかの原因で呼ばれ続けると最適化した型情報が変わるため entrant なコードとして非最適化する必要が出てくる。


次に階層型コンパイルが起因となる場合について。
階層型コンパイルでは C1 コンパイルが適用され、その後 C2 コンパイルが行われる場合がある。
この時 C2 コンパイルが行われ利用できる状態になったら JVM は C1 コンパイルの結果であるコードを置き換える必要があり、置き換える対象となるクラスに印的なものとして made not entrant をつける。

zombie コード

この zombie とは entrant ではない古いコードが破棄されたことを示すもの。
entrant になっても対象のオブジェクトは残り続けどこかのタイミングで GC によって開放される。
ゾンビ化したコードはコードキャッシュから削除することができるため、それによって JVM のスペースに新たなコードを置くことができる。
ただし、ゾンビ化したコードが再度ロードされ、頻繁に呼び出された場合は再度最適化を行う必要が出てきてしまう。

おわりに

次はコンパイラスレッドとかについてまとめる。

参考文献

*1:nmethods とは JIT コンパイルによってコンパイルされたメソッドの事

*2:-XX:CodeCacheMinimumFreeSpace で設定できる

*3:一説によると、デフォルトの 2, 4 倍するのが一般的らしい

*4:On-Stack Replacement

*5:これもチューニング可能だが、ここではまとめない

*6:中に入れないという意味らしい

Java のJIT コンパイルについて

はじめに

今回は JavaJIT コンパイルについて。
Java パフォーマンスと各種信頼できるドキュメントを参照しつつまとめていく。

JIT コンパイルとは

Java のコードは javac コマンドでコンパイルすると中間バイトコードに変換され、それを JVM が解釈することによってアプリケーションが実行される。
中間バイトコードJVM が解釈できる形になるため、Javaインタープリター言語のようなプラットフォームにおける独立性を確保している。
この後 JVMインタープリターのように中間バイトコードを解釈するが、その時に JVM を実行しているプラットフォーム毎にバイナリにコンパイルされる場合がある。
これを Just-In-Time コンパイルという。
f:id:RabbitFoot141:20201121152307p:plain

JIT コンパイルによる効果を確かめる

エラトステネスの篩を使って素数を求める以下のコードを利用する。

public class SampleAlgorithm {
	
	private static final int LIMIT = 1000000;
	
	public static void main(String... args) {
		int primeCount = 2;
		boolean isPrime = false;
		for (int i = 5; i <= LIMIT; i++) {
			for (int j = 2; j * j <= i; j++) {
				if (i % j == 0) {
					isPrime = false;
					break;
				}
				isPrime = true;
			}
			if (isPrime) {
				primeCount += 1;
			}
		}
		System.out.println(primeCount);
	}
}

このコードを -Xint オプションをつけた場合、つけなかった場合で処理時間を比較する。

❯ time java -Xint SampleAlgorithm.java
78498
java -Xint SampleAlgorithm.java  1.80s user 0.05s system 98% cpu 1.876 total
❯ time java SampleAlgorithm.java 
78498
java SampleAlgorithm.java  1.14s user 0.07s system 160% cpu 0.753 total

1000000 までの素数であれば微々たる差だが、桁を増やすと差が明確になっていく。
1億以下の素数を計算すると以下のようになる。

❯ time java -Xint SampleAlgorithm.java 
664579
java -Xint SampleAlgorithm.java  21.35s user 0.13s system 99% cpu 21.590 total
❯ time java SampleAlgorithm.java 
664579
java SampleAlgorithm.java  6.18s user 0.08s system 108% cpu 5.769 total

JIT コンパイルの動作

実行時のオプションに -XX:+PrintCompilation をつけることで JIT コンパイルが何を行っているかわかる。
このフォーマットには列ごとに意味があるが、それは次の JIT コンパイラのチューニング part1 でまとめる。

❯ java -XX:+PrintCompilation SampleAlgorithm.java
   .....
   530  958       3       com.sun.tools.javac.tree.JCTree::hasTag (14 bytes)
    530  957       1       com.sun.tools.javac.code.Type$JCPrimitiveType::isPrimitive (2 bytes)
    530  959       3       com.sun.tools.javac.code.Type$ClassType::accept (9 bytes)
    532  960       3       java.lang.invoke.DirectMethodHandle::make (263 bytes)
    533  961       3       java.lang.invoke.MemberName::isField (7 bytes)
    533  962       3       java.util.ArrayList::isEmpty (13 bytes)
    534  963       3       com.sun.tools.javac.jvm.Code::typecode (141 bytes)
    534  964       3       com.sun.tools.javac.jvm.Code::width (42 bytes)
    534  965       3       com.sun.tools.javac.jvm.Code::width (16 bytes)
    535  966       3       com.sun.tools.javac.code.Type::typeNoMetadata (19 bytes)
    536  734       4       java.lang.StringLatin1::indexOf (121 bytes)   made not entrant
    537  309       3       jdk.internal.jimage.ImageStringsReader::stringFromByteBuffer (28 bytes)   made not entrant
    537  828       4       java.lang.ref.Reference::reachabilityFence (1 bytes)
    537  169       3       java.lang.ref.Reference::reachabilityFence (1 bytes)   made not entrant
    537  814       4       com.sun.tools.javac.util.ListBuffer::toList (10 bytes)
    537  635       3       com.sun.tools.javac.util.ListBuffer::toList (10 bytes)   made not entrant
    537  755       4       java.lang.String::toString (2 bytes)
    537  480       3       java.lang.String::toString (2 bytes)   made not entrant
    537  967 %     3       SampleAlgorithm::main @ 15 (65 bytes)
    538  968       3       SampleAlgorithm::main (65 bytes)
    538  969 %     4       SampleAlgorithm::main @ 15 (65 bytes)
    539  967 %     3       SampleAlgorithm::main @ 15 (65 bytes)   made not entrant
    745  969 %     4       SampleAlgorithm::main @ 15 (65 bytes)   made not entrant
  • XX:+LogCompilation をつけるとより詳細な以下のようなログを確認することができる。
<<<一部抜粋>>>
<nmethod compile_id='1' compiler='c1' level='3' entry='0x000000011d1911c0' size='1056' address='0x000000011d191010' relocation_offset='376' insts_offset='432' stub_offset='816' scopes_data_offset='872' scopes_pcs_offset='936' dependencies_offset='1032' nul_chk_table_offset='1040' metadata_offset='864' method='java.lang.StringLatin1 hashCode ([B)I' bytes='42' count='101' backedge_count='2096' iicount='101' stamp='0.054'/>
<writer thread='9731'/>
<task_queued compile_id='2' method='java.util.concurrent.ConcurrentHashMap tabAt ([Ljava/util/concurrent/ConcurrentHashMap$Node;I)Ljava/util/concurrent/ConcurrentHashMap$Node;' bytes='22' count='256' iicount='256' level='3' stamp='0.054' comment='tiered' hot_count='256'/>
<task_queued compile_id='3' method='jdk.internal.misc.Unsafe getObjectAcquire (Ljava/lang/Object;J)Ljava/lang/Object;' bytes='7' count='256' iicount='256' level='3' stamp='0.054' comment='tiered' hot_count='256'/>
<task_queued compile_id='4' method='java.lang.String coder ()B' bytes='15' count='256' iicount='256' level='3' stamp='0.054' comment='tiered' hot_count='256'/>
<writer thread='42755'/>
<nmethod compile_id='2' compiler='c1' level='3' entry='0x000000011d191660' size='1376' address='0x000000011d191490' relocation_offset='376' insts_offset='464' stub_offset='1168' scopes_data_offset='1240' scopes_pcs_offset='1288' dependencies_offset='1368' oops_offset='1216' metadata_offset='1224' method='java.util.concurrent.ConcurrentHashMap tabAt ([Ljava/util/concurrent/ConcurrentHashMap$Node;I)Ljava/util/concurrent/ConcurrentHashMap$Node;' bytes='22' count='260' iicount='260' stamp='0.055'/>
<writer thread='9731'/>
<task_queued compile_id='5' method='java.lang.String isLatin1 ()Z' bytes='19' count='256' iicount='256' level='3' stamp='0.055' comment='tiered' hot_count='256'/>
<writer thread='42755'/>
<nmethod compile_id='3' compiler='c1' level='3' entry='0x000000011d191bc0' size='856' address='0x000000011d191a10' relocation_offset='376' insts_offset='432' stub_offset='720' scopes_data_offset='776' scopes_pcs_offset='800' dependencies_offset='848' metadata_offset='768' method='jdk.internal.misc.Unsafe getObjectAcquire (Ljava/lang/Object;J)Ljava/lang/Object;' bytes='7' count='263' iicount='263' stamp='0.055'/>
<nmethod compile_id='5' compiler='c1' level='3' entry='0x000000011d191f40' size='880' address='0x000000011d191d90' relocation_offset='376' insts_offset='432' stub_offset='752' scopes_data_offset='808' scopes_pcs_offset='824' dependencies_offset='872' metadata_offset='800' method='java.lang.String isLatin1 ()Z' bytes='19' count='259' iicount='259' stamp='0.055'/>
<nmethod compile_id='4' compiler='c1' level='3' entry='0x000000011d1922c0' size='816' address='0x000000011d192110' relocation_offset='376' insts_offset='432' stub_offset='688' scopes_data_offset='744' scopes_pcs_offset='760' dependencies_offset='808' metadata_offset='736' method='java.lang.String coder ()B' bytes='15' count='262' iicount='262' stamp='0.055'/>
<writer thread='9731'/>
<task_queued compile_id='6' method='java.lang.Object &lt;init&gt; ()V' bytes='1' count='512' iicount='512' level='3' stamp='0.057' comment='tiered' hot_count='512'/>
<writer thread='42755'/>

この時に重要になるのが level の値。これは階層型コンパイルが行われ、その際にどのコンパイルが適用されたかを示している。
レベルは以下の通り。

クライアントコンパイルとサーバコンパイル

最近の JVMJIT でクライアントコンパイルとサーバコンパイル*1を併用する。
クライアントコンパイルとサーバコンパイルの違いはコンパイルをどの程度積極的に行うかにあり、クライアントコンパイラは可能な限り該当コードをコンパイルし、サーバコンパイラインタープリター的に実行しつつ実行しているコードについての情報を用いて最適化したコンパイルを行う。
JVM によっては -client, -server, -d64 オプションをつけることで片方を明示的に指定できる。(あまり使うことはないと思うが)
最近の JVM だとこの辺りがベンダー、プラットフォーム依存になっていて -client を指定してもサーバコンパイルが適用される場合もある。

トレードオフの存在

クライアントコンパイルは、最適化を施したコンパイルを行わないため少ないコストでネイティブコードを吐けるという性能上の特徴があり、反対にサーバコンパイルは最適化も含めてネイティブコードにするのでネイティブコードになるまでにコストはかかるがその分実行時パフォーマンスを向上させやすいという特徴がある。
またインタープリターと JIT コンパイルでは、繰り返し利用されないメソッドなどはインタープリターで実行した方がコンパイルにかかるコストを削減でき、反対によく利用される箇所はコストをかけてコンパイルした方が実行時のパフォーマンスが向上するなどそれぞれトレードオフが存在している。

階層型コンパイル

階層型コンパイルはクライアントコンパイルとサーバコンパイルを併用する。アプリケーションが起動する最初の頃はクライアントコンパイルが適用されて、繰り返し利用されているコードなどを検出した場合はサーバコンパイルが適用される。
この階層型コンパイルJava 8 以降ではデフォルトとなっている。

*1:それぞれ C1, C2 コンパイラと呼ばれる場合がある

CLion を使って MySQL のビルド&デバッグを行う

はじめに

どうも、4連休のほとんどを MySQLデバッグで溶かしそうなけんつです。

MySQL を触っていると、SQL の実行結果が謎な時とか稀によくあると思っているのだがそのとき気軽に MySQLデバッグしたくないですか?したいですよね。という気持ちでこの記事を書いています。
というわけでやります。

対象バージョンは MySQL 8.0.21。
Clang, CMake, make, lldb などが入っている前提で話を進めます。
macOS Catalina も前提。おそらく Linux とかなら Clang ではなく gcc になるはずだが、CLion がよしなにやってくれるはず。

MySQL のビルド&デバッグをする

ソースコードを持ってきて展開する

まずはここから、github からでも wget でもどちらでもよい。
boost が同梱しているか、していないかあたりで cmake のオプションが変わってくるので注意。
そのあたりを考えるのが面倒なのでいつも boost 同梱版を wget で持ってきている。

$ wget https://dev.mysql.com/get/Downloads/MySQL-8.0/mysql-boost-8.0.21.tar.gz
$ tar xzvf mysql-boost-8.0.21.tar.gz

CLion で CMake を実行する

ここからは CLion 上の話になっていく。
まずは mysql-server をビルドするところから。気軽に Build から選択しても CMake Project がないと言われるので
Preferences -> Build, Execution, Deployment -> CMake からビルド時の設定を変更する。
以下の二つを設定した段階で、Apply を押すと自動的に CMake が走ってくれる。

CMake Options

CMake options を以下のように修正している。

-DWITH_DEBUG=1 -DWITH_BOOST=./boost -DFORCE_INSOURCE_BUILD=1

ここで大事なのは WITH_DEBUG オプションが有効になっていること。
これがないとデバッグモードで mysqld を起動できない。

Generation path

これはカレントディレクトリを指定しておく。

ビルド

ここは少し面倒で、初回起動時に初期化する必要があるのでターミナルで make を実行する。

mysql-8.0.20 $ make -j7

これがまたややしばらくかかるので待つ。

これが終わったら一度 mysqld を初期化する

mysql-8.0.20 $ ./bin/mysqld --initialize

このとき、標準I/O の最後の方に root ユーザのパスワードが書かれているので忘れずに確認する。

デバッグ

Preferences -> Build, Execution, Deployment -> Toolchains から CMake, LLDB などのバージョンを必要に応じて確認しておく。
バンドルされているっぽいのでこのあたりは自動的に設定されている場合が多い。

デバッグ設定の変更

Run -> EditConfigurations -> CMake Application を選び、そこから mysqld を選択して Apply する。

ブレークポイントを設定

sql/sql_parse.cc の 1178 行目にある do_command に設定すると、大体の処理はここを通るのでわかりやすい。

実行する

Run -> Debug を実行する。
このとき make が走り、コードに修正を加えたなら再度ビルドされる。

ビルド完了後に mysqld が実行されるが、Console が真っ赤に染まっても正常なログなので無視する。

mysql クライアントから接続する

すでに mysql コマンドがある場合はそれでも行けるが、なんらかの理由で接続できない場合は bin/mysql を利用することで接続できる。
そして SELECT 1; とか実行すればブレークポイントで止まるはず。

おわりに

これで MySQL の内部処理がみやすくなる。(はず
ビルドをターミナルから行うところが少しイケてない。

余談

VSCode でも可能で、こちらの記事が参考になる。
labs.gree.jp