学習済みのconvnet、VGG16を使って、犬と猫の小さなデータベースの分類を行った。
テキスト(Deep Learning with Python by Franҫois Chollet)の143ページから156ページくらいまでの内容である。
特徴量抽出では0.96くらいのval_accになったが、ファインチューニングでは、テキスト指定の条件で、0.975になるべきところが、0.93程度にとどまった。どこが悪いのかわからなかったが、学習可能にするConv blockを変えると得られるval_accの値が変わり、最終的には0.97くらいの値は得られたが、この条件では、VGG16のConv blockの大半を使っていて、ファインチューニングといえるものではなかった。
ちなみに、テキストのFigure 5.20と5.21が、Figure 5.17と5.18と同じになっているが、和訳版では訂正されている。
犬と猫で少し勉強が進んだので、APTOS2019の眼底写真の診断に適用してみることにした。まだ1つの条件で計算しただけだが、通常のval_accは0.80くらいであった。犬と猫の分類は0.5がベースになるが、眼底写真の場合は5クラスの分類なので、各クラスのデータ数が同じ場合には0.2がベースになるので、0.95と0.80を単純に比較することはできないようである。
まあ、とにかく、前に進もう!
Neural Image Transferで処理してみました。
Neural Image Transferで処理してみました。
Neural Image Transferで処理してみました。
さすがに、これは、やりすぎかな。
これは、なんか、いい感じだ。
今日は、ここまでとしよう。(2019年8月9日)