Pythonによる背景除去(Image Matting)モデル・ライブラリの紹介

はじめに

これまでに

を行いましたが、今回はその他のモデルやライブラリによる背景の除去を紹介します。 紹介の内容は以下になります。 他にも候補はありましたが、githubからcloneしただけではコードが不足しているものやバグが直っていないものが多くあり2つのみとなります。

  • MODNet
  • pymatting

MODNet

MODNetはPortrait Matting、つまり人物と背景の分離を行うDNNのモデルです。 MODNetはtrimapを使用せず、エンコーダー/デコーダー構造モデルではなくシングルモデルであるため軽量で速いことを 特徴として主張しています。よって精度と速度を両立していることから動画向きであるといえるかもしれません。

MODNetデモコード

例によってgoogle colaboratoryを使用して、コードを作成し実行しました。 ソースコードは以下になります。 流れとしては、MODNetをCloneして画像ファイルをアップロードし、demo.pyを実行するだけです。

    import os

%cd /content
if not os.path.exists('MODNet'):
    !git clone https://github.com/ZHKKKe/MODNet
%cd MODNet/

pretrained_ckpt = 'pretrained/modnet_photographic_portrait_matting.ckpt'
if not os.path.exists(pretrained_ckpt):
    !gdown --id 1mcr7ALciuAsHCpLnrtG_eop5-EYhbCmz \
            -O pretrained/modnet_photographic_portrait_matting.ckpt

import shutil
from google.colab import files

# clean and rebuild the image folders
input_folder = 'demo/image_matting/colab/input'
if os.path.exists(input_folder):
    shutil.rmtree(input_folder)
os.makedirs(input_folder)

output_folder = 'demo/image_matting/colab/output'
if os.path.exists(output_folder):
    shutil.rmtree(output_folder)
os.makedirs(output_folder)

# upload images (PNG or JPG)
image_names = list(files.upload().keys())
for image_name in image_names:
    shutil.move(image_name, os.path.join(input_folder, image_name))

!python -m demo.image_matting.colab.inference \
--input-path demo/image_matting/colab/input \
--output-path demo/image_matting/colab/output \
--ckpt-path ./pretrained/modnet_photographic_portrait_matting.ckpt
    

出力結果の画像に確認用の処理を行った結果は以下になります。またDeepLabV3との比較を行いました。 使用した画像はopenCVの付属データになります。

MODNetの出力結果

DeepLabV3の出力結果

試した枚数は多くなく小さい画像を使用したのでデモのモデルでは良さを実感することはできませんでしたが、 MODNetはself-supervised sub-objectives consistency (SOC) strategyという現実世界に適応させる戦略をとり、 また現実世界のデータセットを使用して学習を行っているので、 上記の画像よりは傾向としては日常的な画像の方が比較してよい性能が出るかもしれません。 文献によれば従来のものよりはこのような現実的な画像のデータセットでは分離性能は良いようです。 ただ処理の速度は速いので動画に向いているといえると思います。

pixabay から別の肖像画で確認しました。

また人物だけではなく以下のような鳥の画像でも前景を抽出することができましたが、なんでも抽出できるわけではありませんでした。 これくらいの精度であればtrimapを作成してきれいに抽出することが可能です。

pymattingライブラリ

pymattingは元画像とtrimapがあれば、それをを用いて手軽に前景抽出を行うことのできるライブラリです。 得られたalpha画像を用いて別の背景とブレンドすることも可能です。 まずpipでpymattingをインストールします。

    !pip install pymatting

trimapを生成します。画像は先ほどのMODNetから得られたmask画像を処理してtrimapを作成しました。 以下ではあいまいな部分は128にしていますが、確実の前景である部分を100%、確実に背景である部分を0%として連続的であっても構いません。

    %cd /content
img = cv2.imread("base.png", cv2.IMREAD_COLOR)
mask = cv2.imread("mask.png", cv2.IMREAD_GRAYSCALE)
mask[mask > 127] = 255
mask[mask <= 127] = 0
kernel = np.ones((3,3),np.uint8)
sure_bg = cv2.dilate(mask, kernel, iterations=5)
sure_fg = cv2.erode(mask, kernel, iterations=5)
trimap = np.full(mask.shape, 128)
trimap[sure_fg == 255] = 255
trimap[sure_bg == 0] = 0
cv2.imwrite("trimap.png", trimap)
    

cutout関数に元画像、trimap、出力画像パスを引数をとるだけです。 これでcutout.pngに背景が除去された画像が出力されます。

    from pymatting import cutout

cutout(
    "base.png",
    "trimap.png",
    "cutout.png")
    

きれいに背景が除去された画像が得られたことを確認できました。

まとめ

シンプルなコードで高い精度で前景画像を抽出することができました。 ただtrimapなしでは背景が残ってしまうこともあるようでした。 深層学習において大変な部分が学習データ集めとtrainの部分かと思いますが、 オブジェクトにこだわらなければ事前学習モデルが使用可能です。

Reference

Next Post Previous Post
No Comment
Add Comment
comment url