OpenAI Cookbook examples : DALL-E : DALL·E と Segment Anything で動的マスクを作成する方法 (翻訳/解説)
翻訳 : (株)クラスキャット セールスインフォメーション
作成日時 : 08/15/2023
* 本ページは、OpenAI Cookbook レポジトリの以下のドキュメントを翻訳した上で適宜、補足説明したものです:
* サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。
* ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。
- 人工知能研究開発支援
- 人工知能研修サービス(経営者層向けオンサイト研修)
- テクニカルコンサルティングサービス
- 実証実験(プロトタイプ構築)
- アプリケーションへの実装
- 人工知能研修サービス
- PoC(概念実証)を失敗させないための支援
- お住まいの地域に関係なく Web ブラウザからご参加頂けます。事前登録 が必要ですのでご注意ください。
◆ お問合せ : 本件に関するお問い合わせ先は下記までお願いいたします。
- 株式会社クラスキャット セールス・マーケティング本部 セールス・インフォメーション
- sales-info@classcat.com ; Web: www.classcat.com ; ClassCatJP
OpenAI Cookbook : DALL-E : DALL·E と Segment Anything で動的マスクを作成する方法
Segment Anything は画像の一部を選択するために使用できる Meta のモデルです。画像の指定された部分をインペイントする DALL·E の機能と組み合わせて、Segment Anything を使用して変更したい画像の任意の一部を簡単に選択することができます。
このノートブックでは、これらのツールを使用してファッションデザイナーになり、デジタルモデルの衣服をオリジナルの適合した (tailored) 創作と動的に置き換えます。ノートブックはこのフローに従います :
- セットアップ : ライブラリと場所のディレクトリの初期化。
- 元画像の生成 : そこから動的マスクを作成する元の画像を作成します。
- マスクの生成 : Segment Anything を使用して動的マスクを作成する。
- 新しい画像の作成 : マスクされた領域が新しいプロンプトでインペイントされた新しい画像の生成。
セットアップ
開始するには、Meta によりオープンソース化された Segment Anything モデル (SAM) を使用する 手順 に従う必要があります。2023年5月の時点で、主要ステップは :
- Pytorch (version 1.7+) のインストール
- “pip install git+https://github.com/facebookresearch/segment-anything.git” を使用してライブラリをインストールします。
- “pip install opencv-python pycocotools matplotlib onnxruntime onnx” を使用して依存関係をインストールします。
- 使用する モデルチェックポイント をダウンロードします (デフォルトサイズは 2.4 GB)。
!pip install torch torchvision torchaudio
!pip install git+https://github.com/facebookresearch/segment-anything.git
!pip install opencv-python pycocotools matplotlib onnxruntime onnx
!pip install requests
!pip install openai
!pip install numpy
import cv2
import matplotlib.pyplot as plt
import matplotlib.image as mpimg
from matplotlib import rcParams
import numpy as np
import openai
import os
from PIL import Image
import requests
from segment_anything import sam_model_registry, SamAutomaticMaskGenerator, SamPredictor
import torch
# Set directories for generation images and edit images
base_image_dir = os.path.join("images", "01_generations")
mask_dir = os.path.join("images", "02_masks")
edit_image_dir = os.path.join("images", "03_edits")
# Point to your downloaded SAM model
sam_model_filepath = "./sam_vit_h_4b8939.pth"
# Initiate SAM model
sam = sam_model_registry["default"](checkpoint=sam_model_filepath)
元画像の生成
最初に元の画像を作成します、これからマスクを生成します。
def process_dalle_images(response, filename, image_dir):
# save the images
urls = [datum["url"] for datum in response["data"]] # extract URLs
images = [requests.get(url).content for url in urls] # download images
image_names = [f"{filename}_{i + 1}.png" for i in range(len(images))] # create names
filepaths = [os.path.join(image_dir, name) for name in image_names] # create filepaths
for image, filepath in zip(images, filepaths): # loop through the variations
with open(filepath, "wb") as image_file: # open the file
image_file.write(image) # write the image to the file
return filepaths
dalle_prompt = '''
Full length, zoomed out photo of our premium Lederhosen-inspired jumpsuit.
Showcase the intricate hand-stitched details and high-quality leather, while highlighting the perfect blend of Austrian heritage and modern fashion.
This piece appeals to a sophisticated, trendsetting audience who appreciates cultural fusion and innovative design.
'''
# Generate your images
generation_response = openai.Image.create(
prompt=dalle_prompt,
n=3,
size="1024x1024",
response_format="url",
)
filepaths = process_dalle_images(generation_response, "generation", base_image_dir)
# print the new generations
for filepath in filepaths:
print(filepath)
display(Image.open(filepath))
images/01_generations/generation_1.png
images/01_generations/generation_2.png
images/01_generations/generation_3.png
マスクの生成
次に画像の一つをロードしてマスクを生成します。
このデモでは、そこからマスクを生成する画像の点を「クリック」するような UX を選択しています。ただし、画像に対するすべての可能性のあるマスクを生成し、ボックスを描く方法、そして他の有用なアプローチを示す、Meta が提供する サンプルノートブック があります。
# Pick one of your generated images
chosen_image = "images/01_generations/generation_2.png"
chosen_image
'images/01_generations/generation_2.png'
# Function to display mask using matplotlib
def show_mask(mask, ax):
color = np.array([30 / 255, 144 / 255, 255 / 255, 0.6])
h, w = mask.shape[-2:]
mask_image = mask.reshape(h, w, 1) * color.reshape(1, 1, -1)
ax.imshow(mask_image)
# Function to display where we've "clicked"
def show_points(coords, labels, ax, marker_size=375):
pos_points = coords[labels == 1]
neg_points = coords[labels == 0]
ax.scatter(
pos_points[:, 0],
pos_points[:, 1],
color="green",
marker="*",
s=marker_size,
edgecolor="white",
linewidth=1.25,
)
ax.scatter(
neg_points[:, 0],
neg_points[:, 1],
color="red",
marker="*",
s=marker_size,
edgecolor="white",
linewidth=1.25,
)
# Load chosen image using opencv
image = cv2.imread(chosen_image)
image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
# Display our chosen image
plt.figure(figsize=(10, 10))
plt.imshow(image)
plt.axis("on")
plt.show()
# Set the pixel coordinates for our "click" to assign masks
input_point = np.array([[525, 325]])
input_label = np.array([1])
# Display the point we've clicked on
plt.figure(figsize=(10, 10))
plt.imshow(image)
show_points(input_point, input_label, plt.gca())
plt.axis("on")
plt.show()
# Initiate predictor with Segment Anything model
predictor = SamPredictor(sam)
predictor.set_image(image)
# Use the predictor to gather masks for the point we clicked
masks, scores, logits = predictor.predict(
point_coords=input_point,
point_labels=input_label,
multimask_output=True,
)
# Check the shape - should be three masks of the same dimensions as our image
masks.shape
(3, 1024, 1024)
# Display the possible masks we can select along with their confidence
for i, (mask, score) in enumerate(zip(masks, scores)):
plt.figure(figsize=(10, 10))
plt.imshow(image)
show_mask(mask, plt.gca())
show_points(input_point, input_label, plt.gca())
plt.title(f"Mask {i+1}, Score: {score:.3f}", fontsize=18)
plt.axis("off")
plt.show()
# Choose which mask you'd like to use
chosen_mask = masks[1]
# We'll now reverse the mask so that it is clear and everything else is white
chosen_mask = chosen_mask.astype("uint8")
chosen_mask[chosen_mask != 0] = 255
chosen_mask[chosen_mask == 0] = 1
chosen_mask[chosen_mask == 255] = 0
chosen_mask[chosen_mask == 1] = 255
# create a base blank mask
width = 1024
height = 1024
mask = Image.new("RGBA", (width, height), (0, 0, 0, 1)) # create an opaque image mask
# Convert mask back to pixels to add our mask replacing the third dimension
pix = np.array(mask)
pix[:, :, 3] = chosen_mask
# Convert pixels back to an RGBA image and display
new_mask = Image.fromarray(pix, "RGBA")
new_mask
# We'll save this mask for re-use for our edit
new_mask.save(os.path.join(mask_dir, "new_mask.png"))
新しい画像の作成
そして元の画像をマスクと DALLE の編集エンドポイントと組み合わせて、新しいプロンプトに従って透明な領域をインペイントします。
# edit an image
# call the OpenAI API
edit_response = openai.Image.create_edit(
image=open(chosen_image, "rb"), # from the generation section
mask=open(os.path.join(mask_dir, "new_mask.png"), "rb"), # from right above
prompt="Brilliant leather Lederhosen with a formal look, detailed, intricate, photorealistic", # provide a prompt to fill the space
n=3,
size="1024x1024",
response_format="url",
)
edit_filepaths = process_dalle_images(edit_response, "edits", edit_image_dir)
# Display your beautiful creations!
%matplotlib inline
# figure size in inches optional
rcParams["figure.figsize"] = 11 ,8
# read images
img_A = mpimg.imread(edit_filepaths[0])
img_B = mpimg.imread(edit_filepaths[1])
img_C = mpimg.imread(edit_filepaths[2])
# display images
fig, ax = plt.subplots(1,3)
[a.axis("off") for a in ax]
ax[0].imshow(img_A)
ax[1].imshow(img_B)
ax[2].imshow(img_C)
<matplotlib.image.AxesImage at 0x16d8a63b0>
Beautiful!
Now you too can easily create dynamic masks to extend your images – enjoy the APIs, and please share what you build!
以上