DDColor と OpenVINO を使用してグレースケール画像をカラー化#

この Jupyter ノートブックは、ローカルへのインストール後にのみ起動できます。

GitHub

画像のカラー化は、グレースケール画像に色彩を加えるプロセスです。白黒で撮影されたこれらの画像は、RGB カラーを推定することで鮮やかでリアルな表現に変換されます。この技術は美的魅力と知覚品質の両方を向上させます。歴史的にアーティストはモノクロ写真に手作業で色を付けていましたが、1 つの画像に最大 1 か月かかることもある骨の折れる作業でした。しかし、情報技術の進歩とディープ・ニューラル・ネットワークの台頭により、画像の自動カラー化が重要になってきました。

DDColor は、今日の画像カラー化で最も進歩した方法の 1 つです。これは、ピクセルデコーダーとクエリーベースのカラーデコーダーの 2 つのデコーダーを使用する新しいアプローチであり、特に複数のオブジェクトと多様なコンテキストを含む複雑なシーンで、写真のようにリアルなカラー化を生成できる点が際立っています。 image0

このアプローチの詳細については、オリジナルのモデルのリポジトリー論文を参照してください。

このチュートリアルでは、OpenVINO を使用して DDColor を変換して実行する方法について説明します。また、NNCF を使用してモデルを最適化する方法も示します。

🪄 画像のカラー化の魔法を探ってみましょう!

内容:

必要条件#

import platform 

%pip install -q "nncf>=2.11.0" "torch>=2.1" "torchvision" "timm" "opencv_python" "pillow" "PyYAML" "scipy" "scikit-image" "datasets" "gradio>=4.19" --extra-index-url https://download.pytorch.org/whl/cpu 
%pip install -Uq --pre "openvino" --extra-index-url https://storage.openvinotoolkit.org/simple/wheels/nightly 

if platform.python_version_tuple()[1] in ["8", "9"]:
     %pip install -q "gradio-imageslider<=0.0.17" "typing-extensions>=4.9.0" 
else:
     %pip install -q "gradio-imageslider"
Note: you may need to restart the kernel to use updated packages.
エラー: pip 依存関係リゾルバーは現在、インストールされているすべてのパッケージを考慮していません。
この動作が、次の依存関係の競合の原因です。openvino-dev 2024.2.0 には openvino==2024.2.0 が必要ですが、互換性のない openvino 2024.4.0.dev20240712 があります。
Note: you may need to restart the kernel to use updated packages.
Note: you may need to restart the kernel to use updated packages.
import sys 
from pathlib import Path 

repo_dir = Path("DDColor") 

if not repo_dir.exists():
     !git clone https://github.com/piddnad/DDColor.git 

sys.path.append(str(repo_dir))
Cloning into 'DDColor'... 
remote: Enumerating objects: 230, done.[K 
remote: Counting objects: 100% (76/76), done.[K 
remote: Compressing objects: 100% (39/39), done.[K 
remote: Total 230 (delta 54), reused 40 (delta 36), pack-reused 154[K 
Receiving objects: 100% (230/230), 13.34 MiB | 20.76 MiB/s, done.
Resolving deltas: 100% (75/75), done.
try: 
    from inference.colorization_pipeline_hf import DDColorHF, ImageColorizationPipelineHF 
except Exception: 
    from inference.colorization_pipeline_hf import DDColorHF, ImageColorizationPipelineHF

PyTorch モデルのロード#

モデル・リポジトリーには、DDColor ファミリーのモデルがいくつか用意されています。ここでは、ddcolor モデルの最も軽量なバージョンである DDColor-T を使用しますが、チュートリアルで示す手順は、DDColor ファミリーの他のモデルにも適用できます。

import torch 

model_name = "ddcolor_paper_tiny" 

ddcolor_model = DDColorHF.from_pretrained(f"piddnad/{model_name}") 

colorizer = ImageColorizationPipelineHF(model=ddcolor_model, input_size=512) 

ddcolor_model.to("cpu") 
colorizer.device = torch.device("cpu")

PyTorch モデル推論を実行#

import cv2 
import PIL 

IMG_PATH = "DDColor/assets/test_images/Ansel Adams _ Moore Photography.jpeg" 

img = cv2.imread(IMG_PATH) 

PIL.Image.fromarray(img[:, :, ::-1])
../_images/ddcolor-image-colorization-with-output_8_0.png
image_out = colorizer.process(img) 
PIL.Image.fromarray(image_out[:, :, ::-1])
../_images/ddcolor-image-colorization-with-output_9_0.png

PyTorch モデルを OpenVINO 中間表現に変換#

OpenVINO は、OpenVINO 中間表現 (IR) への変換により PyTorch モデルをサポートします。これには、OpenVINO モデル・トランスフォーメーション API を使用する必要があります。ov.convert_model 関数は、元の PyTorch モデル・インスタンスとトレース用のサンプル入力を受け取り、OpenVINO フレームワークでこのモデルを表す ov.Model を返します。変換されたモデルは、ov.save_model 関数を使用してディスクに保存するか、core.complie_model を使用してデバイスに直接ロードできます。

import openvino as ov 
import torch 

OV_COLORIZER_PATH = Path("ddcolor.xml") 

if not OV_COLORIZER_PATH.exists(): 
    ov_model = ov.convert_model(ddcolor_model, example_input=torch.ones((1, 3, 512, 512)), input=[1, 3, 512, 512]) 
    ov.save_model(ov_model, OV_COLORIZER_PATH)
['x']

OpenVINO モデル推論を実行#

ドロップダウン・リストから推論にサポートされているデバイスを選択します。

import ipywidgets as widgets 

core = ov.Core() 
device = widgets.Dropdown( 
    options=core.available_devices + ["AUTO"], 
    value="AUTO", 
    description="Device:", 
    disabled=False, 
) 

device
Dropdown(description='Device:', index=1, options=('CPU', 'AUTO'), value='AUTO')
compiled_model = core.compile_model(OV_COLORIZER_PATH, device.value)
import cv2 
import numpy as np 
import torch 
import torch.nn.functional as F 

def process(img, compiled_model):
     # 入力画像の前処理 
     height, width = img.shape[:2] 

     # [0, 1] の範囲に正規化 
     img = (img / 255.0).astype(np.float32) 
     orig_l = cv2.cvtColor(img, cv2.COLOR_BGR2Lab)[:, :, :1] # (h, w, 1) 

     # gb 画像のサイズを変更 -> lab -> グレーを取得 -> rgb 
     img = cv2.resize(img, (512, 512)) 
     img_l = cv2.cvtColor(img, cv2.COLOR_BGR2Lab)[:, :, :1] 
     img_gray_lab = np.concatenate((img_l, np.zeros_like(img_l), np.zeros_like(img_l)), axis=-1) 
     img_gray_rgb = cv2.cvtColor(img_gray_lab, cv2.COLOR_LAB2RGB) 

     # HWC -> CHW を転置し、バッチ次元を追加 
     tensor_gray_rgb = torch.from_numpy(img_gray_rgb.transpose((2, 0, 1))).float().unsqueeze(0) 

     # モデル推論を実行 
     output_ab = compiled_model(tensor_gray_rgb)[0] 

      # 後処理結果 
      # resize ab -> concat original l -> rgb 
      output_ab_resize = F.interpolate(torch.from_numpy(output_ab), size=(height, width))[0].float().numpy().transpose(1, 2, 0) 
      output_lab = np.concatenate((orig_l, output_ab_resize), axis=-1) 
      output_bgr = cv2.cvtColor(output_lab, cv2.COLOR_LAB2BGR) 

      output_img = (output_bgr * 255.0).round().astype(np.uint8) 

      return output_img
ov_processed_img = process(img, compiled_model) 
PIL.Image.fromarray(ov_processed_img[:, :, ::-1])
../_images/ddcolor-image-colorization-with-output_16_0.png

NNCF を使用して OpenVINO モデルを最適化#

NNCF は、量子化レイヤーをモデルグラフに追加し、トレーニング・データセットのサブセットを使用してこれらの追加の量子化レイヤーのパラメーターを初期化することで、トレーニング後の量子化を可能にします。量子化操作は FP32/FP16 ではなく INT8 で実行されるため、モデル推論が高速化されます。

最適化プロセスには次の手順が含まれます:

  1. 量子化用のキャリブレーション・データセットを作成します。

  2. nncf.quantize() を実行して、量子化されたモデルを取得します。

  3. openvino.save_model() 関数を使用して INT8 モデルを保存します。

モデルの推論速度を向上させるため量子化を実行するかどうかを以下で選択してください。

to_quantize = widgets.Checkbox( 
    value=True, 
    description="Quantization", 
    disabled=False, 
) 

to_quantize
Checkbox(value=True, description='Quantization')
import requests 

OV_INT8_COLORIZER_PATH = Path("ddcolor_int8.xml") 
compiled_int8_model = None 

r = requests.get( 

url="https://raw.githubusercontent.com/openvinotoolkit/openvino_notebooks/latest/utils/skip_kernel_extension.py", 
) 
open("skip_kernel_extension.py", "w").write(r.text) 

%load_ext skip_kernel_extension

量子化データセットを収集#

キャリブレーション・データとして、Hugging Face の ummagumm-a/colorization_dataset データセットの一部を使用します。

%%skip not $to_quantize.value 

from datasets import load_dataset 

subset_size = 300 
calibration_data = [] 

if not OV_INT8_COLORIZER_PATH.exists(): 
    dataset = load_dataset("ummagumm-a/colorization_dataset", split="train", streaming=True).shuffle(seed=42).take(subset_size) 
    for idx, batch in enumerate(dataset): 
        if idx >= subset_size: 
            break 
        img = np.array(batch["conditioning_image"]) 
        img = (img / 255.0).astype(np.float32) 
        img = cv2.resize(img, (512, 512)) 
        img_l = cv2.cvtColor(np.stack([img, img, img], axis=2), cv2.COLOR_BGR2Lab)[:, :, :1] 
        img_gray_lab = np.concatenate((img_l, np.zeros_like(img_l), np.zeros_like(img_l)), axis=-1) 
        img_gray_rgb = cv2.cvtColor(img_gray_lab, cv2.COLOR_LAB2RGB) 
        image = np.expand_dims(img_gray_rgb.transpose((2, 0, 1)).astype(np.float32), axis=0) 
        calibration_data.append(image)

モデル量子化の実行#

%%skip not $to_quantize.value 

import nncf 

if not OV_INT8_COLORIZER_PATH.exists(): 
    ov_model = core.read_model(OV_COLORIZER_PATH) 
        quantized_model = nncf.quantize( 
            model=ov_model, 
            subset_size=subset_size, 
            calibration_dataset=nncf.Dataset(calibration_data), 
        ) 
    ov.save_model(quantized_model, OV_INT8_COLORIZER_PATH)
INFO:nncf:NNCF initialized successfully.Supported frameworks detected: torch, tensorflow, onnx, openvino
2024-07-12 23:51:48.961005: I tensorflow/core/util/port.cc:110] oneDNN custom operations are on.You may see slightly different numerical results due to floating-point round-off errors from different computation orders.To turn them off, set the environment variable TF_ENABLE_ONEDNN_OPTS=0.
2024-07-12 23:51:49.001135: I tensorflow/core/platform/cpu_feature_guard.cc:182] This TensorFlow binary is optimized to use available CPU instructions in performance-critical operations.
To enable the following instructions: AVX2 AVX512F AVX512_VNNI FMA, in other operations, rebuild TensorFlow with the appropriate compiler flags.
2024-07-12 23:51:49.398556: W tensorflow/compiler/tf2tensorrt/utils/py_utils.cc:38] TF-TRT 
Warning: Could not find TensorRT
Output()
Output()

INT8 モデル推論を実行#

from IPython.display import display 

if OV_INT8_COLORIZER_PATH.exists(): 
    compiled_int8_model = core.compile_model(OV_INT8_COLORIZER_PATH, device.value) 
    img = cv2.imread("DDColor/assets/test_images/Ansel Adams _ Moore Photography.jpeg") 
    img_out = process(img, compiled_int8_model) 
    display(PIL.Image.fromarray(img_out[:, :, ::-1]))
../_images/ddcolor-image-colorization-with-output_25_0.png

FP16 と INT8 モデルサイズの比較#

fp16_ir_model_size = OV_COLORIZER_PATH.with_suffix(".bin").stat().st_size / 2**20 

print(f"FP16 model size: {fp16_ir_model_size:.2f} MB") 

if OV_INT8_COLORIZER_PATH.exists(): 
    quantized_model_size = OV_INT8_COLORIZER_PATH.with_suffix(".bin").stat().st_size / 2**20 
    print(f"INT8 model size: {quantized_model_size:.2f} MB") 
    print(f"Model compression rate: {fp16_ir_model_size / quantized_model_size:.3f}")
FP16 model size: 104.89 MB 
INT8 model size: 52.97 MB 
Model compression rate: 1.980

FP16 モデルと INT8 モデルの推論時間を比較#

OpenVINO FP16 および INT8 モデルの推論パフォーマンスを測定するには、Benchmark ツールを使用します。

: 最も正確なパフォーマンス推定を行うには、他のアプリケーションを閉じた後、ターミナル/コマンドプロンプトで benchmark_app を実行することを推奨します。

!benchmark_app -m $OV_COLORIZER_PATH -d $device.value -api async -shape "[1,3,512,512]" -t 15
[Step 1/11] Parsing and validating input arguments 
[ INFO ] Parsing input parameters 
[Step 2/11] Loading OpenVINO Runtime 
[ INFO ] OpenVINO: 
[ INFO ] Build .................................2024.4.0-16028-fe423b97163 
[ INFO ] 
[ INFO ] Device info: 
[ INFO ] AUTO 
[ INFO ] Build .................................2024.4.0-16028-fe423b97163 
[ INFO ] 
[ INFO ] 
[Step 3/11] Setting device configuration 
[ WARNING ] Performance hint was not explicitly specified in command line. Device (AUTO) performance hint will be set to PerformanceMode.THROUGHPUT.
[Step 4/11] Reading model files 
[ INFO ] Loading model files 
[ INFO ] Read model took 41.74 ms 
[ INFO ] Original model I/O parameters: 
[ INFO ] Model inputs: 
[ INFO ]     x (node: x) : f32 / [...]/ [1.3,512,512] 
[ INFO ] Model outputs: 
[ INFO ]     *NO_NAME* (node: __module.refine_net.0.0/aten::_convolution/Add) : f32 / [...] / [1,2,512,512] 
[Step 5/11] Resizing model to match image sizes and given batch 
[ INFO ] Model batch size: 1 
[ INFO ] Reshaping model: 'x': [1,3,512,512] 
[ INFO ] Reshape model took 0.04 ms 
[Step 6/11] Configuring input of the model 
[ INFO ] Model inputs: [ INFO ]     x (node: x) : u8 / [N,C,H,W] / [1,3,512,512] 
[ INFO ] Model outputs: [ INFO ]     *NO_NAME* (node: __module.refine_net.0.0/aten::_convolution/Add) : f32 / [...]/ [1,2,512,512] 
[Step 7/11] Loading the model to the device 
[ INFO ] Compile model took 1302.32 ms 
[Step 8/11] Querying optimal runtime parameters 
[ INFO ] Model: [ INFO ]     NETWORK_NAME: Model0 
[ INFO ]     EXECUTION_DEVICES: ['CPU'] 
[ INFO ]     PERFORMANCE_HINT: PerformanceMode.THROUGHPUT 
[ INFO ]     OPTIMAL_NUMBER_OF_INFER_REQUESTS: 6 
[ INFO ]     MULTI_DEVICE_PRIORITIES: CPU 
[ INFO ]     CPU: [ INFO ]       AFFINITY: Affinity.CORE 
[ INFO ]       CPU_DENORMALS_OPTIMIZATION: False 
[ INFO ]       CPU_SPARSE_WEIGHTS_DECOMPRESSION_RATE: 1.0 
[ INFO ]       DYNAMIC_QUANTIZATION_GROUP_SIZE: 32 
[ INFO ]       ENABLE_CPU_PINNING: True 
[ INFO ]       ENABLE_HYPER_THREADING: True 
[ INFO ]       EXECUTION_DEVICES: ['CPU'] 
[ INFO ]       EXECUTION_MODE_HINT: ExecutionMode.PERFORMANCE 
[ INFO ]       INFERENCE_NUM_THREADS: 24 
[ INFO ]       INFERENCE_PRECISION_HINT: <Type: 'float32'> 
[ INFO ]       KV_CACHE_PRECISION: <Type: 'float16'> 
[ INFO ]       LOG_LEVEL: Level.NO 
[ INFO ]       MODEL_DISTRIBUTION_POLICY: set() 
[ INFO ]       NETWORK_NAME: Model0 
[ INFO ] NUM_STREAMS: 6 
[ INFO ]       OPTIMAL_NUMBER_OF_INFER_REQUESTS: 6 
[ INFO ]       PERFORMANCE_HINT: THROUGHPUT 
[ INFO ]       PERFORMANCE_HINT_NUM_REQUESTS: 0 
[ INFO ]       PERF_COUNT: NO 
[ INFO ]       SCHEDULING_CORE_TYPE: SchedulingCoreType.ANY_CORE 
[ INFO ] MODEL_PRIORITY: Priority.MEDIUM 
[ INFO ] LOADED_FROM_CACHE: False 
[ INFO ] PERF_COUNT: False 
[Step 9/11] Creating infer requests and preparing input tensors 
[ WARNING ] No input files were given for input 'x'!.This input will be filled with random values! 
[ INFO ] Fill input 'x' with random values 
[Step 10/11] Measuring performance (Start inference asynchronously, 6 inference requests, limits: 15000 ms duration) 
[ INFO ] Benchmarking in inference only mode (inputs filling are not included in measurement loop).
[ INFO ] First inference took 537.09 ms 
[Step 11/11] Dumping statistics report 
[ INFO ] Execution Devices:['CPU'] 
[ INFO ] Count: 72 iterations 
[ INFO ] Duration: 16531.03 ms 
[ INFO ] Latency: [ INFO ] Median: 1375.35 ms 
[ INFO ]     Average: 1368.70 ms 
[ INFO ]     Min: 1259.43 ms 
[ INFO ]     Max: 1453.51 ms 
[ INFO ] Throughput: 4.36 FPS
if OV_INT8_COLORIZER_PATH.exists():
    !benchmark_app -m $OV_INT8_COLORIZER_PATH -d $device.value -api async -shape "[1,3,512,512]" -t 15
[Step 1/11] Parsing and validating input arguments 
[ INFO ] Parsing input parameters 
[Step 2/11] Loading OpenVINO Runtime 
[ INFO ] OpenVINO: 
[ INFO ] Build .................................2024.4.0-16028-fe423b97163 
[ INFO ] 
[ INFO ] Device info: 
[ INFO ] AUTO 
[ INFO ] Build .................................2024.4.0-16028-fe423b97163 
[ INFO ] 
[ INFO ] 
[Step 3/11] Setting device configuration 
[ WARNING ] Performance hint was not explicitly specified in command line.Device(AUTO) performance hint will be set to PerformanceMode.THROUGHPUT.
[Step 4/11] Reading model files 
[ INFO ] Loading model files 
[ INFO ] Read model took 68.54 ms 
[ INFO ] Original model I/O parameters: 
[ INFO ] Model inputs: 
[ INFO ] x (node: x) : f32 / [...]/ [1.3,512,512] 
[ INFO ] Model outputs: 
[ INFO ]     *NO_NAME* (node: __module.refine_net.0.0/aten::_convolution/Add) : f32 / [...]/ [1,2,512,512] 
[Step 5/11] Resizing model to match image sizes and given batch 
[ INFO ] Model batch size: 1 
[ INFO ] Reshaping model: 'x': [1,3,512,512] 
[ INFO ] Reshape model took 0.04 ms 
[Step 6/11] Configuring input of the model 
[ INFO ] Model inputs: 
[ INFO ] x (node: x) : u8 / [N,C,H,W] / [1,3,512,512] 
[ INFO ] Model outputs: 
[ INFO ]     *NO_NAME* (node: __module.refine_net.0.0/aten::_convolution/Add) : f32 / [...]/ [1,2,512,512] 
[Step 7/11] Loading the model to the device 
[ INFO ] Compile model took 2180.66 ms 
[Step 8/11] Querying optimal runtime parameters 
[ INFO ] Model: [ INFO ]     NETWORK_NAME: Model0 
[ INFO ]     EXECUTION_DEVICES: ['CPU'] 
[ INFO ]     PERFORMANCE_HINT: PerformanceMode.THROUGHPUT 
[ INFO ]     OPTIMAL_NUMBER_OF_INFER_REQUESTS: 6 
[ INFO ]     MULTI_DEVICE_PRIORITIES: CPU 
[ INFO ]     CPU: [ INFO ]       AFFINITY: Affinity.CORE 
[ INFO ]       CPU_DENORMALS_OPTIMIZATION: False 
[ INFO ]       CPU_SPARSE_WEIGHTS_DECOMPRESSION_RATE: 1.0 
[ INFO ]       DYNAMIC_QUANTIZATION_GROUP_SIZE: 32 
[ INFO ]       ENABLE_CPU_PINNING: True 
[ INFO ]       ENABLE_HYPER_THREADING: True 
[ INFO ]       EXECUTION_DEVICES: ['CPU'] 
[ INFO ]       EXECUTION_MODE_HINT: ExecutionMode.PERFORMANCE 
[ INFO ]       INFERENCE_NUM_THREADS: 24 
[ INFO ]       INFERENCE_PRECISION_HINT: <Type: 'float32'> 
[ INFO ]       KV_CACHE_PRECISION: <Type: 'float16'> 
[ INFO ]       LOG_LEVEL: Level.NO 
[ INFO ]       MODEL_DISTRIBUTION_POLICY: set() 
[ INFO ]       NETWORK_NAME: Model0 
[ INFO ] NUM_STREAMS: 6 
[ INFO ]       OPTIMAL_NUMBER_OF_INFER_REQUESTS: 6 
[ INFO ]       PERFORMANCE_HINT: THROUGHPUT 
[ INFO ]       PERFORMANCE_HINT_NUM_REQUESTS: 0 
[ INFO ]       PERF_COUNT: NO 
[ INFO ]       SCHEDULING_CORE_TYPE: SchedulingCoreType.ANY_CORE 
[ INFO ] MODEL_PRIORITY: Priority.MEDIUM 
[ INFO ] LOADED_FROM_CACHE: False 
[ INFO ] PERF_COUNT: False 
[Step 9/11] Creating infer requests and preparing input tensors 
[ WARNING ] No input files were given for input 'x'!.This input will be filled with random values! 
[ INFO ] Fill input 'x' with random values 
[Step 10/11] Measuring performance (Start inference asynchronously, 6 inference requests, limits: 15000 ms duration) 
[ INFO ] Benchmarking in inference only mode (inputs filling are not included in measurement loop).
[ INFO ] First inference took 283.96 ms 
[Step 11/11] Dumping statistics report 
[ INFO ] Execution Devices:['CPU'] 
[ INFO ] Count: 156 iterations 
[ INFO ] Duration: 15915.24 ms 
[ INFO ] Latency: [ INFO ] Median: 608.17 ms 
[ INFO ]     Average: 609.92 ms 
[ INFO ]     Min: 550.02 ms 
[ INFO ]     Max: 718.37 ms 
[ INFO ] Throughput: 9.80 FPS

インタラクティブな推論#

import gradio as gr 
from gradio_imageslider import ImageSlider 
from functools import partial 

def generate(image, use_int8=True): 
    image_in = cv2.imread(image) 
    image_out = process(image_in, compiled_model if not use_int8 else compiled_int8_model) 
    image_in_pil = PIL.Image.fromarray(cv2.cvtColor(image_in, cv2.COLOR_BGR2RGB)) 
    image_out_pil = PIL.Image.fromarray(cv2.cvtColor(image_out, cv2.COLOR_BGR2RGB)) 
    return (image_in_pil, image_out_pil) 

with gr.Blocks() as demo: 
    with gr.Row(equal_height=False): 
        image = gr.Image(type="filepath") 
        with gr.Column(): 
            output_image = ImageSlider(show_label=True, type="filepath", interactive=False, label="FP16 model output") 
            button = gr.Button(value="Run{}".format(" FP16 model" if compiled_int8_model is not None else "")) 
        with gr.Column(visible=compiled_int8_model is not None): 
            output_image_int8 = ImageSlider(show_label=True, type="filepath", interactive=False, label="INT8 model output") 
            button_i8 = gr.Button(value="Run INT8 model") 
            button.click(fn=partial(generate, use_int8=False), inputs=[image], outputs=[output_image]) 
            button_i8.click(fn=partial(generate, use_int8=True), inputs=[image], outputs=[output_image_int8]) 
            examples = gr.Examples( 
                [ 
                    "DDColor/assets/test_images/New York Riverfront December 15, 1931.jpg", 
                    "DDColor/assets/test_images/Audrey Hepburn.jpg", 
                    "DDColor/assets/test_images/Acrobats Balance On Top Of The Empire State Building, 1934.jpg", 
                ], 
                inputs=[image], 
        ) 

if __name__ == "__main__": 
    try: 
        demo.queue().launch(debug=False) 
    except Exception: 
        demo.queue().launch(share=True, debug=False) 
# リモートで起動する場合は、server_name と server_port を指定 
# demo.launch(server_name='your server name', server_port='server port in int') 
# 詳細については、ドキュメントをご覧ください: https://gradio.app/docs/
ローカル URL で実行中: http://127.0.0.1:7860 パブリックリンクを作成するには、launch()share=True を設定します。