coremltools を使ってオンデバイスで動くMLモデルを作る by だーはま

iOSDC Japan 2025
パンフ記事(4ページ)

coremltools を使ってオンデバイスで動くMLモデルを作る

ios_hamada だーはま ios_hamada

Pythonで学習したMLモデルをオンデバイスで動かすには、Core ML形式への変換が不可欠です。

Pythonライブラリ coremltools は、TensorFlowやPyTorchなどのフレームワークから.mlmodelや.mlpackageへの変換を Converter で行い、さらに量子化、パレット化、プルーニングなどの圧縮機能を備え、モデルサイズや推論速度を改善してくれます。

本記事では、coremltoolsを使ってオンデバイス用のMLモデルを作成&実行する過程を、以下の観点で実例を交えながらご紹介します。

  • coremltools を用いた変換
  • パレット化(LUT化)や量子化、プルーニングによるモデル圧縮手法とその効果
  • .mlmodel・.mlpackage の読み書き、柔軟な入力形態設定、Xcodeでの検証活用など開発効率を高めるユーティリティ紹介

これらを通じて以下の知見を皆さんへお届けします。

  • モデル圧縮によるファイルサイズの削減・推論高速化・電力効率の向上が即実感できる
  • Neural EngineやGPU活用のパフォーマンス利点を具体的に理解できる