パンフ記事(4ページ)

Swiftで描くWebの未来

AkkeyLab akkey

iOSアプリのUI構築において、SwiftUIは宣言的な記法と豊富な拡張性により注目を集め、今や多くのプロダクトで採用されています。こうしたSwiftの思想は、今やWeb開発の領域にも波及しています。その一例が、Swift製の静的サイトジェネレータ「Ignite」です。

本稿では、Igniteが提供する3つの中核的なAPIグループ「InlineElement」「HTML」「Modifier」に注目し、どのようにしてSwiftらしいWebページ構築を実現しているかを解説します。

  • InlineElement はテキストや画像など、HTMLタグに相当する単一要素を抽象化したプロトコル
  • HTML は複数の要素を組み合わせた再利用可能なコンポーネントを表現するための仕組みであり、ユーザー定義コンポーネントの構築にも使われる
  • Modifier は色や文字サイズなどの装飾を宣言的に追加するためのAPI群で、SwiftUIと同様、要素に対してチェーン的に適用することが可能

これら3つの設計は、HTMLそのものをSwiftで模倣することが目的ではなく、「型安全なDSLとして、Webを構築する」という明確な思想に基づいています。慣れ親しんだSwiftの型と文法で「ウェブサイトを創る」という体験。SwiftならではのWeb開発のあり方を、Igniteを通して紐解いていきます。

1
ルーキーズLT(5分)

リジェクトの嵐を越えて、個人開発SNSアプリがストアに載るまで

hinakkograshi ひなっこ

はじめてSNSアプリを作るとき、多くの開発者が直面する最大の壁。それがApp Storeの審査(App Review)です。

SNSアプリをApp Storeにリリースするには、他ジャンルのアプリ以上に厳しいApp Reviewの壁が立ちはだかります。
特に、ユーザー生成コンテンツ(UGC)を扱うアプリは、ユーザー保護の観点から求められる機能は多岐にわたり、設計段階から審査基準を意識していないと、何度もリジェクトされてしまうことも珍しくありません。

このLTでは、個人で開発したSNSアプリが何度もリジェクトされながらも、最終的にApp Storeに掲載されるまでの実体験をベースに、以下のような具体的なノウハウを共有します。

LTで話すこと:

  • 実際にAppleにリジェクトされた理由と、それにどう対応したか
  • App Reviewガイドラインに則った設計・実装で気をつけるべきポイント
  • ガイドラインには明記されていないが、対応すべきこと

「はじめてのSNSアプリ開発」でつまずかないための実践的な知見を、リアルな失敗談とともにお伝えします。
今後、UGCを扱うアプリを作成する方の、少しでも力になれたら幸いです。

5
ルーキーズLT(5分)

Reality Composer Proのパーティクルを駆使し、四季のキャンプを楽しもう!

hinakkograshi ひなっこ

いつでもどこでもキャンプができたらいいな。そう思ったことはありませんか?
visionOSアプリで、現実では難しい「理想のキャンプ体験」を仮想空間で実現することができます。

本LTでは、Reality Composer Proを用いてvisionOSアプリに「春夏秋冬」の季節感を演出するパーティクルを作成・実装する方法をご紹介します。
春には桜の花びら、夏にはホタルの舞、秋には紅葉の舞い散り、冬にはしんしんと降る雪。それぞれ異なる自然の動きを再現するために、表現や動きの調整に多くの工夫が必要でした。そんな自然の表現が、visionOSでどのように再現できるのかをハッカソンのチームで開発したキャンプアプリの実例を交えて話します。

LTで話すこと:

  • Reality Composer Proとは
  • 春夏秋冬の異なるパーティクルの作成方法
  • visionOSアプリでのパーティクルの活用実例
3
レギュラートーク(20分)

iPhoneで海難事故は防げるか?年間2000件の事故に挑むアプリ開発

atsuki_seo 瀬尾 敦生

AIS(自動船舶識別装置)の非搭載などを理由に、小型船舶の海難事故は毎年2000件以上も発生しています
この長年の課題を解決するため、我々は2015年からiPhoneを用いた事故防止アプリの開発に取り組んできました
本発表は現在国立高専の教員兼iOSエンジニアである発表者が、過去数年間の開発で直面した技術的課題や法的な課題と、それらを現代のiOS技術やSwiftでいかに解決できるか説明するためのテーマです

本発表では最初に各開発フェーズでの実施内容と課題に関してお話します

  • Phase 1 (2015-2016):
    • プロトタイプをiOSアプリとWebViewで開発
    • 他船との接近判定時のパフォーマンス問題
    • 電波法59条の抵触に関する問題
  • Phase 2 (2017-):
    • フルネイティブアプリ対応、Apple Watch連携
    • 海上での電波利用状況の調査、操船中に通知へ確実に気づくためのUI/UXの設定と検証
    • 他船の位置情報提供・管理に関するプライバシー問題

次に本セッションでは、国土交通省から現在出ている安全航行支援アプリのガイドラインとUIのイメージ・注意点に関して説明します

  • 例)GPS誤差を考慮した船の接近警告の判定と表示方法
  • 例)通信不能時の判定と表示方法

最後にはパフォーマンス、UI/UXといった課題に対し、現在のiOSが提供する技術(SwiftUI、Swift Concurrency、Watch Complicationなど)を駆使してどのようにアプローチできるかを解説します
位置情報を利用した接近検知機能を持つアプリの実装方法と今まで発生してきた課題、当時の様々な実験結果を共有することで、船に限らずリアルタイムな位置情報処理に取り組む方々に知見を提供することを目指します

4
レギュラートーク(20分)

僕らのiOS x Swiftを未来の力に!現役iOSエンジニアが挑む、高専教育アップデート計画

atsuki_seo 瀬尾 敦生

筆者はIT企業でiOSアプリ開発をする傍ら、国立弓削商船高等専門学校(以下、弓削商船高専)の情報工学科教員としてプロダクトやシステム開発に関する講義を行なっています。

弓削商船高専のような国立高専では卒業生が身につけるべき知識や能力の到達目標として「モデルコアカリキュラム(以下、MCC)」が定められています。
特に情報系分野では、プログラミング/アルゴリズム/コンピュータの仕組みといった知識・技能に加え、それらを統合して課題解決にあたる「創造性・デザイン能力」の育成が重要視されています。

筆者はSwiftとAppleエコシステムは現代の「ものづくり」のプロセスと非常に親和性が高く、以下のような理由からMCCが目指す能力を育む上で多くの利点を持つと考えています。

  • 学生が日常的に使うiPhoneやiPadで動作するアプリケーション開発は、学習への強い動機付けとなる
  • SwiftUIとXcodeのプレビュー機能はコードの変更が即座にUIに反映されるため、手を動かしながら試行錯誤することを多く体験できる
    • MCCで求められている「エンジニアリングデザイン能力」 の育成に適している

本セッションではこのMCCの理念である「ものづくり」を通じた社会実装教育を、SwiftとAppleエコシステムを使って実現するためのアプローチを考察します。

  • 直感的なSwiftによるプログラミング基礎教育
  • SwiftUIのパフォーマンス改善といった実践的課題から学ぶアルゴリズムとデータ構造
  • LLVMを基盤とするSwiftの特性を活かしたコンパイラへの理解

本セッションを通して高専教育のカリキュラムや授業構成に関する問題点や新たな可能性を見つけ、未来のiOSアプリエンジニアを育てるためのより実践的なカリキュラムや授業の作成に繋げたいと思います。

2
レギュラートーク(20分)

Swiftビルド弾丸ツアー - Swift Buildが作る新しいエコシステム

giginet giginet

2025年2月、AppleはビルドシステムのSwift Buildをオープンソース化しました。
Swiftコンパイラに始まり、xcodebuildやSwift Package Manager、swift-driver、llbuild、果てはClangやldまで、Swiftのビルドを支えるツール群は多様で、それぞれの役割もわかりづらいです。

この複雑怪奇なシステムたちはどのように協調・動作しているのでしょうか。

このトークでは、オープンソースSwiftを中心に、Swiftビルドシステムの全体像を解説します。また、今回新しく公開されたSwift Buildの内部を紐解き、ビルドパイプラインを駆け抜けましょう!

  • コンパイラの基本、ビルドとリンクのおさらい
  • Swiftのビルドを支えるツールたち
  • XcodeプロジェクトとSwift Packageのビルドパイプラインの違い
  • Swift Buildの登場と新しいビルドパイプライン
  • Swift Buildのアーキテクチャを見てみよう
15
レギュラートーク(20分)

AIが書いたコードをAIが検証する!自律的なモバイルアプリ開発の実現

henteko07 henteko

「バイブコーディングでAIにコードを書かせたけど、本当に動くの?」そんな不安を解消する、AI駆動の自動開発・自動検証システムを構築しました。本セッションでは、Claude CodeなどのAIコーディングアシスタントが生成したモバイルアプリのコードを、AIが自動的に動作確認する仕組みを紹介します。

具体的には以下のような内容をカバーします:

  • AIによるコード生成後の自動動作確認フローの構築
  • 生成されたUIコンポーネントの自動スクリーンショット検証
  • AIが書いたコードに対する自動E2Eテストの生成と実行
  • 問題検出時のAIへのフィードバックループの実装

「AIがコードを書き、AIが検証し、AIが修正する」完全自律型の開発サイクルはどこまで実現可能なのか?実際の開発事例とデモを通じて、AIによる自動コーディングの品質保証という新たな課題への挑戦をお見せします。

2
ルーキーズLT(5分)

そのプロパティ、安心して呼べますか?~Computed PropertyとMethodの使い分け完全ガイド〜

codeHaruto_jp Haruto Hamano

「このfullNameプロパティ、安心して呼んで大丈夫かな...?」
Swiftでコードを書く中で、Computed Property関数の境界線に、ふと迷った経験はないでしょうか?
そして、その些細な迷いが、時として「期待とのギャップ」を生み、コードのパフォーマンスや可読性に影響を与えることがあります。

このトークでは、「なんとなく」で使い分けられがちなこの問題について、改めて基本から見つめ直します。

「フルネームはComputed Property関数?」という身近な疑問から出発し、なぜそれがパフォーマンス問題に関わるのか、そしてAppleはどのような設計思想を持っているのかを、実際のプロジェクトでよくあるケーススタディを通して、Computed PropertyMethodの選択基準を皆さんと共有できればと思います。
このセッションが、皆さんの日々のコーディングにおける迷いを少しでも減らし、ご自身の意図をより明確にコードへ反映させるための一助となれば幸いです。

5
レギュラートーク(20分)

生成AI時代のiOS画像処理の選び方

kuroFront46 Shinji Kurosawa

生成AIの進化により、Stable Diffusionをはじめとする画像生成技術が急速に注目を集めています。その流れを受けて、iOSアプリでも画像生成・加工の技術を取り入れたいというニーズが高まりつつあります。
iOSアプリで画像処理を実装しようとした場合、Core Image、Metal、CoreML、サーバサイド処理、さらには生成AI関連のAPIなど、選べる技術は多岐にわたります。

便利な選択肢が増える一方で、「結局どれを使えばいいのか分からない」「画像処理は難しそう」と感じて手が止まってしまう方も多いのではないでしょうか。

本トークでは、画像処理技術を利用してiOSアプリで独自の画像アニメーションを構築した経験をもとに、各技術の特徴と使いどころを整理します。
トークでは、独自アニメーションを実装するための要件を起点に、各要素技術(Core Image / Metal / CoreML / サーバサイド処理 / 生成AI関連のAPI)を使いながらアニメーションを構築していく過程を、実践的な形式で紹介します。
単に技術を羅列するのではなく、アニメーションの実際の動作を見せながら、「どのような場面でその技術を選ぶべきか」といった選定の観点を中心に、各要素技術を比較・検討していきます。

画像処理に興味はあるけど、何から手をつければいいか分からない。そんな方に向けて、iOSで使える技術やアプローチを実例とともに紹介します。
実は私自身も画像処理の専門家ではありません。でも、様々な技術を試す中で「意外と面白い」「ポイントさえ押さえれば自分でも作れる」と感じました。
本トークを通じて、画像処理は「難しそう」ではなく「ちょっとやってみたい」と思えるような、そんなきっかけを届けられたら嬉しいです。

1
ルーキーズLT(5分)

Vision Frameworkの落とし穴:初回実行遅延とその最適化テクニック

Tatsuya Kobayashi

クラシルリワードでは、レシートの撮影・送信機能を提供しており、レシートを送信してもらうことでユーザーに還元を行っています。この機能では、Vision Framework を利用した領域やテキストの検出を行なっており、サーバーでのレシートの解析に大きく貢献しています。しかし、これらの処理を加えたことにより、撮影ごとにかかる時間が増加してしまうことになります。ユーザー体験を考慮して、撮影から送信までパフォーマンス改善を行っていたところ初回の実行だけ異常に時間がかかっていることがわかりました。このトークでは、この課題に対する対応策となぜこのようなことが起こっていたのかの考察をご紹介します。このトークを通じて、同様の課題に直面している開発者の皆様がスムーズに問題を解決するための手がかりを得られることを期待しています。

3
レギュラートーク(20分)

Xcodeビルドを高速化するための3つの重要なチェックポイントと問題の解消方法について

Tsato1128 てぃー

このセッションでは、ビルド高速化のノウハウをまだ持っていないAppleプラットフォーム開発者向けに、具体的にどのようにビルド速度を改善できるのかを解説します。

アプリ開発中は、実装やCI/CD等で沢山ビルドすると思います。
ビルドの時間が遅いと、単純に開発者にとってストレスになるだけでなく、開発のテンポが悪くなり実装内容に見合わない大きなコストがかかることになります。
WWDCのセッションビデオや公式ドキュメントより、Xcodeのビルドシステムの仕組みを見てみると、ソースコードの量やマシンスペック以外にも様々な原因でビルド速度のボトルネックになる要因があることがわかりました。
皆さんの関わっている、プロジェクトのビルド設定やソースコード自体がビルド速度のボトルネックになっていることが、あるかもしれません。

本トークでは数あるビルド時間が伸びてしまう原因のうち、解消したときに短縮できるビルド時間が大きいと思われるものを3つに厳選して、重要なチェックポイントと修正方法をそれぞれ解説します。
具体的には、次の内容に関連した原因についてお話しします。

  • 並列ビルドの最適化ができていない
  • 依存ライブラリのコンパイル時間が長い
  • コンパイル時の型推論時間が長い

例えば、Xcodeでは並列に複数のビルドタスクを進めることができますが、プロジェクトの依存関係によっては並列で処理できない部分が発生することがあります。
このような問題をどのようにして発見し、どうやって改善するのかそれぞれ詳しく説明します。
サンプルコードや、実際のプロジェクトで取得したビルド時間のベンチマークを比較して、実際どれぐらい早くなるのか、も見ていきます。

業務、プライベート問わず、普段の開発でビルド時間に悩まされている開発者にとって、是非聴いていただきたい内容です!

4
パンフ記事(8ページ)

眼鏡型デバイスの現在地と未来: WWDC25現地から見えた潮流

ikkou ikkou

WWDC25に現地参加して驚いたのは、非常に多くの人が「Ray-Ban Metaグラス」をごく自然に日常使いしていたことです。まるでスマートウォッチのように、屋内外を問わず装着されており、現地では“次は眼鏡型が来るのでは?”という空気感も強く感じられました。


WWDC後には、MetaとOakleyのコラボによる「Meta HSTN」が正式に発表され、さらに「次はPradaと組むのでは」といった噂も流れています。これらの動きは、WWDC現地での肌感を裏付けるものだと感じました。一方で、これらの製品は日本国内では正規販売されておらず、日本の開発者にとってはまだ“遠い存在”にも見えるかもしれません。

しかし実際には、XREALシリーズをはじめ、日本国内でも購入可能な眼鏡型デバイスは着実に増えており、家電量販店でも普通に見かけるようになっています。これらの製品は、ディスプレイの有無や投影方式(空中映像型、視野投影型など)によっていくつかに分類でき、それぞれ用途や体験にも違いがあります。

本稿では、そうした眼鏡型デバイスの系譜と技術的な分類を整理したうえで、「今、何が使えるのか」「どこまで来ているのか」、そして「この先どこへ向かいそうか」について紹介・考察します。Vision Proのような“没入型”とは異なる方向にある“軽量で日常的な空間コンピューティング”の可能性に、いま改めて注目してみませんか?

1
パンフ記事(4ページ)

WWDC現地参加、最大化の鍵は「公式外」!? コミュニティイベント活用術

ikkou ikkou

WWDC25に現地参加してきました!
人生初のWWDC現地参加はとても刺激的でしたが、同時に「ただセッションを見に行くだけなら、現地に行く意味はあるのだろうか?」という疑問も抱きました。オンライン視聴が当たり前になった今、現地参加の価値とは何か?私なりに見つけた答えは、“現地ならではの人とのつながり”でした。

Appleの中の人と直接話せる1on1 LabやDeveloper Sessionの後の会話など、現地ならではの交流機会は貴重です。中でも特に印象的だったのが、「Meet the community」で紹介されているコミュニティ主催の非公式イベントたち。朝活形式の勉強会、開発者同士の雑談会、世界各国のiOSエンジニアとフラットに話せるパーティーなど、その場でしか得られない学びと出会いがありました。

本稿では、私がWWDC25期間中に参加したコミュニティイベントを紹介しつつ、イベントに参加することで得られた知見やつながり、そして次回以降にWWDC現地参加を目指す人に向けたアドバイスを共有します。「現地に行くなら、セッション以上の体験を!」そんな想いを込めた内容です。

1
レギュラートーク(20分)

Github Actions と 生成AI で、運用し続けられる半自動のVRTを構築しよう!

Sossui_Swift そっしー

アプリ開発において、UIの品質担保は誰しもが一度はぶつかる課題だと思います。
解決策として、E2Eテストやスナップショットテスト、実機テストが挙げられます。
その中でも、swift-snapshot-testingを使ったビジュアルリグレッションテスト(以降VRTと呼ぶ)に焦点を当てていきます。
※VRTとは、変更前と変更後のコードで対象画面のスナップショットを比較することで、UIのデグレを検知するテストです。

「UIテストは運用コストが高い」と、諦めた経験のある人はいませんか?
導入初期は運用できていたものの、少しずつ放置されていき、運用されなくなってしまった経験はありませんか?

本トークでは、そんな運用コストの課題を
CursorやClaude Code Github Actionsを使って解決した方法をお話しします。
また、以下のテーマに触れながら進めていくので、検証から運用まで具体的にイメージすることが出来ます。

  • 技術選定の内容と理由
  • ChatGPTが提案するコードのセキュリティの問題
  • CIの実行時間の課題
  • カバレッジ計測の自動化
  • テスタブルなUI設計
  • Cursor, Claude Code Github Actionsの活用方法

導入後の現在も、品質や設計・自動化面で改善を続けており、
それらを余すことなくお伝えできればと思います。

「VRT導入時、どのようなことを考慮したら良いかよくわからない」
「VRTの導入を検討しているが、実際にチームで運用し続けられるか悩んでいる」
「運用が止まってしまっている」
そんな方々に参考になるセッションとなれば幸いです。

2
レギュラートーク(20分)

Swift DocC × GitHub Pages で作る “使える” SDK ドキュメント構築術

ohayoukenchan ohayoukenchan

開発者にとって、使いやすいSDKドキュメントはプロジェクトの成功に不可欠です。にもかかわらず、ドキュメントの整備や運用には多くのハードルがあり、「後回しになりがち」「仕様と乖離しやすい」「更新が面倒」といった課題を抱える現場も多いのではないでしょうか。

本セッションでは、Xcode に標準搭載されている DocC と GitHub Pages を活用し、開発コストを抑えつつ、ユーザーにとって“使える”ドキュメントを自動生成・公開する方法を、実例とともに丁寧に解説します。

以下のような構成で、ドキュメント構築の一連の流れを紹介します:

  • /// コメントから始める DocC ドキュメンテーションの基本
  • xcodebuild docbuild による .doccarchive 生成とその仕組み
  • xcrun docc process-archive transform-for-static-hosting を使った静的ホスティング対応
  • GitHub Actions を用いた CI/CD 自動化による公開フローの構築
  • Parameters・Returns・Note・Important などを活かしたリッチな Markdown 記法
  • ユーザー視点で見やすく、保守しやすい構造設計のポイント

これらは、実際に私たちが開発・提供している SDK に DocC を導入し、社内外に向けたドキュメント公開を運用した経験に基づいています。導入時にハマった落とし穴や、記述の最適化ポイントもあわせて共有します。

自社SDKやライブラリをより使いやすく、メンテナンスしやすいものにしたい開発者に向けた、実践的なDocC活用術です。

3
レギュラートーク(40分)

Swift Package × XCFramework でつくるモダンな iOS SDK の構成術と配布戦略

ohayoukenchan ohayoukenchan

本トークでは、iOS SDK を Swift Package Manager(SPM)+ XCFramework によって構成・配布する設計と、その実運用で得た知見を紹介します。

実際に筆者が提供する SDKを題材に、次の観点から掘り下げます:

  • 複数モジュール構成(Core / App / Tracking など)の分離と依存関係の整理
  • ライブラリの再利用性を高めるためのディレクトリ構成と Swift Package の切り方
  • XCFramework による iOS / Simulator 対応
  • BuildTools モジュールを使った SwiftLint / SwiftFormat の一括適用
  • 内部で持つUIライブラリにおけるアセット管理のはまりどころ
  • 「使う側」にとって安全・簡単に導入できる Package の設計原則

「SDK を作る」こと自体が目的ではなく、「チームで再利用できて、組織として持続可能な仕組みを作る」ことがテーマです。

ライブラリ開発初心者はもちろん、「現場で自作 SDK のメンテ地獄に陥ったことがある人」や「SPM の限界を見極めたい人」にとって、ヒント満載の内容となっています。

1
レギュラートーク(20分)

Reduxを活用したイベント駆動UIによる複雑画面の品質向上

ohayoukenchan ohayoukenchan

最近、フルSwiftUIでの画面を提供するSDKをリリースしました。この経験を基に、SwiftUIのStateの更新方法としてReduxを採用しています。Reduxは古いと言われがちですが、私たちは関数型に近いアプローチを採用することで、テストのしやすさや責務の分離を実現しています。

このトークでは、リアルなコード例を通して、ステートマシンの設計方法やテストのしやすさの改善方法、UI/UX向上への具体的な効果について詳しく説明します。例えば、どのようにしてReduxの責務を持つInterfaceを自作し、Swift Testingを活用しているのかを具体的にお話しします。

お話する内容:

Reduxの基本概念と自作Interfaceの設計方法
Swift Testingを用いたテストのしやすさの向上
UI/UXの具体的な改善事例

このセッションを通じて、Reduxを用いたイベント駆動UIの有効性とその可能性について理解を深めていただけることを目指しています。

1
レギュラートーク(20分)

アプリの“速い”を数字で守る―MetricKitとSwift Tracingで体感パフォーマンスを監視する方法

アプリが重いと感じた瞬間にユーザーは離れてしまいますが、ユーザーが感じる「速さ」は、起動時間やフレームレートなど複数指標の複合体になっています。
そのため、本セッションでは「起動は95%のユーザーで1.5秒以内」「画面遷移の97%を120fps以上」といった、体感パフォーマンス目標(SLO)を設定し、

  1. Swift Tracingで操作ごとの処理時間をラベル付け
  2. MetricKitで実機のフレームレートやCPU消費を自動収集
  3. CIテストと本番監視に組み込んで、遅くなった瞬間にリリース前でも後でもアラートが飛ぶ仕組み

を順を追って紹介します。
これにより、翌日から「速さを数字で語れるチーム」に変わるきっかけを提供します。

5
レギュラートーク(20分)

Liquid Glass導入の実践ガイド―既存アプリを壊さず“透過UI”に進化させる7つのパターン

iOS 26で導入された新マテリアル「Liquid Glass」は、透過・屈折・環境光の反射によって奥行きと没入感をもたらします。
しかし実運用には、可読性の低下、端末負荷、アクセシビリティ対応、旧端末サポートなど多岐にわたる課題が伴います。

本セッションでは、以下の7パターンを設計ガイドラインから実装、モニタリングまで体系的に解説します。

  1. Surface Token Mapping―既存レイヤーを3階層に再マッピングし、UIを崩さず第一歩を踏み出す
  2. Depth Blueprinting―Zオーダーを0–4の等高線で設計し、視差と情報設計の両立を図る
  3. GlassEffectContainer Clustering―カード融合・分割を60 fpsで実装する動的レイアウト手法
  4. Adaptive Transparency & Motion―Reduce Transparency/Motion設定と連動した酔わないUIの実装
  5. Performance-First Fallback―A14世代以下でも動作を維持するBlur解像度ダウングレード術
  6. Remote Flag & Phased Roll-out―ABテストとMetricKit監視を組み合わせた安全な段階リリース
  7. Design–Dev Co-Tooling―FigmaプラグインとXcode 26 Glass Previewを用いた往復コストゼロの協業

視聴者は、デザインポリシーとコード例を持ち帰り、翌日から自社プロジェクトでLiquid Glassを安全かつ効果的に適用できるロードマップを描けるようになります。

1
レギュラートーク(20分)

手話ジェスチャーの検知と翻訳~ハンドトラッキングの可能性と限界~

u5_03 Sugiy

手話とは、表情や手の形・動きによって多様な単語や感情を伝える言語です。
私はもともと大学時代に障がい教育の研究をしており、その中で手話にも関心を持ち、「手話を知らない人が、手話に親しみを持つにはどうすればいいか?」と考えていました。

近年テクノロジーの進歩により、Apple プラットフォームでも多様な機能を備えたOSやデバイスが登場しています。今回はその中でもRealityKit によるハンドトラッキングとVisionProを活用して、自分自身の手で表現した手話の単語を検出・翻訳するツールの実装にチャレンジしました。
この発表では、以下のポイントについてデモを交えてお話しします。

  1. 手の関節にマーカーを表示する方法
  2. SpatialTrackingSession を用いたハンドトラッキングの基礎
  3. カスタムジェスチャーの検知手法

現時点のハンドトラッキングでは、手話特有の表現を正確に認識することが難しいケースもありますが、発表ではそのような制約についてもお話しします。

ハンドトラッキング技術に関心のある方はもちろん、手話という言語の多様性や表現力に少しでも興味を持っていただけるような発表を行います。

5