開発者にとって、使いやすいSDKドキュメントはプロジェクトの成功に不可欠です。にもかかわらず、ドキュメントの整備や運用には多くのハードルがあり、「後回しになりがち」「仕様と乖離しやすい」「更新が面倒」といった課題を抱える現場も多いのではないでしょうか。
本セッションでは、Xcode に標準搭載されている DocC と GitHub Pages を活用し、開発コストを抑えつつ、ユーザーにとって“使える”ドキュメントを自動生成・公開する方法を、実例とともに丁寧に解説します。
以下のような構成で、ドキュメント構築の一連の流れを紹介します:
これらは、実際に私たちが開発・提供している SDK に DocC を導入し、社内外に向けたドキュメント公開を運用した経験に基づいています。導入時にハマった落とし穴や、記述の最適化ポイントもあわせて共有します。
自社SDKやライブラリをより使いやすく、メンテナンスしやすいものにしたい開発者に向けた、実践的なDocC活用術です。
最近、フルSwiftUIでの画面を提供するSDKをリリースしました。この経験を基に、SwiftUIのStateの更新方法としてReduxを採用しています。Reduxは古いと言われがちですが、私たちは関数型に近いアプローチを採用することで、テストのしやすさや責務の分離を実現しています。
このトークでは、リアルなコード例を通して、ステートマシンの設計方法やテストのしやすさの改善方法、UI/UX向上への具体的な効果について詳しく説明します。例えば、どのようにしてReduxの責務を持つInterfaceを自作し、Swift Testingを活用しているのかを具体的にお話しします。
お話する内容:
Reduxの基本概念と自作Interfaceの設計方法
Swift Testingを用いたテストのしやすさの向上
UI/UXの具体的な改善事例
このセッションを通じて、Reduxを用いたイベント駆動UIの有効性とその可能性について理解を深めていただけることを目指しています。
アプリが重いと感じた瞬間にユーザーは離れてしまいますが、ユーザーが感じる「速さ」は、起動時間やフレームレートなど複数指標の複合体になっています。
そのため、本セッションでは「起動は95%のユーザーで1.5秒以内」「画面遷移の97%を120fps以上」といった、体感パフォーマンス目標(SLO)を設定し、
を順を追って紹介します。
これにより、翌日から「速さを数字で語れるチーム」に変わるきっかけを提供します。
iOS 26で導入された新マテリアル「Liquid Glass」は、透過・屈折・環境光の反射によって奥行きと没入感をもたらします。
しかし実運用には、可読性の低下、端末負荷、アクセシビリティ対応、旧端末サポートなど多岐にわたる課題が伴います。
本セッションでは、以下の7パターンを設計ガイドラインから実装、モニタリングまで体系的に解説します。
視聴者は、デザインポリシーとコード例を持ち帰り、翌日から自社プロジェクトでLiquid Glassを安全かつ効果的に適用できるロードマップを描けるようになります。
皆さんのプロダクトは、Swift 6へのメジャーアップデート、もう対応されましたか?
私たちのチームでは、iOSアプリのSwift6対応を進めようと準備を始めました。
しかし、 そこで直面したのは想像以上に大きな課題でした。
それは、Swift6で新しく導入された「Strict Concurrency Checking」の機能の存在です。
この機能の対応によって、「少しの修正で解決できる」といった簡単な話ではなくなりました。
その結果、私たちは長年使用してきたReactorKitを脱却することを決断します。
このトークでは以下の内容についてお話しします。
これからSwift6対応を検討されている方、ReactorKitを使っている方にとって、きっと共感していただける内容になっています!
Swift Concurrencyは、async/awaitによる非同期処理の簡素化やactorによるデータ競合安全など、私たちに多くの恩恵を与えてくれます。
一方で、「少し使いたいだけなのに、なんだか難しい…」と感じている方もいらっしゃるのではないでしょうか。特に「ただ普通にコードを書いているだけなのに、なぜ警告やエラーが出るのかわからない...」という声をよく耳にします。
Swiftコアチームは、使いやすさを高めるためのビジョンを掲げ、Swift Evolutionのプロセスと独自の機能改善を通じて、これらの悩みを解消しようとしています。先のWWDC25では、この取り組みが「Approachable Concurrency」として紹介されました。
本トークでは、このApproachable Concurrencyについて、主にWWDC25のセッションではあまり語られなかった部分に焦点を当て、以下の内容を深掘りしてお話しします。
本トークを聞くことで、Approachable Concurrencyの意義を理解し、謎の警告やエラーに悩まされる回数を減らし、皆さんがConcurrencyをより「親しみやすく」感じる一助となれば幸いです。
概要
近年のAIの急速な発展により、従来のコマンドベースの入出力と比較して、自然言語による入出力が一般的になり、ユーザーインターフェースは大きく変化しています。言語学習や運転中の操作など、ハンズフリーでの対話が求められる場面や、VisionOSなどでのキーボード入力が困難な場合において、音声インターフェースの重要性が増しています。一方で、実際に音声AIエージェントを実装しようとすると、チャットUIとは異なる固有の技術的課題に直面することになります。本セッションでは、現在開発中のAI英会話アプリでの実体験を通じて、音声インターフェース特有の課題とはまりどころ、およびその解決策を具体的なSwift実装とともに解説します。
話す内容(予定)
話さない内容
SwiftはもともとiOSを中心に発展してきた言語ですが、最近ではその適用範囲が広がり、小型ゲーム機「Playdate」でも活用できるようになりました。
本セッションでは、白黒ディスプレイと物理ボタン、手回しクランクを備えたミニマルなゲーム機「Playdate」を題材に、その開発手法をご紹介します。Appleが新たに公開した「swift-playdate-examples」を活用することで、Swiftを用いてPlaydate向けのゲームを開発する環境が整いつつあります。
開発環境の構築手順を解説し、制約の多いデバイスで直面する独自の課題を取り上げながら、シンプルなゲームを作成するプロセスを共有します。さらに、リソース制限下でのSwift開発に役立つ実践的なヒントをお伝えし、実際にSwiftで制作したPlaydateゲームをデモします。
クリエイティブコーディングやゲーム開発に興味がある方、そしてSwiftの新たな可能性を探りたい方に向けて、iOSアプリの枠を超えたSwiftの魅力を、遊び心あふれる視点でお届けします。
【セッショントピック予定】
「このアプリ、自分に使える?」
そんな問いに応えるのが、WWDC25で発表されたAccessibility Nutrition Labelsです。
これはVoiceOverやSufficient Contrast、Captionsなどに対応しているかどうかが食品の栄養成分表示のようにラベル形式で表示されるもので、ユーザーはアプリのダウンロード前に自分に合ったアプリかどうかを判断できるようになります。
開発者はApp Store Connect上でアプリのアクセシビリティ機能対応状況について登録でき、その内容がAccessibility Nutrition Labelsとして表示されます。
今後このラベル表示は新規アプリやアップデート時に必須化される予定で、Appleは明確な評価基準や申告手順をガイドラインとして公開しています。
たとえばSufficient ContrastはWCAGの推奨コントラスト比(4.5:1以上)を満たしているかなど、項目ごとに具体的な条件が示されています。
このトークでは、Accessibility Nutrition Labelsの概要や各項目の評価基準を整理した上で、iOSアプリでこれらの基準をどのように満たすか、具体的な実装例を交えて紹介します。
VoiceOver対応のための accessibilityLabel や accessibilityHint、Dynamic TypeやReduce Motionといったシステム設定への対応などの実装方法に加え、XcodeのAccessibility Inspectorを活用した検証手法も解説します。
アクセシビリティは一部のユーザーのためだけの機能ではなく、誰もが恩恵を受けられる設計原則です。
このトークを通じて、あなたのアプリの「アクセシビリティ健康診断」を始めてみませんか?
2022年に公開されたApp Intentsですが、皆さんはもう活用されていますでしょうか?
最近のmacOS TahoeではSpotlightからの活用が可能になり、App Intentsの用途は着実に広がっています。しかし、カンファレンスや実際のアプリケーションで話題になることは、まだ少ないと感じます。
本トークでは、まずApp Intentsの概要とその基本的な利用方法を振り返ります。
その後、App Intentsに対応することでAppleエコシステムがどのように発展していくのかを考察します。
現在、MCPやモデル性能における大競争が繰り広げられていますが、Appleファンである我々はAI時代にどのように向き合っていくべきなのでしょうか?
このトークを通じて、その考え方の一例を皆さんと共有できれば幸いです。
2021年、東急株式会社は内製開発組織「URBAN HACKS」を立ち上げました。URBAN HACKSは最初期からモバイルアプリエンジニアを戦略的に採用し、アプリを起点としたDXに取り組んできました。
本セッションでは、iOSDC2022のLT『鉄道アプリを支えるテクノロジー』で紹介した東急線アプリのフルリニューアルの裏側を振り返りながら、「なぜスマホアプリからDXを始めたのか?」という問いを改めて掘り下げていきます。
リニューアルを表面的なアプリの改善だけで終わらせないため、デザインや機能を刷新するだけでなく、それをきっかけにどのように組織のマインドや風土を変革していったのか。現場からDXを駆動させるプロセスと、その中でアプリが果たした役割について、実践を通じて得たリアルな学びを共有します。
「CursorでSwiftコード生成→Xcodeに切り替えてビルド→エラー確認→また戻って...」
AIを活用した開発ツールで効率化したはずなのに、 Xcodeの操作で結局時間を失っていませんか?
実は、AIツールからxcrunコマンドを活用すれば、IDE間の切り替えを減らしつつ開発できます。
本セッションでは、LLM時代の新しい開発フローを実例とともに紹介します。
【解決する課題】
・AIツールとXcodeを頻繁に行き来する煩雑さを解消します。
・GUIからしかできないと思っていた操作をAIに実行させます。
・AIが生成したコードの即座の動作確認ができます。
【実演内容案】
LLM時代を活用する、古くて新しい開発知識を身につけましょう!
Apple Vision Proの登場により、visionOSを活用した新しい空間体験の可能性が大きく広がっています。
中でも注目されているのが、高精度なハンドトラッキングとハンドジェスチャーによる直感的な操作体験です。
ハンドトラッキングを活用すれば、たとえば、手に追従してオブジェクトや情報を表示したり、手だけでスペースシップを操縦することができます。
さらに、ハンドジェスチャーでモンスターを召喚したり、手から魔法を撃つことだってできます!
また、SwiftUIでお馴染みのGestureを使えば、3Dオブジェクトを空間内で移動・回転・拡大縮小させるといった操作も、驚くほど簡単に実現できます。
本トークでは、visionOSにおけるハンドトラッキングとハンドジェスチャーの基礎的なAPIの使い方から、個人開発やハッカソンで実際に作成したアプリの事例を交えながら、実践的な活用法を解説します。
visionOSのハンドトラッキングやハンドジェスチャーを活用して、新しい空間体験を創っていきましょう!
Viewの表示・非表示といった状態変化の際にトランジションによる視覚効果を加えることで、
UIの変化をユーザーに自然に伝えやすくなり、アプリケーションの表現力も大きく向上します。
SwiftUIでは、transitionモディファイアやTransition protocolを使うことでトランジション演出やカスタムトランジションを実現できます。
Built-inのTransitionを用いたり、scaleやoffset、opacityなどを組み合わせるだけでもさまざまな演出を行えますが、
さらにリッチな表現を追求したい場合には、SwiftUIとMetalを組み合わせることで、より多彩な表現が可能となります。
SwiftUIとMetalの連携はiOS 17で登場したcolorEffect、distortionEffect、layerEffectによって実現可能で、
これにより画面が歪む・波紋が広がる・グリッチを加えるなどのダイナミックで印象的な演出を表現できます。
本トークでは、SwiftUIの基本的なトランジションの使い方からカスタムトランジションの作り方、
そしてMetalを用いた多彩なトランジション演出の実現方法まで、デモを交えながら具体的な実装のポイントを紹介します。
トランジションを使いこなしてアプリにさらなる表現をプラスしましょう。
SkipはSwiftとSwiftUIでAndroidアプリも作ることができる技術です。
普段使っている技術だけでAndroidアプリもリリースできたら夢みたいじゃないですか?
しかし、「本当にそんなに簡単にできるの?」と疑問を持つ方もいらっしゃるかもしれません。実際のところ、全てがスムーズに運ぶわけではありません。例えば、馴染みのある技術(Macroなど)が動作しない場合や、サードパーティライブラリが使用できないといった制約があります。
それでも、Skipが提供するライブラリを活用することで、ゼロからある程度動作するアプリを開発し、リリースすることができました。
このセッションでは、Skipの基本的な紹介を行い、そのメリットとデメリットを詳しく解説します。また、開発中に直面した課題についても共有します。
ここではSkipの基礎的な紹介と、メリット・デメリット、開発中にハマった問題などを紹介しつつ、
それでもSwiftでAndroidアプリをリリースしてみたいと考えている方に向けて知見を共有します。
皆さんのプロジェクトには、長年育ててきた巨大でレガシーなUIKitアプリはありませんか?
「新しい技術を導入したいけど、影響範囲が大きすぎる…」「新規画面だけはSwiftUIを取り入れてるけど...」と諦めていませんか?
既存のレガシーなUIKitプロジェクトを抱えながらも、モダンな開発手法を取り入れたいと願うすべてのiOSエンジニアに、既存の資産を活かしたままモダンな設計を取り入れるひとつの解法をご紹介します。
iPhoneやiPad、MacといったApple製デバイスは、年々その処理性能やインテリジェンスの面で進化を遂げています。特に近年では、機械学習や自然言語処理といった技術がOSレベルで統合され、ユーザーごとに最適化された体験を提供できるようになってきました。
こうした流れの中で、AppleはWWDC24において「Apple Intelligence」を発表しました。Apple Intelligenceは、オンデバイス処理を基盤としたプライバシー重視のAIプラットフォームです。Siriの強化やApp Intentsとの連携など、これまで以上にパーソナルで賢い体験を実現する多くの機能が備わっています。
一方で、Apple Intelligenceがユーザー体験を大きく向上させることが期待される中、それをサードパーティアプリにどう活用するかについては、まだ十分に知られていないのが現状です。たとえば、「自分のアプリにAI機能を組み込むには何から始めればよいのか」「ユーザーのプライバシーを守りつつ、どこまで賢い機能を実現できるのか」といった疑問を持つ開発者も多いのではないでしょうか。
このセッションでは、Apple Intelligenceを構成する主要な技術とその応用事例をわかりやすく紹介し、それらを活用してアプリにスマートなユーザー体験を組み込む方法を体系的に解説します。
本セッションを通じて、Apple Intelligenceの可能性を自分のアプリの中でどう活かすか、そのヒントを得ていただければ幸いです。
今日のiOSアプリ開発において、ユーザーに選ばれ続けるには、アプリ内だけでなく、iOSシステム全体にわたるシームレスな連携が不可欠です。本セッションでは、その中でも特にユーザー接点を劇的に増やすShare Extensionに焦点を当て、「共有画面にあなたのアプリを効果的に表示させ、ユーザーの『ひと手間』を省く究極のUX」を創造する方法を探ります。
なぜShare Extensionを徹底活用すべきなのでしょうか?
それは、ユーザーが日常的に行う「共有」という行為の中に、あなたのアプリへの新たな接点と、計り知れない価値提供の機会を創出できるからです。
例えば、ウェブ記事を読んでいて「これ、あのメモアプリに保存したいな」と思った時、ユーザーはアプリを開くことなく、共有シートから直接あなたのメモアプリを選び、URLやテキストを瞬時に保存できるようになります。これは、ユーザーのアプリ間移動の手間を劇的に削減し、アプリへの自然な流入経路を増やし、結果としてユーザーエンゲージメントと継続利用率の向上に直結します。
本セッションでは、私が実際のアプリ開発で培った知見をもとに、Share Extensionの実装における基本的な枠組みから、実運用で直面しがちな技術的課題と解決策を具体的に解説します。
参加者の皆さんが自身のアプリを「ただ動く」だけでなく、「ユーザーが思わず日常的に使いたくなる」「もっといいアプリ」へと進化させるための具体的な実装アイデアと技術的ロードマップを持ち帰っていただけるでしょう。
共有体験を通じて、あなたのアプリがユーザーのデジタルライフに不可欠な存在となる、その第一歩を共に踏み出しましょう。
WWDC23でApple Vision Proと共にSpatial Video / Photo(空間ビデオ・空間写真)が発表されました。
その後、iOS 17.2にてiPhone 15 ProおよびiPhone 15 Pro Maxで空間ビデオの撮影が可能になりました。現在では、さらにiPhone 16 ProおよびiPhone 16 Pro Maxも対応機種に加わり、iOS 18.1以降では空間写真の撮影も可能になっています。
「自分でも撮れる!」と体験した方も多いのではないでしょうか?
しかし、2025年6月現在、空間写真の“立体感”を本当に体感できるのはApple Vision Proが必要です(WWDC25でiOS 26標準のビューワーが発表されましたね)。
本トークでは、「どうにかしてもっと多くの人に空間写真体験を届けたい!」と考え、自作で空間写真ビューワーの開発に挑戦したプロセスとその知見を紹介します。
また、非対応カメラで撮影したデータを空間写真に変換する実験についてもお話しします。
空間写真の技術と未来の可能性に触れたい方や、自分自身で体験を作りたいと考えている皆さんの参考になれば幸いです。