初めてiOSアプリをリリースする際、Deployment InfoのDevicesの選択肢として、「Universal, iPhone, iPad」と3つの選択肢があります。この中で、Universalを選択してリリースしたものの、様々な経緯によりUniversal対応をやめたいときがあります。やめようとしたけど結果的に無理だった話とともに、初回リリース時の選択は気をつけるべきという話をします。
毎日のように新たなアプリが生み出されている昨今。その中からユーザーに選んでもらい、喜んでもらえるのは至難の技です。
そこで、どのようにしたらAppStoreを上手に活用できるのかについて、Appleの開発者の知見をもとに紐解いていきます。
ここ最近の機械学習の波にのってiOS12にもCreate MLというMachine Learning(ML)のフレームワークが使えるようになりました。
また、みなさんおなじみのFirebaseでもML kitというモバイル向けのML サービスがβ版として提供されています。
本トークでは機械学習に興味があるエンジニアを対象に、この2つの機能の特徴を比較していきます
2017年9月、PM1人とiOS/Android Engineer 2人の、計3人の小さな内製アプリチームが社内で立ち上がりました。
アプリ開発に関するノウハウがまったく無い中、日々試行錯誤し、時には社内からの圧力や厳しい意見に揉まれながら、2018年6月にリリースまでたどり着くことができました!
LTではその軌跡と我々のPassionをお伝えできればと思います。
iOS11から、Visionという画像認識フレームワークが利用可能になりました。その中の機能を使えば、iPhoneのカメラで顔を写すことで、リアルタイムで顔の各パーツの動きを取得することができます。それを使えば、ウインクするときゃるんと音が鳴ったり、目と口を見開いた時に爆発音が鳴ったり、そんなアニメの世界みたいなことが簡単に実現できます。そんなお話をしようと思います!
VIPERはiOSアプリ開発において共通の設計パターンの一つになっています。アプリ全体として構造をしっかりと作れる反面、同じような記述を繰り返さなければならないというマイナスの面も持ち合わせています。Genericsを用いることで繰り返しの記述を減らし、よりスッキリとVIPERを使用するための方法をご紹介したいと思います。
AVSpeechSynthesizerは文字列を読み上げてくれる便利なAPIです。
しかし読み方というものは一意に決まりません。
例えば"上手"という文字列をこのAPIは何と読むでしょう?「じょうず」?それとも「うわて」?答えは「かみて」です。
"1kg"は「いちきろぐらむ」ですが"1g"は「いちじー」です。では絵文字を読ませると…?
本LTでは、読ませてみて驚いたものや意図しない読み方をしたものなどを紹介します。
今まで私はMVC、MVPなどいくつかのアーキテクチャを試してきました。その中でもVIPERアーキテクチャが一番しっくりきています。その理由を実際のコードをもとに5分で解説していきます。
・VIPERアーキテクチャの特徴
・View/Interactor/Presenter/Entity/Router それぞれの役割
・Routerによる画面遷移処理の切り出し
みなさんは、Appleが提供している公式のiOSアプリ開発トレーニングをご存知ですか?
アプリ開発を学び始めるにあたり、公式が提供しているものは比較的信頼性が高いと言えます。
「とは言え、トレーニングを受けるにはお金が…」という方のために、実は無料で利用できるAppleのトレーニングコンテンツのお薦めポイントをApple認定トレーナーからご紹介します。
昨今のiOS界隈でも、関連する発表・トークが多い印象のDIについて。
ReactorKitは、RxSwiftをベースにFlux Architectureを実現するためのフレームワークですが、
RxSwiftの恩恵により、イメージよりも手軽に、小回りの効いたDIを組み込むことができます。
今回は、そんなReactorKitにフィットするDIを自作してみましょう。
2015年にFacebookが発表し、じわじわと存在感を増しているGraphQL。
しかしその実績や運用方法などの情報は、未だに充分には浸透していないように思えます。
このトークでは、初めて実案件でGraphQLに触れた経験から、
GraphQLの基本概念、Apollo-iOSとの付き合い方、またサーバーサイドエンジニアとの連携方法など、
(ベストとはいえないまでも)ベターなプラクティスとしてお話しします。
ノンデザイナーのエンジニアが0からデザインをして仮想通貨系のチャートアプリを開発しました。
今回はその使った技術やデザインの仕方など紹介したいと思います。
流行のMVVM+RxSwiftは果たしてこのプロダクトに妥当なのか。
もし、導入していれば・・・
もしあのときやめていれば・・・
Rxを導入した世界線と導入しなかった世界線を渡り歩く男たちの話。
FlutterとはiOS/Androidアプリが作れるマルチプラットフォームフレームワークです。iOSエンジニア向けにFlutter入門の話します。
・Flutter概要
・FlutterでiOSアプリを作る方法
「機械学習を知らなくても機械学習を利用した画像分類をする方法」について伝授します!機械学習するために必要な「学習済みモデル」をAzure Cognitive Services の Custom Vision Services を利用して 教師ありの画像分類モデルを作成し、iOS 端末で画像分類を行います。 機械学習に興味はあるけど自分で勉強する時間はない!といった方へのトークです。
Swiftには実行するメソッドを効率的に決定する機構があります。
しかし、静的型付け言語であるにも関わらず動的に決定せざるを得ないパターンや、finalやprivateなどの修飾子がパフォーマンスに影響するパターンなど、実際にはどのような動きをしているのでしょうか。
このトークではSwiftコンパイラの中からその疑問を紐解いていきます。
Flutterをたくさん触ったのでその知見を下記の観点からお話したいと思います。
・個人開発で使えるか
・ビジネスで使えるか
・これからやり始めるのはまだ早いのか、今から始めるのがベストか
俗に「パンくずリスト」呼ばれる「階層構造での現在位置を上位階層も含めて示したリスト状のUI」をiOSアプリで実現しました。
OSSの選定を行ったところ、多少OSSの改善を行えばプロダクトの用件に適合しそうなことがわかり実装を始めました。
しかし、特定条件でのアニメーションが不自然だったり、特定条件で必ずクラッシュするバグが見つかるなど実際は結構なOSSの改善をしました。
実現までの道筋をストーリー仕立てでお話しします。
CoreMLや Swift for TensorFlow を交えて iOSエンジニアに Deep Learningの楽しさを伝えます!
Wowma!アプリではFirebaseのRemoteConfigを採用しています。使用用途は公式に載っているようなA/Bテストとは違い、お知らせやアップデートの通知という目的で使用しています。
そこで、「RemoteConfigを採用した背景」といったビジネスや運用の側面と「RemoteConfigを実装していく上でつまづいたこと。考えたこと」といった実装の側面の話をしていきます。