空間コンピューティング
-
WWDC24 -
9:24 USDとMaterialXの新機能
AppleプラットフォームでのUniversal Scene Description(USD)とMaterialXのサポートが向上しました。このセッションで確認しましょう。これらのテクノロジーが、3Dコンテンツの作成と配信の基盤としてどのように機能するか、また、優れた空間体験を作成するためのワークフローをどのように効率化するかについて説明します。RealityKitおよびStormでのUSDとMaterialXのサポート、Appleのシステムに用意されているツールの強化点などもご紹介します。
-
21:18 visionOS向けエンタープライズAPIのご紹介
visionOS向けの新しいエンタープライズAPIを使用して、Apple Vision Proで従業員やユーザーの生産性を高める空間体験を創出する方法を学びましょう。
-
23:13 SwiftUIの新機能
SwiftUIを活用し、あらゆるAppleプラットフォームで優れたアプリを構築する方法を学びましょう。デザインと操作感が刷新されたiPadOSのタブとドキュメントのほか、ウインドウ操作のための新しいAPIでウインドウ管理を向上させる方法や、visionOSアプリでイマーシブな空間とボリュームをより高度に制御する方法もご紹介します。充実した情報を表現できる表の作成、テキストのカスタマイズとレイアウトなど、幅広い注目の機能強化に関する情報も得られます。
-
15:09 ARKitを活用したより高度な空間コンピューティング体験の創出
ARKitの最新機能を使用して、魅力的なイマーシブ体験を作成する方法をご紹介します。部屋のトラッキングとオブジェクトトラッキングを使用し、周囲とよりスムーズに連携させる方法をご確認いただけます。このプラットフォームで利用できる、周囲の照明の変化に応じてアプリを調整する機能もご紹介します。強化されたハンドトラッキングと平面検出機能もご紹介します。これらの機能を使用すると、より直感的な空間体験を実現できます。
-
31:31 iOS、macOS、visionOS向けRealityKit APIの紹介
RealityKitの新しいクロスプラットフォームAPIを使用し、iOS、macOS、visionOS向けのイマーシブなアプリを構築する方法を説明します。ホバーエフェクト、光と影、ポータルクロッシングなどの新機能を取り上げ、実際のアプリでの利用例をご紹介します。
-
17:26 カスタム環境でのよりイマーシブなメディア視聴体験の実現
Docking Region、Reverb、Virtual Environment ProbeなどのReality Composer Proのコンポーネントを使用して、メディア視聴体験を拡張できます。Reflections、Tint Surroundings Effect、SharePlay、Immersive Environment Pickerを活用して、よりイマーシブな体験を実現する方法を確認しましょう。
-
17:01 visionOSにおけるオブジェクトトラッキングの詳細
実世界のオブジェクトをvisionOSアプリ内の仮想アンカーに変換する、オブジェクトトラッキングの使用方法を説明します。オブジェクトトラッキングを使用して空間体験を構築するプロセスの全体を学ぶことができます。Create MLでの機械学習を使用して参照オブジェクトを作成し、Reality Composer Pro、RealityKit、ARKit APIのターゲットオブジェクトに関連するコンテンツをアタッチする方法もご紹介します。
-
20:48 visionOSにおけるインタラクティブな体験のデザイン
Apple Vision Pro向けの魅力的かつインタラクティブなストーリーをデザインする方法について、Encounter Dinosaursのデザイナーが説明します。これらの体験が既存のアプリ、メディア、ゲームとどのように異なるかを確認し、ユーザーを新たな世界へいざなう物語のデザイン方法を学ぶことができます。あらゆる広さのあらゆる空間に適応するストーリーを作成する方法、複数のレベルのインタラクティブ機能を用意し、すべてのユーザーがアクセスできるようにする方法、アニメーション、空間オーディオ、カスタムジェスチャを使用してよりイマーシブな体験を実現する方法についても解説します。
-
24:10 RealityKitデバッガの詳細
RealityKitデバッガについて説明します。この新しいツールを使用して、空間アプリのエンティティ階層を検査する方法、不適切な変換をデバッグし、欠落したエンティティを特定する方法、コードのどの部分が原因でシステムに問題が生じているかを突き止める方法を確認しましょう。
-
18:42 iOS/iPadOSゲームのvisionOSへの展開
iOS/iPadOS向けゲームをvisionOSに展開し、比類のない体験を実現する方法をご紹介します。3Dフレームやイマーシブな背景を追加すると、臨場感やワクワク感が高まります。立体視機能やヘッドトラッキングを利用してウインドウに奥行きを持たせ、プレイヤーをゲームの世界にいざないましょう。
-
12:29 visionOSでのHealthKitの導入
HealthKitを使用して空間キャンバスのメリットを存分に活かした体験を創出する方法を確認しましょう。Appleプラットフォーム上でHealthKitが提供する機能、既存のIPadOSアプリをvisionOSに展開する方法、ゲストユーザーのセッション中にHealthKitに関して特に注意すべき事項を解説します。また、SwiftUI、Swift Charts、Swiftの並行処理を利用してHealthKitで革新的な体験を実現する方法もご紹介します。
-
11:31 Object Captureのエリアモードの紹介
Object Captureのエリアモードは、Object Captureの機能を拡張してエリアのキャプチャと再構成をサポートすることで、iOS上で新しい3Dキャプチャ機能を利用できるようにします。再構成用の新しいmacOSサンプルアプリを使用して、iOSキャプチャの質を最適化する方法を説明します。また、Apple Vision Pro、iPhone、iPad、Macで、Quick Lookを使用して最終結果を確認する方法もご紹介します。独自のイメージ処理パイプラインを作成できる新しいAPIなど、強化された3D再構成の機能も見ていきます。
-
16:40 visionOSにおけるカスタムホバーエフェクトの作成
ユーザーが表示中のビューを更新する、カスタムホバーエフェクトの作成方法について説明します。透明度、スケール、クリップのエフェクトを組み合わせて拡張ボタンエフェクトを構築する方法を確認しましょう。使いやすく、アクセシビリティに対するユーザーのニーズを考慮したエフェクトを作成するためのベストプラクティスもご紹介します。
-
14:24 visionOS向けQuick Lookの新機能
アプリでファイルのプレビューや編集を手早く行える、visionOSのQuick Lookについて説明します。アプリ内およびウインドウに表示されるQuick Lookの統合や、アプリでウインドウに表示されるQuick Look体験をカスタマイズするまったく新しいAPIもご紹介します。Quick Look内に3Dモデルを表示する最新の機能強化も取り上げます。
-
12:55 SwiftUIでのウインドウの操作
visionOS、macOS、iPadOSで、シングルウインドウとマルチウインドウの優れたアプリを構築する方法を学びましょう。ウインドウを開く/閉じる操作をプログラムで実行したり、位置やサイズを調整したり、ウインドウを別のウインドウと交換したりできるツールをご紹介します。また、ユーザーが各自のワークフロー内でアプリを使用しやすいウインドウを実現するための、デザインの原則についても確認します。
-
22:13 空間コンピューティング向けに3Dアセットを最適化
3Dアセットの作成を最適化するエンドツーエンドのワークフローを詳細に検討します。デジタルコンテンツ作成ツールのメッシュ、マテリアル、テクスチャを最適化するためのベストプラクティスを学べます。Shader Graph、ベイク処理、マテリアルインスタンスを使いこなして、3Dシーンを向上させつつパフォーマンスを最適化する方法をご紹介します。ネイティブツールを利用すれば、アセットをより効果的に作成してアプリのパフォーマンスを強化できます。
-
16:22 visionOSにおけるゲームでの入力の詳細
visionOSのゲームで優れた入力をデザインし実装する方法を学ぶセッションです。システムのジェスチャを利用して、プレイヤーとゲームの間のインタラクションをスムーズにする方法を解説します。また、カスタムジェスチャとゲームコントローラをサポートする際のベストプラクティスもご紹介します。
-
26:16 WebXRによるイマーシブなWeb体験の構築
WebXRを使用して、visionOSのWebサイトにフルイマーシブ体験を追加する方法をご紹介します。visionOSの入力機能をフルに活用するWebXR体験を構築する方法や、シミュレータを使用してmacOS上でWebXR体験をテストする方法を説明します。
-
16:39 visionOS向けTabletopKitについて
TabletopKitを使用してvisionOS向けのボードゲームをゼロから構築しましょう。ゲームをセットアップする方法、RealityKitを活用して強力なレンダリングを追加する方法や、FaceTimeの空間Personaを使用したマルチプレイヤーでのプレイをコードを数行追加するだけで実現する方法をご紹介します。
-
32:17 ボリュームとイマーシブな空間の詳細
visionOSでボリュームとイマーシブな空間をカスタマイズするための、新しいパワフルな方法をご紹介します。ボリュームのサイズ変更の方法を微調整し、ボリュームを周囲のユーザーの移動に反応させる方法を習得できます。座標変換を活用することで、ボリュームやイマーシブな空間とのインタラクションが可能になります。ユーザーがDigital Crownでイマーシブな体験を調整した際にアプリを反応させる方法と、サラウンドエフェクトを使用して、イマーシブな空間体験でのパススルーの色合いを動的にカスタマイズする方法をご紹介します。
-
14:02 visionOSにおけるマルチビュービデオ再生の詳細
Apple Vision Proで複数のビデオの再生を可能にする、AVExperienceControllerの仕組みを解説します。導入の際のベストプラクティスに加え、異なる角度からのスポーツ映像配信や複数の試合の同時視聴などの高価値なユースケースについて確認しましょう。さらに、アプリ内での魅力的で直感的なマルチビュー体験をデザインする方法もご紹介します。
-
32:25 RealityKitによる空間描画アプリの構築
空間描画アプリの構築プロセスで、RealityKitを使いこなしましょう。RealityKitとARKitおよびSwiftUIの統合により生まれる、印象的で魅力的な空間体験の構築について、RealityKitにおいてリソースが動作する仕組みや、ユーザーのブラシの線の更新を高速化する低レベルのメッシュおよびテクスチャのAPIなどの機能を使用する方法を解説します。
-
19:03 優れたvisionOSアプリのデザイン
イマーシブな体験を取り入れ、視線と手によるインタラクションをデザインし、奥行き、スケール、空間を利用して、魅力的な空間コンピューティングアプリを作成する方法を説明します。素晴らしいvisionOSアプリの例をいくつか紹介し、それらのデザイナーがどのようなアプローチでvisionOSプラットフォーム向けの新しい体験を構築したかを見ていきます。
-
9:27 visionOSにおけるイマーシブなアプリ開発のためのカスタム環境の構築
高品質なビジュアルと強力なパフォーマンスを提供する、Apple Vision Pro向けのカスタマイズされたアプリ環境を構築する方法について解説します。デザインに関するガイドラインやエキスパートの推奨事項を知るとともに、イマーシブな環境の構築を始める際に、どのデジタルコンテンツ作成ツールでも応用できる手法も学べます。
-
21:52 魅力的な空間写真と空間ビデオの作成
空間写真と空間ビデオをアプリに取り入れる方法について説明します。さまざまなタイプのステレオスコピック(立体)メディアを紹介し、iPhone 15 Pro上のiOSアプリに空間ビデオを取り入れる方法を解説します。visionOSの新しいQuickLook Preview Application APIなど、空間メディアを検知して表示するためのさまざまな方法を確認しましょう。写真やビデオを空間対応にするメタデータとステレオの概念についても詳しく説明します。
-
20:09 空間Webの最適化
Web上でvisionOSの機能を最大限に活用する方法を学びましょう。選択した対象をハイライト表示する機能の改善や、空間写真およびパノラマ画像をフルスクリーンで表示する機能など、最新のアップデートを紹介します。既存のWeb標準を利用して、WebSpeechによる音声入力やテキスト読み上げ、WebAudioによる空間サウンドスケープの作成、WebXRによるイマーシブな体験を実現する方法について知ることができます。
-
23:20 RealityKitオーディオで空間コンピューティングアプリの質を向上
RealityKitオーディオを使用して、空間コンピューティング体験を向上させましょう。空間オーディオにより、イマーシブな3D体験がどのように実現されるかをご紹介します。環境音やリバーブから、3Dコンテンツに個性を加えるリアルタイムの音声手順ガイドまで、アプリをより魅力的にするRealityKitオーディオAPIについて詳しく説明します。
-
19:54 visionOSでのパススルーによるMetalのレンダリング
Metalの利用体験をvisionOSへと拡張しましょう。レンダリングしたコンテンツを、パススルーを利用してユーザーの物理環境に統合する際のベストプラクティスをご紹介します。レンダリングしたコンテンツを物理世界と一致するように配置する、トラッキング可能なアンカー予測で遅延を抑制するなど、さまざまなことを実現する方法を学べます。
-
34:36 Reality Composer Proにおけるインタラクティブな3Dコンテンツの作成
3Dコンテンツに生命を吹き込む、Reality Composer ProのTimelineビューについて解説します。インバースキネマティクス、ブレンドシェイプ、スケルトンポーズを使用して、キャラクターやオブジェクトが互いにやり取りしたり、それらを取り巻く世界と関わったりするアニメーションストーリーを作成する方法をご紹介します。組み込みのカスタムアクションの使用方法、アクションシーケンスの作成方法、トリガーの適用方法、自然な動きの実装方法についても説明します。
-
36:26 SharePlayでの空間Personaテンプレートのカスタマイズ
visionOSのSharePlay体験で空間Personaのカスタムテンプレートを使用し、アプリに応じてPersonaの配置を微調整する方法を確認しましょう。サンプルアプリでSharePlayを使用して、空間Personaのカスタムテンプレートを導入する方法、シート間で参加者を移動する方法、シミュレータで変更をテストする方法を説明します。体験の魅力を高めるカスタム空間テンプレートをデザインするためのベストプラクティスもご紹介します。
-
-
WWDC23 -
16:26 空間的なSharePlay体験の設計
visionOSアプリで作成できる共有アクティビティの種類を探索し、Spatial Personaテンプレートを使用しユーザー間が皆さんのアプリで意義のあるやり取り行うためにサポートする方法を紹介します。共有コンテキストに関するUIの設計方法、共有アクティビティの没入型コンテンツへの対応方法などを学びましょう。
-
12:03 iPadおよびiPhoneアプリの共有スペース向けの機能強化
Shared SpaceのためにiPadとiPhoneアプリを充実させましょう!visionOSでの体験を向上させる方法をお見せし、Designed for iPadアプリにおけるインタラクション、視覚処置とメディアを探求します。
-
24:11 空間コンピューティング向けのARKitについて
ARKitのトラッキングとシーン認識機能を活用して、まったく新しいイマーシブなアプリやゲームの世界を創り出す方法について解説します。visionOSとARKitの連携により、プライバシーを守りながらユーザーの周囲を認識するアプリを作成するのにどのように役立つかについてご確認ください。ARKit APIの最新情報を入手し、アプリのハンドトラッキングとシーンジオメトリを活用する方法についてのデモンストレーションを行います。
-
20:05 iOSのObject Captureについて
iOSアプリで直接エンドツーエンドのObject Capture体験を提供し、ユーザーがオブジェクトをすぐに使える3Dモデルに変換できるようにする方法を紹介します。サンプルアプリを使用して、完全に自動化されたObject Captureのスキャンフローを作成する方法と、モデルに最適なコンテンツを自動的にキャプチャする方法をご紹介します。また、LiDARデータの解説やオブジェクトをスキャンするためのベストプラクティスも共有します。
-
14:17 Shared SpaceにおけるiPadとiPhoneアプリの実行
既存のiPadやiPhoneのアプリはVision Proでも実行できます。iPadOSやiOSがこのプラットフォームでどの様に動作するのか、Desinged for iPadについて学びましょう。そして、みなさんのアプリをvisionOSで強化するのに利用可能なパスを見ていきましょう。
-
25:51 アクセシブルな空間体験の実現
誰にとっても使いやすい、空間コンピューティングアプリを作成する方法を紹介します。すべてのAppleプラットフォームと同様に、visionOSはアクセシビリティを考慮してデザインされています。VoiceOverやポインタコントロールのような支援技術を再構築し、滞留コントロールなどの機能をデザインすることで、どのように人々が最適な方法でインタラクションを行えるかについて解説します。視覚、運動、認知、聴覚のアクセシビリティに関するベストプラクティスを学び、visionOSのイマーシブな体験を誰でも楽しめるようにしましょう。
-
31:08 はじめてのイマーシブなアプリの開発
XcodeとReality Composer Proを使用して、visionOS用アプリを作成する方法を紹介します。新規visionOSプロジェクトを開始する方法、SwiftUI開発にXcode Previewsを使用する方法、RealityKitとRealityViewを活用して3Dコンテンツをレンダリングする方法を紹介します。
-
16:59 空間コンピューティングにおけるレンダリングの詳細
RealityKitレンダリングでvision OSにおけるアプリとゲームの外観や感触を向上させましょう。コンテンツの照明をカスタマイズし、grounding shadowsを足し、tone mappingを制御する方法を学びます。またこのプラットフォームにおける2つの鍵となる処置のベストプラクティス"rasterization rate maps"と"dynamic content scaling"をご紹介します。
-
23:53 SwiftUIでウインドウを超える
スペースを起動する準備をしましょう。- visionOSでのイマーシブな体験の創造をお手伝いする新しいSwiftUIシーンタイプを探求します。ImmersiveSpaceで新しいシーンを作成し、3Dコンテンツを配置、そしてRealityViewを統合する方法をご紹介します。immersionStyleシーン修飾子でアプリのイマージョンレベルを増加させる方法を探求し、スペースの管理、ARKitのvirtual handsの追加、SharePlayサポートの追加、そしてこの世のものとは思えない体験を構築するベストプラクティスを探求します。
-
13:57 すばらしい空間再生体験の構築
visionOSアプリで動画をサポートしましょう!動画再生を強化するフレームワークとAPIについて紹介し、3Dコンテンツをアプリで再生できるようにアップデートする方法について解説します。また、再生機能をカスタマイズして、よりイマーシブな視聴体験を作成するためのヒントを紹介します。
-
11:24 空間コンピューティングのためのQuick Look
visionOSのQuick Lookを使って、3Dコンテンツや、空間画像、および空間動画などのパワフルなプレビューを実現する方法について確認しましょう。これらの体験をシステムで実現する上での様々な方法について解説し、Quick LookのコンテンツをアプリからWebサイトにドラッグアンドドロップし、そのコンテンツで別のウインドウを作成する方法を実践し、またアプリ内で直接Quick Lookを表示する方法について解説します。
-
22:05 Quick Lookによる空間体験のための3Dモデルの作成
visionOSにおけるQuick Lookに向けた3Dコンテンツを作成する上でのベストプラクティスを紹介します。Quick Look向けにモデルを準備するいくつかの異なる方法について検討し、3D品質とパフォーマンスに関する重要な考慮事項を取り上げ、Reality Composer ProとReality Traceを使用してコンテンツを検査し、微調整する方法を解説します。
-
15:56 空間コンピューティングのためのウインドウ表示型アプリの向上
マルチプラットフォームSwiftUIアプリをvisionOSと共有スペースで展開する方法を学びましょう。既存アプリのインストール先にvisionOSを追加し、Simulatorでアプリを確認する方法を紹介します。どのようにSwiftUIコードが自動調整してvisionOSのユニークなコンテキストと表示をサポートするかについて説明します。また、カスタムビューをアップデートしアプリのUIを改善させ、このプラットフォームに特有の機能とコントロールを追加する方法についても確認しましょう。
-
14:26 USDエコシステムの詳細
AppleプラットフォームにおけるUniversal Scene Description(USD)の最新アップデートについて確認し、みなさんのアプリやゲーム、Webサイトで素晴らしい3Dコンテンツを展開する方法について学びましょう。visionOS向けのUSDに対する理解を深め、MaterialXシェーダーやカラーマネジメント、USDエコシステム、そしてその他の改善点について確認していきます。
-
20:04 空間入力のためのデザイン
視線と手のためのすばらしいインタラクションをデザインする方法について確認しましょう。空間入力のデザインに関する原則を紹介し、入力方法についてのベストプラクティスを解説します。さらに、快適かつ直感的で、満足する空間体験を創造するためのお手伝いをします。
-
24:31 空間的なSharePlay体験の構築
GroupActivitiesフレームワークを使って、visionOSのための独自の共有コラボレーション体験を作成する方法を見ていきます。このプラットフォームにおけるSharePlayを紹介し、まるで同じ空間にいるような存在感を人々に与える体験をどのように作成するかを学びます。その上で、イマーシブなアプリが参加者間での共有コンテンツを体験する方法についてお話しします。
-
22:41 空間ユーザーインターフェイスのためのデザイン
空間コンピューティングアプリのためのインターフェイスデザイン方法を学びましょう。二次元ベースの既存の知識を使って、visionOSでも素晴らしい体験を構築する方法を紹介します。UI要素やマテリアル、タイポグラフィー、そして読みやすく使いやすい体験をデザインする方法を発見しましょう。
-
15:46 イマーシブなUnityアプリの制作
Unityを使って、魅力的なvisionOSの没入体験を作成する方法を見ていきます。UnityがAppleのフレームワークと切れ目無く統合する様子を確認しつつ、プラットフォーム専用に作成できるツールについて説明し、ボリュームカメラがどの様に既存のシーンをvisionOSのウィンドウやボリュームやスペースに送り込めるのかを見ていきます。パススルーやシーン理解などのvisionOS機能を組み込んで、Shader Graphでビジュアルをカスタマイズし、インタラクションが空間的インプットと一緒に機能するように調整る方法を学びましょう。
-
21:35 空間デザインの原則
このセッションでは、空間デザインの原則を紹介します。奥行き、スケール、ウインドウ、イマーシブ体験などをデザインする方法、そして人を中心に据え快適性を追求し、現実感を変革する体験を提供するためのベストプラクティスを確認しましょう。空間デザインの原則を使って、既存のアプリを拡張したり、新しいアイデアを現実にする方法を見つけましょう。
-
20:57 RealityKit Traceについて
RealityKit Traceを使用して空間コンピューティングアプリのパフォーマンスを向上させる方法を確認しましょう。このプラットフォームのパフォーマンスプロファイリングに関するガイダンスと、RealityKit Traceテンプレートを使ってアプリのレンダリングを最適化する方法を学びます。また、アプリ内のさまざまなタイプのコンテンツをプロファイリングして、パフォーマンスの問題を特定するためのガイダンスも紹介します。
-
20:51 イマーシブアプリのためのMetal
イマーシブアプリのためのMetalMetalを使って、visionOSでフルイマーシブ体験をレンダリングする方法について確認しましょう。プラットフォーム上でのレンダリングセッションの設定方法や、基本的なレンダーループの作成方法、そして空間インプットを組み込むことでインタラクティブな体験を生み出す方法について紹介します。
-
16:30 空間体験向けの動画コンテンツの配信
HTTP Live Streaming (HLS) を使用してvisionOS向けの動画コンテンツを作成・配信する方法を確認しましょう。メディア向けの最新のHLS配信プロセスについて掘り下げ、3Dコンテンツをサポートするための配信パイプラインを拡大する方法について解説します。空間メディアのストリーミングや3Dに既存のキャプション生成ワークフローを導入するためのヒントやテクニックなどの最新情報を確認しましょう。また、動画バリアントにわたってオーディオトラックを共有し、動画コンテンツをよりイマーシブにするための空間オーディオを追加する方法をご確認ください。
-
15:10 UnityのVRアプリのフルイマーシブ空間への展開
既存のUnity VRアプリとゲームをviisionOSにどう移植するかご紹介します。取り掛かるためのワークフローを探求しUnity Input Systemでどのように目と手のためのアプリとゲームを作成するかお見せします。UnityのXR Interaction ToolKit、Foveatedレンダリング、そしてベストプラクティスを学びます。
-
20:41 RealityKitによる空間コンピューティンングアプリの拡張
RealityKitを使い、ウインドウの枠を超えて魅力的でイマーシブな3Dコンテンツを実現する方法を学びましょう。SwiftUIシーンとRealityViewの連携機能や、コンテンツをエンティティ階層に埋め込む方法について紹介します。また、アンカーを使って仮想コンテンツと実世界をブレンドさせたり、アプリにパーティクルエフェクトを取り入れたり、動画コンテンツを追加したり、ポータルでよりイマーシブな体験を作成する方法についても説明します。
-
27:32 RealityKitを使用した空間体験の構築
RealityKitがアプリに新しい局面をもたらす方法についてご覧ください。RealityKitエンティティ、コンポーネント、システムから始めて、3Dモデルと効果をvisionOSのアプリに追加する方法を学びましょう。また、RealityView APIについて説明し、3Dオブジェクトをウィンドウ、量、空間に追加してより没入感のあるアプリを作成する方法を紹介します。また、RealityKitと空間入力、アニメーション、空間オーディオを組み合わせる方法についても説明します。
-
19:30 3次元におけるSwiftUI
visionOSアプリに深さと次元を足す準備をしましょう。ボリュームでアプリに3次元オブジェクトを持ち込む方法を発見し、Model 3D APIについて知り、コンテンツを配置し動的にする方法を学びます。またRealityViewでのUIアタッチメントの使用方法とコンテンツのジェスチャーのサポート方法をご紹介します。
-
25:39 UIKitにおける空間コンピューティングの概要
UIKitアプリをvisionOSで展開する方法を学びましょう。新しい実行先でビルドする方法、空間コンピューティング向けAPIの紹介とそのベストプラクティス、visionOSのUIKitでSwiftUIを使用したコンテンツを3次元に対応させる方法を解説します。
-
29:16 空間コンピューティングのためのアプリのパワーと性能の最適化
性能と効率を最適化しvisionOSのためのパワフルなアプリやゲームをどう作れるか学びます。このプラットフォームのユニークなパワー特徴をカバーし、性能プランの構築を探求、そしてアプリをテストし最適化するためのツールや手段を説明します。
-
22:30 RoomPlanにおける機能強化の詳細
RoomPlanのエキサイティングなアップデートをご確認ください。より詳細にエリアをスキャンし、複数の部屋をキャプチャし、個々のスキャンを1つの大きな構造物にマージする方法について解説します。また、RoomPlanの結果を既存の3Dモデルライブラリに統合する際のワークフローやベストプラクティスについても紹介します。
-
10:41 空間コンピューティングにおけるCore Locationの概要
Core Locationがどのようにアプリの現在地を見つけるのに役立つかを見ていきます。プライバシーを尊重しながら、人の位置情報を利用する空間コンピューティングのアプリを構築する方法をご紹介します。また、アプリが位置情報へのアクセスを要求する方法や、Core Locationが互換性のあるiPadやiPhoneアプリからの要求をどのように適応させるかについても学びます。
-
21:12 Reality Composer Proについて
Reality Composer Proを使えば、3Dコンテンツの作成、編集、プレビューをとても簡単に行うことができます。新たなプロジェクトの設定、シーンの作成、パーティクルエミッターとオーディオの追加、そしてデバイスでのコンテンツのプレビューまで、このデベロッパツールを使ってその便利さをお見せしていきます。Reality Composer Proの基本的な機能を把握したら、「Reality Composer Proにおけるマテリアルの詳細」と「Reality Composer ProコンテンツのXcodeでの使用」で、高度なテクニックやヒントをご確認ください。
-
20:14 Reality Composer Proにおけるマテリアルの詳細
RealityKitマテリアルを使用して3Dオブジェクトの見た目を変更するためのReality Composer Proの機能を紹介します。MaterialXと物理ベース(PBR)シェーダを紹介し、シェーダグラフエディタを使ってダイナミックなマテリアルをデザインする方法を解説し、マテリアルにカスタム入力を追加してvisionOSアプリでコントロールできるようにします。 このセッションを最大限に活用するには、まず「Reality Composer...
-
12:22 空間コンピューティングに向けたApp Store Connectの利用方法
App Store Connectでは、App Storeに配信するvisionOSアプリのテスト、提出、管理に必要なツールが提供されています。初めての空間コンピューティングアプリを配信するための基本事項とベストプラクティスを確認しましょう。visionOSへの対応を既存アプリに追加する方法や、互換性を管理する方法についても説明します。さらに、visionOS向けのTestFlightでアプリをテストする方法や、イテレーションを繰り返す中で有意義なフィードバックを得る方法についても紹介します。
-
32:49 プライバシーの新機能
Appleでは、プライバシーは基本的人権であると考えています。Appleプラットフォームの新しいテクノロジーを使えば、アプリでユーザーの信頼を得るための根本的なプライバシー保護を実装することは非常に簡単です。Appleプラットフォームのプライバシーのさまざまな改善点、およびプライバシーの柱がvisionOSの入力モデルのソフトウェアアーキテクチャやデザインをどのように形作ったのかについても紹介します。
-
14:59 AirPodsによるアプリケーションのオーディオ体験の向上
AirPodsを使用して、みなさんのアプリでどのように革新的なオーディオ体験を作成できるかをご確認ください。AirPodsの自動スイッチングを組み込む方法、AVAudioApplicationを使用してミュートコントロールをサポートする方法、アプリやゲームでイマーシブなサウンドスケープを作成するために空間オーディオを活用する方法について確認していきます。
-
14:33 イマーシブなサウンドデザインの詳細
サウンドを使ってvisionOSアプリやゲームの体験を向上させる方法を紹介します。Appleのデザイナーがどのようにサウンドを選択し、サウンドスケープを構築して、質感がありイマーシブな体験を作り出しているかを紹介します。オーディオキューを空間的に配置したり、繰り返しのサウンドに変化をつけたり、アプリにサウンドの楽しさを組み込むことで、アプリの基本的なインタラクションをサウンドで豊かにする方法を解説します。
-
18:26 空間コンピューティング向けのゲーム開発
visionOSで素晴らしいゲーム体験を開発する方法を紹介します。このプラットフォームにおけるゲーム開発の基本的な要素を解説し、イマーシブ体験の異なるレベルをスムーズに移行する方法や、ARKit、RealityKit、Reality Composer Pro、Unity、Metalおよび Compositorの可能性を探るためのロードマップを共有します。
-
34:15 Reality Composer ProコンテンツのXcodeでの使用
Reality Composer ProのコンテンツをXcodeに持ち込む方法を確認しましょう。Xcodeに3Dシーンをロードし、コンテンツとコードを統合し、アプリにインタラクティブ性を追加する方法を紹介します。また、開発ワークフローでこれらのツールを一緒に使用するためのベストプラクティスとヒントについても共有します。 このセッションを最大限に活用するためには、まず「Reality Composer Proについて」と「Reality Composer Proにおけるマテリアルの詳細」を見て、3Dシーンの作成について確認することをお勧めします。
-
31:55 空間コンピューティング向けのアプリ構築のための準備
visionOS用のアプリやゲームを開発する準備を始めましょう。空間コンピューティングを構成する基本的な要素であるウインドウ、ボリューム、スペースについて解説し、これらの要素を使って魅力的でイマーシブな体験を構築する方法を紹介します。
-
27:41 ARKitアプリを空間体験向けに進化させる方法
アプリのAR体験をvisionOSに持ち込む方法について確認しましょう。ARKitとRealityKitが空間コンピューティングのためにどう進化したのかを確認し、iPadOSやiOSからアプリを持ち込むための概念的な変更やAPIの変更に焦点を当てます。また、このプラットフォームにみなさんのAR体験を持ち込むための更なる詳細を扱ったセッションについても紹介します。
-
25:59 SwiftUIにおける空間コンピューティングの概要
太陽系をツアーしながらSwiftUIでvisionOSを探求しましょう。ウインドウ、ボリューム、スペースを通じてまったく新しいアプリの世界を創造する方法を紹介します。天文学アプリを作成しながら、3Dコンテンツを追加し人々を宇宙へといざなうイマーシブな体験を創造して、このプラットフォームでのSwiftUIの使い方を学びます。
-
15:10 視覚と動きのデザインに関する考慮事項
人間の視覚と動きの知覚の限界を尊重し、visionOS向けに魅力的なイマーシブ体験をデザインする方法について確認しましょう。奥行き、コントラスト、フォーカス、モーションを使ってユーザーがアプリやゲームを快適に楽しめる方法を紹介します。
-
-
WWDC22 -
26:00 自分の世界を拡張現実に
Object CaptureやRealityKitを使用して、現実世界のオブジェクトを拡張現実ゲームに取り込む方法を紹介します。さらに、Object Captureフレームワークで詳細なアイテムをキャプチャしたり、これらをXcodeのRealityKitプロジェクトに追加したり、定型化されたシェーダやアニメーションを適用したり、ARエクスペリエンスの一部としてこれらを使用したりする方法を紹介します。また、ARKit、RealityKit、Object Captureと連携させる際のベストプラクティスも紹介します。 このセッションを最大限に活用するには、WWDC21の「RealityKit...
-
16:29 RoomPlanによるパラメトリックな3Dルームスキャンの作成
RoomPlanを使用すると、Appで簡単にパラメトリックな3Dルームスキャンを作成できるようになります。このAPIを使って、部屋のスキャン体験を簡単に実現する方法をご確認ください。このAPIを組み込む方法、3Dのパラメトリックな出力、Appで優れた結果を得るためのベストプラクティスについても紹介します。
-
13:20 優れたARエクスペリエンスの品質
iPhoneやiPadの魅力的なARエクスペリエンスをもたらすベストプラクティスやテクニックをご確認ください。ARが自分の環境に適しているかどうかを判断するためのガイダンスをはじめ、優れたAR Appの事例や拡張現実を設計する際の主な考慮事項について解説します。
-
22:21 USDツールとレンダリングに関する詳細
Universal Scene Description(USD)アセットの生成、検査、変換に役立つ最新ツールがどこまで進化したかご確認ください。これらのツールの最新情報について解説し、これによりご利用のコンテンツ作成パイプラインに統合することもできるようになります。また、USD Hydraレンダリングの機能や、ご利用のAppへの統合方法も紹介します。 USDの導入については、WWDC22の「USDの基礎の理解」をご確認ください。
-
18:15 USDの基礎の理解
PixarのUniversal Scene Description(USD)の原理をはじめ、これにより優れた3Dアセットやワークフローを構築する仕組みをご確認ください。USDを支える中心概念をはじめ、フォーマットをコンテンツ作成パイプラインに統合する方法について解説します。また、構成を利用したUSD機能で、柔軟性と汎用性に優れたアセットを作成する方法も紹介します。
-
19:27 ARKit 6について
ARKit 6を使用して、強力で洗練された拡張現実Appを構築する方法をご確認ください。4K HDRでレンダリングされたARエクスペリエンスを生み出す方法や、Appのカメラ設定のカスタマイズ方法について解説します。また、ARKitセッションから高解像度の静止画をエクスポートする方法、平面推定やモーションキャプチャの活用方法、新しい地域でARロケーションアンカーを追加する方法も紹介します。
-
-
WWDC21 -
15:07 ShazamKitの詳細
ShazamKitを使用すると、App内でShazamの正確なオーディオマッチング機能を利用できます。膨大なShazamカタログを利用して、Appで撮影したビデオのバックグラウンドで再生されている正確な曲をすばやく認識したり、部屋で再生されている音楽に基づいてダイナミックな視覚効果を提供したり、外部のオーディオと同期するコンパニオンAppでの体験を提供するなど、さまざまな体験を生み出す方法について確認します。また、ShazamKit内でカスタムカタログを作成し、デバイス上であらゆるオーディオソースにマッチさせる方法も紹介します。...
-
27:56 Object Captureによる3Dコンテンツの作成
"Object Captureは、わずか数枚の画像を使って実世界のオブジェクトのリアルな3Dモデルをすばやく簡単に作成する方法を提供します。macOSのフォトグラメトリ技術によってアセットを現実のものにする方法について確認します。また、最高品質の結果を得るために、どのようなオブジェクトを選択し、どのように画像をキャプチャしていくのかといったベストプラクティスについても紹介します。 "
-
25:07 RealityKit 2の詳細
RealityKit 2を使えば、魅力的なAR体験の作成がこれまで以上に簡単になります。RealityKitフレームワークの最新の強化点を探り、水中サンプルプロジェクトを通じて詳細を確認しましょう。機能が強化されたエンティティコンポーネントシステム、効率化したアニメーションパイプライン、フェイスメッシュとオーディオを強化したプラグアンドプレイのキャラクターコントローラーを紹介します。
-
29:53 RealityKit 2を使用した高度なレンダリング
RealityKitの最先端のレンダリング機能を使用して、AR体験のための魅力的なビジュアルを作成しましょう。カスタムシェーダの書き方、リリアルタイムでのダイナミックメッシュの描き方、ARシーンのスタイリングに役立つクリエイティブなポストプロセス効果について解説します。
-
26:49 Create MLによる手のポーズや動作の識別
Create MLを使えば、人間の手の表現力をAppで理解することがこれまで以上に簡単になります。Create ML Appとフレームワークを使って、Visionによる手のポーズ検出のサポートをベースに、カスタムの手のポーズと手の動作の識別モデルをトレーニングする方法を紹介します。データの収集、モデルの学習、そしてVision、Camera、ARKitとのインテグレーションがいかに簡単にできるかを確認し、楽しくて面白いApp体験を創り出しましょう。 Create MLの詳細やモデルのトレーニングに関するコンセプトについては、WWDC20の「Create...
-
14:26 AR Quick LookとObject Captureの融合
ビジュアルクオリティとファイルサイズの両方を最適化しながら、Object CaptureのアセットをAR Quick Lookに組み込むシンプルな方法を紹介します。AR Quick LookとObject Captureを統合してまったく新しいエクスペリエンスを生み出す方法について確認します。 このセッションを最大限に活かしていただくために、WWDC19の「AR Quick Lookの最新情報」を先に視聴いただくことをお勧めします。また、WWDC20の「AR Quick Lookでオンラインショッピング」では、Apple...
-
18:25 空間インタラクションのためのデザイン
2つ以上のデバイス間で直感的な物理的インタラクションを生み出す原理について、iPhone、HomePod mini、AirTag向けの機能を担当したAppleのデザイナーがお伝えします。Appleプラットフォーム向けの機能を設計する際に、これらのパターンをそれぞれのAppに適用して、ユーザが周囲の環境とより直接的に交流できるようにする方法を探ります。
-
20:28 ARKit 5の詳細
ARKit 5で次世代のAR Appを構築しましょう。ロケーションアンカーをさらなる地域で使用したり、ロケーションベースのAR体験に人々をより簡単に参加させる方法を紹介します。フェイストラッキングとモーションキャプチャについても詳しく説明します。また、ARコンテンツを現実世界に配置するためのベストプラクティスを紹介します。また、App Clip CodeをAR Appに組み込むことで、バーチャルコンテンツを簡単に見つけ、正確に配置する方法も紹介します。
-
14:51 USDによる3Dワークフローの作成
PixarのUniversal Scene Description(USD)の柔軟性、汎用性、パワーを3Dワークフローで活用しましょう。macOS用のプロフェッショナルなワークフローでUSDファイル形式を使用する方法について説明します。Object Captureを使用して実世界のオブジェクトの3Dモデルをスキャンし、サードパーティのデジタルコンテンツ作成ツールの可能性を活かし、高品質なレンダリングシーケンスを構築します。
-
16:00 オーディオハプティックデザインの実践
iPhoneでアニメーション、サウンド、ハプティクスを含むリッチなApp体験を提供する方法を紹介します。Core Hapticsフレームワークでマルチモーダルな体験をデザインするためのキーコンセプトをお伝えします。サンプルのHapticRicochet Appでは、ハプティックとサウンドのフィードバックが重要なインタラクティブモーメントと調和するようデザインされており、不思議で楽しい体験を生み出す方法を解説します。 このセッションを最大限活かしていただくためには、事前にWWDC19の「Core...
-
-
Tech Talks -
10:23 ARにおける高度なシーン認識機能
ARKit 3.5およびRealityKitは、新しいiPad Proに搭載されたLiDARスキャナを最大限に活用した新機能を提供します。ARKit 3.5がもたらす、シーンジオメトリや、強化されたレイキャスティング、バーチャルオブジェクトの素早い配置などについて確認します。また、RealityKitがこれらを活用し、実世界の物理現象の再現、オブジェクトオクルージョン、物理的なオブジェクトと連動した照明効果をどのように実現しているかについて確認します。
-
7:25 ARKitを用いたフェーストラッキング
ARKitおよびiPhone Xは、堅牢なフェーストラッキングによる革命的な機能をAR Appにもたらします。位置、トポロジー、表情を、高精度かつリアルタイムにAppで検出する方法について確認します。ライブのセルフィーエフェクトの適用や、3Dキャラクターを操作する方法についても確認します。
-
-
WWDC20 -
27:38 ARKit 4について
ARKit 4は、人々とその身の回りの世界とのつながり方を一変させる次世代の拡張現実Appの構築を可能にします。バーチャルオブジェクトと実世界の緯度経度、及び高度とをつなぐロケーションアンカーの使い方を含め、Appleの拡張現実プラットフォームにおける最新の改善点をご紹介します。iPad ProのLiDARスキャナを利用し、周囲環境の深度マップを手に入れる方法や、iPad Air(第3世代)、iPad mini(第5世代)を含め、その他のA12 Bionic以降のチップを搭載したフロントカメラ付きのすべてのデバイスでのARにおけるフェイストラッキングの方法もお伝えします。...
-
25:15 RealityKitの新機能
RealityKitはAppleが拡張現実のためにゼロから作り上げたレンダリング、アニメーション、物理、音声エンジンです:これまでの3Dレンダラーを見直し、デベロッパが簡単にプロトタイプを作成し、高品質なAR体験を創り出すことができます。RealityKitの新たな改良点をAppに効果的に実装する方法についてもお伝えします。ビデオテクスチャ、iPad ProのLiDARスキャナを使ったシーンの理解、ロケーションアンカー、フェイストラッキング、改良されたデバックツールなどの機能を見ていきます。...
-
18:38 AR Quick Lookでオンラインショッピング
AR Quick Lookはオンラインショッピングにまったく新たな側面を与えます。拡張現実の中であなたの製品を簡単に披露し、「買う前にお試し」体験を提供する方法をお見せします。製品バナーをAR Quick Lookに見せ、Apple Payと統合し、または「カートに追加する」のようなカスタマイズアクションを表示できるようになります。 このセッションを最大限に活用するには、WWDC2019の"Advances in AR Quick Look"を見て内容に触れておいてください。 AR Quick LookとApple...
-
24:41 USDの新機能
Universal Scene Description (USD)スタンダードの提案スキーマとストラクチャに関する最新情報をお伝えします。Realilty Composerを使いアンカー、物理、動作、3Dテキスト、USDZにエクスポートする立体音響といったインタラクティブな要素を含むARコンテンツを構築する方法をお見せします。新たに作成した要素をアプリケーションに入れる、効率的な方法もお伝えします。 配信フォーマットとしてのUSDZにさらに興味があれば、"Working with USD"をご確認ください。ARコンテンツをReality...
-
28:18 アーティストのARツールキット
Reality ConverterとReality Composerがあれば、iOS、iPadOS Appで拡張現実アセットを準備することがこれまで以上に容易にできます。今ある3DアセットをUSDZに変換し、Reliaty Composerに入れてAR体験を構築する方法、そして今あるXcodeプロジェクトとの統合やAR Quick Lookへのエキスポートの方法もお伝えします。様々な、人気の3Dフォーマットでアセットを扱う方法、AR場面の構築とテスト方法、アーティストワークフローへの統合方法もお伝えします。 このセッションを有効に活用するためには、USDZとReality...
-
-
WWDC19 -
51:27 ARKit 3の紹介
ARKitはiOSのための革新的な拡張現実(AR)プラットフォームで、人が周囲の世界とつながる方法を一変させます。ARKit 3の最先端の機能と、ARKit 3がどのようにRealityKitのための革新的な基盤となるかについてご確認ください。このセッションでは、ARKitを使用してモーションキャプチャとピープルオクルージョン向けに身体の位置や動きを把握することにより、より魅力的なARを生み出す方法について説明します。複数のフェイストラッキング、共同セッションの構築、オンボーディング用のコーチングUIなどのための追加機能についてご確認ください。
-
31:55 USDを使用する
Universal Scene Description(USD)を使用すると、安定した3Dシーンを描写することができ、エンジニアとアーティストがクリエイティブのワークフロー全体でシームレスにコラボレーションすることができます。このセッションでは、USDの強力な機能と、その優れた拡張性を紹介します。USDアセットの作成方法と、ARKitとRealityKitで使用するusdzコンテンツの作成に関する詳しい情報についてご確認ください。
-
39:26 人をARに組み込む
ARKit 3では、実世界の人をARシーンに緊密に統合する革新的な機能を利用できます。Appでライブモーションキャプチャを使用して、バーチャルキャラクターをアニメーションさせたり、2Dおよび3Dシミュレーションに適用したりする方法についてご確認ください。また、バーチャルコンテンツが実世界の人の背後を通り過ぎるようにすることで、より臨場感あふれるAR体験を実現できる「ピープルオクルージョン」についても紹介します。
-
37:13 RealityKitとReality Composerの紹介
ARのために設計されたRealityKitを使用すると、デベロッパはワールドクラスのレンダリング、アニメーション、物理エンジン、スペーシャルオーディオの機能を利用できます。このセッションでは、従来の3Dエンジンを刷新するRealityKitを活用して、これまでになく迅速かつ簡単にARを開発する方法を紹介します。RealityKitベースのAppやゲームの開発の基本、およびReality ComposerでAR体験のコンテンツのプロトタイピングと作成を行う方法についてご確認ください。
-
39:47 RealityKitでAppを構築する
簡単に学べるAPIを使用してゲームを開発し、RealityKitの機能を実践的に理解していきましょう。このセッションでは、アセットのロード、シーンの構築、アニメーションの適用、ゲームインプットの処理において推奨されるアプローチを紹介します。エンティティとコンポーネントにはRealityKitの強力な要素が表れており、同時にカスタマイズのための柔軟性も確保されています。組み込みのネットワーキング機能を活用し、ゲームで臨場感あふれるマルチプレイヤー体験を実現する方法の詳細についてご確認ください。
-
59:05 Reality ComposerによるAR体験の構築
Reality Composerを使用すると、誰もがARシーンのプロトタイプ作成や開発を簡単に行い、AppやAR Quick Lookによる体験に組み込むことができます。このセッションでは、Reality Composerの強力で直感的な機能と、ビルトインARライブラリのすぐに使える数百個ものバーチャルオブジェクトについて紹介します。アニメーションやインタラクションを簡単に構築して3Dコンテンツを豊かにする方法と、Realityファイルを直接Appに統合する方法についてご確認ください。
-
29:43 Core MLとARKitを使用して優れたAppを作成する
Core MLやARKitなどのAppフレームワークを組み合わせて、教育用ゲームを作成していく様子を見てみましょう。このセッションでは、機械学習の力を活用して、Appで魔法のようなインタラクションを生み出す方法を紹介します。また、難しいコンピュータビジョンの問題を解決するためのアプローチについてより深く理解していただけます。インタラクティブなコーディングセッションで、Appが完成するプロセスについてご確認ください。
-
35:17 共同のAR体験を構築する
iOS 13では、ARKitとRealityKitによって、Appでこれまでより迅速かつ簡単に共有AR体験を確立できます。共同セッションを通して、複数のデバイスで共同のワールドマップを構築し、ARのアンカーと情報の更新をリアルタイムで共有する方法についてご確認ください。ARKitベースのAppに共同セッションを組み込む方法を説明した後、RealityKitとSwiftを使用して構築された、夢中になれるマルチプレイヤーARゲームのSwiftStrikeを紹介します。
-
43:57 AR Quick Lookの最新情報
AR Quick Lookは、3DおよびARで高品質なコンテンツを体験するためのビルトインビューアです。Reality Composerとの統合により、豊かでインタラクティブな体験をこれまでにないほど簡単に表示および共有することができます。このセッションでは、レンダリングの向上点と複数のオブジェクトの表示について説明し、小売り、教育などの分野におけるAR Quick Lookの実践的な活用例を紹介します。
-
-
WWDC17 -
53:52 SceneKit: What's New
SceneKit is a fast and fully featured high-level 3D graphics framework that enables your apps and games to create immersive scenes and effects. See the latest advances in camera control and effects for simulating real camera optics including bokeh and motion blur. Learn about surface subdivision...
-