ストリーミングはほとんどのブラウザと
Developerアプリで視聴できます。
-
Platforms State of the Union (ASL)
Appleプラットフォームにおける最新の進化についてお伝えします。
関連する章
- 0:00:21 - Introduction
- 0:01:35 - Apple Intelligence
- 0:09:14 - Generative Tools
- 0:21:10 - Xcode
- 0:23:58 - Swift Assist
- 0:27:44 - Swift
- 0:33:01 - Swift Testing
- 0:35:23 - SwiftUI
- 0:41:58 - RealityKit
- 0:44:17 - iOS
- 0:47:24 - iPadOS
- 0:49:30 - watchOS
- 0:52:11 - macOS
- 0:56:26 - visionOS
- 1:02:15 - Native Experiences
- 1:04:23 - Conclusion
リソース
-
ダウンロード
♪ ♪
Platforms State of the Union
WWDC 24 Platforms State of the Unionへようこそ WWDCは 私たちの取り組みの 技術的詳細について 掘り下げたり その機能を紹介したり みなさんのアプリやゲームでできることの 理解を助ける エキサイティングな機会です 始める前に この場を借りて みなさんの努力と献身を 称えたいと思います 学び 遊び 働き 世界を変えるために 人々が 毎日使っている素晴らしいアプリとゲームの クリエイターやデザイナーや デベロッパはみなさんです 感謝します Apple Developer Centerや デベロッパアカデミーや 空間コンピューティングの最初の アプリやゲームが作られた Apple Vision Proラボを通じて 世界中のみなさんとつながることが大好きです Swift Student Challengeでは 社会課題やセキュリティなどのトピックに 賢くクリエイティブな プレイグラウンドで取り組む 次世代のデベロッパに圧倒されました みなさんの創造性 意気込み 新しいアイデアには驚かされ続けています 素晴らしく エキサイティングな エコシステムを作ってくださり感謝します ではデベロッパに関する発表の詳細を 見ていきましょう まずはSebが Apple Intelligenceについて説明します
今年はデベロッパにとって 素晴らしい年になります 現在 生成AIに関して 多くのイノベーションが起きています 今日はApple Intelligenceによる ワクワクするチャプターの始まりです Apple Intelligenceは 私たちのプラットフォームに パワフルな生成モデルをもたらす パーソナル人工知能システムです iOSとiPadOSとmacOSには 言語や画像を理解して生成したり ユーザーの操作を助ける パワフルな新機能が加わります すべてはユーザーの パーソナルコンテクストへの 豊かな認識にもとづいています Apple Intelligenceは システム全体の機能やアプリに深く統合され プライバシーを考慮して 一から作られています 新機能を統合し みなさんのアプリに 導入するための新たな方法を説明する前に Apple Intelligenceの開発の裏側を 見てみましょう 何年もの間 私たちのプラットフォームは Appleシリコンのパワーを 最大限に活用することで オンデバイスの機械学習タスクの実行において 先頭に立ってきました できる限りのことを デバイス上で実行するのは 低遅延とより良いユーザー体験を 実現するためです もちろん ユーザーの個人情報と アクティビティの保護にも役立ちます 新たな生成AIモデルは 非常にエキサイティングでパワフルであり ローカルで実行できることの限界を 押し上げています Apple Intelligenceは オンデバイスの基盤モデルで始まります これは高性能な大規模言語モデルです 私たちは最高の着地点を探しました 目指す体験を可能にするパワーと デバイス上で動作する小ささです まず 基盤モデルに関して 解決すべき重要な課題が3つありました 実行したい多くのタスクや機能に 最適になるよう特化すること iPhoneのようなデバイスに収まるよう 小さくすること 可能な限り最高の推論パフォーマンスと エネルギー効率を実現することです 最初に使う技法は ファインチューニングです これは私たちのモデルに それぞれ異なるトレーニングパスを行い テキストの要約 校正 返信メール作成など 与えられたタスクを 高度に行えるよう教えます このプロセスは 一つのことには優れていますが ほかのことは得意ではない 一連の特化したモデルを生みます ファインチューニングの より効率的なアプローチは アダプタという新しい技法を 利用することです アダプタは コモンベースの基盤モデルに重ねられた モデル重みの 小さなコレクションです ロードやスワップを ダイナミックにできるので 基盤モデルを 当座のタスクに 急いで特化させることができます Apple Intelligenceは 豊富なアダプタを備えていて それぞれが特定の機能のために ファインチューンされています これが基盤モデルの機能を 強化する効率的な方法です 次のステップはモデルの圧縮です 最先端の量子化技術を使い 1パラメータ当たり16ビットのモデルを Apple Intelligence対応のデバイスに収まる 1パラメータ当たり平均4ビット未満にします 一方 モデルの品質は維持しました 最後に 私たちは 推論パフォーマンスと効率性に注目し プロンプトの処理と反応の生成を 最短でできるようモデルを最適化しました 私たちは 投機的デコーディングや コンテクストの枝刈りや グループクエリアテンションなど 幅広い技術を取り入れ Neural Engineを最大限に活かせるように それらすべてを調整しました 同様のプロセスを 画像を生成する拡散モデルにも適用しました これは 様々なスタイルとGenmojiの アダプタを使用します これがオンデバイスの Apple Intelligenceです パワフルで直感的であり 統合された言語と拡散モデルは 素晴らしいパフォーマンスを実現し 手の中に収まる小さなデバイス上で 動作します さらに高度な機能も備えているので 複雑なデータを推論するために より大きいモデルが必要です そこで より大きな基盤モデルを 実行するために Apple Intelligenceを Private Cloud Computeによって クラウドへと拡張しました これらのモデルはユーザーの パーソナルな情報を処理するので 私たちは クラウドコンピュートを再考し デバイスにおける プライバシーへのアプローチを サーバにまで 拡張する必要がありました Private Cloud Computeは プライバシーを保護しながら AIを処理することに特化して デザインされました iOSの基盤である 要塞化された サブセットを使用する新しいOSで動作します 業界トップのオペレーティングシステムの セキュリティ機能にもとづくのです あらゆるクラスのプライバシーリスクを 軽減するため 専用のAIサーバには 必ずしも必要ではない機能は削りました 例えば 永続化されたデータストレージです この安全な基盤に加え 通常 サーバ管理に使われるツールを 完全に置き換えました 私たちのツールは リモートシェル経由のような ユーザーのデータへのアクセスを許可しうる 特権アクセスを防ぐよう設計されています 最後に Private Cloud Computeは 人工知能を強化するための 豊富な機械学習スタックを備えています その結果は Appleシリコンをもとにした 比類ないクラウドセキュリティ基盤です まずは 重要な暗号鍵を保護するための Secure Enclaveです iOSと同様に セキュアブートは OSが署名と認証されたことを確実にします Trusted Execution Monitorは 署名と認証がされたコードのみが 実行されるようにします アテステーションは ユーザーのデバイスが リクエストを送る前に Private Cloud Computeクラスタの アイデンティティと構成を 安全に確認できるようにします それぞれの要求ごとに ユーザーのデバイスは Private Cloud Computeクラスタと エンドツーエンドで 暗号化された接続を築きます 選別されたクラスタだけが リクエストしたデータを解読でき レスポンスを返したあとは データを保持することはなく Appleは決してアクセスできません しかし 私たちはさらに進めます Private Cloud Computeの すべてのプロダクションビルドの 仮想イメージの作成に取り組んでおり それはセキュリティ研究者の調査に対して 公に利用可能となるため 彼らは 私たちが約束を守っているか検証でき 発見に対してはApple Security Bountyから 報酬があります 第2に ユーザーのデバイスが 調査のために公に記録された 署名済みのビルドだけを実行する Private Cloud Computeクラスタとのみ 通信するようにしました これはAppleシリコンの 強力な暗号化認証の 仕組みによって検証されます この規模のクラウドAIコンピュートに デプロイされた 最も先進的な セキュリティアーキテクチャだと考えています Apple Intelligenceは これらすべてを ひとまとめにする パーソナル人工知能システムです オンデバイスのセマンティックインデックスも 備えており アプリを横断して パーソナルな情報を組織できます App Intent Toolboxは アプリの機能を理解し ユーザーに代わって起動することができます ユーザーがリクエストを送ると Apple Intelligenceが オンデバイスの知能スタックか Private Cloud Computeを使い その処理方法を調整します そして セマンティックインデックスを利用して 各リクエストを 関連する パーソナルコンテクストにもとづかせ App Intent Toolboxを使って ユーザーのために実行します Apple Intelligenceは その機能の 優秀な実行に特化されています 可能な限り最高のパフォーマンスと エネルギー効率を実現し もちろん プライバシーとセキュリティを考慮して 一からデザインされています これがApple Intelligenceです これらの機能を みなさんのアプリに 導入するための新たなAPIがあり アプリの機能を Apple Intelligenceに公開して システム体験へのより深い統合を可能にする 新たな方法があります 言語と画像の機能から始めましょう 記述ツールとGenmojiと Image Playgroundです Leslieが詳しく説明します システム全体の記述ツールは Sebが先ほど説明したモデルを使い ユーザーがテキストを 書き直し 校正 要約するのを助けます テキストフィールドのレンダリングに 標準のUIフレームワークを使っているなら アプリが自動で 記述ツールを取得します そして新しい TextViewデリゲートAPIを使うと 記述ツールがアクティブな時の アプリの挙動をカスタマイズできます 例えばApple Intelligenceが テキストを処理中 同期を一時停止することで 競合を避けます Weeblyのようなアプリでは 記述ツールが小規模事業者のために 新しいウェブサイトに ぴったりの表現を探します 画像に関しては Genmojiがまったく新しい コミュニケーションの扉を開き ユーザーはその瞬間に適した 新しい絵文字を作れます インライン画像を含む 私たちの 標準のテキストシステムを使っているなら 準備は整っています プロパティをたった一つ設定するだけで テキストビューがキーボードから Genmojiを受け入れます 内部では Genmojiは 絵文字と違う方法で処理されます 絵文字はただのテキストですが GenmojiはAttributedStringを 使って処理されます これはグラフィックス入りの リッチテキストを表示するために 私たちが長年 使ってきたデータ型です Apple Intelligenceは すべてのアプリで 楽しいオリジナル画像を作るために システム全体の 素晴らしい新機能も提供します 新しいImage Playground APIは 一貫していて 遊び心があり 使いやすい体験を届けます 採用すると メッセージやKeynoteや 新しいImage Playgroundアプリで ユーザーにおなじみの体験を 利用できます 画像はユーザーのデバイス上で 作られるので ユーザーは 画像を好きなだけ試したり 創作することができます あなたのアプリで この体験を届けるために text-to-imageモデルやサーバの 設定や費用について心配する必要はありません どれだけ簡単に始められるか 見てみましょう
現在 XcodeでDestination Videoという アプリに取り組んでいます 新しいImage Playground APIを使って ユーザーがプロフィールに 楽しいアバター画像を追加できるようにします そのためにプロフィールボタンに 簡単なSwiftUIコードを加えて Image Playgroundシートを設定します 次に新しい画像を保管するための コードを加えます 最後に ユーザーが編集できる デフォルトのアバターを与えるために テキストディスクリプションを追加します ビルドと実行をタップして 私のiPadで どうなったか 見てみましょう これがプロフィールボタンです タップすると Image Playgroundビューが現れて このように プロフィールに使える 面白いアバターが表示されます ユーザーは泡をタップするか 私たちが提供したプロンプトを編集して 何でも作ることができます
記述ツールとGenmojiと Image Playgroundは Apple Intelligenceの 3つのパワフルな新機能で あなたのアプリに統合することで ユーザーを楽しませることができます Apple Intelligenceをアプリに導入する もう一つの方法がSiriです Apple Intelligenceと 組み合わせれば Siriは今年 アプリ内とアプリ間で 数々の新しいアクションが可能になります 先ほど話した 新しい文章作成や 画像生成機能も活用できます これはApp Intentに施している 大幅な強化によって可能になりました App Intentは Siriやショートカットや ほかのシステム体験における 一連のアクションを定義する フレームワークです そして今 App Intentは Apple Intelligenceを アプリで活用するパワフルな方法になりました これらのドメインへの対応から始めて 今後 さらに増やします そして既存のSiriKitドメインに 適合するアプリがあるなら Siriの強化された会話機能の 恩恵を受けられます 例えば 言い間違いをしても 正しく反応したり 直前の会話への言及を理解できます さらに追加作業がなくても アプリに役立つ 新しいSiriの機能が2つあります まずは Siriがアプリのメニューから どんなアイテムも呼び出せることです スライド資料を見ているユーザーが 「発案者ノートを表示」と言ったり もしくは もっと会話的に 「発案者を見たい」と言った時も Siriは何をすべきかわかります 2つ目は 私たちの標準の テキストシステムを使ったアプリなら 表示されたテキストに Siriがアクセスできることです これでユーザーは画面上に見えるテキストに 直接 言及して操作できます ユーザーが 祖父の誕生日を祝うという リマインダーを見ているなら 「FaceTime him.」と言えばいいのです
これがSiriを通じたアクションです 次は Apple Intelligenceによって パーソナルコンテクスト理解を Siriに学ばせる方法を紹介しましょう Apple Intelligenceは 写真やメッセージや ファイルやカレンダーの予定などの セマンティックインデックスに アクセス可能になるので これまでは不可能だった物事を 見つけて理解できるようになります 新しいSpotlight APIによって App Entitiesが インデックスに含まれるようになるので Siriはアプリから データを探せるようにもなります そしてApp Intentと App Entitiesが合わさると システム全体を アプリでサポートされた動作につなげる 新しい方法がユーザーに提供されます 例えばユーザーは メモアプリで取ったメモの要約を Superhumanで下書きした メールに追加できます メールの下書きが インデックス向けに アプリのエンティティとして定義されると ユーザーは会話的に言及できます そしてSiriはメモの内容を Superhumanアプリの ユーザーが望むところに追加できます 新しいApp Intentと App Entitiesを作る場合も 既存のSiriKitインテグレーションを 持っている場合も Apple Intelligenceによって Siriは アプリのデータや機能に対して これまで以上に 深く自然なアクセスが可能になります App Intentを使ってアプリの機能を 公開することは統合の要です みなさんは今日から取りかかれます ユーザーはすぐにショートカットアプリで App Intentを使えます そして対応するドメインに該当する App Intentを呼び出す機能が 今後 Siriに搭載されます 現在 2つのドメイン向けの App Intentスキーマが使用可能で 年内には さらに増えます ソフトウェアのアップデートでは 先ほど説明したApp内アクションと パーソナルなコンテクスト理解を展開します Sebに戻します Apple Intelligenceによる 言語と画像の機能と 新しいSiriを紹介しました もし独自のモデルを実行していて AIアクセラレーテッドハードウェアを 活用するために スタックへの 低レベルアクセスを考えている場合 オンデバイスの機械学習とAIを アプリ内で使う方法がもっとあります Manasiが詳しく説明します 私たちの ビルトイン機械学習フレームワークは 多くのカテゴリーで 人工知能を提供しています これに含まれるのは 自然言語処理 音の分析 音声認識 ビジョンのインテリジェンスAPIです 今年 Visionフレームワークには まったく新しいSwift APIが搭載されます これらのフレームワークで 活用できる機能がたくさんあります Create MLを使い トレーニング用の 追加データを取り込めば それらの機能を拡張できます 例えば 独自の 画像データセットがあるなら みなさんのデータで 私たちの画像モデルを拡張して 分類と物体検出の機能を 向上させることができます 私たちのフレームワークを超えて 別の場所で 開発とトレーニングをした 大規模言語モデルや拡散モデルなどの オンデバイスAIモデルを インポートし 実行することもできます 私たちのデバイスでは WhisperやStable DiffusionやMistralなど 幅広いモデルを実行できます ほんの数ステップで モデルをアプリで実行する準備ができます どのPyTorchモデルでも 始めることができます 次にCore MLツールを使って Core MLフォーマットに変換します Core MLツールは モデルを最適化する多くの方法を提供し 大規模言語モデルにおける量子化や 効率的なキー値キャッシングなど Apple Intelligenceで使われる 多くの技法を活用できます そして Core MLフレームワークを使い アプリ内でモデルを実行します Core MLは ハードウェアアクセラレーテッド実行を CPUとGPUと Neural Engineのすべてで最適化して モデルのパフォーマンスを さらに 最適化するための多くのツールを含みます Core MLは iOSやiPadOSやmacOSの アプリの一部としてAIモデルを実行する場合に 最もよく使用されるフレームワークです アプリにおける 機械学習でないタスクの負荷が高い時 全体のパフォーマンスを管理するために 機械学習タスクが実行されるタイミングを よりコントロールしたいかもしれません 例えばアプリのグラフィックスの 負荷が高い時 MetalがMetal Performance Shadersを使い 機械学習タスクと ほかのワークロードを 順番に取り扱う方法を提供するので 最高のGPUパフォーマンスを得られます そして CPUでリアルタイム信号処理を 実行している場合 Accelerateフレームワークには 機械学習タスク用のBNNS Graphが含まれており 遅延とメモリ管理の より厳しいコントロールを保ちます では 新しい最適化が どのようにモデルの実行を強化するのか 実際に見てみましょう MistralのHugging Face Spaceから Mistral 7Bパラメータモデルを使います Core MLフォーマットに変換され Swift Transformersパッケージを使って 作られた テストアプリの中で実行中です macOS Sonomaでは 16ビットモデルとして動作しています macOS Sequoia用には 最新の4ビット量子化と ステートフルKVキャッシュ技術を Core MLに適用しました モデルには単純な質問を与えました 「MLモデル量子化を 3文で説明すると?」 ご覧の通り この最適化があれば 5倍以上速く ほぼ9倍のピーク時の省メモリで モデルは回答を生成できます 量子化はパワフルな技術ですが 出力の質に影響するので あとで追加のテストと チューニングを行うことを推奨します モデルのトレーニングを含む 最新の進歩を試しているみなさんにとって Mac以上に適した場所はありません PyTorchやTensorFlowやJAXやMLXの どれを使っていても モデルをトレーニングする時には Appleシリコンの ハードウェアアクセラレーションと ユニファイドメモリを 最大限に活用できます 私たちの機械学習とAIへの取り組みは 共同作業です 研究団体のみなさんと提携して ともに最新技術を進化させています 研究結果はオンラインで確認できます 私たちは AIモデルやオンデバイスの最適化に 関する斬新なアプローチについて 何百もの論文を発表しており その多くがサンプルコードと データセットを含んでいます そして 研究に使うツールの多くを オープンソースとして公開しています Appleプラットフォームでは オンデバイスAIを活用する方法が たくさんあります 機械学習技術が 急速に進化している今 Appleは引き続き この分野で 最先端の研究を推し進めていきます Sebに戻します これは長い道のりの始まりです Apple Intelligenceは みなさんの最もパーソナルなデバイスのための 本当にパワフルな人工知能です 私たちは今後もAppleプラットフォームの 中核に生成AIを導入し みなさんのアプリに統合する新機能を 公開し続けます 生成AIは私たちみんなが コードを書く方法も変えており 私たちはデベロッパツールに 驚異的な新しい人工知能を加えています Kenが詳しく説明します
毎日 世界中で何百万人ものデベロッパが すべてのAppleプラットフォームで 自分たちのアイデアを形にするのに Xcodeを使っています Xcodeは 素晴らしいSwiftコードの記述や SwiftUIでの美しい体験の作成 AppleデバイスやOS用のシミュレータでの 迅速な実験 Instrumentsでの 詳細なパフォーマンスの洞察の取得 Xcode Cloudでのテストと すべてのユーザーへの配信を支援します これらはすべてシームレスに動くので みなさんは集中力を保ち すばやく作業して 創造力を解き放つことができます 私たちはツールに 生成モデルのパワーを加えるので Xcode 16は開発に まったく新たなチャプターを開きます 私たちはAppleの基盤モデルをもとに Appleだけが提供できる知識をとらえた 専門的なコーディングモデルを作りました その知識とは最新のAPIや言語機能 資料やサンプルコード そして すべてのAppleプラットフォーム向けに ソフトウェアを開発してきた数十年で 得た事例などです まずはみなさんが毎日使う 主な機能の大きな飛躍です みなさんが必要とするコードを予測できる 革新的な新エンジンを備えた コード補完です このエンジンはSwiftとApple SDK用に 学習させたユニークなモデルを使用しています これはみなさんのプロジェクトシンボルで 提案をカスタマイズします またMacでローカルに動くので コードを外部に漏らさず 超高速で結果が得られ さらにオフラインでも動きます 見てみましょう 世界中の楽しい動画を使ったアプリに 取り組んでいます 次の課題は動画のコレクションを示すコードを 追加することです このコレクションに名前が必要です 入力を始めるとすぐ 素晴らしい候補が表示されます tabキーで承認します また様々な動画を保持する プロパティも必要です ここでもXcodeが 私のプロジェクトのタイプで行を仕上げます 次に動画のソートされたリストを返す 関数が必要です 名前の入力を始めると 公開日順にソートされたビデオを返す 関数が提案されます 承認すると実装についても提案されます Xcodeは私のプロジェクトのコードに加え コンテクストとして書いたコメントも 利用できます 指定された監督の動画のリストを返す 関数のためにコメントを追加します 数文字書いただけで まさに思っていた通りの提案が得られます 次に動画のサムネイルキャッシュを 取得するために関数の冒頭を加えます 入力して提案の一つを選択すると それに応じて すべてのパラメータが自動入力されます 最後にビューのためにボディを加えます Optionキーを長押しすると 予測された複数行のコードが表示され tabキーですべてを承認できます Xcodeの補完モデルはAppleシリコンと macOS Sequoiaの 機械学習の強化を使用しています またXcodeはモデルを自動でダウンロードし 最新のSDKと言語の変更で更新します アプリを作るということは 単なるコードの入力だけではなく アイデア全体をコードに変換することです その最も簡単な方法は 自然言語を使うことです そこで私たちはクラウド上で動く より大規模でパワフルなモデルを作り Appleだけが提供できるユニークな体験を Xcodeで作り上げました みなさんのコード作業すべてを支援する Swift Assistです 具体的な狙いがある時も 最良のSwiftコードを書く手助けが欲しい時も Swift Assistはコーディングの質問に答え 新しいAPIを試すなどのタスクを支援します Swift Assistは コードを書く優れた新しい方法です お見せしましょう ガレージにある昔のMacの目録を作成する アプリを作りたいと思っていました 空白のプロジェクトから始め Swift Assistを立ち上げて 自分が求めるものをリクエストします
Swift Assistはプロトタイプに最適です アイデアをすばやく視覚化するのに役立ちます
Swift Assistは昔のMacの名称と ディテールを表す構造体を作成します プレビューで視覚化できる リアルなサンプルデータまで得られます 順調なスタートです 次は画像を加えてみましょう 「各Macの隣に画像を追加」と リクエストします 私のアセットカタログには すでに画像がいくつかありました Swift Assistは作成するコードで それらを参照することができます 私のClassicMac構造体には imageNameプロパティが加えられ サンプルデータにはアセットカタログの 画像のファイル名が入って更新されます ここまでは いい感じです 昔のMacで好きなところの一つは起動音です いくつかを録音してプロジェクトに 追加したので面白いことをやってみましょう 「Macをタップした時に音声を再生」と リクエストします コード補完と同様 Swift Assistはシンボルなどの 私のプロジェクトの詳細と その関連性を利用し パーソナライズされたコードを作成します 音を聞いてみましょう
素晴らしい思い出がよみがえります 最後に別のレイアウトを 試してみたいと思います リストの代わりにグリッドを使うと どう見えるか確認しましょう
数分前には単なるアイデアだったものが 私のデバイス上で動かせるものになりました すごいでしょう?
Swift AssistはAppleの最新のSDKと Swift言語の機能を把握しているので みなさんのプロジェクトに完璧に溶け込む 最先端でモダンなコードが常に得られます ですから新しいフレームワークを探索したり 新しいアイデアを試したりするタスクは リクエスト一つでできます すべてのAppleデベロッパサービス同様 Swift Assistは みなさんのプライバシーとセキュリティに 配慮して作られています みなさんのコードは 決してサーバに保管されず みなさんのリクエストの 処理のためだけに使われます 何より重要なのはAppleが 機械学習モデルのトレーニングに みなさんのコードを使わないということです Swift Assistと新しい予測補完は Xcodeでの働き方を加速させるでしょう これは私たちのツールに 並外れた知能を加える道のりの第一歩です Appleプラットフォーム向けの開発に エキサイティングな時代です Xcode 16にはほかにも みなさんの生産性をより高め みなさんのアプリの品質を向上させる 多くの新機能があります 一つのビューでのバックトレースの表示や すべてのスタックフレームからの 関連するコードの一括表示や アプリのパフォーマンスの より深い洞察が得られる Instrumentsでのプロファイリングデータの フレームグラフ そして 世界中のさらに多くの人々に みなさんのアプリを届けられる ローカライゼーションカタログの強化などです Appleシリコン搭載のMac向けの 新しい予測補完を含む Xcode 16の最初のベータ版は 今から入手可能です Swift Assistは 年内から提供を始めます 次はSwiftのエキサイティングな変化の すべてについて話しましょう Tedが説明します Swiftは初心者にもわかりやすく 専門家にはパワフルな 革命的プログラミング言語です 高速でモダンで安全で 楽しく記述できる言語です 今年 Swiftは10周年を祝います Swiftのこれまでの道のりを振り返り 次の10年の針路を定めるのにいい時期です Swift以前の Appleデバイスのソフトウェアは 主にC言語やC++ Objective-Cで記述されていました 私たちはソフトウェアを書くプロセスを 簡単にする 表現豊かでより安全な プログラミング言語としてSwiftを作りました Swiftはアプリ開発に理想的な言語で ほぼ100万のアプリで使われています しかしSwiftは アプリにとって役立つだけではありません 私たちはAppleのソフトウェアスタック全体で Swiftを使っています アプリからシステムサービス フレームワーク そしてSecure Enclaveなどの ファームウェアに至るまでです またPrivate Cloud Computeなどの ネットワークサービスにも使われています Swiftは発展を続け 最もパフォーマンスに敏感で 安全なコードの記述にさえも 有力な選択肢になっています Swiftは安全で高速で わかりやすく CやC++との相互運用性が 組み込まれているため C++の後継として最良の選択肢です 私たちはAppleのC++コードベースに Swiftを採用することに取り組んでおり Swiftへの移行は Appleと業界全体の両方で ソフトウェアの品質を向上させるでしょう Swiftの次の10年を見据えて 私たちはオープンソースコミュニティと協力し より多くのプラットフォームやドメインに Swiftを移植しようとしています まずデベロッパたちに合わせるため LSPを活用するVisual Studio Codeや そのほかのエディタの Swiftへの対応に投資しています またDebianとFedoraでも使えるよう Linuxへの対応を拡張し Windowsへの対応も向上させています 異なるドメインでの Swiftの利用については コミュニティによって書かれた様々なガイドが swift.orgでホストされています 例えばVaporを使った ウェブサービス構築などです Swiftのコミュニティは Swiftの成功の要です オープンソースライブラリとツールは より幅広いソフトウェアのエコシステムで みなさんがSwiftを使って作るものの 多くの基礎となっています このコミュニティをさらに支え より良い協力を促すため Swiftに特化した新たな GitHub Organizationを発表します github.com/swiftlangです この新たなOrganizationは Swiftのエコシステムにとって重要な 多くのプロジェクトをホストするでしょう SwiftコンパイラやFoundation その他の主要ライブラリなどです また今年はエキサイティングな 新しいリリースも提供されます Swift 6です Swift 6はデータ競合安全の導入により 並行プログラミングを劇的に楽にします コードの異なる部分が 同じデータに同時にアクセスし 修正しようとするとデータ競合が起こります Swift 6はこのようなバグを コンパイル時に診断することで取り除きます async/awaitや構造化された並行性 アクターの導入以来 Swiftは完全なデータ競合安全の提供に 必要な構成要素を徐々に獲得し 新たなSwift 6言語モードが完成しました コンパイル時のデータ競合安全を 可能にするものです データ競合安全には コードの変更を伴うことがあるため 新しいSwift 6の言語モードは オプトインです みなさんがコードのデータ競合に 取り組む準備ができたら いつでも活用できます Swift 6の言語モードをオンにすると コンパイラがプロジェクト全体で メモリへの並行のアクセスを診断します そして少しコードを変更すれば 多くのデータ競合安全エラーを修正できます Swift 6へは1モジュールずつ 段階的に移行できます 依存関係の移行を待つ必要はなく 移行があっても 新しい言語モードを使うと決めるまで コードを変更する必要はまったくありません Swift 6に移行したすべてのモジュールは コミュニティ全体の移行に貢献し Swiftのソフトウェアエコシステムに データ競合安全をもたらします みなさんもオープンソースパッケージを Swift 6にアップデートして貢献できます そしてswiftpackageindex.comにおける 人気のパッケージで 誰もが あとに続いてSwift 6を採用できます またコードからデータ競合を排除する 最良の方法についての洞察や パターンが盛り込まれた移行ガイドも swift.orgにあります
Swift 6のコンパイル時のデータ競合安全は みなさんのコードの安全性をさらに高め 将来の保守性を保証する 助けとなるでしょう Swift 6には ほかにも 多くのエキサイティングな進化があります 並行性やジェネリクスの向上 OSのカーネルやマイクロコントローラなど 非常に制約の多い環境を対象とした 新しいEmbedded Swiftサブセットなどです ソフトウェア開発でもう一つの重要な側面は テストの記述です Swiftのために一から作られた まったく新しい テスティングフレームワークを導入します ふさわしい名前が付いています Swift Testingです Swift Testingには テストの記述を簡単にする 表現豊かなAPIがあります 学びやすくクロスプラットフォームなので 様々なプラットフォームやドメインのための テスト記述に使えます またSwift Testingは オープンソースパッケージとして 開発されています 9か月前に導入され コミュニティで 貴重なフィードバックが得られています テストの記述を始めるには Test属性の付いた関数を テストスイートに追加するだけです わかりやすいタイトルを付け expectなどのマクロを使って あらゆるSwiftの表現の結果を評価します これで複雑なチェックの記述が楽になります Swift Testingにはみなさんのテストや テストプランの整理を支援する 柔軟なタグ付けシステムも含まれています タグを使えばテストスイート全体で 選択的にテストを実行することができます 一定のモジュールを使ったテストや 特定のデバイスで実行されるテストなどです ほんの少しコードを書くだけで 簡単にテストをパラメータ化できるので 一連の値に同じロジックを繰り返して 何度もテストを再利用できます Xcode 16はSwift Testingを 完全にサポートしています テストナビゲータがタグでテストを整理して パラメータ化テストを表示します ソースエディタには 豊富なインライン提示があり テストが失敗した時に 原因を診断するのに役立ちます Swift TestingはSwiftの 並行性のパワーを最大限に活用し すべてのテストを安全に並列して実行します これはSwiftのあらゆるユースケースのために 設計されており XcodeにもVisual Studio Codeにも サポートが統合されています Swiftは私たちみんなが より安全で 優れたコードを書くのを助けてきました Swiftが今後も世界中のソフトウェアを 一変させるのを見るのが楽しみです SwiftとAppleのフレームワークを ともに動かすことで 私たちは新しいレベルの生産性と 表現力を解き放ちます これがどこよりもパワフルな分野が SwiftUIです Joshが詳しく説明します SwiftUIは どのAppleデバイス用の アプリを作るのにも最良の方法です Swift言語と同様 SwiftUIは簡単に学ぶことができ しかも先進的な機能が満載です その設計は異なるデバイスで使えて 基盤となるOSとシームレスに統合された アプリを作ってきた 深い経験の影響を受けています SwiftUIでアプリを書く時は 自分の求めるUIの記述に集中すれば ダークモードやDynamic Type モデルのトラッキングの変化などは SwiftUIが処理してくれます どう作るかではなく 何を求めるかを表現できることで SwiftUIでは より多くのコードを より多くのデバイスで共有できます もちろん SwiftUIが提供する 見た目と雰囲気は 多数の修飾子やプロトコルで いつでもカスタマイズして微調整できるので 思い通りの結果を達成できます 新しいアプリを作るのにも 既存のアプリに新機能を作るのにも SwiftUIは最適なツールです AppleでSwiftUIを採用して以来 私たちは まさにそうしてきました SwiftUIで一から作り上げた 新しいアプリがあります スタイリッシュな カスタムインターフェイスを持つ まったく新しいアプリの Image Playgroundや おなじみのフォームやコントロールをもとに より標準的な見た目と雰囲気を持つ 新しいパスワードアプリなどです またSwiftUIは既存のアプリの 新機能にも使われます 例えばまったく新しいデザインの 写真アプリでは SwiftUIにより再設計された要素と 写真のグリッドなどの既存の表示が共存します プラットフォーム間で より多くのコードを共有するのにも SwiftUIは役立っています ミュージックは まずvisionOSとtvOSで SwiftUIを採用しましたが 今ではiOSとiPadOSでコードベースを統合し 単純化するのにも使っています 近年 Appleのプラットフォーム全体で 非常に多くのアプリと体験が SwiftUIを採用しています SwiftUIはXcodeやPages ミュージックなどのアプリで使われ またコントロールセンターや通知センター Finderなどの 主要なシステム体験にも使われています watchOSではワークアウトや アクティビティアプリ 睡眠アプリなどの主要なアプリに SwiftUIが幅広く使われています visionOSで空間アプリを作るのに SwiftUIはうってつけです SwiftUIが使われる場所の増加に合わせ 私たちは数年にわたり デベロッパ体験への投資を続けています 今年はプレビューとカスタマイズ 相互運用性に重点を置きました まずXcodeプレビューには プレビューや「ビルドして実行」と同じ ビルドアーティファクトを使う 新しい動的リンキング アーキテクチャがあります これで2つを切り替える時に プロジェクトをリビルドしなくて済み スムーズさと生産性が劇的に向上した ワークフローが実現します プレビューの設定も より簡単です 新しい@Previewableマクロにより @Stateなどの動的プロパティを Xcodeプレビューで直接使うことができ 書かなくてはならないコードが減ります またSwiftUIには みなさんのアプリの見た目と 雰囲気を微調整する カスタマイズが増えました ユーザーがUI要素を操作する際に 追加情報を提供する visionOSのカスタムホバーエフェクトや macOSでウインドウの挙動や スタイリングをカスタマイズし ウインドウのツールバーや 背景をコントロールできる新しいオプション まったく新しいレベルの視覚効果と 楽しいアニメーションを可能にする 新しいテキストレンダラーAPIなどです SwiftUIを採用するアプリの多くは UIKitとAppKitで書かれたビューも使っており これらのフレームワークの 相互運用性は不可欠です これを達成するには フレームワーク自体との深い統合が必要です 今年 私たちのすべてのUIフレームワークは より共通性の高い基盤を共有します UIKitからジェスチャー認識が独立し 組み込まれた、あるいはカスタムの UIGestureRecognizerを取り出し SwiftUIビュー階層で使えます これはMetalにより高速化された 描画グループなどの UIKitが直接使われていない SwiftUIビューでも有効です SwiftUIからは アニメーションが独立したので UIKitかAppKitのビューで設定し SwiftUIで動かせるようになりました フルカスタムのアニメーションもです もちろん今年のSwiftUIには エキサイティングで役立つ機能が ほかにもたくさんあります カスタムコンテナやメッシュグラデーション スクロールのカスタマイズなどです まだアプリにSwiftUIを使っていないなら 今がその時です SwiftUIはより少なく より優れたコードを使い どんなユーザーインターフェイスでも 思いのままに作るのに役立ちます Swiftプログラミング言語は APIがどこまで生産的で 表現豊かになれるかに革命を起こしました 標準的なライブラリやFoundation SwiftUIから新しいSwift Testingに至るまで Swift向けに設計されたAPIは 使いやすさが劇的に向上し みなさんをより生産的にします つい昨年 私たちは このリストにSwiftDataを加え Swiftによくなじむ軽量のAPIを使い みなさんのモデリングと アプリの情報の永続性対応を支援しました 通常のSwiftクラスに たった数行を 加えるだけでスキーマを定義できます まず@Modelマクロを適用します 実際 必要なのはそれだけですが @Attributeでプロパティの動作を指定したり @Relationshipでモデル同士の関係を 記述することで さらに改良できます 今年はSwiftDataのシンプルなシンタックスや モデリング機能を引き続き進化させ #Indexと#Uniqueを追加します #Indexはクエリーの効率を上げるもので よく一緒にクエリーされるプロパティを 基本的なストレージに伝え それらの保存や取得を高速にします #Uniqueは一連のプロパティに 重複するエントリーがないことを示します そして新しい@Previewableマクロも SwiftDataと相性抜群で ビューを反復しながらクエリーを扱うのが より簡単になります SwiftDataには これらのシンタックスの追加に加え データの保存と変更の記録に関する 機能拡張もあります まずはカスタムデータストアです 今のアプリは様々なストレージバックエンドを 使って作られています SwiftDataはデフォルトで Core Dataに情報を保存します カスタムデータストアでは 任意の別のバックエンドで データを保存できるようになります これでSwiftDataのAPIを SQLiteやリモートウェブサービスなどの バックエンドで使えるようになります ただのマップされたJSONファイルの コレクションでさえ利用可能です 非常に柔軟です またSwiftDataはデータストアの 変更履歴へのアクセスの提供を始めます 基本的なデータに起こった変更がすべて データストアの履歴に記録されているので 最近行われた変更すべてを 検査するのが簡単です これはリモートウェブサービスと同期すべき ローカルの変更を追跡するのに便利です これらの新しい機能にはすべて SwiftにとてもよくなじむAPIが使われ データの扱いが これまで以上に簡単になります 次は魅力的な3Dと空間体験作りに役立つ 重要なフレームワークについて話しましょう RealityKitです RealityKitはリアル調やセル画調 カートゥーン調など様々なスタイルの 3Dモデルをレンダリングするプロセスを シンプルにします iPhoneとiPad、Macから 導入が始まったRealityKitは Vision Proの発表に合わせ 非常に新しい機能を獲得しました これとともに使える新しいツール Reality Composer Proは 空間アプリの開発をシンプルにするものですが visionOSのみの対応でした 今年 これらのAPIとツールは RealityKit 4で macOSとiOSとiPadOSにも対応します ですから これらの全プラットフォームに向け 一度で簡単にビルドできるのです MaterialXやPortalsやParticlesなど みなさんが期待するすべてが これら4つすべてのプラットフォームで RealityViewと併用できるようになります これにはリッチなマテリアルや バーチャル照明のためのAPIも含まれ 3Dオブジェクトの見た目や ユーザーの環境との相互作用を クリエイティブコントロールできます また新しいAPIやツールもあります BlendShapesやInverse Kinematics またキャラクターアニメーションの 機能を拡張し 動的で周辺環境やユーザーの挙動に 対応する相互作用を可能にする アニメーションタイムラインなどです またRealityKit 4ではLow Level Meshや Textures用の新しいAPIで レンダリングに より直接的にアクセスできます これらはMetal Computeシェーダーとの併用で アプリの見た目のコントロール機能を向上させ 全フレームで完全に動的なモデルと テクスチャを可能にします これらの機能はvisionOSで共有スペースと アプリのフルスペースの両方で使えます またXcodeのデバッグ視覚化が 3Dシーンコンテンツの イントロスペクションをサポートするので RealityKitコンテンツの検査が より楽になります シーンのオブジェクト階層を検証し RealityKitに組み込まれたものでも みなさんのカスタムコンポーネントでも すべてのエレメントのプロパティを 検査できます Swiftと SwiftUIやSwiftData RealityKitなどのフレームワークにより AppleのSDKは美しく 臨場感あふれるアプリ作りを簡単にします またみなさんのアプリをシステムスペースに 進出させるパワフルなAPIが 基本的なプラットフォームとの 深い統合を可能にします 今年のOSリリースの 最新機能について見てみましょう まずJonathanがiOSについて話します
Apple Intelligenceに加え すべてのAppleプラットフォームに みなさんにさらなる可能性を提供する 多数の新しいAPIがあります まずiOSから始めましょう 今年 iOSは これまで以上にカスタマイズ可能になります まずはコントロールです コントロールはアプリの頻繁なタスクに より速く簡単にアクセスし システム全体のより多くの場所から アプリと関われる優れた方法です コントロールは設定の切り替えや アクションの実行 特定の体験へのディープリンクが可能です 新しいControls APIを使い タイプとシンボル、App Intentを指定して コントロールを作成できます 定義が終われば コントロールは 新しいコントロールギャラリーに加わり ユーザーがコントロールセンターに追加し 簡単にアクセスできるようになります またユーザーはみなさんのコントロールを iPhone 15 Proの アクションボタンに割り当てたり あるいは史上初めて ロック画面に表示させることもできます カメラを活用するアプリは 新しいLockedCameraCaptureフレームワークで デバイスのロック中でも撮影が可能になります 次はiOSをよりカスタマイズ可能にする もう一つの方法について話しましょう ホーム画面です アプリのアイコンやウィジェットは ライト ダークまたはTintで 表示されるようになります まず みなさんのアプリのアイコンの Tintバージョンは ユーザーがiOS 18にアップグレードすると 自動的に利用可能になります この処理は すべてのアプリのアイコンに適用され みなさんの設計意図と 見やすさを保つよう賢く作られています これによりホーム画面全体で 一貫した視覚体験が得られます また みなさんのアイコンが どのように描画されても 各バージョンをカスタマイズすることで 常に最高の見た目を保てます みなさんが新モードに アイコンを適応させられるよう ヒューマンインターフェイスガイドラインの アイコンテンプレートと事例が 更新されています 準備が整ったら Xcodeにサポートされている ダークとTintのアイコンバリエーションを アセットカタログに取り込めます コントロールを システム全体に拡張することから アプリのアイコンとウィジェットの見た目を 常に最高に保つことまで iOS 18はみなさんのアプリの ユーザー体験をカスタマイズする 驚異的な新方法を提供します 次はセキュリティの話をしましょう 2年前 iOSは パスキーのサポートを追加しました パスキーはパスワードに代わるもので より安全で使いやすく フィッシングが不可能なものです サインインがより速くなり パスワードのリセットが減り サポート費用が削減されます 今年 私たちはより多くのユーザーを パスキーに移行させる シームレスな方法を作りました 新しい登録APIです これは対象となるユーザーが次回 アプリにサインインした時に 自動的にパスキーを作成します これで今後のサインインが これまでより速く強力になります パスキーが作成されたあと それが保存されたことは 流れを妨げることなく ユーザーに通知されます みなさんがすでに パスキーを採用しているなら 自動パスキー登録の追加に必要なのは たった一つの新しいパラメータだけです みなさんのアプリをパスキーに移行させるのに 最高のタイミングです もちろんこれらの機能はすべて iPadOSでも利用可能です 今年 iPadOSは ユーザーがアプリを操作する方法に 大きなアップデートを行います まずは再設計されたタブバーです アプリ上部のフローティングタブバーは お気に入りのタブへの移動を簡単にします Apple TVでチャンネルを探索する時など より深く掘り下げたい時には サイドバーに変化します カスタマイズやメニューや ドラッグ&ドロップなどの 重要な操作の構築をシンプルにする 新しいAPIがあります ですから より少ないコードで より多くを達成できます アプリの階層がシンプルなら ただタブバーを採用するだけです アプリの階層がより深ければ タブバーとサイドバーの両方を 同じAPIで実装できます またユーザーがタブバーの中身を カスタマイズできる機能までも提供可能です タブバーがサイドバーに エレガントに 変わることに気づいたかもしれません こうした洗練されたアニメーションも みなさんのアプリで使えます 例えば写真アプリのズームトランジションは ユーザーに好評です タッチで正確にコントロールでき 途中で割り込むことまでも可能です 割り込み可能なアニメーションにより UIを操作するユーザーは アプリが機敏に反応すると感じます アニメーションが終わるまで 次の操作を待つ必要がないからです この割り込み可能で流れるような ズームトランジションを iOSとiPadOSのアプリでも活用できます これはメモアプリのようなものに ぴったりです 美しくアニメートされた動きで ギャラリー表示からメモを開くことができ ピンチで閉じることまでも可能になります またこの新しいズームトランジションは アップデートされたDocument Launch Viewでも使えます これでアプリに特別な見た目を作り 起動体験をブランドに結びつけられます アクションのカスタマイズや背景の変更 楽しいアニメートされたアセットの追加で ヘッダーに命を吹き込めます これらはアプリをより良くシステムに統合し iOSとiPadOSのカスタマー体験を 強化するのにみなさんが活用できる APIの改良のほんの一部です 次はwatchOSについてLoriが説明します
Apple Watchは人々が その日の最も重要な情報に 一目でアクセスする最も簡単な方法です どの文字盤からでも Digital Crownを回すだけで 関連する洞察やアクションが得られます 今年 watchOS 11は みなさんが新しいAPIを使ったり すでに書いたコードを活用することで アプリからスマートスタックに 魅力的な体験をもたらす さらなる機会を提供します 実際 今年のwatchOSで 最もクールな新機能の一つは iOSから始まります ライブアクティビティです みなさんがすでにiOSアプリで ライブアクティビティを採用しているなら システムはみなさんのコードを活用して Dynamic Islandをサポートし Apple Watch上に ライブアクティビティ体験を提供します スマートスタックの左右に コンパクトなビューが自動的に表示されます また 重要なイベントがあった時も 通知が出ます Xcode 16のAll Variants Previewを使えば 現在のLive Activity Widget Configurationで みなさんのライブアクティビティが watchOS上でどう表示されるかを確認できます またsmall supplemental activity ファミリーをサポートしていることを示せば カスタムのwatchOS表示の追加までできます watchOSでお客様に 素晴らしい体験を提供するには ライブアクティビティビューが Apple Watchに表示される時に Environmentでさらにカスタムするだけです すでにwatchOSアプリを作った人も 作ろうと計画している人も watchOS 11のウィジェットの 拡張された機能を活用することで みなさんの体験をさらにタイムリーで 文脈に応じた機能的なものにできます 現在iOSとmacOSで使っているのと 同じAPIで インタラクティブなウィジェットを watchOSに導入できます App Intentを使うことで 複数のインタラクティブなエリアで アクションを実行したり 状況を直接アップデートする ウィジェットを作れます 付属する新しいWidgetGroupレイアウトは より多くの情報とインタラクティブ性を お客様に提供する一つの方法です 3つの独立したビューを表示でき アプリの様々な場所へのディープリンクと ウィジェットから出ずに アクションを実行する ButtonとToggleイニシャライザの 両方をサポートしています 有益でインタラクティブなウィジェットが 最も役立つタイミングで表示されるよう 一つか複数のRelevantContextsを 指定できるようになりました システムが絶妙なタイミングで スマートスタックに挿入できるように 時刻や AirPodsの接続 場所やルーティンなどを指定できます アプリにダブルタップを導入したい人々には handGestureShortcutが お求めの修飾子です この修飾子でアプリやウィジェットや ライブアクティビティの基本アクションとして ボタンまたはトグルを特定すると お客様が指先だけで すばやく操作できる設定が可能です ライブアクティビティや インタラクティブで文脈に応じたウィジェット ダブルタップのサポートは 今年のwatchOS 11で登場する 新しい可能性のほんの一部です 次はmacOSのエキサイティングな アップデートについてEricが説明します 今年 macOSは Apple Intelligenceをサポートし 記述ツールやGenmoji Image Playgroundなど みなさんがアプリに直接組み込み 魅力的な体験を作れる機能を提供します また より簡単なウインドウのタイル配置や iPhoneミラーリングなどの生産性機能も導入し ユーザー空間ファイルシステムの サポートを含む新しいAPIや MapKitの大幅な改良も提供します これから 驚くほど急成長している ある分野に焦点を当てたいと思います ゲームです MetalとAppleシリコンの 驚異的なペースのイノベーションに伴い 抜本的な変化が起こっています Appleシリコン搭載のすべてのMacや Mシリーズチップ搭載のすべてのiPad 最新のiPhone 15 Proでも これまでは電力を大量に消費する ディスクリートGPUを搭載した ゲーム用コンピュータが必要だった ゲームをプレイできます これらのコンソール級Appleデバイスにより 緊密に統合された グラフィックスソフトウェアと スケーラブルなハードウェア アーキテクチャで築かれた 統一したゲームプラットフォームが 生まれました そして毎年 急成長する このプラットフォームは AppleシリコンとMetalを新たに進化させ ゲーム体験をさらに向上させます このプラットフォームに みなさんのハイエンドゲームを導入し さらに多くのプレイヤーに リーチするにあたり 入門に最適なのが Game Porting Toolkitです これまで前向きな反応が見られて うれしかったです Ubisoftなどのデベロッパは 自社のゲームをかつてないほど速く Appleデバイスに導入できました
ゲーム愛好家は 「サイバーパンク2077」のような 高負荷のWindowsゲームを 初めてMacで評価できるようになりました WhiskeyやHomebrewのような コミュニティプロジェクトや CrossOverのような製品が Game Porting Toolkitを使い 評価プロセス開始の選択肢を さらに増やしていることにワクワクしています 今年はGame Porting Toolkit 2を 発表します みなさんのフィードバックを反映した 大きなアップデートで 既存のものか開発中かを問わず タイムラインを加速させるのに役立ちます ツールキットに新しく追加された機能は より多くの先進的なゲームのMacへの導入や Mac向けゲームのiPadやiPhoneへの導入 素晴らしいユーザー体験の提供を支援します まずMacへの先進的なゲームの導入を 見てみましょう Game Porting Toolkit 2では AVX2などの技術や レイトレーシングなどの 先進的ゲーム機能の互換性向上により より多くのWindows向けゲームを評価でき みなさんのゲームのMac上での性能を より全体的に把握することができます Metalは要望の多かったAPIの改良を加え DirectXのデベロッパによる 既存のグラフィックスコードの移植を 支援します 例えばMetalのリソース管理は はるかになじみ深いものになるはずです またXcodeには要望の多かった 別の機能が加わります オリジナルのHLSLシェーダーのソースの デバッグとプロファイルが可能になります これは開発プロセスの どの段階でもできます オリジナルのWindowsバイナリの評価中でも ゲームのMetal版をデバッグしている時もです Mac向けに最適化したゲームができたら iPadとiPhoneへの導入はもっと簡単で みなさんのゲームを さらに多くのプレイヤーに届ける 大きなチャンスの準備が整います 実際 「DEATH STRANDING DIRECTOR'S CUT」のようなゲームを スマートフォンから パーソナルコンピュータに至るまで 1億以上のコンソール級デバイスに 届けることをデベロッパに可能にする ゲームプラットフォームは ほかには世界中のどこにもありません みなさんも同じことができるよう Game Porting Toolkit 2には 開発の加速に役立つコード例が含まれ 重要な手順を わかりやすくしてくれます 様々なゲームサブシステムの変換や 一度作ったシェーダーを 複数の環境にデプロイする方法などです またGame Porting Toolkit 2は Appleのハードウェアを最大限に活用する 拡張されたヒューマン インターフェイスガイドラインで 素晴らしいユーザー体験の提供も支援します またこのガイドラインは 重要なトピックもカバーしています ダウンロードとインストールの効率化や ゲームのUIを 様々なディスプレイサイズに合わせる方法 みなさんのゲームに最適なスタイルの 使いやすいタッチコントロール作りなどです Metalの重要な改良と ゲーム開発の最重要局面に及ぶ アップデートされたツール群で Game Porting Toolkit 2は Appleプラットフォームで 素晴らしいゲームを作ることを これまで以上に簡単にします これらすべての最新のOSリリースには Appleデバイスでのみ可能な 素晴らしい体験を作るのを助けてくれる 新機能が満載です そしてVision Proは これを まったく新しいレベルに引き上げました visionOSの最新情報をEnが説明します 昨年のWWDCで Apple Vision Proが発表されて以来 デベロッパコミュニティの熱意を うれしく思っています 世界中のデベロッパが visionOS用の 素晴らしい空間アプリを作っています 利用可能になってから数日間で すでに 1,000以上のアプリがApp Storeに並びました デベロッパの一部は visionOSの空間的な UIレイアウトをすばやく作成するために iOSとiPadOSのアプリを再コンパイルして それをもとに構築しました 例えばdjayはSwiftUIベースの iPadアプリから始めて visionOSで動作するように 簡単に再コンパイルして 空間コンピューティング用に それを拡張しました これは素晴らしい体験です visionOSアプリを持っていても このプラットフォームが初めてでも 空間コンピューティングが みなさんのアプリに驚くべき機会を提供します 何十年にもわたる macOSとiOSと iPadOSの技術革新を基盤として visionOSは作られています 使えるツールや多くのフレームワークは これらのプラットフォームに共通しているので コードを1回 書けば すべてのプラットフォームで使えます SwiftUIとRealityKitとARKitは visionOS用の 最高の空間アプリの開発の中核です ARKitはすべてのプラットフォームにおける AR体験の中心的なフレームワークで そこで可能になる空間体験は ユーザーの周囲の世界への より深いインタラクションと理解が伴います これは とてもパワフルです みなさんのアプリが このうち一つの フレームワークを使っているなら 優れた空間コンピューティングアプリへの道を すでに歩んでいるからです 奥行きと空間を最大限に活かし より豊かな空間体験を持つアプリの開発が visionOS 2により いかに可能になるか詳しくお話しします 空間コンピューティングの導入により 私たちはボリュームという 新しいSwiftUIシーンを作りました ボリュームは豊かなインタラクションを持つ 3Dオブジェクトやシーンを アプリに追加するのに最適です アプリは並べて実行できて 仮想オブジェクトのサイズとスケールの感覚を よくつかむことができます
これは空間コンピューティングの中核で Vision Proの画期的な空間マルチタスクを 次のレベルに引き上げます visionOS 2があれば ボリュームのサイズを変更するのは簡単です ウインドウのようにSwiftUIシーン修飾子の windowResizabilityを使い コンテンツに合うように ボリュームのサイズを設定します 合わなければ ユーザーは自分で ボリュームのサイズを変更できます ボリュームのスケールが固定か動的か 選ぶことも可能になります ですから3Dオブジェクトが ユーザーから遠ざかると サイズは一定のままか 現実世界の物体のように 遠ざかるにつれて小さくなります visionOSはオーナメントを ボリュームに固定できます コントロールや追加情報など どのUIにも役立ちます ボリュームの端に沿って オーナメントを柔軟に配置できるので ボリュームのインターフェイスを 新しく賢い方法で 自由に作れます さらにオーナメントやアプリのクロムや コンテンツは動的に動き 空間を歩き回ると ユーザーの方を向くように調整できます ユーザーの位置に反応し オーナメントと キャラクターが動くのがわかります デベロッパの一部に ボリュメトリックAPIを 先行して公開しました 例えば1640はボリュームのサイズを 変更するAPIを活用しています
Dear Realityはユーザーの現在地にもとづく オーナメントの位置変更を利用します
そしてRezzilは 新しいボリュメトリック機能を総動員し リアルタイムの試合分析のために 素晴らしい経験を提供し ほかのアプリと並んで実行できます
Apple Vision Proは SharePlayアプリとともに 共有体験を通じ ユーザーが 友だちや家族とつながるのを助けます 私たちはアプリの共有をさらに促進するため テーブルを中心とした共同体験の開発を 容易にするフレームワークとして TabletopKitを作りました TabletopKitはカードや駒の操作 配置やレイアウト ゲームボードの定義など 大変な仕事を担います さらに空間PersonaやSharePlayと シームレスに連係するので ユーザーは一緒に ソーシャルゲームをプレイできます TabletopKitは GroupActivitiesや RealityKitやSwiftUIのような おなじみのフレームワークと統合し すぐに体験を始められます Checkmate Chroniclesのデベロッパは まさにそれを実行し この新しいフレームワークを使って 魅力的なゲームボード体験を生みました visionOS 2は これで終わりではありません まったく新しいEnterprise APIが 空間バーコードのスキャンや 低遅延の外部カメラストリーミングなどへの アクセスを提供します そのため 特定のワークフローのユースケースで 空間コンピューティングを 活用できるようになります 私たちはVision Proの入力を アップデートしました ユーザーの手が コンテンツの前と後ろの どちらに見えるか選べるようになり アプリ体験に さらなる創造性を与えます シーン解析機能の忠実度を 大幅に向上させました 平面は あらゆる方向で 検出されるようになり みなさんの周囲の平面に 物体を固定できます ユーザーの周囲を 部屋ごとに判断する Room Anchorsの概念を追加しました 部屋を横断するユーザーの動きも 検出できます そしてvisionOS用の 新しいオブジェクトトラッキングAPIにより ユーザーの周りの個々の物体に コンテンツを追加できるようになりました この新しい機能により 説明文のような仮想コンテンツを 物理オブジェクトに追加することができ 新しい次元のインタラクティブ性が もたらされます 私たちはvisionOSプラットフォーム用の サンプルや資料を増やし 空間コンピューティングを さらに簡単に始められるようにしました 空間コンピューティングの未来は 刺激的です ぜひ みなさん独自のvisionOSアプリで この物語の一部になってください Joshに戻します
Appleは ユーザーにとって 本当に楽しい体験を生み出すために ハードウェアとソフトウェアとサービスを 一つにする製品を作っています 私たちの一貫したモチベーションは シンプルです みなさんが世界最高のアプリを 開発できるように 最も先進的で革新的な プラットフォームを作ることです ハードウェアとソフトウェアを 最大限に活用することで ユーザーのデバイスの自然な延長のような 高度に統合されたアプリの開発を 助けたいのです このモチベーションを胸に リリースのたびに プラットフォームを強化しています AppleのSDKでアプリを作ると 最速のパフォーマンスを得られます みなさんは 私たちと同じ ツールやフレームワークを使っていて APIは 私たちのプラットフォームや製品向けに 最適化されています これらのAPIにより インタラクティブな ウィジェットとコントロールや アクセシビリティやDynamic Type そして もちろんApple Intelligenceなど ユーザーが愛するプラットフォームの機能を 直接 統合できます プラットフォームとの深い統合により アプリがより多くの場所で使用可能になり ユーザーは彼らにとって最適な方法で 使用することができます AppleのSDKによって プラットフォーム間で共有された おなじみの 見た目と雰囲気を持つアプリも簡単に作れます ほかのアプリで知っている操作を使えるので ユーザーにはメリットです SDKは多くの一般的なフレームワークを 共有しているので 必要に応じ 結果を調整することを 可能にしながらも ほとんどのコードが デバイス間で 共通した挙動を示すことができます そしてAppleのSDKは オールインワンのツールを与え アプリ開発に必要なものを すべて提供します ターゲットのデバイスに関わらず SwiftやSwiftUIやXcodeを使って 望み通りの体験を構築できます AppleのネイティブなSDKを直接 使えば これらすべての恩恵を受けられます もっと簡単に言えば 最高のアプリは ネイティブなSDKを使って作られるのです 私たちのSDKが みなさんと ほかの何百万のデベロッパの手に渡ることを うれしく思います 世界で最も先進的で革新的な プラットフォームを基盤に 可能な限り最高のアプリを 作れるからです Susanに戻します デベロッパに関わる最大級の発表のいくつかを 詳しく見てきました Apple Intelligenceは パーソナル人工知能システムで iPhoneとiPadとMacの中核に パワフルな生成モデルをもたらし 言語や画像をアプリ内で生成する新機能や Siriへの大幅なアップデートを可能にします パーソナルコンテクストを利用して 便利で関連性の高い人工知能をもたらし プライバシーを考慮して 一から作られています SwiftはWindowsとLinuxに拡張し Swift Assistが みなさんのアイデアをコードに変換するので より高度な問題に 集中できるようになります visionOS 2は空間コンピューティングを さらに向上させます ボリュメトリックなアプリへの サポートは強化され パワフルな 新しいエンタープライズAPIや 共有アプリとゲームの開発を より簡単にする新技術が加わります Game Porting Toolkit 2は 最も負荷の高いゲームを MacとiPadとiPhoneに 移植することを可能にします WWDCの週に公開される 100以上の詳細なセッションで これらを含め 様々なトピックを 探究してください オンラインラボと コンサルテーションでは 一週間を通して Appleのエンジニアや Appleのエキスパートがご質問にお答えします Apple Developer Forumsでは デベロッパのコミュニティと つながることもできます デベロッパアプリと デベロッパ向けウェブサイトを通じて これらすべてにアクセスできます Appleのデベロッパコミュニティに みなさんが参加してくださることに感謝し これらの技術が みなさんの素晴らしい アプリやゲームによって 命を吹き込まれるのを 見るのが楽しみです 素晴らしい一週間を!
このイベントはiPhoneで撮影し Macで編集したものです
-
-
特定のトピックをお探しの場合は、上にトピックを入力すると、関連するトピックにすばやく移動できます。
クエリの送信中にエラーが発生しました。インターネット接続を確認して、もう一度お試しください。