사진 및 카메라
-
WWDC24 -
21:18 visionOS용 엔터프라이즈 API
새로운 visionOS용 엔터프라이즈 API를 활용하여 Apple Vision Pro에서 직원 및 고객의 생산성을 향상하는 공간 경험을 만들어 보세요.
-
21:52 매력적인 공간 비디오 및 사진 경험 빌드하기
공간 비디오 및 사진을 앱으로 가져오는 방법을 알아보세요. 스테레오스코프 미디어의 여러 유형을 살펴보고, iPhone 15 Pro에서 iOS 앱의 공간 비디오를 캡처하는 방법을 알아보세요. 새로운 QuickLook Preview Application API 등 visionOS에서 공간 미디어를 감지하고 표시하는 다양한 방법을 확인해 보세요. 사진 또는 비디오에 공간 컴퓨팅을 적용하는 메타데이터 및 스테레오 개념에 대해서도 자세히 알아보세요.
-
22:49 잠금 화면 카메라 캡처 경험을 멋지게 빌드하기
LockedCameraCapture API로 캡처 애플리케이션의 중요 정보를 잠금 화면에 바로 가져오는 방법을 확인해 보세요. 해당 API의 기능 및 사용 목적을 살펴보고, 캡처 확장 프로그램을 제작하는 방법을 알아보고, 이러한 확장 프로그램이 기기가 잠겼을 때 어떤 동작을 하는지 확인해 보세요.
-
23:48 다양한 캡처에서 일관된 색상 유지하기
Constant Color API에 대해 알아보고, 사용자가 정확한 색상을 파악하는 데 해당 API가 어떤 도움을 줄 수 있는지 살펴보세요. 이 세션에서는 Constant Color API를 적용하는 방법과 Constant Color API가 과학 및 마케팅 분야에서 활용될 수 있는 가능성 그리고 해당 기술을 최대한 활용하는 모범 사례를 소개합니다.
-
34:29 HDR로 앱에서 동적 이미지 경험 제공하기
앱에서 HDR 이미지를 읽고 쓰는 방법, HDR 콘텐츠를 처리하는 방법을 알아보세요. 새롭게 지원되는 HDR 이미지 형식과 HDR 이미지를 표시하는 앞선 방식을 소개합니다. HDR 콘텐츠가 사용자 인터페이스와 병존할 수 있게 만드는 방법과 앱에 HDR 이미지 지원을 추가할 때 유의해야 할 점에 대해 설명합니다.
-
16:06 DockKit의 새로운 기능
DockKit의 스마트 추적은 피사체간 전환을 더욱 자연스럽게 만들어 줍니다. 이 세션에서는 스마트 추적 기능을 소개하고, 이 기능이 머신 러닝(ML) 모델을 사용하여 피사체를 선택 및 추적하는 방식과 스마트 추적 기능을 앱에서 사용하는 방법을 다룹니다.
-
-
WWDC23 -
24:53 앱에서 시네마틱 모드 동영상 지원하기
Cinematic Camera API를 사용해 카메라 앱으로 촬영한 시네마틱 모드 동영상을 앱에서 지원하는 방법을 확인해 보세요. 먼저 Decision 레이어를 비롯하여 시네마틱 모드 동영상을 구성하는 기초적 요소들을 살펴봅니다. 그리고 앱에서 Decision에 액세스하거나 수정하는 방법, 변경한 내용을 저장하고 로딩하는 방법을 알아봅니다.
-
29:12 tvOS에서 연속성 카메라 사용하기
AVFoundation, AVFAudio 및 AudioToolbox를 tvOS의 앱으로 가져와 거실용 카메라와 마이크 사용 환경을 만드는 법을 알아보세요. Device Discovery API를 써서 기존 iOS 카메라 환경에서 tvOS를 지원하는 법을 알아보고, iPhone을 웹캠이나 FaceTime 소스로 사용하는 앱을 빌드하며, tvOS에서 개발할 때 특별히 고려해야 할 점을 살펴보세요. 또한 tvOS에서 오디오 녹음을 활성화하는 방법과 뛰어난 음성 기반 환경을 만들기 위해 에코 캔슬링을 사용하는 방법을 살펴봅니다.
-
28:58 앱에서 HDR 이미지 지원하기
앱에서 HDR 스틸 이미지를 식별 및 로드, 표시, 생성하는 방법을 알아보세요. HDR의 일반적인 개념과 최신 업데이트 사항인 ISO 사양을 살펴봅니다. SwiftUI와 UIKit에서 HDR 이미지를 식별하고 표시하는 법, ProRAW 및 RAW 캡처에서 HDR 이미지를 생성하는 법, 이를 CALayer에서 표시하는 방법을 알려 드립니다. 또한 CoreGraphics의 ISO HDR 지원을 소개하고, HDR 도입의 모범 사례를 살펴보겠습니다.
-
34:57 응답성이 뛰어난 카메라 경험 만들기
AVCapture와 PhotoKit을 사용하여 응답성이 뛰어나고 쾌적한 앱을 만들어 보세요. 카메라 캡처 과정을 알아보고 지연 사진 처리를 활용하여 고품질 사진을 만드는 기술을 소개합니다. 제로 셔터 랙으로 시간을 거슬러 올라가 완벽한 액션 사진을 담아내고, 응답성 캡처 파이프라인을 구성하는 법을 확인해 보세요. Video Effects API를 사용하여 실시간 비디오 효과를 입히는 사전 정의된 제스처를 인식하는 방법을 살펴봅니다.
-
13:43 ScreenCaptureKit의 새로운 기능
ScreenCaptureKit의 최신 기능을 활용해 다양한 방식으로 화면을 공유해 보세요. 내장된 시스템 피커, 프레젠터 오버레이, 스크린샷 기능을 살펴보고, 이 기능들을 기존의 ScreenCaptureKit 앱 및 게임에 통합하는 방법을 알아보세요.
-
32:41 iPadOS 앱에 외장 카메라 지원하기
AV Foundation 캡처 클래스를 사용하여 iPadOS 앱에서 외장 카메라를 검색하고 연결하는 방법에 대해 알아보세요. 외장 및 내장 카메라에서 비디오를 회전하고 USB-C로 외장 마이크를 지원하며 오디오 라우팅을 수행하는 방법을 소개해 드리겠습니다. 통화 지원, 최적의 에코 제거를 위한 튜닝 및 외장 카메라 채택의 모범 사례도 살펴보세요.
-
17:35 DockKit을 사용해 전동 iPhone 스탠드 통합하기
카메라 앱을 DocKit 호환 전동 스탠드와 결합하여 놀라운 사진과 비디오 경험을 만들 수 있는 방법을 알아 보세요. 앱이 360도 뷰 필드에 걸쳐 라이브 비디오의 대상을 자동 추적하고, 스탠드를 직접 통제해 프레이밍을 맞춤화하며, 모터를 직접 통제하고, 다른 물체를 트래킹하는 자체 추론 모델을 제공할 수 있는지 그 원리를 보여줍니다. 마지막으로, 동적인 디바이스 애니메이션을 통해 감정의 느낌을 만드는 법을 보여드리죠. 이미지 트래킹에 대해 더 많은 기법을 알아보시려면 WWDC23의 'Vision에서 동물 포즈 감지하기'...
-
14:16 앱에 사진 선택기 임베드하기
앱에서 사진 보관함에 쉽고 안전하게 액세스하는 방법을 알아보세요. 임베드된 선택기를 사용하는 방법과 옵션 메뉴 및 HDR 스틸 이미지 지원에 대해서도 살펴보세요. 또한, UI 사용자화 옵션을 활용하여 선택기가 기존 인터페이스와 조화를 이루는 방법도 소개합니다.
-
-
Tech Talks -
14:05 Journaling Suggestions API 알아보기
새로운 Journaling Suggestions API를 활용하여 사용자가 일상 속 소중한 순간과 중요한 이벤트를 앱에 기록하고 돌아볼 수 있도록 지원하고 사용자의 개인정보를 보호하는 방법에 대해 알아보세요. Journaling Suggestions API를 활용하여 일기 쓰기 제안에 애셋과 메타데이터를 가져오고, 앱 화면 위에 선택기를 불러오고, 사용자가 제안된 콘텐츠를 저장하도록 지원하는 방법을 확인해 보세요.
-
12:50 참조 모드 알아보기
Liquid Retina XDR 디스플레이가 탑재된 iPad Pro 12.9에서 참조 모드를 사용하여 까다로운 프로급 작업 흐름에서 색상 요구 사항을 충족하는 방법을 알아보십시오. 참조 모드를 사용하여 색상을 정확하게 표현하고 검토 및 승인, 합성, 색 보정과 같은 작업 흐름에 일관된 이미지 표현을 제공하는 방법을 살펴봅니다. 또한 참조 모드와 함께 사용하는 API를 살펴보고, 해당 기능 및 지원되는 미디어 형식을 살펴보고, 참조 모드를 사용하여 Sidecar를 개선하는 방법에 대해 알아봅니다.
-
9:16 QR Code Recognition on iOS 11
iOS 11 provides built-in support to detect and handle QR codes. Discover the supported QR code types, how each type is handled by built-in Camera and Safari apps, and how Universal Links can seamlessly send users to your app when scanning your QR codes.
-
-
WWDC22 -
16:29 RoomPlan으로 매개변수적 3D 룸 스캔 만들기
RoomPlan을 사용하면 앱에서 간단한 매개변수적 3D 룸 스캔을 빠르게 만들 수 있습니다. 이 API를 사용하여 룸 스캐닝 경험을 손쉽게 추가하는 방법을 알아보세요. 이 API를 도입하는 방법을 보여드리고, 3D 매개변수적 출력에 대해 살펴보며, 앱에서 모든 스캔에 대해 우수한 결과를 얻을 수 있는 모범 사례를 공유합니다.
-
19:41 내 macOS 앱에 연속성 카메라 활용하기
연속성 카메라를 통해 모든 Mac 앱에서 iPhone을 외부 카메라로 사용할 수 있는 방법을 확인하세요. 비디오 화상 회의 소프트웨어 빌드, 카메라를 사용한 창작 활동 등에 관계없이 자동 카메라 전환을 통해 앱의 기능을 향상하는 방법을 보여드리겠습니다. 또한 사용자 선호 및 시스템 선호 카메라를 인식하는 방법을 살펴보고, iPhone의 비디오 스트림으로부터 고해상도 및 고품질 사진을 캡처할 수 있는 API 등을 안내하겠습니다. 카메라 캡처에 대해 자세히 알아보려면 WWDC22의 ‘Discover advancements in...
-
14:26 앱에 라이브 텍스트 상호 작용 추가
정지 사진 또는 일시 정지된 비디오 프레임에 대한 라이브 텍스트 지원을 앱에 구현하는 방법을 알아보세요. iOS, iPadOS 또는 macOS의 모든 이미지 보기 내에서 텍스트 상호 작용, 번역, 데이터 감지 및 QR 코드 스캐닝을 손쉽게 활성화하는 방법을 소개합니다. 또한 상호 작용 유형 제어, 보조 인터페이스 관리, 잠재적 동작 충돌 해결 방법에 대해 다룹니다. 라이브 카메라 피드의 감지된 데이터 캡처 및 상호 작용에 대해 자세히 알아보려면 WWDC22의 ‘Capture machine-readable codes and...
-
12:11 VisionKit을 통한 컴퓨터 판독 코드 및 텍스트 캡처
VisionKit의 Data Scanner를 소개합니다. 이 프레임워크는 AVCapture와 Vision을 결합하여, 간단한 Swift API를 통해 컴퓨터 판독 코드 및 텍스트의 라이브 캡처를 지원합니다. 바코드 기호와 언어 선택을 지정하여 앱에서 캡처할 수 있는 콘텐츠의 유형을 제어하는 방법을 보여드립니다. 또한 앱에서 지침을 활성화하고 항목 강조 또는 관심 영역을 맞춤화하는 방법에 대해 살펴보며, 앱에서 항목을 감지한 후의 상호 작용을 처리하는 방법을 다룹니다. 정지 이미지 또는 일시 정지된 비디오 프레임을 통한 라이브...
-
20:36 iOS의 EDR 살펴보기
EDR은 Apple의 HDR(High Dynamic Range) 표현 및 렌더링 파이프라인입니다. 앱에서 EDR을 사용하여 HDR 콘텐츠를 렌더링하고, iPhone 및 iPad에서 HDR 디스플레이의 다이내믹 레인지 기능을 활용하는 방법을 알아보세요. iOS에서 네이티브 EDR API를 활용하는 방법을 보여드리고, HDR이 적절한 경우를 결정하는 데 도움이 될 모범 사례를 제공하며, 톤 매핑 및 HDR 콘텐츠 렌더링을 위한 팁을 소개합니다. 또한 참조 모드를 소개하고 이를 통해 참조 응답을 제공함으로써 색상 등급 지정, 편집...
-
18:22 iOS 카메라 캡처의 향상된 기능 살펴보기: 심도, 포커스, 멀티태스킹
앱에서 고급 카메라 캡처 기능을 활용하는 방법을 확인하세요. LiDAR 스캐너를 사용하여 사진 및 비디오 효과를 만들고 정확한 심도 측정을 수행하는 방법을 보여드립니다. 앱에서 카메라를 사용하여 화면 속 화면이나 멀티태스킹을 수행하고, 카메라 캡처 중에 얼굴 기반 자동 포커스와 자동 노출을 제어하는 방법 등을 알아보세요. 또한 고품질의 비디오 출력을 캡처하는 동시에 라이브 미리 보기를 최적화할 수 있도록 다양한 비디오 출력을 사용하기 위한 전략을 소개합니다. 카메라 캡처 기능의 개요를 확인하려면 WWDC21의 ‘What's...
-
17:41 Core Image, Metal 및 SwiftUI로 EDR 콘텐츠 표시
Core Image 기반의 멀티 플랫폼 SwiftUI 응용 프로그램에서 EDR(Extended Dynamic Range) 렌더링에 대한 지원을 추가하는 방법을 살펴볼 수 있습니다. ViewRepresentable을 사용하여 MTKView에 CIImage를 표시하는 모범 사례를 개괄적으로 살펴보겠습니다. 또한 EDR 렌더링을 활성화하기 위한 간단한 단계를 공유하고 EDR을 지원하는 150개 이상의 내장된 CIFilter 중 일부를 살펴보겠습니다.
-
32:08 Core Media IO로 카메라 확장 프로그램 만들기
Core Media IO를 사용하여 소프트웨어 카메라, 하드웨어 카메라 및 크리에이티브 카메라를 위한 macOS 시스템 확장 프로그램을 손쉽게 만드는 방법을 확인하세요. 레거시 DAL 플러그인을 대체하는 최신 기능을 소개합니다. 이러한 확장 프로그램은 안전하고 빠르며 카메라 입력을 사용하는 모든 앱과 완벽히 호환됩니다. Core Media IO API에 대해 안내하고 이를 통해 카메라 제조업체, 특수 효과 기능이 있는 화상 회의 앱, 창의적인 앱 아이디어 등을 지원하는 방법을 알려드리겠습니다.
-
14:30 Photos 선택기의 새로운 기능
PHPicker를 통해 앱과 시스템 사진 라이브러리를 간단하고 안전하게 통합할 수 있습니다. SwiftUI 및 Transferable을 통해 iOS, iPadOS, macOS 및 watchOS 전반에서 통합을 제공하는 방법을 알아보세요. 또한 AppKit 및 NSOpenPanel을 사용하여 Mac의 Photos 선택기를 macOS 앱에 제공하는 방법을 보여드립니다. Photos 선택기에 대해 자세히 알아보려면 WWDC21의 ‘Improve access to Photos in your app(앱에서 Photos 액세스...
-
22:04 AVFoundation 및 Metal을 통해 HDR 비디오를 EDR로 표시
AVFoundation 및 Metal을 활용하여 효율적인 EDR 파이프라인을 빌드하는 방법을 배울 수 있습니다. AVPlayer를 사용하여 HDR 비디오를 EDR로 표시하고, 앱 보기에 재생을 추가하고 이를 Metal로 렌더링하며, Core Image나 맞춤형 Metal 셰이더를 사용하여 키잉이나 색상 관리와 같은 비디오 효과를 추가하는 방법에 대해 시연하는 과정을 살펴보시기 바랍니다. 게임 또는 전문 앱 중 무엇을 개발하든지 관계없이, 어떤 프레임워크를 사용할지 결정하는 데 도움을 드리고, Transport,...
-
10:00 PhotoKit 변경 내역 살펴보기
PhotoKit을 통해 풍부한 사진 중심 기능을 빌드할 수 있습니다. PhotoKit의 최신 API를 통해 이미지 자산의 변경 내용을 쉽게 추적하는 방법을 알아보세요. PHPhotoLibrary 변경 내역 API를 소개하고, 출시 간 변경 토큰을 보존하여 앱에서 사용자의 사진 라이브러리에 대한 추가 사항, 삭제 및 업데이트를 인식하는 방법을 시연합니다. 사진 라이브러리 통합에 대해 자세히 알아보려면 WWDC22의 ‘What's new in the Photos picker(Photos 선택기의 새로운 기능)' 및 WWDC21의...
-
-
WWDC21 -
16:49 Create ML 프레임워크로 동적 iOS 앱 구축하기
Create ML 프레임워크를 사용하여 기기에서 Core ML 모델을 완전히 학습시켜 데이터 개인정보를 보호하면서 적응형 및 맞춤형 앱 경험을 제공하는 방법을 알아보세요. 스타일 전송 및 이미지 분류와 같은 이미지 기반 작업, 사용자화 소리 분류와 같은 오디오 작업, 다양한 텍스트 분류, 표 형식 데이터 분류 및 표 형식 회귀 변수를 기반으로 하는 작업을 위해 즉시 생성할 수 있는 모델 유형을 살펴봅니다. 또한 이러한 모델을 통해 더 개성 있고 역동적인 앱을 만드는 방법도 안내해 드립니다. 더 많은 영감을 얻으려면...
-
11:34 Use the camera for keyboard input in your app
Learn how you can support Live Text and intelligently pull information from the camera to fill out forms and text fields in your app. We'll show you how to apply content filtering to capture the correct information when someone uses the camera as keyboard input and apply it to a relevant...
-
36:02 카메라 캡처의 새로운 기능
제어 센터에서 센터 스테이지, 인물 사진 모드, 마이크 모드 등의 비디오 효과를 사용하는 방법을 알아보세요. 앱에서 비디오 효과 기능이 활성화되었을 때 이를 확인하는 방법과 앱에서 이러한 기능을 제어할 수 있도록 사용자 설정 인터페이스를 구현하는 방법을 살펴봅니다. 또한 10비트 HDR 비디오 캡처를 활성화하고 카메라 캡처 경험 향상을 위해 최소 초점 거리(Minimum-focus-distance) 보고 기능을 활용하는 방법을 알아보며, IOSurface 압축 지원과 카메라 캡처에서 최적의 성능을 제공하는 방법도 살펴봅니다...
-
9:03 Explore Core Image kernel improvements
Discover how you can add Core Image kernels written in the Metal Shading Language into your app. We'll explore how you can use Xcode rules and naming conventions for Core Image kernels written in the Metal Shading Language, and help you make sense of Metal's Stitchable functions and dynamic...
-
19:57 Explore low-latency video encoding with VideoToolbox
Supporting low latency encoders has become an important aspect of video application development process. Discover how VideoToolbox supports low-delay H.264 hardware encoding to minimize end-to-end latency and achieve new levels of performance for optimal real-time communication and high-quality...
-
26:31 Capture and process ProRAW images
When you support ProRAW in your app, you can help photographers easily capture and edit images by combining standard RAW information with Apple's advanced computational photography techniques. We'll take you through an overview of the format, including the look and feel of ProRAW images, quality...
-
17:58 Improve access to Photos in your app
PHPicker is the simplest and most secure way to integrate the Photos library into your app — and it's getting even better. Learn how to handle ordered selection of images in your app, as well as pre-selecting assets any time the picker is shown. And for apps that need to integrate more deeply...
-
14:39 Capture high-quality photos using video formats
Your app can take full advantage of the powerful camera systems on iPhone by using the AVCapture APIs. Learn how to choose the most appropriate photo or video formats for your use cases while balancing the trade-offs between photo quality and delivery speed. Discover some powerful new algorithms...
-
34:16 Explore HDR rendering with EDR
EDR is Apple's High Dynamic Range representation and rendering pipeline. Explore how you can render HDR content using EDR in your app and unleash the dynamic range capabilities of your HDR display including Apple's internal displays and Pro Display XDR. We'll show you how game and pro app...
-
-
WWDC20 -
6:12 Build Metal-based Core Image kernels with Xcode
Learn how to integrate and load Core Image kernels written in the Metal Shading Language into your application, and discover how you can apply these image filters to create unique effects. Explore how to use Xcode rules and naming conventions for Core Image kernels written in Metal Shading...
-
8:37 Optimize the Core Image pipeline for your video app
Explore how you can harness the processing power of Core Image and optimize video performance within your app. We'll show you how to build your Core Image pipeline for applying effects to your video in your apps: Discover how to reduce your app's memory footprint when using CIContext, and learn...
-
14:33 Meet the new Photos picker
Let people select photos and videos to use in your app without requiring full Photo Library access. Discover how the PHPicker API for iOS and Mac Catalyst ensures privacy while providing your app the features you need. PHPicker is the modern replacement for UIImagePickerController. In addition...
-
24:35 Explore Computer Vision APIs
Learn how to bring Computer Vision intelligence to your app when you combine the power of Core Image, Vision, and Core ML. Go beyond machine learning alone and gain a deeper understanding of images and video. Discover new APIs in Core Image and Vision to bring Computer Vision to your application...
-
14:17 Handle the Limited Photos Library in your app
Access the photos and videos you need for your app while preserving privacy. With the new Limited Photos Library feature, people can directly control which photos and videos an app can access to protect their private content. We'll explore how this feature may affect your app, and take you...
-
7:16 Discover Core Image debugging techniques
Find and fix rendering and optimization issues in your Core Image pipeline with Xcode environment variable. Discover how you can set the environment variable for visualizing your Core Image graphs. You'll learn how to generate Core Image graphs and how to interpret them to discover memory, color,...
-
23:58 Capture and stream apps on the Mac with ReplayKit
Learn how you can integrate ReplayKit into your Mac apps and games to easily share screen recordings or broadcast live audio and visuals online. We'll show you how to capture screen content, audio, and microphone input inside your Mac apps, and even broadcast your video to a live audience. For...
-
-
WWDC19 -
15:33 사진 세분화 매트 소개
iOS 12의 인물 사진 모드에서 캡처된 사진에는 배경 교체와 같은 창의적인 시각 효과를 쉽게 만들 수 있는 인물 세분화 매트가 내장되어 있습니다. iOS 13에서는 기기 내 머신 러닝을 활용하여 캡처된 모든 사진에 새로운 세분화 매트를 지원합니다. 인물의 머리카락, 피부, 치아를 분리하는 새로운 시맨틱 세분화 매트를 AVCapture와 Core Image에서 모두 사용하는 방법을 알아보세요. 매트를 개별적으로 사용하거나 모두 결합하면 앱에서 여러 사진 편집 제어 기능을 제공할 수 있습니다.
-
39:50 Understanding Images in Vision Framework
Learn all about the many advances in the Vision Framework including effortless image classification, image saliency, determining image similarity, and improvements in facial feature detection, and face capture quality scoring. This packed session will show you how easy it is to bring powerful...
-
60:34 Advances in Camera Capture & Photo Segmentation
Powerful new features in the AVCapture API let you capture photos and video from multiple cameras simultaneously. Photos now benefit from semantic segmentation that allows you to isolate hair, skin, and teeth in a photo. Learn how these advances enable you to create great camera apps and easily...
-
44:40 Introducing Multi-Camera Capture for iOS
In AVCapture on iOS 13 it is now possible to simultaneously capture photos and video from multiple cameras on iPhone XS, iPhone XS Max, iPhone XR, and the latest iPad Pro. It is also possible to configure the multiple microphones on the device to shape the sound that is captured. Learn how to...
-
-
WWDC17 -
29:05 High Efficiency Image File Format
Learn the essential details of the new High Efficiency Image File Format (HEIF) and discover which capabilities are used by Apple platforms. Gain deep insights into the container structure, the types of media and metadata it can handle, and the many other advantages that this new standard affords.
-
58:39 Capturing Depth in iPhone Photography
Portrait mode on iPhone 7 Plus showcases the power of depth in photography. In iOS 11, the depth data that drives this feature is now available to your apps. Learn how to use depth to open up new possibilities for creative imaging. Gain a broader understanding of high-level depth concepts and...
-
-
WWDC16 -
20:44 AVCapturePhotoOutput - Beyond the Basics
Continue your learning from Session 501: Advances in iOS Photography, with some additional details on scene monitoring and resource management in AVFoundation's powerful new AVCapturePhotoOutput API.
-
59:42 Advances in iOS Photography
People love to take pictures with iPhone. In fact, it's the most popular camera in the world, and photography apps empower this experience. Explore new AVFoundation Capture APIs which allow for the capture of Live Photos, RAW image data from the camera, and wide color photos.
-