TechFeedTechFeed
Big Tech Updates

Apple Intelligence API 개발자 가이드 — 온디바이스 AI 활용법

Apple Intelligence 아키텍처, Foundation Models 프레임워크(Swift), App Intents/Siri 연동, Image Playground, Writing Tools API.

한 줄 요약: Apple Intelligence는 온디바이스 AI와 Private Cloud Compute를 결합한 Apple의 AI 플랫폼으로, Foundation Models 프레임워크와 App Intents를 통해 서드파티 앱에 통합 가능하다.

이 글이 필요한 사람:

  • Apple 플랫폼(iOS/macOS)에서 AI 기능을 구현하려는 Swift/Objective-C 개발자
  • Siri와 앱을 연동하거나 Writing Tools를 앱에 통합하려는 팀
  • Apple Intelligence API의 현재 범위와 제한을 파악해야 하는 프로젝트 매니저
  • 온디바이스 AI 처리의 개인정보 보호 아키텍처를 이해하고 싶은 보안 엔지니어

Apple Intelligence 개요 — 온디바이스 AI와 Private Cloud Compute

Apple Intelligence는 iOS 18.1, iPadOS 18.1, macOS Sequoia 15.1부터 도입된 Apple의 퍼스널 인텔리전스 시스템이다. 단순한 AI 어시스턴트가 아니라, 디바이스 전반에 걸쳐 언어·이미지·액션 처리를 통합하는 플랫폼 레이어다.

아키텍처의 핵심 원칙은 두 가지다.

  • 온디바이스 처리 우선: 대부분의 요청은 Apple Silicon(A17 Pro 이상, M1 이상)에서 직접 처리된다. 개인 데이터가 Apple 서버로 전송되지 않는다.
  • Private Cloud Compute(PCC): 온디바이스 모델로 처리하기 어려운 복잡한 요청은 PCC로 오프로드된다. Apple은 PCC 서버에서 처리된 요청이 로깅·저장되지 않는다고 명시하며, 독립적 보안 감사가 가능하도록 설계했다.
지원 기기 요구사항: iPhone 15 Pro / iPhone 15 Pro Max 이상 (A17 Pro 칩), iPad 및 Mac은 M1 칩 이상 필요. iPhone 15 표준 모델은 Apple Intelligence 미지원. 개발 시 시뮬레이터보다 실제 기기 테스트 필수.

Apple Intelligence의 개발자 접근은 직접적인 모델 API 노출 방식이 아니다. Apple은 Foundation Models 프레임워크, App Intents 시스템, Writing Tools API, Image Playground API라는 4개의 레이어를 통해 기능을 제공한다. 각 레이어는 목적에 따라 사용 범위와 제한이 다르다.

공식 문서: developer.apple.com/apple-intelligence

Foundation Models 프레임워크 — Swift에서 온디바이스 LLM 사용

Foundation Models 프레임워크(iOS 18.2+, macOS 15.2+)는 Apple Silicon 기반 기기에서 동작하는 온디바이스 언어 모델을 Swift 코드에서 직접 호출할 수 있게 해주는 공개 API다. 이 프레임워크가 사용하는 모델은 Apple의 독자적 소형 언어 모델(약 3B 파라미터 추정)이다.

주요 기능:

  • 텍스트 분류, 요약, 추출, 생성 등 일반적인 NLP 태스크
  • 앱 고유 컨텍스트를 반영하는 커스텀 프롬프트 구성
  • 구조화된 출력(Structured Output) 지원 — Swift Codable 타입으로 직접 디코딩
  • 스트리밍 응답 지원
Foundation Models — 기본 텍스트 생성 (Swift)
import FoundationModels // 가용성 확인 guard LanguageModelSession.isAvailable else { print("Foundation Models not available on this device") return } // 세션 생성 let session = LanguageModelSession() // 비동기 텍스트 생성 Task { do { let prompt = "다음 Swift 코드의 버그를 찾아서 설명해줘: \(codeSnippet)" let response = try await session.respond(to: prompt) print(response.content) } catch { print("Error: \(error)") } }
Foundation Models — 구조화된 출력 (Structured Output)
import FoundationModels // 출력 스키마 정의 @Generable struct BugReport: Codable { let severity: String // "high", "medium", "low" let description: String let suggestedFix: String } // 구조화된 응답 요청 let session = LanguageModelSession() Task { do { let report = try await session.respond( to: "Analyze this code for bugs: \(code)", generating: BugReport.self ) print("Severity: \(report.content.severity)") print("Fix: \(report.content.suggestedFix)") } catch { print("Error: \(error)") } }
중요 제한사항: Foundation Models 프레임워크는 앱 스토어 배포 앱에서 사용 가능하지만, 모델 자체를 교체하거나 fine-tuning하는 것은 불가능하다. Apple이 관리하는 온디바이스 모델만 사용 가능하다. 복잡한 추론이나 대용량 컨텍스트 처리는 성능 한계가 있다.

App Intents와 Siri 확장 — 앱 기능을 AI 액션으로 노출

App Intents 프레임워크는 앱의 기능을 Siri, Spotlight, Shortcuts, 그리고 Apple Intelligence에 노출하는 메커니즘이다. iOS 16부터 도입됐지만, Apple Intelligence와 함께 Siri가 앱 컨텍스트를 이해하고 액션을 실행하는 핵심 통로가 됐다.

Apple Intelligence 환경에서 App Intents의 역할이 커진 이유는 Siri가 자연어로 앱 내 기능을 호출할 수 있게 됐기 때문이다. 예: "메모 앱에서 오늘 회의 내용 요약해줘"처럼 앱 도메인 컨텍스트를 포함한 명령 처리.

App Intents — 기본 Intent 정의 (Swift)
import AppIntents struct CreateTaskIntent: AppIntent { static var title: LocalizedStringResource = "Create Task" static var description = IntentDescription("Creates a new task in the app") @Parameter(title: "Task Name") var taskName: String @Parameter(title: "Due Date") var dueDate: Date? func perform() async throws -> some IntentResult { // 앱 내 태스크 생성 로직 let task = try await TaskManager.shared.create( name: taskName, dueDate: dueDate ) return .result(value: task.id) } } // Info.plist 또는 AppShortcutsProvider 등록 필요 struct AppShortcuts: AppShortcutsProvider { static var appShortcuts: [AppShortcut] { AppShortcut( intent: CreateTaskIntent(), phrases: ["Create task in \(.applicationName)", "Add \(\.$taskName) to my tasks"] ) } }

Writing Tools API와 Image Playground API

Writing Tools API는 Apple Intelligence의 글쓰기 보조 기능(교정, 재작성, 요약)을 앱 내 텍스트 편집 영역에 통합하는 API다. UITextView, NSTextView를 사용하는 앱은 별도 구현 없이 시스템 Writing Tools가 자동으로 동작한다. 커스텀 텍스트 뷰를 사용하는 경우 UITextViewDelegate의 Writing Tools 관련 메서드를 구현해야 한다.

Image Playground API는 앱 내에서 Image Playground 인터페이스를 호출해 AI 이미지 생성 기능을 제공하는 API다. ImagePlaygroundViewController를 통해 시트 형태로 표시하며, 생성된 이미지를 앱으로 반환받는다.

Image Playground API — 기본 통합 (Swift)
import ImagePlayground import UIKit class ViewController: UIViewController, ImagePlaygroundSheetControllerDelegate { func openImagePlayground() { // 가용성 확인 guard ImagePlaygroundViewController.isAvailable else { print("Image Playground not available") return } let controller = ImagePlaygroundViewController() controller.delegate = self // 초기 개념(concept) 제공 가능 controller.concepts = [ .text("A developer coding at night with multiple monitors") ] present(controller, animated: true) } // 생성 완료 콜백 func imagePlaygroundViewController( _ controller: ImagePlaygroundViewController, didCreateImageAt imageURL: URL ) { // imageURL: 생성된 이미지의 로컬 파일 URL let image = UIImage(contentsOfFile: imageURL.path) // 앱에서 이미지 활용 controller.dismiss(animated: true) } func imagePlaygroundViewControllerDidCancel( _ controller: ImagePlaygroundViewController ) { controller.dismiss(animated: true) } }
Writing Tools — 커스텀 텍스트 뷰 지원
import UIKit class CustomTextView: UIView { // UITextInput 프로토콜 준수 필요 // Writing Tools 활성화를 위한 최소 구현 var writingToolsBehavior: UIWritingToolsBehavior = .complete // .complete: 모든 Writing Tools 기능 활성화 // .limited: 교정 기능만 // .none: Writing Tools 비활성화 } // 표준 UITextView 사용 시 추가 설정 불필요 let textView = UITextView() textView.writingToolsBehavior = .complete // 기본값

개발자가 지금 준비할 것 — 실무 체크리스트

Apple Intelligence API를 앱에 통합하려면 개발 환경과 설계 단계에서 사전 준비가 필요하다. 아래는 단계별 체크리스트다.

현재(2026년 초) Apple Intelligence API는 빠르게 범위를 확대 중이다. Foundation Models 프레임워크는 iOS 18.2에서 처음 공개됐고, 이후 업데이트마다 기능이 추가되고 있다. WWDC 2025에서 공개될 내용에 따라 API 구조가 크게 변경될 가능성이 있으므로, 공식 개발자 페이지와 WWDC 세션 업데이트를 주기적으로 확인해야 한다.

중요한 현실적 제약: Foundation Models 프레임워크는 모델 커스터마이징(fine-tuning)이 불가능하다. 앱 특화 도메인 지식이 필요한 경우, 프롬프트 엔지니어링 + 앱 컨텍스트 제공 방식으로 해결해야 한다. 복잡한 추론이나 긴 컨텍스트 처리는 OpenAI, Anthropic 등의 외부 API를 사용하는 하이브리드 접근이 현실적일 수 있다.

Apple IntelligenceSwift온디바이스AISiriiOSmacOS

관련 포스트

Apple Intelligence 개발자 가이드 — on-device AI의 현재2026-03-17Google I/O 2026 개발자 요약2026-03-01WWDC 2026 개발자 하이라이트2026-03-01Microsoft Build 2026 개발자 요약2026-03-02