시리가 똑똑해진다는 뉴스는 해마다 나온다. 올해 진짜 다른 건, 그 두뇌가 애플 자체 모델이 아니라 구글 제미나이라는 점이다. 1.2조 파라미터짜리 커스텀 MoE 모델, 연간 10억 달러 계약. 그리고 사용자 눈에 구글 로고는 어디에도 안 보인다.

10억 달러짜리 유령

애플이 자체 모델을 포기한 건 아니다. 온디바이스 Apple Foundation Model(150B)은 그대로 쓴다. 다만 무거운 추론이 필요할 때만 제미나이에 넘긴다. CNBC 보도에 따르면 이건 완전한 화이트라벨 계약이다 — 사용자는 자기 질문이 구글 모델을 거쳤는지 알 방법이 없다. 돈은 구글이 벌고, 브랜드는 애플이 가져간다. 솔직히 양쪽 다 이득인 구조다.

세 겹으로 나눠진 처리 구조

질문의 복잡도에 따라 세 단계를 탄다:

단계 처리 위치 역할
1단계 아이폰/맥/아이패드 내부 간단한 쿼리, 오프라인
2단계 애플 데이터센터(PCC) 제미나이 기반 복잡 추론
3단계 서드파티(ChatGPT 등) 사용자가 명시적 허용 시만

"구글 모델인데 프라이버시는?"이 당연한 질문인데, 구조를 보면 꽤 빡빡하게 잠가뒀다. 추론은 애플 서버에서 돈다 — 구글 클라우드가 아니다. 쿼리가 모델에 도달하기 전에 개인 식별자와 IP가 벗겨진다. 계약상 구글은 이 트래픽으로 학습할 수 없고, 서버는 쿼리를 메모리에서만 처리한 뒤 날린다. 현실적으로 가능한 최선에 가까운 설계다.

물론 "애플 서버에서 돌린다"가 모든 걱정을 지우진 않는다. 하지만 온디바이스 150B와 클라우드 1.2T 사이의 성능 격차가 워낙 크다. 이 트레이드오프를 받아들인 건 합리적인 판단이다.

개발자한테 바뀌는 것들

이게 핵심이다. SiriKit intent 카테고리가 iOS 25의 120개에서 340개 이상으로 확대됐다. App Intents 프레임워크도 확장돼서 서드파티 앱이 멀티스텝 워크플로우를 시리에 노출할 수 있다. "방금 메시지 보낸 사람한테 뱅킹 앱으로 송금해" 같은 크로스앱 체이닝이 실제로 작동하기 시작한다는 얘기다.

주목할 건 processingTier 콜백이다. 인텐트 핸들러가 해당 쿼리의 처리 경로를 알려준다 — 온디바이스인지 클라우드 제미나이를 거쳤는지. 앱 쪽에서 응답 디테일을 조절할 수 있는 시그널인 셈이다. 클라우드 경유 쿼리는 사용자 의도 파악이 더 정교하니, 그에 맞춰 풍부한 응답을 돌려줄 수 있다.

좋은 소식은 기존 연동 코드를 갈아엎을 필요가 없다는 거다. 업그레이드는 모델 레이어에서 일어나지 API 레이어가 바뀌는 게 아니다. 기존 Siri Shortcuts와 App Intents 코드는 그대로 돌아가면서 더 나은 응답을 자동으로 받게 된다.

더 멀리 보면, iOS 27에서 도입될 "Extensions" 시스템이 있다. 시리가 제미나이뿐 아니라 Claude 같은 다른 모델도 호출할 수 있게 되는 구조다. 어떤 모델이 뒤에 있든 같은 API로 동작하니 앱 개발자 입장에서 큰 변화는 아니지만, 플랫폼 전략으로는 꽤 흥미로운 방향이다.

일정? 믿지 마라

현실 체크. 제미나이 기반 시리 기능은 원래 iOS 26.4(3월)에 나올 예정이었다. 밀렸다. 일부는 iOS 26.5(5월), 나머지는 iOS 27(9월)로 분산된다. 특히 개인 데이터 접근과 음성 기반 인앱 컨트롤이 뒤로 갔다. WWDC 2024에서 처음 발표한 기능이 2026년 4월에도 완전히 안 나왔다는 건, 시스템 레벨 AI 통합이 모델 성능과는 전혀 다른 차원의 문제라는 방증이다.

한편 애플은 휴스턴에서 자체 AI 칩 "Baltra"를 양산 준비 중이고, 2027년 데이터센터 투입이 목표다. 그때 되면 구글 의존도를 줄일 카드가 생기겠지만, 지금 당장 개발자가 할 일은 하나다 — App Intents 정리부터 시작하자.