Apple vừa ký séc 1 tỷ đô mỗi năm cho Google. Không phải để mua vị trí quảng cáo hay đặt Google làm công cụ tìm kiếm mặc định — mà để mua AI. Cụ thể, để xây dựng lại toàn bộ Siri bằng mô hình Gemini của Google, chạy trên hạ tầng Private Cloud Compute của Apple.

Dự án này có tên nội bộ là Project Campos, và đây là thay đổi chiến lược AI lớn nhất của Apple kể từ khi Siri ra mắt năm 2011. Nếu bạn đang xây dựng sản phẩm trên nền tảng Apple, đây không phải tin nền — đây là bản xem trước của các API bạn sẽ gọi trong 12 tháng tới.

Điều Gì Thực Sự Thay Đổi (Ngoài Tiêu Đề Báo)

Apple Intelligence ra mắt cuối 2024 được xây dựng trên Apple Foundation Models — các mô hình nhỏ, chạy trên thiết bị, khoảng 3–7 tỷ tham số. Đủ cho tác vụ đơn giản, nhưng rõ ràng yếu hơn nhiều so với các frontier model. Khoảng cách hiện ra rõ trong thực tế: prompt phức tạp trả về câu trả lời thận trọng, mơ hồ; tác vụ nhiều bước thường thất bại.

Project Campos không xóa bỏ điều đó — mà xây thêm lên trên. Kiến trúc mới trông như thế này:

  • On-device models (~3 tỷ tham số): Xử lý tác vụ đơn giản, cần độ trễ thấp. Autocorrect, tóm tắt nhanh, truy vấn cục bộ. Vẫn private, vẫn nhanh.
  • Private Cloud Compute: Hạ tầng server riêng của Apple. Dữ liệu người dùng được mã hóa đầu-cuối và Apple khẳng định không thể truy cập nội dung.
  • Gemini 3.1 custom model (~1.2 nghìn tỷ tham số): Xử lý reasoning phức tạp, lập kế hoạch nhiều bước, điều phối cross-app. Đây là động cơ thực sự của Siri agentic mới.

Cam kết quan trọng Apple đưa ra: Gemini chạy trong môi trường isolated trên hạ tầng Apple. Không có Google log dữ liệu. Không chia sẻ thông tin. Thỏa thuận “white-label” có nghĩa người dùng chỉ thấy Siri, không thấy Gemini — và về lý thuyết, các cam kết privacy Apple đã xây dựng vẫn được giữ nguyên.

Tôi khá lạc quan về điều này nhưng muốn xem các audit bảo mật độc lập trước khi tin tưởng với workflow nhạy cảm.

WWDC 2026: Kỳ Vọng Gì Ngày 8/6

iOS 26.5 beta (phát hành 30/3) không chứa bất kỳ tính năng nào dùng Gemini. Tín hiệu từ đội nội bộ Apple rõ ràng: mọi thứ đang được giữ cho WWDC 2026, và rollout đầy đủ nhắm vào iOS 27.

Là developer, đây là những gì tôi đang theo dõi:

1. SiriKit Evolution SiriKit Intents hiện tại rất hạn chế và dễ vỡ. Với mô hình có khả năng reasoning, Apple nên có thể expose API linh hoạt hơn nhiều — mô tả app của bạn làm được gì bằng ngôn ngữ tự nhiên, để model tự xử lý intent extraction. Đây sẽ là nâng cấp lớn.

2. On-Screen Context APIs Một trong những tính năng nổi bật của Project Campos là “nhận thức màn hình” — Siri hiểu người dùng đang nhìn gì và thao tác theo. Với developer, điều này có nghĩa là API mới để expose structured context từ app của bạn lên system AI layer. Hãy nghĩ về accessibility metadata, nhưng phong phú hơn và hai chiều.

3. App Actions Registry Rumor cho rằng Apple đang xây dựng App Actions Registry — một catalog system-level về những gì mỗi app có thể làm, có thể query bởi Siri. Nếu điều này ra mắt, đây là thay đổi quan trọng nhất với developer kể từ SwiftUI. Bạn sẽ muốn app của mình được liệt kê và mô tả rõ ràng từ ngày đầu.

Đánh Đổi Privacy Tôi Vẫn Đang Suy Nghĩ

Marketing privacy của Apple xuất sắc, và Private Cloud Compute là thiết kế kỹ thuật thực sự chu đáo. Nhưng hãy để tôi thành thật về sự đánh đổi:

Trước Project Campos, query nhạy cảm ở lại trên thiết bị. Bây giờ, tác vụ phức tạp route lên Gemini trên server Apple. Apple nói server dùng hardware attestation và hệ thống có thể xác minh — security researcher có thể kiểm tra software stack chạy trên PCC node.

Rủi ro thực tế không phải Apple hay Google có hành vi xấu. Mà là attack surface. Hai công ty thay vì một, network path phức tạp hơn, và model 1.2 nghìn tỷ tham số với hành vi nội bộ không rõ ràng. Với enterprise app xử lý dữ liệu nhạy cảm, bạn cần suy nghĩ kỹ về user interaction nào có thể trigger cloud routing.

Khuyến nghị của tôi: khi WWDC ship tài liệu, tìm cụ thể API cho phép app của bạn khai báo hoạt động nào phải ở lại on-device. Nếu Apple không cung cấp control này, hãy lên tiếng mạnh mẽ đòi hỏi nó.

Ý Nghĩa Với AI-First App Development

Câu hỏi thú vị nhất không phải Siri — mà là ý nghĩa với developer đang xây AI features vào app của họ.

Apple đã liên tục đẩy developer về phía Apple Foundation Models cho on-device inference. Với Gemini powering system layer, có một tương lai logic nơi system-level AI và app-level AI chia sẻ context. Hãy tưởng tượng AI assistant trong app của bạn biết người dùng vừa làm gì trong Calendar, Mail, hoặc Maps — không qua API call tường minh, mà qua system intelligence layer.

Đây là điều Google đã xây dựng hướng tới với vai trò Gemini trên Android. Apple giờ, muộn nhưng nghiêm túc, đang xây dựng điều tương tự.

Playbook thực tế cho developer ngay hôm nay:

// Hôm nay: gọi trực tiếp Apple Foundation Models
let session = LanguageModelSession()
let result = try await session.respond(to: "Tóm tắt văn bản này")

// WWDC 2026 (dự kiến): đăng ký khả năng app cho Siri system-level
// AppCapabilityRegistry.register(
//     capability: "tao_hoa_don",
//     description: "Tạo hóa đơn mới cho khách hàng",
//     parameters: ["ten_khach", "so_tien", "ngay_den_han"]
// )

Pattern thứ hai là suy đoán, nhưng đó là hướng Apple cần đi để điều này trở thành nhiều hơn một nâng cấp chatbot.

Nhận Định: Chậm Nhưng Đúng Hướng

Apple bị thua đau về AI trong 2024–2025. Công ty phát minh ra smartphone assistant hiện đại đã bị OpenAI, Google, và Anthropic vượt qua. Project Campos là thừa nhận thực tế đó và phản ứng thực dụng: dùng model tốt nhất hiện có trong khi xây dựng hướng tới sự độc lập lâu dài.

Với developer, cửa sổ để chuẩn bị là ngay bây giờ. Bắt đầu tìm hiểu cách app của bạn expose khả năng cho external system. Đọc về App Intents (có sẵn ngay hôm nay) — App Actions Registry tương lai gần chắc chắn sẽ xây dựng trên nền tảng đó.

WWDC 2026 ngày 8/6 là sự kiện quan trọng nhất năm nay. Hãy block lịch.


Nguồn: 9to5Mac — Project Campos, MacRumors — Gemini ngoài Siri, 9to5Mac — iOS 26.5 beta

Xuất nội dung

Bình luận