Ngày 28 tháng 2 năm 2026, Sam Altman đăng một tweet ngắn thông báo OpenAI đã ký hợp đồng với Bộ Quốc phòng Mỹ. Ông mô tả đây là “bước tiến tích cực” với một đối tác “tôn trọng sâu sắc về an toàn AI.” Hai ngày sau, ChatGPT bị gỡ cài đặt tăng 295% trong một ngày. Anthropic’s Claude leo lên vị trí số 1 trên App Store Mỹ. Và 2.5 triệu người đã tuyên bố rời bỏ ChatGPT.
Đây là câu chuyện về cuộc khủng hoảng PR lớn nhất trong lịch sử ngành AI — và những gì nó tiết lộ về mâu thuẫn sâu xa giữa sứ mệnh và lợi ích thương mại.
Hợp Đồng Là Gì?
Theo nội dung được công bố, OpenAI đồng ý cho phép Bộ Quốc phòng Mỹ triển khai các model AI trên mạng phân loại bí mật. Điều khoản gây tranh cãi nhất: “The Department of War may use the AI System for all lawful purposes, consistent with applicable law, operational requirements, and well-established safety and oversight protocols.”
Cụm từ “all lawful purposes” là ngòi nổ. Người dùng, nhà nghiên cứu, và cả các nhân viên cũ của OpenAI đặt câu hỏi: “lawful” theo định nghĩa của ai? Trong bối cảnh chính quyền Trump đang mở rộng diễn giải về giám sát hợp pháp, điều khoản này mở cửa cho những lo ngại về:
- Giám sát đại trà công dân Mỹ
- Vũ khí tự động sử dụng AI để ra quyết định tiêu diệt
- Tình báo quân sự sử dụng dữ liệu từ ChatGPT users
Tương Phản Với Anthropic: Bài Học Về Lập Trường
Câu chuyện thú vị nhất không phải là về OpenAI — mà là về Anthropic.
Trước đó, Bộ Quốc phòng đã tiếp cận Anthropic với đề xuất tương tự. CEO Dario Amodei từ chối thẳng thắn: Anthropic sẽ không ký bất kỳ hợp đồng nào mà không có đảm bảo rõ ràng rằng công nghệ sẽ không được dùng cho vũ khí tự động hoặc giám sát đại trà nội địa.
Phản ứng của chính phủ? Tổng thống Trump chỉ thị các cơ quan liên bang ngừng sử dụng Anthropic sau 6 tháng. Bộ trưởng Quốc phòng Pete Hegseth chính thức gọi Anthropic là “supply-chain risk.”
Kết quả thị trường? Claude lên số 1 App Store Mỹ. Người dùng bỏ phiếu bằng ngón tay cái. Cái giá của lập trường đạo đức với chính phủ hóa ra lại là phần thưởng về niềm tin của người dùng.
Altman Thừa Nhận Sai Lầm
Đây là điều hiếm gặp trong thế giới CEO công nghệ: Sam Altman thừa nhận mắc sai lầm một cách trực tiếp.
Trong internal memo ngày 2 tháng 3 (sau đó được chia sẻ công khai), Altman viết: “We were genuinely trying to de-escalate things and avoid a much worse outcome, but I think it just looked opportunistic and sloppy.” Ông thừa nhận đã “rush” để đưa thỏa thuận ra vào thứ Sáu mà không chuẩn bị communication đúng mức.
OpenAI đã sửa hợp đồng để thêm các điều khoản rõ ràng hơn:
- Lầu Năm Góc xác nhận dịch vụ sẽ không được dùng bởi NSA theo hợp đồng hiện tại
- Bất kỳ mở rộng nào sang các cơ quan tình báo cần contract modification riêng biệt
- Cam kết không dùng cho giám sát đại trà nội địa
Nhưng với nhiều người, những sửa đổi này đến quá muộn và quá mơ hồ.
Phong Trào QuitGPT: Phân Tích Thực Tế
2.5 triệu người cam kết tẩy chay — con số ấn tượng, nhưng cần đặt trong context:
OpenAI hiện có khoảng 400 triệu người dùng hàng tuần. 2.5 triệu là khoảng 0.6%. Nhìn thuần túy về thị phần, đây không phải thảm họa kinh doanh tức thì.
Nhưng ảnh hưởng thực sự không ở con số — mà ở demographic:
Những người tham gia QuitGPT và các cuộc biểu tình tại San Francisco đa phần là kỹ sư, nhà nghiên cứu, giới học thuật — đúng nhóm người mà OpenAI cần để duy trì uy tín kỹ thuật và thu hút nhân tài. Đây không phải người dùng phổ thông; đây là những người có ảnh hưởng trong cộng đồng tech.
Chính Trị Hoá AI: Rủi Ro Dài Hạn
Phong trào QuitGPT không chỉ là về hợp đồng quân sự. Tổ chức tự mô tả mình là “democracy activists” lo ngại về việc AI companies “cozying up to Trump.” Họ chỉ ra:
- Greg Brockman (President OpenAI) và vợ donate 25 triệu USD cho super PAC thân Trump
- Sam Altman donate 1 triệu USD cho quỹ nhậm chức
AI đang bị kéo vào chiến tuyến chính trị — và đây là lãnh địa cực kỳ nguy hiểm cho bất kỳ công ty nào muốn phục vụ tất cả người dùng trên toàn thế giới.
Hệ Lụy Với Thị Trường AI Toàn Cầu
OpenAI Đang Mất Thị Phần?
Theo các báo cáo, OpenAI hiện mất nhiều tiền hơn 3 lần so với doanh thu. Việc ký hợp đồng quân sự được đọc bởi một số analyst là nỗ lực tìm nguồn doanh thu ổn định từ chính phủ — khi áp lực IPO ngày càng tăng và chi phí vận hành vẫn khổng lồ.
Nếu đúng như vậy, đây là ví dụ điển hình của short-term revenue vs long-term trust trade-off — bài toán kinh điển của mọi công ty công nghệ khi scale.
Anthropic Đang Thắng Chiến Lược Niềm Tin
Claude lên số 1 App Store Mỹ không phải vì tính năng vượt trội hơn ChatGPT. Đó là phần thưởng cho lập trường nhất quán của Anthropic về đạo đức AI. Dario Amodei có thể đã mất hợp đồng chính phủ, nhưng ông đã nhận được thứ quý giá hơn: uy tín moral authority trong thị trường consumer ngày càng quan tâm đến đạo đức.
Doanh thu Anthropic tiếp cận 19 tỷ USD annualized — so với OpenAI ở 25 tỷ USD. Khoảng cách đang thu hẹp nhanh hơn nhiều người dự đoán.
Nhận Định: Ba Bài Học Cho Ngành Tech
Bài học 1: Values phải được viết vào contract, không chỉ vào mission statement
OpenAI có “Responsible AI” policy chi tiết. Nhưng khi đến lúc ký hợp đồng thực, những điều khoản đó trở thành “lawful purposes” mơ hồ. Values phải được cụ thể hóa thành contract language có thể enforce — không phải marketing language.
Bài học 2: Speed kills trust
Altman thừa nhận đã “rush” vào thứ Sáu. Trong crisis communication, một trong những sai lầm chết người nhất là công bố thông tin lớn vào cuối tuần mà không chuẩn bị explanation đầy đủ. Trust building takes years; trust destruction takes hours.
Bài học 3: Political alignment là con dao hai lưỡi
AI companies ngày càng bị buộc phải chọn phe. Nhưng người dùng toàn cầu — từ Việt Nam đến Đức — không bầu cho Trump hay Biden. Khi một AI company gắn chặt với lập trường chính trị của một quốc gia, đặc biệt là military complex, nó tự thu hẹp thị trường tiềm năng toàn cầu.
Câu Chuyện Chưa Kết Thúc
Ngày 21 tháng 3, một cuộc biểu tình AI accountability lớn dự kiến diễn ra — được tổ chức bởi cùng liên minh đã biểu tình trước Google DeepMind năm 2025. OpenAI đang xem xét hợp đồng với NATO trên mạng không phân loại.
Cuộc chiến về linh hồn AI — ai kiểm soát nó, vì mục đích gì, và với guardrails nào — vẫn đang tiếp diễn.
Là người làm trong ngành tech, tôi tin rằng câu hỏi quan trọng không phải “AI có nên phục vụ quân sự không?” mà là “Chúng ta có cơ chế nào để đảm bảo những cam kết đó được thực thi — không phải chỉ được phát biểu?” Đó là bài toán governance, không phải technology. Và đây mới là frontier thực sự mà ngành AI cần chinh phục.
Nguồn: TechCrunch | CNBC | Euronews | The Daily Star