Nỗ lực của OpenAI trong việc xâm nhập vào các mạng quân sự Mỹ phân loại đã gặp phải phản ứng dữ dội từ người tiêu dùng và một sự chuyển hướng hạ tầng âm thầm nhưng quan trọng, nhấn mạnh sự cân bằng mà gã khổng lồ trí tuệ nhân tạo (AI) này đang phải đi giữa tham vọng an ninh quốc gia và niềm tin của người dùng.
Cuộc tranh cãi bắt đầu bùng phát vào ngày 28 tháng 2, khi OpenAI xác nhận đã ký hợp đồng với Bộ Quốc phòng Mỹ để triển khai các hệ thống AI tiên tiến, bao gồm công nghệ ChatGPT, trên các mạng phân loại.
Công ty mô tả thỏa thuận này là hợp pháp và được kiểm soát chặt chẽ, nhưng các nhà phê bình nhìn nhận khác hoàn toàn: một nền tảng AI hướng tới người tiêu dùng đang tiến sâu hơn vào hoạt động quân sự trong bối cảnh công chúng đang ngày càng quan tâm đến trí tuệ nhân tạo.
OpenAI cho biết hợp đồng này bao gồm các giới hạn rõ ràng, như cấm giám sát quy mô lớn đối với người Mỹ trong nước, kiểm soát vũ khí tự động, và các hệ thống quyết định tự động có rủi ro cao.
Công ty cũng nhấn mạnh các hạn chế về kỹ thuật, bao gồm chỉ triển khai trên đám mây và giữ quyền kiểm soát các hệ thống an toàn, cùng với việc tuân thủ các khung pháp lý của Mỹ như Tu chính án thứ Tư và các quy định của Bộ Quốc phòng về giám sát con người đối với lực lượng chết người.
Tuy nhiên, hình ảnh bên ngoài không mấy tinh tế.
Chỉ trong vài giờ sau thông báo, một chiến dịch tẩy chay từ cộng đồng bắt đầu lan truyền trên mạng xã hội với khẩu hiệu #QuitGPT, kêu gọi người dùng hủy đăng ký, xóa ứng dụng và chuyển sang các đối thủ cạnh tranh. Phản ứng tiêu cực này đã dẫn đến những thay đổi rõ rệt trong hành vi sử dụng ứng dụng.
Ảnh chụp màn hình từ trang web Quitgpt.org
Theo dữ liệu phân tích ứng dụng, tỷ lệ gỡ cài đặt ChatGPT tại Mỹ ngày 28 tháng 2 tăng 295% so với ngày hôm trước, trong khi số lượt tải xuống giảm 13% vào ngày hôm sau và thêm 5% nữa sau đó.
Tâm lý người dùng còn thể hiện rõ hơn qua các đánh giá trong ứng dụng, trong đó xếp hạng một sao tăng vọt 775% trong một ngày và tiếp tục tăng, trong khi các đánh giá năm sao giảm khoảng một nửa. Các đối thủ cạnh tranh đã hưởng lợi từ thời điểm này.
Ứng dụng Claude của Anthropic đã ghi nhận mức tăng tải xuống từ 37% đến 51% trong cùng kỳ, tạm thời vượt qua ChatGPT trong bảng xếp hạng của App Store tại Mỹ khi người dùng tìm kiếm các lựa chọn thay thế. Các nhà tổ chức chiến dịch tẩy chay tuyên bố đã có hàng triệu hành động liên quan, bao gồm hủy đăng ký và cam kết, mặc dù số liệu chính xác thay đổi tùy theo nguồn và cách xác định sự tham gia.
OpenAI đã nhanh chóng kiểm soát hậu quả. Giám đốc điều hành Sam Altman thừa nhận những thiếu sót trong cách truyền đạt về thỏa thuận, gọi việc ra mắt là “thiếu suy nghĩ và cẩu thả,” và trong vài ngày sau, công ty đã chỉnh sửa lại nội dung hợp đồng.
Các điều khoản cập nhật rõ ràng cấm giám sát trong nước có chủ đích bằng hệ thống AI và bổ sung các yêu cầu nghiêm ngặt hơn đối với sự tham gia của các cơ quan tình báo, bao gồm các lớp hợp đồng riêng biệt. Công ty cũng công bố kế hoạch phối hợp với các nhà phát triển AI khác về các khung an toàn chung, xem các thay đổi này như là một sự thắt chặt hơn chứ không phải rút lui.
Dù phản ứng tiêu cực đã giảm bớt sau các chỉnh sửa, nhưng sự kiện này để lại dấu ấn, làm nổi bật cách mà cảm xúc của người tiêu dùng có thể thay đổi nhanh chóng khi AI xâm nhập vào các lĩnh vực nhạy cảm. Đồng thời, OpenAI cũng đang thực hiện các bước đi chiến lược ít rõ ràng hơn nhưng quan trọng phía sau hậu trường.
Vào đầu tháng 3, công ty đã tổ chức lại hoạt động về tính toán và hạ tầng, chia trách nhiệm thành ba nhóm tập trung về thiết kế trung tâm dữ liệu, hợp tác thương mại và quản lý cơ sở vật chất tại chỗ. Việc tái cấu trúc này phản ánh một xu hướng lớn hơn trong cách OpenAI dự định mở rộng năng lực tính toán của mình.
Thay vì xây dựng và sở hữu các trung tâm dữ liệu khổng lồ gắn liền với sáng kiến “Stargate” đầy tham vọng, công ty đang dựa nhiều hơn vào việc thuê và hợp tác với các nhà cung cấp đám mây. Microsoft Azure vẫn là trung tâm của chiến lược này, trong khi OpenAI cũng đã mở rộng mối quan hệ với Oracle và Amazon Web Services theo các thỏa thuận về năng lực nhiều năm.
Các kế hoạch trước đây về các dự án hạ tầng lớn, cùng sở hữu chung, đã bị thu nhỏ hoặc chỉnh sửa lại, khi thực tế tài chính và hậu cần của việc xây dựng năng lực siêu máy tính AI quy mô lớn trở nên khó bỏ qua. Thay vào đó, OpenAI tập trung kiểm soát các yếu tố then chốt như phần cứng tùy chỉnh và chip, trong khi thuê ngoài lớp hạ tầng vật lý cho các nhà cung cấp dịch vụ đám mây lớn đã có uy tín.
Hai diễn biến này — một công khai và gây tranh cãi, một mang tính vận hành và thực dụng — không liên quan trực tiếp, nhưng cùng nhau phác thảo một công ty đang nhanh chóng tiến hành nhiều mặt trận, đôi khi nhanh hơn cả khả năng truyền thông của mình.
Đối với OpenAI, thách thức bây giờ không còn là liệu họ có thể xây dựng các hệ thống mạnh mẽ hay không, mà là cách họ quản lý hậu quả của việc triển khai chúng ở những nơi có rủi ro thực sự, chứ không chỉ là lý thuyết.