Vào cuối tháng 2 năm 2026, giới công nghệ toàn cầu đã chứng kiến một trong những cuộc đối đầu căng thẳng nhất giữa đạo đức trí tuệ nhân tạo và quyền lực quốc phòng. Anthropic, một trong những công ty AI uy tín nhất hành tinh, đã chính thức bị Chính phủ Mỹ liệt vào danh sách đen thương mại. Quyết định này được Bộ trưởng Quốc phòng Pete Hegseth ban hành, đánh dấu một sự rạn nứt sâu sắc trong mối quan hệ giữa Thung lũng Silicon và Lầu Năm Góc.
Nguồn cơn của sự việc bắt đầu khi Anthropic kiên quyết từ chối một bản hợp đồng quân sự trị giá hàng trăm triệu USD. Chính phủ Mỹ yêu cầu Anthropic phải loại bỏ các rào cản đạo đức trong mô hình Claude để cho phép quân đội sử dụng AI vào các mục đích thực thi pháp luật nhạy cảm, bao gồm cả việc điều phối vũ khí tự hành và giám sát diện rộng. Dario Amodei, CEO của Anthropic, đã lập luận rằng AI của họ được xây dựng trên nền tảng đạo đức bất biến và việc vũ khí hóa Claude là một hành động phản bội lại sự an toàn của nhân loại.
"Chúng tôi thà chấp nhận rủi ro bị cô lập về kinh tế còn hơn là để trí tuệ nhân tạo trở thành một công cụ gieo rắc bạo lực mà không có sự kiểm soát của con người."
Đòn trả đũa từ chính quyền Pete Hegseth diễn ra cực kỳ nhanh chóng. Anthropic bị gán nhãn "rủi ro chuỗi cung ứng đối với an ninh quốc gia", một định danh pháp lý nặng nề buộc toàn bộ các cơ quan liên bang phải ngừng sử dụng Claude ngay lập tức. Điều này không chỉ gây thiệt hại về tài chính mà còn đẩy Anthropic vào một vụ kiện lịch sử chống lại Bộ Quốc phòng để đòi lại sự trong sạch và quyền tự chủ về đạo đức công nghệ.
Sự kiện này đã chia rẽ sâu sắc cộng đồng công nghệ. Trong khi một số ca ngợi Anthropic là "ngọn hải đăng của đạo đức", thì những người khác lại cáo buộc họ đang làm chậm tiến trình hiện đại hóa quân đội của quốc gia. Cuộc chiến này hứa hẹn sẽ định hình lại toàn bộ luật chơi của ngành AI trong nhiều thập kỷ tới.


