Bộ Quốc phòng Mỹ đã xếp Anthropic vào danh sách rủi ro chuỗi cung ứng sau khi công ty AI này từ chối yêu cầu sử dụng công nghệ cho giám sát và vũ khí tự hành.
Bộ Quốc phòng Mỹ (DOD) đã chính thức thông báo cho lãnh đạo Anthropic về việc công ty và các sản phẩm của họ bị xếp vào danh mục rủi ro chuỗi cung ứng. Quyết định này được đưa ra sau nhiều tuần xung đột giữa phòng thí nghiệm AI hàng đầu này và DOD, theo báo cáo của Bloomberg.
Nguyên nhân chính là việc Giám đốc điều hành Anthropic, Dario Amodei, đã từ chối cho phép quân đội sử dụng hệ thống AI của hãng để giám sát hàng loạt người Mỹ hoặc cung cấp năng lượng cho vũ khí hoàn toàn tự động mà không có sự hỗ trợ của con người trong các quyết định nhắm mục tiêu hoặc khai hỏa. Trong khi đó, Bộ Quốc phòng Mỹ lập luận rằng việc sử dụng AI của họ không nên bị giới hạn bởi một nhà thầu tư nhân.
Việc chỉ định rủi ro chuỗi cung ứng thường được dành cho các đối thủ nước ngoài. Nhãn hiệu này yêu cầu bất kỳ công ty hoặc cơ quan nào làm việc với Lầu Năm Góc phải xác nhận rằng họ không sử dụng các mô hình của Anthropic. Động thái này đe dọa làm gián đoạn cả hoạt động của Anthropic và chính quân đội Mỹ. Anthropic là phòng thí nghiệm AI tiên phong duy nhất có hệ thống sẵn sàng cho các nhiệm vụ mật. Quân đội Mỹ hiện đang dựa vào Claude của Anthropic trong chiến dịch tại Iran, nơi các lực lượng Mỹ sử dụng công cụ AI để nhanh chóng quản lý dữ liệu cho các hoạt động của họ. Claude là một trong những công cụ chính được cài đặt trong Hệ thống thông minh Maven của Palantir, mà các nhà điều hành quân sự ở Trung Đông đang sử dụng.
NỔI BẬT TRANG CHỦ
-
2.847 kỹ sư Amazon Prime Video 'vô tình' tự đào tạo AI để rồi bị sa thải không thương tiếc
Một câu chuyện trớ trêu và nghiệt ngã vừa diễn ra tại Amazon Prime Video khi hàng ngàn kỹ sư cấp cao phát hiện ra họ đã dành 8 tháng ròng rã để tự tay chuẩn bị cho sự ra đi của chính mình. Những tài liệu nội bộ quý giá giờ đây trở thành trí tuệ cho cỗ máy thay thế họ.
-
AI giờ có thể tự tạo thẻ tín dụng đi mua đồ online cho bạn - nhưng đừng hiểu nhầm!