Anthropic, công ty AI đứng sau Claude, đã giành được một chiến thắng pháp lý quan trọng trước chính quyền cựu Tổng thống Mỹ Donald Trump. Thẩm phán liên bang Rita F. Lin đã ra lệnh hủy bỏ lệnh cấm hợp tác giữa các cơ quan liên bang với Anthropic, đồng thời gỡ bỏ nhãn 'rủi ro chuỗi cung ứng' mà chính phủ gán cho công ty này. Phán quyết được đưa ra sau một cuộc tranh chấp về việc sử dụng các mô hình AI của Anthropic trong các hệ thống vũ khí tự hành.

Cuộc chiến pháp lý bắt nguồn từ nguyên tắc đạo đức AI

Mâu thuẫn bùng phát vào tháng trước khi Anthropic tìm cách thực thi các giới hạn đạo đức trong thỏa thuận cung cấp phần mềm AI cho chính phủ Mỹ. Công ty yêu cầu cấm sử dụng các mô hình như Claude 3.5 Sonnet trong vũ khí tự hành hoặc hệ thống giám sát hàng loạt. Chính phủ Mỹ, đại diện là Bộ Quốc phòng, từ chối các điều khoản này.

Thay vào đó, chính quyền Trump đã dán nhãn Anthropic là 'rủi ro chuỗi cung ứng' – một định danh thường dành cho các thực thể nước ngoài – và ra lệnh cho các cơ quan liên bang cắt đứt quan hệ với công ty. Nhà Trắng còn công khai chỉ trích Anthropic là "công ty thức tỉnh cánh tả cực đoan" đang đe dọa an ninh quốc gia.

Phán quyết lịch sử bảo vệ quyền tự do ngôn ngữ mô hình

Trong phiên tòa, Thẩm phán Lin nhận định động thái của chính phủ "trông giống như một nỗ lực nhằm làm tê liệt Anthropic". Bà lập luận rằng lệnh của chính phủ đã vi phạm các biện pháp bảo vệ quyền tự do ngôn ngữ dành cho công ty. Về bản chất, việc buộc một công ty AI phải cung cấp mô hình ngôn ngữ của mình cho các mục đích trái với nguyên tắc đạo đức cốt lõi là một sự kiểm soát không hợp lý.

Phán quyết yêu cầu chính quyền Trump thu hồi ngay lập tức chỉ thị cắt đứt quan hệ và hủy bỏ nhãn rủi ro chuỗi cung ứng đối với Anthropic. Đây được xem là một tiền lệ quan trọng về quyền kiểm soát đạo đức của các nhà phát triển AI đối với sản phẩm của họ.

Phản ứng từ Anthropic và triển vọng hợp tác

Sau phán quyết, Anthropic đã gửi tuyên bố tới TechCrunch: "Chúng tôi biết ơn tòa án đã hành động nhanh chóng và vui mừng khi họ đồng ý rằng Anthropic có khả năng thành công về mặt pháp lý. Dù vụ kiện này là cần thiết để bảo vệ Anthropic, khách hàng và đối tác của chúng tôi, trọng tâm của chúng tôi vẫn là làm việc hiệu quả với chính phủ để đảm bảo mọi người Mỹ đều được hưởng lợi từ AI an toàn, đáng tin cậy."

CEO Dario Amodei trước đó đã mô tả hành động của Bộ Quốc phòng là "trả đũa và trừng phạt". Phán quyết của tòa án mở ra cánh cửa cho việc tái thiết lập đối thoại và hợp tác giữa Anthropic và các cơ quan chính phủ Mỹ, với các điều khoản đạo đức rõ ràng hơn.

Góc nhìn: Bài học cho hệ sinh thái AI toàn cầu và Việt Nam

Vụ việc này không chỉ là một cuộc chiến pháp lý mà còn là phép thử cho tương lai quản trị AI. Nó đặt ra câu hỏi then chốt: Ai có quyền quyết định cách sử dụng một mô hình ngôn ngữ lớn – nhà phát triển đã đào tạo và thiết lập các nguyên tắc đạo đức cho nó, hay người sử dụng cuối cùng, kể cả chính phủ? Phán quyết ủng hộ Anthropic củng cố quan điểm rằng các công ty AI có quyền từ chối các ứng dụng trái với giá trị cốt lõi của họ, ngay cả khi đối tác là chính phủ. Đối với các startup AI tại Việt Nam, đây là một tiền lệ quan trọng khi đàm phán hợp đồng với bất kỳ đối tác nào, nhấn mạnh sự cần thiết của các điều khoản sử dụng rõ ràng ngay từ đầu để bảo vệ sản phẩm và nguyên tắc của mình.