Trong một động thái bất ngờ và đầy ý nghĩa, Nhà Trắng dưới thời Tổng thống Donald Trump gần đây đã tổ chức các cuộc họp với các công ty AI hàng đầu như Anthropic, Google và OpenAI để thảo luận về một lệnh hành pháp tiềm năng. Lệnh này có thể yêu cầu các mô hình trí tuệ nhân tạo (AI) mới phải trải qua quá trình kiểm duyệt của chính phủ trước khi được phát hành ra công chúng, đánh dấu một sự thay đổi đáng kể trong chính sách AI của Mỹ sau một năm tập trung vào nới lỏng quy định. Nguyên nhân chính được cho là xuất phát từ những lo ngại về sức mạnh và rủi ro tiềm ẩn của mô hình AI "Mythos" do Anthropic phát triển.

Chính sách AI Mỹ: Từ nới lỏng đến siết chặt kiểm soát

Trong suốt năm qua, chính quyền Trump đã theo đuổi một chính sách tương đối "tự do" đối với ngành công nghiệp AI, với quan điểm ưu tiên sự đổi mới và giảm thiểu các rào cản pháp lý. Tổng thống Trump từng gọi AI là "một đứa bé xinh đẹp" không nên bị cản trở bởi "những quy tắc ngớ ngẩn" hay "thậm chí là những quy tắc ngu ngốc". Phó Tổng thống JD Vance cũng từng cảnh báo tại một hội nghị thượng đỉnh AI quốc tế ở Paris rằng "quy định quá mức" có thể "giết chết một ngành công nghiệp mang tính chuyển đổi". Chính quyền này đã từng gỡ bỏ nhiều biện pháp quản lý từ thời chính quyền Biden, bao gồm cả các yêu cầu đánh giá an toàn bắt buộc đối với các mô hình có khả năng ứng dụng quân sự.

"AI là một đứa bé xinh đẹp không nên bị cản trở bởi những quy tắc ngớ ngẩn hay thậm chí là những quy tắc ngu ngốc."
Donald TrumpTổng thống Hoa Kỳ

Tuy nhiên, tình hình hiện tại cho thấy một sự đảo chiều đáng kể trong lập trường này. Cuộc thảo luận về việc thiết lập một quy trình kiểm duyệt chính thức cho các mô hình AI mới trước khi chúng được công bố rộng rãi cho thấy một sự thay đổi tư duy sâu sắc. Điều này phản ánh sự nhận thức ngày càng tăng về những rủi ro tiềm tàng mà AI siêu mạnh có thể mang lại, đặc biệt là trong các lĩnh vực nhạy cảm như an ninh mạng và an ninh quốc gia.

Mô hình "Mythos" của Anthropic: Kích hoạt sự thay đổi

Theo báo cáo từ New York Times, bước ngoặt trong chính sách AI của Nhà Trắng bắt đầu từ tháng 4, sau khi Anthropic giới thiệu mô hình Claude Mythos của mình. Mythos được mô tả là một hệ thống AI cực kỳ mạnh mẽ trong việc xác định các lỗ hổng phần mềm. Anthropic thậm chí đã từ chối phát hành công khai mô hình này vì lo ngại nó có thể gây ra một "cuộc thanh toán" về an ninh mạng toàn cầu. Mặc dù không được phát hành rộng rãi, Cục An ninh Quốc gia Mỹ (NSA) đã và đang sử dụng Mythos để đánh giá các lỗ hổng trong phần mềm của chính phủ Mỹ.

Sức mạnh đáng kinh ngạc của Mythos đã khiến chính Anthropic phải cân nhắc kỹ lưỡng về việc phát hành, đồng thời cũng là hồi chuông cảnh tỉnh cho Nhà Trắng về tiềm năng rủi ro của AI thế hệ mới.

Khả năng của Mythos trong việc phát hiện lỗ hổng đã làm dấy lên những lo ngại nghiêm trọng trong giới chức Nhà Trắng về hậu quả chính trị nếu một cuộc tấn công mạng được hỗ trợ bởi AI gây ra thiệt hại đáng kể. Một số quan chức đang thúc đẩy một hệ thống đánh giá cho phép chính phủ tiếp cận các mô hình mới trước tiên mà không nhất thiết phải chặn việc phát hành chúng hoàn toàn, mục đích là để hiểu rõ và kiểm soát rủi ro trước khi chúng lan rộng.

Cơ chế kiểm duyệt AI từ Nhà Trắng sẽ hoạt động ra sao?

Theo các cuộc thảo luận, Nhà Trắng đang xem xét một lệnh hành pháp để thành lập một nhóm công tác bao gồm các giám đốc điều hành công nghệ và quan chức chính phủ. Nhóm này sẽ có nhiệm vụ xem xét các quy trình giám sát tiềm năng, bao gồm một quy trình đánh giá chính thức của chính phủ đối với các mô hình AI mới trước khi chúng được phát hành ra công chúng.

Mô hình của Anh Quốc được cho là đang được sử dụng làm khuôn mẫu. Tại Anh, một số cơ quan khác nhau sẽ đánh giá xem liệu các hệ thống AI có đáp ứng các tiêu chuẩn an toàn cụ thể hay không. Điều này có thể bao gồm việc kiểm tra khả năng gây hại, độ tin cậy, tính công bằng và bảo mật của mô hình. Mặc dù một phát ngôn viên của Nhà Trắng đã gọi các báo cáo này là "suy đoán" và tuyên bố rằng bất kỳ thông báo chính sách nào cũng sẽ đến trực tiếp từ Tổng thống Trump, nhưng việc các cuộc họp đã diễn ra với các "ông lớn" AI cho thấy mức độ nghiêm túc của vấn đề.

Thông tin cần lưu ý: Quy trình kiểm duyệt có thể bao gồm các bước như đánh giá độc lập về an toàn, kiểm tra khả năng gây hại (red-teaming), và đảm bảo tuân thủ các nguyên tắc đạo đức AI.

Áp lực chính trị và sự thay đổi trong quan điểm công chúng về AI

Sự thay đổi trong chính sách AI của Nhà Trắng không chỉ xuất phát từ những lo ngại về công nghệ mà còn phản ánh áp lực chính trị và sự thay đổi trong quan điểm của công chúng. Một cuộc khảo sát của Pew cho thấy 50% đảng viên Cộng hòa và 51% đảng viên Dân chủ hiện đang lo lắng hơn là hào hứng về việc sử dụng AI ngày càng tăng trong cuộc sống hàng ngày. Sự đồng thuận lưỡng đảng về mối lo ngại này tạo ra một cơ sở chính trị vững chắc cho việc thực hiện các biện pháp kiểm soát chặt chẽ hơn.

Ngoài ra, sự gia tăng các mối đe dọa an ninh mạng được hỗ trợ bởi AI cũng là một yếu tố quan trọng. Các quan chức chính phủ ngày càng nhận thức rõ hơn về khả năng một cuộc tấn công mạng nghiêm trọng có thể gây ra sự gián đoạn lớn và thiệt hại kinh tế, xã hội. Do đó, việc có một cơ chế kiểm soát trước khi các công cụ AI mạnh mẽ được đưa ra thị trường trở thành một ưu tiên cấp bách.

50%Đảng viên Cộng hòa lo ngại về AI
51%Đảng viên Dân chủ lo ngại về AI

Thay đổi nhân sự: Định hình lại chiến lược AI tại Nhà Trắng

Sự thay đổi trong định hướng chính sách AI cũng trùng hợp với một sự thay đổi quan trọng về nhân sự trong Nhà Trắng. David Sacks, người từng là "AI czar" (người đứng đầu về AI) và đi tiên phong trong chương trình nghị sự nới lỏng quy định, đã rời vị trí vào tháng 3. Kể từ đó, Chánh văn phòng Susie Wiles và Bộ trưởng Tài chính Scott Bessent đã tiếp quản chương trình nghị sự về AI. Theo New York Times, họ đã nói với những người bên ngoài chính quyền rằng họ có kế hoạch đóng vai trò lớn hơn trong việc định hình chính sách AI.

Sự thay đổi này cho thấy một sự chuyển dịch quyền lực và ưu tiên trong nội bộ Nhà Trắng, với những nhân vật mới có thể mang đến một cách tiếp cận thận trọng hơn đối với công nghệ AI. Điều này củng cố thêm khả năng rằng các biện pháp kiểm soát và giám sát chặt chẽ hơn đối với AI sẽ sớm được đưa ra.

Điều này có nghĩa gì với bạn?

Đối với các công ty phát triển AI, đặc biệt là những startup nhỏ hơn, việc chính phủ Mỹ kiểm duyệt AI có thể mang lại cả thách thức và cơ hội. Thách thức lớn nhất là gánh nặng tuân thủ quy định sẽ tăng lên, có thể làm chậm quá trình phát triển và phát hành sản phẩm. Các công ty sẽ cần đầu tư nhiều hơn vào các quy trình kiểm tra an toàn và đạo đức, cũng như tương tác với các cơ quan quản lý. Điều này có thể gây khó khăn cho các công ty nhỏ hơn với nguồn lực hạn chế.

Tuy nhiên, đây cũng là một cơ hội để xây dựng niềm tin vào AI. Nếu các mô hình AI được kiểm duyệt kỹ lưỡng trước khi ra mắt, người dùng và doanh nghiệp có thể cảm thấy an tâm hơn khi sử dụng chúng, từ đó thúc đẩy sự chấp nhận rộng rãi hơn của công nghệ. Một khung pháp lý rõ ràng cũng có thể giúp định hình một môi trường phát triển AI có trách nhiệm hơn, giảm thiểu các rủi ro xã hội và đạo đức.

Đối với người dùng cuối, việc kiểm duyệt AI có thể đồng nghĩa với việc các sản phẩm AI mà họ sử dụng sẽ an toàn hơn, đáng tin cậy hơn và ít có khả năng gây ra những hậu quả không mong muốn. Mặc dù có thể phải chờ đợi lâu hơn để tiếp cận các công nghệ AI tiên tiến nhất, nhưng sự đảm bảo về an toàn và trách nhiệm có thể là một sự đánh đổi xứng đáng.

Câu hỏi thường gặp

Tại sao chính phủ Mỹ lại muốn kiểm duyệt các mô hình AI mới?

Chính phủ Mỹ muốn kiểm duyệt các mô hình AI mới do lo ngại ngày càng tăng về rủi ro tiềm ẩn của chúng, đặc biệt là sau sự xuất hiện của các mô hình siêu mạnh như "Mythos" của Anthropic có khả năng gây ra các vấn đề an ninh mạng nghiêm trọng. Ngoài ra, áp lực chính trị và sự thay đổi trong quan điểm công chúng về AI cũng đóng vai trò quan trọng.

Quy trình kiểm duyệt AI của Nhà Trắng có thể ảnh hưởng thế nào đến sự đổi mới?

Quy trình kiểm duyệt có thể làm chậm tốc độ đổi mới do yêu cầu tuân thủ và đánh giá kéo dài. Tuy nhiên, nó cũng có thể thúc đẩy sự đổi mới có trách nhiệm, khuyến khích các nhà phát triển tập trung vào an toàn và đạo đức ngay từ giai đoạn đầu, từ đó xây dựng niềm tin và sự chấp nhận lâu dài cho công nghệ AI.

Điểm Chính Cần Nhớ

  • Nhà Trắng đang xem xét một lệnh hành pháp yêu cầu kiểm duyệt các mô hình AI mới trước khi phát hành, đánh dấu sự thay đổi lớn trong chính sách AI.
  • Mô hình "Mythos" của Anthropic, với khả năng phát hiện lỗ hổng phần mềm mạnh mẽ, được cho là yếu tố chính thúc đẩy sự thay đổi này.
  • Sự thay đổi trong quan điểm công chúng, áp lực chính trị và sự thay đổi nhân sự tại Nhà Trắng đều góp phần vào quyết định siết chặt kiểm soát AI.