Nguồn: Matan Chorev và Joel Predd, “America Should Assume the Worst About AI”, Foreign Affairs, 22/07/2025
Biên dịch: Viên Đăng Huy
Các nhà lãnh đạo an ninh quốc gia hiếm khi được chọn vấn đề mình cần quan tâm và mức độ quan tâm đến nó. Họ thường là những người phải chịu tác động từ các tình thế nằm ngoài tầm kiểm soát của mình. Các cuộc tấn công ngày 11 tháng 9 đã đảo ngược kế hoạch của chính quyền George W. Bush nhằm giảm bớt các cam kết và trách nhiệm toàn cầu của Mỹ. Các cuộc cách mạng trên khắp thế giới Ả Rập đã đẩy Tổng thống Barack Obama trở lại Trung Đông ngay khi ông đang cố gắng rút Mỹ ra khỏi đó. Và việc Nga xâm lược Ukraine đã đảo lộn mục tiêu của chính quyền Biden là thiết lập quan hệ “ổn định và có thể dự đoán được” với Moscow để có thể tập trung vào cạnh tranh chiến lược với Trung Quốc.
Các nhà hoạch định chính sách lẽ ra đã có thể lường trước được nhiều yếu tố và xu hướng ngầm định hình nên các sự kiện quan trọng này. Tuy nhiên, phần lớn họ đã thất bại trong việc chuẩn bị cho những hệ quả phức tạp nhất từ các xu hướng này. Họ buộc phải gấp rút thay đổi cách tiếp cận và điều chỉnh chiến lược để kịp thời ứng phó với những diễn biến mới.
Sự phát triển nhanh chóng của trí tuệ nhân tạo (AI), cùng với khả năng xuất hiện của trí tuệ nhân tạo tổng quát (AGI), hứa hẹn sẽ tạo ra những thách thức lớn hơn nữa cho các nhà hoạch định chính sách. Dấu hiệu của một sự thay đổi mạnh mẽ sắp tới đã hiện rõ khắp nơi. Bắc Kinh và Washington đã coi vai trò lãnh đạo AI toàn cầu là một ưu tiên chiến lược, và các công ty hàng đầu của Mỹ và Trung Quốc đang chạy đua để đạt được AGI. Báo chí gần như hàng ngày đưa tin về các đột phá kỹ thuật, thảo luận về việc mất việc làm do AI thúc đẩy, và nỗi sợ hãi về những rủi ro toàn cầu thảm khốc như việc AI hỗ trợ thiết kế một đại dịch chết người.
Không có cách nào để biết chắc chắn quỹ đạo chính xác mà AI sẽ phát triển hoặc chính xác cách nó sẽ biến đổi an ninh quốc gia. Do đó, các nhà hoạch định chính sách nên đánh giá và tranh luận về giá trị của các chiến lược AI cạnh tranh một cách khiêm tốn và thận trọng. Tuy nhiên, dù lạc quan hay bi quan về triển vọng của AI, các nhà lãnh đạo an ninh quốc gia cần phải sẵn sàng điều chỉnh các kế hoạch chiến lược của mình để ứng phó với các sự kiện có thể tự áp đặt lên các nhà ra quyết định trong thập kỷ này, nếu không phải trong nhiệm kỳ tổng thống này. Washington phải chuẩn bị cho các đánh đổi chính sách tiềm năng và các thay đổi địa chính trị, đồng thời xác định các bước thiết thực có thể thực hiện ngay hôm nay để giảm thiểu rủi ro và thúc đẩy khả năng cạnh tranh của Mỹ. Một số ý tưởng và sáng kiến mà ngày nay có vẻ không khả thi hoặc không cần thiết sẽ trở nên cấp bách và hiển nhiên khi nhìn lại.
Tư duy vượt khỏi khuôn khổ
Chưa có một định nghĩa chuẩn, thống nhất nào về AGI, cũng như chưa có sự đồng thuận về việc liệu nó có thể xuất hiện hay không, khi nào và bằng cách nào. Các mô hình AI tiên tiến ngày nay đã ngày càng có khả năng thực hiện nhiều tác vụ nhận thức phức tạp hơn so với những người có kỹ năng và nguồn lực tốt nhất. Kể từ khi ChatGPT ra mắt vào năm 2022, sức mạnh của AI đã tăng lên vượt bậc. Hoàn toàn hợp lý khi cho rằng các mô hình này sẽ trở nên mạnh mẽ hơn, tự chủ hơn và phổ biến hơn trong những năm tới.
Tuy nhiên, kỷ nguyên AGI sẽ không bắt đầu với một khoảnh khắc chấn động địa cầu như kỷ nguyên hạt nhân đã từng làm với vụ thử vũ khí hạt nhân đầu tiên. Hoàn cảnh kinh tế và công nghệ cũng không thuận lợi cho các nhà hoạch định Mỹ như trong quá khứ. Ví dụ, trong kỷ nguyên hạt nhân, chính phủ Mỹ kiểm soát công nghệ mới, và các nhà hoạch định có hai thập kỷ để phát triển các khuôn khổ chính sách trước khi một đối thủ hạt nhân xuất hiện. Trái lại, các nhà hoạch định ngày nay lại có ít quyền tự quyết và thời gian hơn để điều chỉnh. Trung Quốc đã là một đối thủ gần như ngang tầm về công nghệ, một số ít công ty tư nhân đang dẫn dắt sự phát triển, và AI là một công nghệ đa năng đang lan rộng đến gần như mọi lĩnh vực của nền kinh tế và xã hội.
Trong môi trường thay đổi nhanh chóng này, các nhà lãnh đạo an ninh quốc gia nên dành nguồn lực lập kế hoạch khan hiếm cho những sự kiện có khả năng xảy ra nhưng lại vô cùng thách thức. Những loại sự kiện này không chỉ đơn thuần là những gián đoạn đối với hiện trạng, mà còn là dấu hiệu chỉ đường cho các tương lai khác nhau.
Chẳng hạn, giả sử một công ty Mỹ tuyên bố đã thực hiện được bước nhảy vọt công nghệ mang tính đột phá lên AGI. Các nhà lãnh đạo phải quyết định cách chính phủ Mỹ nên phản ứng nếu công ty yêu cầu được đối xử như một “tiềm lực an ninh quốc gia”. Việc được công nhận như vậy sẽ giúp công ty nhận được sự hỗ trợ từ chính phủ, cho phép họ đảm bảo an ninh cơ sở vật chất, tiếp cận dữ liệu nhạy cảm hoặc độc quyền, mua được chip tiên tiến hơn và tránh một số quy định nhất định. Ngoài ra, một công ty Trung Quốc có thể tuyên bố đã đạt được AGI trước bất kỳ đối thủ Mỹ nào.
Các nhà hoạch định chính sách đối phó với những kịch bản này sẽ phải cân bằng các đánh giá cạnh tranh và đôi khi mâu thuẫn, điều này sẽ dẫn đến những quyết định khác nhau về mức độ rủi ro chấp nhận được và những mối lo ngại nào cần ưu tiên. Nếu không có năng lực phân tích độc lập, mạnh mẽ, chính phủ Mỹ có thể gặp khó khăn trong việc xác định liệu các tuyên bố của các công ty có đáng tin cậy hay không. Các nhà lãnh đạo an ninh quốc gia cũng sẽ phải xem xét liệu tiến bộ công nghệ mới có thể mang lại lợi thế chiến lược cho Trung Quốc hay không. Ví dụ, nếu họ lo ngại AGI có thể giúp Bắc Kinh nhanh chóng phát hiện và khai thác các lỗ hổng trong hạ tầng trọng yếu của Mỹ, nhanh hơn khả năng vá lỗi của hệ thống phòng thủ mạng, họ có thể thực hiện các hành động – như tìm cách làm chậm hoặc phá hoại quá trình phát triển AI của Trung Quốc – điều có thể làm tăng nguy cơ xung đột địa chính trị. Mặt khác, nếu các nhà lãnh đạo an ninh quốc gia lo ngại nhiều hơn về việc các chủ thể phi nhà nước hoặc khủng bố có thể sử dụng công nghệ mới này để tạo ra vũ khí sinh học thảm khốc, họ có thể ưu tiên hợp tác với Bắc Kinh để ngăn chặn sự phổ biến của một mối đe dọa toàn cầu lớn hơn.
Nâng cao khả năng sẵn sàng cho các kịch bản AGI đòi hỏi phải hiểu rõ hơn về hệ sinh thái AI trong và ngoài nước. Các cơ quan chính phủ cần theo dõi cách AI đang phát triển để xác định nơi các tiến bộ mới có nhiều khả năng xuất hiện nhất. Điều này sẽ giảm nguy cơ bất ngờ chiến lược và giúp thông báo các lựa chọn chính sách về những điểm nghẽn nào cần ưu tiên và những lỗ hổng nào cần khai thác để có khả năng làm chậm tiến độ của Trung Quốc.
Các nhà hoạch định chính sách cũng cần tìm cách hợp tác với khu vực tư nhân và các quốc gia khác. Một mối quan hệ đối tác công-tư có khả năng mở rộng, năng động và hai chiều là yếu tố then chốt để đưa ra phản ứng chiến lược trước những thách thức mà AI đang đặt ra hiện nay, và điều này sẽ còn quan trọng hơn nữa trong thế giới AGI. Sự nghi ngờ lẫn nhau giữa chính phủ và khu vực tư nhân có thể làm tê liệt bất kỳ phản ứng khủng hoảng nào. Trong khi đó, các nhà lãnh đạo sẽ cần phát triển các chính sách để chia sẻ thông tin nhạy cảm, độc quyền về các phát triển trong AI tiên tiến với các đối tác và đồng minh. Nếu không có các chính sách như vậy, sẽ rất khó để xây dựng liên minh quốc tế cần thiết để ứng phó với một cuộc khủng hoảng do AI gây ra, giảm rủi ro toàn cầu và buộc các quốc gia và công ty chịu trách nhiệm về hành vi vô trách nhiệm.
Trí tuệ đối đầu
AGI sẽ không chỉ làm phức tạp các động lực địa chính trị hiện có, nó cũng sẽ đặt ra những thách thức an ninh quốc gia mới. Hãy tưởng tượng một cuộc tấn công mạng chưa từng có do AI hỗ trợ gây ra sự tàn phá cho các tổ chức tài chính, tập đoàn tư nhân và các cơ quan chính phủ, đồng thời làm tê liệt các hệ thống vật lý từ cơ sở hạ tầng quan trọng đến robot công nghiệp. Trong thế giới ngày nay, việc xác định ai chịu trách nhiệm về chiến tranh mạng đã là một nhiệm vụ đầy thách thức và tốn thời gian. Bất kỳ số lượng chủ thể nhà nước và phi nhà nước nào cũng sở hữu cả phương tiện và động lực để thực hiện các cuộc tấn công gây bất ổn. Tuy nhiên, trong một thế giới với AI ngày càng tiên tiến, tình hình sẽ còn phức tạp hơn. Các nhà hoạch định chính sách sẽ phải xem xét không chỉ khả năng một hoạt động ở quy mô này có thể là khúc dạo đầu cho một chiến dịch quân sự mà còn có thể là công việc của một chủ thể AI tự trị, tự nhân bản.
Lập kế hoạch cho kịch bản này đòi hỏi phải đánh giá cách các khả năng hiện tại có thể xử lý các thách thức của tương lai. Các chính phủ không thể chỉ dựa vào các công cụ và kỹ thuật hiện có để nhanh chóng và chắc chắn đánh giá một mối đe dọa, chứ đừng nói đến việc áp dụng các biện pháp đối phó phù hợp. Với khả năng đã được chứng minh của các hệ thống AI trong việc đánh lừa và che đậy, các hệ thống hiện tại có thể không xác định được liệu một chủ thể AI đang hoạt động độc lập hay theo lệnh của kẻ thù. Các nhà hoạch định cần tìm những cách mới để đánh giá động cơ của nó và cách ngăn chặn leo thang.
Việc chuẩn bị cho những tình huống xấu nhất đòi hỏi phải đánh giá lại các biện pháp “không cần xác định nguồn gốc” để tăng cường hệ thống phòng thủ mạng, cô lập các trung tâm dữ liệu có khả năng bị xâm nhập, và ngăn chặn việc vô hiệu hóa drone hoặc các phương tiện có kết nối. Các nhà hoạch định cần đánh giá liệu các giao thức quân sự và quy trình vận hành liên tục hiện tại có thể xử lý các mối đe dọa từ AI đối thủ hay không. Sự thiếu tin tưởng của công chúng đối với chính phủ và các công ty công nghệ sẽ khiến việc trấn an một quần chúng lo lắng trong trường hợp thông tin sai lệch do trí tuệ nhân tạo thúc đẩy trở nên khó khăn hơn. Với việc một chủ thể AI tự chủ khó có thể tôn trọng ranh giới quốc gia, việc chuẩn bị đầy đủ sẽ bao gồm việc thiết lập các kênh liên lạc với cả đối tác và đối thủ để phối hợp một phản ứng quốc tế hiệu quả.
Cách các nhà lãnh đạo phân tích tác động bên ngoài của một mối đe dọa sắp xảy ra sẽ định hình cách họ phản ứng. Trong trường hợp xảy ra một cuộc tấn công mạng, các nhà hoạch định chính sách sẽ phải đưa ra quyết định trong thời gian thực nên thực hiện việc ngắt kết nối có chọn lọc các hệ thống không gian mạng vật lý dễ bị tổn thương và các trung tâm dữ liệu bị xâm nhập, hay – vì lo sợ khả năng lan rộng nhanh chóng – áp đặt một cuộc ngắt kết nối toàn diện hơn. Quyết định thứ hai có thể ngăn chặn sự leo thang nhưng lại cản trở hoạt động của nền kinh tế số và các hệ thống mà sân bay và nhà máy điện đang phụ thuộc vào. Kịch bản mất kiểm soát này nhấn mạnh tầm quan trọng của việc làm rõ quyền hạn pháp lý và phát triển các kế hoạch ứng phó sự cố. Nói rộng hơn, điều này càng củng cố tính cấp bách của việc xây dựng các chính sách và chiến lược kỹ thuật để giải quyết vấn đề các mô hình tiên tiến có xu hướng hoạt động sai lệch hoặc gây ra lỗi.
Việc lập kế hoạch ít nhất nên bao gồm bốn loại hành động sau. Thứ nhất, Mỹ nên thiết lập các hành động “không rủi ro” mà các nhà hoạch định chính sách và các bên trong khu vực tư nhân có thể thực hiện ngay hôm nay để ứng phó với các sự kiện từ một vị thế chủ động. Thứ hai, kế hoạch nên xây dựng các kịch bản hành động khẩn cấp cho các trường hợp khẩn cấp trong tương lai có thể được cập nhật liên tục khi các mối đe dọa, cơ hội và khái niệm mới xuất hiện. Thứ ba, kế hoạch nên đầu tư vào những khả năng được xem là thiết yếu trong nhiều kịch bản khác nhau. Cuối cùng, nó nên ưu tiên các chỉ số và cảnh báo sớm về thất bại chiến lược và tạo điều kiện để điều chỉnh hướng đi.
Không có chỗ cho những thói quen cũ
Việc lập kế hoạch ứng phó với tác động của AGI đối với an ninh quốc gia cần phải bắt đầu ngay từ bây giờ. Trong một thế giới ngày càng cạnh tranh và dễ bùng nổ, và với môi trường trong nước mong manh về kinh tế và phân cực chính trị, Mỹ không thể để mình bị động trước những bất ngờ.
Mặc dù có thể AI cuối cùng sẽ chứng tỏ là một “công nghệ bình thường”—một công nghệ, giống như Internet hoặc điện, biến đổi thế giới nhưng tốc độ áp dụng của nó có giới hạn tự nhiên mà các chính phủ và xã hội có thể kiểm soát—nhưng việc thiếu chuẩn bị cho một sự xáo trộn lớn vẫn là điều cực kỳ dại dột. Lập kế hoạch cho những thách thức khó khăn hơn có thể giúp các nhà lãnh đạo xác định các vấn đề chiến lược cốt lõi và xây dựng các công cụ ứng phó hữu ích như nhau trong những trường hợp ít nghiêm trọng hơn. Cũng sẽ thiếu khôn ngoan nếu cho rằng việc lập kế hoạch như vậy sẽ tạo ra những quyết sách và con đường làm trầm trọng thêm rủi ro hoặc làm chậm sự tiến bộ của AI. Ví dụ, trong kỷ nguyên hạt nhân, việc lập kế hoạch cho khủng bố hạt nhân tiềm ẩn đã truyền cảm hứng cho các sáng kiến toàn cầu nhằm kiểm soát vật liệu phân hạch cần thiết để chế tạo vũ khí hạt nhân, cuối cùng đã làm cho thế giới an toàn hơn.
Cũng sẽ nguy hiểm nếu coi khả năng AGI giống như bất kỳ “kịch bản thông thường” nào khác trong lĩnh vực an ninh quốc gia. Khả năng chuyên môn và sự am hiểu về công nghệ trong chính phủ còn hạn chế và không đồng đều, và các cơ quan đóng vai trò ứng phó với bất kỳ kịch bản nào cũng vượt xa các cơ quan an ninh quốc gia truyền thống. Hầu hết các kịch bản có khả năng sẽ xảy ra đồng thời cả ở nước ngoài và trong nước. Bất kỳ phản ứng nào cũng sẽ phụ thuộc rất nhiều vào các lựa chọn và quyết định của các chủ thể phi chính phủ, bao gồm các công ty và tổ chức xã hội dân sự, những người không có tiếng nói trong Phòng Tình huống Nhà Trắng và có thể không đặt an ninh quốc gia làm ưu tiên hàng đầu. Tương tự, việc lập kế hoạch không thể được giao cho các nhà tương lai học và các chuyên gia kỹ thuật được gửi đến một hầm trú ẩn xa xôi để dành nhiều tháng xây dựng các kế hoạch chi tiết một cách biệt lập. Chuẩn bị cho một tương lai với AGI cần phải liên tục cung cấp thông tin và định hình các cuộc tranh luận chiến lược hiện tại.
Có một cuộc tranh luận sôi nổi về giá trị của các chiến lược khác nhau để giành chiến thắng trong cuộc đua AI đồng thời tránh được thảm họa, nhưng lại có ít cuộc thảo luận hơn về việc AGI có thể tái định hình cục diện quốc tế, sự phân bổ quyền lực toàn cầu và các liên minh địa chính trị như thế nào. Trong một thế giới ngày càng đa cực, các chủ thể mới nổi coi AI tiên tiến—và cách Mỹ và Trung Quốc phổ biến công nghệ AI và kiến trúc kỹ thuật số cơ bản của nó—là chìa khóa cho khát vọng quốc gia của họ. Việc lập kế hoạch sớm, tổ chức các cuộc diễn tập tình huống với các đồng minh và đối tác, cùng với đối thoại bền vững với những quốc gia muốn giữ thế trung lập trong ngoại giao, sẽ đảm bảo các lựa chọn chiến lược mang lại lợi ích chung. Bất kỳ chiến lược AI nào không tính đến một thế giới đa cực và một hệ sinh thái công nghệ toàn cầu phân tán hơn đều sẽ thất bại. Và bất kỳ chiến lược an ninh quốc gia nào không thể đối phó với những tác động có khả năng mang tính biến đổi của AGI sẽ trở nên lỗi thời.
Các nhà lãnh đạo an ninh quốc gia không có quyền lựa chọn các cuộc khủng hoảng nào đến với họ. Tuy nhiên, họ có quyền lựa chọn sẽ lên kế hoạch cho điều gì và phân bổ nguồn lực vào đâu để chuẩn bị cho những thách thức trong tương lai. Lập kế hoạch cho AGI không phải là sự chiều chuộng khoa học viễn tưởng hay sự phân tâm khỏi các vấn đề và cơ hội hiện có. Đó là một cách có trách nhiệm để chuẩn bị cho khả năng rất thực tế của một tập hợp các thách thức an ninh quốc gia mới trong một thế giới đã biến đổi triệt để.
MATAN CHOREV là Nhà nghiên cứu cấp cao và Phó Giám đốc của RAND Global and Emerging Risks. Trong chính quyền Biden, ông từng là Phó Giám đốc chính sách của Ban Hoạch định Chính sách thuộc Bộ Ngoại giao.
JOEL PREDD là Kỹ sư cấp cao và Giám đốc Sáng kiến Địa chính trị AGI của RAND.