(SeaPRwire) – “Trung Quốc không quan tâm đến an toàn AI—vậy tại sao chúng ta phải quan tâm?” Logic sai lầm này lan rộng trong các giới chính sách và công nghệ của Hoa Kỳ, bao che cho một cuộc đua liều lĩnh đến đáy khi Washington vội vã vượt Bắc Kinh trong phát triển AI.
Theo lý lẽ này, việc điều chỉnh AI sẽ có nguy cơ bị tụt hậu trong cái gọi là “”. Và vì Trung Quốc được cho là không ưu tiên an toàn, nên việc chạy đua về phía trước—thậm chí một cách liều lĩnh—là một lựa chọn an toàn hơn về lâu dài. Luận điểm này không chỉ là ; nó nguy hiểm.
Trớ trêu thay, các nhà lãnh đạo Trung Quốc có thể có một bài học cho những người thúc đẩy AI của Hoa Kỳ: thực sự đòi hỏi sự kiểm soát. Như quan chức công nghệ hàng đầu của Trung Quốc, Đinh Tiết Tường, đã phát biểu tại Davos vào tháng 1 năm 2025: “Nếu hệ thống phanh không được kiểm soát, bạn không thể tự tin đạp ga.” Đối với các nhà lãnh đạo Trung Quốc, an toàn không phải là một ràng buộc; đó là một điều kiện tiên quyết.
An toàn AI đã trở thành một chính trị ở Trung Quốc. Vào tháng 4, Chủ tịch Tập Cận Bình đã chủ trì một cuộc họp Bộ Chính trị hiếm hoi về AI cảnh báo về những rủi ro “chưa từng có”. của Trung Quốc hiện liệt kê an toàn AI cùng với đại dịch và các cuộc tấn công mạng. Các cơ quan quản lý yêu cầu đánh giá an toàn trước khi triển khai đối với AI tạo sinh và gần đây đã loại bỏ hơn sản phẩm AI không tuân thủ khỏi thị trường. Chỉ trong nửa đầu năm nay, Trung Quốc đã nhiều tiêu chuẩn AI quốc gia hơn ba năm trước cộng lại. Trong khi đó, số lượng các bài báo kỹ thuật tập trung vào an toàn AI tiên tiến đã hơn trong năm qua ở Trung Quốc.
Nhưng lần cuối cùng các nhà lãnh đạo Hoa Kỳ và Trung Quốc gặp nhau để thảo luận về rủi ro của AI là vào năm . Vào tháng 9, các quan chức từ cả hai quốc gia đã ám chỉ về một cuộc đối thoại “vào thời điểm thích hợp”. Nhưng không có cuộc họp nào diễn ra dưới thời chính quyền Biden, và thậm chí còn có sự không chắc chắn lớn hơn về việc liệu chính quyền Trump có tiếp tục hay không. Đây là một cơ hội bị bỏ lỡ.
Trung Quốc cởi mở với hợp tác. Vào tháng 5 năm 2025, nước này đã một cuộc đối thoại AI song phương với Vương quốc Anh. Các nhà khoa học Trung Quốc uy tín đã đóng góp vào các nỗ lực quốc tế lớn, chẳng hạn như được hỗ trợ bởi 33 quốc gia và các tổ chức liên chính phủ (bao gồm cả Hoa Kỳ và Trung Quốc) và về Các ưu tiên nghiên cứu an toàn AI toàn cầu.
Bước đầu tiên cần thiết là khôi phục cuộc đối thoại Mỹ-Trung đã ngủ yên về rủi ro AI. Nếu không có một kênh liên chính phủ hoạt động, triển vọng phối hợp vẫn còn mờ nhạt. Trung Quốc đã cho biết họ sẵn sàng tiếp tục cuộc đối thoại vào cuối chính quyền Biden. Cuộc đối thoại này đã mang lại một thỏa thuận khiêm tốn nhưng có ý nghĩa biểu tượng: khẳng định rằng việc ra quyết định của con người phải giữ quyền kiểm soát vũ khí hạt nhân. Kênh này có tiềm năng để tiến xa hơn.
Trong tương lai, các cuộc thảo luận nên tập trung vào các mối đe dọa chung, rủi ro cao. Hãy xem xét việc OpenAI gần đây đã ChatGPT Agent mới nhất của mình là đã vượt qua ngưỡng “Khả năng cao” trong lĩnh vực sinh học theo của chính công ty. Điều này có nghĩa là tác nhân này, ít nhất về nguyên tắc, có thể cung cấp cho người dùng hướng dẫn có ý nghĩa có thể tạo điều kiện cho việc tạo ra các mối đe dọa sinh học nguy hiểm. Cả và Bắc Kinh đều có trong việc ngăn chặn các tác nhân phi nhà nước vũ khí hóa các công cụ như vậy. Một do AI hỗ trợ sẽ không tôn trọng biên giới quốc gia. Ngoài ra, các chuyên gia hàng đầu và những người đoạt giải Turing từ phương Tây và Trung Quốc đã những lo ngại rằng các hệ thống AI đa năng tiên tiến có thể hoạt động ngoài tầm kiểm soát của con người, gây ra các rủi ro thảm khốc và hiện sinh.
Cả hai chính phủ đã thừa nhận một số rủi ro này. của Tổng thống Trump cảnh báo rằng AI có thể “gây ra những rủi ro an ninh quốc gia mới trong tương lai gần,” đặc biệt trong an ninh mạng và trong các lĩnh vực hóa học, sinh học, phóng xạ và hạt nhân (CBRN). Tương tự, vào tháng 9 năm ngoái, cơ quan tiêu chuẩn an ninh AI chính của Trung Quốc đã sự cần thiết của các tiêu chuẩn an toàn AI giải quyết các rủi ro an ninh mạng, CBRN và mất kiểm soát.
Từ đó, hai bên có thể thực hiện các bước thực tế để xây dựng lòng tin kỹ thuật giữa các tổ chức tiêu chuẩn hàng đầu—chẳng hạn như National Information Security Standardization Technical Committee (NISSTC) của Trung Quốc và National Institute of Standards and Technology (NIST) của Hoa Kỳ.
Thêm vào đó, các cơ quan quản lý ngành, chẳng hạn như AI Industry Alliance of China (AIIA) và Frontier Model Forum tại Hoa Kỳ, có thể chia sẻ các phương pháp hay nhất về khuôn frameworks quản lý rủi ro. AIIA đã xây dựng “”, mà hầu hết các nhà phát triển hàng đầu của Trung Quốc đã ký. Một mới của Trung Quốc, tập trung hoàn toàn vào các rủi ro tiên tiến bao gồm lạm dụng mạng, lạm dụng sinh học, thuyết phục và thao túng quy mô lớn, và các kịch bản mất kiểm soát, đã được công bố trong và có thể giúp cả hai quốc gia đồng bộ hóa.
Khi lòng tin sâu sắc hơn, các chính phủ và các phòng thí nghiệm hàng đầu có thể bắt đầu chia sẻ các phương pháp và kết quả đánh giá an toàn cho các mô hình tiên tiến nhất. được công bố tại WAIC, kêu gọi rõ ràng việc tạo ra “các nền tảng đánh giá an toàn được công nhận lẫn nhau.” Như một người đồng sáng lập của Anthropic đã , một đánh giá an toàn AI gần đây của Trung Quốc có những phát hiện tương tự với phương Tây: các hệ thống AI tiên tiến đặt ra một số rủi ro CBRN đáng kể, và đang bắt đầu cho thấy các dấu hiệu cảnh báo sớm về tự sao chép tự động và lừa dối. Một sự hiểu biết chung về các lỗ hổng của mô hình—và cách các lỗ hổng đó đang được kiểm tra—sẽ đặt nền móng cho hợp tác an toàn rộng lớn hơn.
Cuối cùng, hai bên có thể thiết lập các kênh báo cáo sự cố và quy trình ứng phó khẩn cấp. Trong trường hợp xảy ra tai nạn hoặc lạm dụng liên quan đến AI, giao tiếp nhanh chóng và minh bạch sẽ là điều cần thiết. Một hình thức tương đương hiện đại với “đường dây nóng” giữa các quan chức AI hàng đầu ở cả hai quốc gia có thể đảm bảo cảnh báo theo thời gian thực khi các mô hình vượt ngưỡng an toàn hoặc hành xử bất ngờ. Vào tháng 4, Chủ tịch Tập Cận Bình đã nhấn mạnh sự cần thiết của “giám sát, cảnh báo sớm rủi ro và ứng phó khẩn cấp” trong AI. Sau bất kỳ sự cố nguy hiểm nào, cần có một kế hoạch đã được thỏa thuận trước về cách phản ứng.
Hợp tác sẽ không dễ dàng—những trở ngại chính trị và kỹ thuật là không thể tránh khỏi. Nhưng rủi ro AI là toàn cầu—và phản ứng quản trị cũng phải như vậy. Thay vì sử dụng Trung Quốc làm lý do để không hành động trong nước về quy định AI, các nhà hoạch định chính sách và lãnh đạo ngành của Mỹ nên tham gia trực tiếp. Rủi ro AI sẽ không chờ đợi.
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.