Skip to content

Hanoi Press

Tin tức du lịch, văn hóa và thể thao tại Hà Nội

  • Home
  • SeaPRwire
  • ACN Newswire
  • JCN Newswire
  • Contact

Các Công ty AI Hàng đầu Có Quản lý Rủi ro ‘Không Thể Chấp nhận Được’, Nghiên cứu Cho biết

Posted on Tháng Bảy 18, 2025 by Tran

Artificial Intelligence Applications

(SeaPRwire) –   Các công ty AI hàng đầu thế giới có mức quản lý rủi ro “không thể chấp nhận được” và “thiếu cam kết đáng kể đối với nhiều lĩnh vực an toàn”, theo hai nghiên cứu mới được công bố hôm thứ Năm.

Rủi ro của ngay cả AI ngày nay—theo thừa nhận của nhiều công ty hàng đầu—có thể bao gồm AI giúp những kẻ xấu thực hiện các cuộc tấn công mạng hoặc tạo ra vũ khí sinh học. Các mô hình AI trong tương lai, các nhà khoa học hàng đầu lo ngại, có thể hoàn toàn thoát khỏi sự kiểm soát của con người.

Các nghiên cứu được thực hiện bởi các tổ chức phi lợi nhuận SaferAI và . Mỗi nghiên cứu là , trong những gì các nhóm hy vọng sẽ là một loạt các hoạt động liên tục nhằm khuyến khích các công ty AI hàng đầu cải thiện các hoạt động của họ.

“Chúng tôi muốn giúp mọi người thực sự dễ dàng nhận thấy ai không chỉ nói suông mà còn hành động,” Max Tegmark, chủ tịch của FLI, cho biết.

SaferAI xếp hạng các giao thức quản lý rủi ro của các công ty AI hàng đầu (còn được gọi là các chính sách mở rộng quy mô có trách nhiệm) để chấm điểm cho mỗi công ty về cách tiếp cận của họ trong việc xác định và giảm thiểu rủi ro AI.

Không có công ty AI nào đạt điểm cao hơn “yếu” trong đánh giá của SaferAI về mức độ trưởng thành trong quản lý rủi ro của họ. Người ghi điểm cao nhất là Anthropic (35%), tiếp theo là OpenAI (33%), Meta (22%) và Google DeepMind (20%). xAI của Elon Musk đạt 18%.

Hai công ty, Anthropic và Google DeepMind, nhận được điểm thấp hơn so với lần đầu tiên nghiên cứu được thực hiện vào tháng 10 năm 2024. Kết quả này có nghĩa là OpenAI đã vượt qua Google để giành vị trí thứ hai trong bảng xếp hạng của SaferAI.

Siméon Campos, người sáng lập SaferAI, cho biết Google đạt điểm tương đối thấp mặc dù đã thực hiện một số nghiên cứu an toàn tốt, bởi vì công ty đưa ra rất ít cam kết chắc chắn trong các chính sách của mình. Công ty cũng đã phát hành một mô hình tiên phong vào đầu năm nay, Gemini 2.5, mà không chia sẻ thông tin an toàn—trong điều mà Campos gọi là một “thất bại nghiêm trọng”. Một phát ngôn viên của Google DeepMind nói với TIME: “Chúng tôi cam kết phát triển AI một cách an toàn và bảo mật để mang lại lợi ích cho xã hội. Các biện pháp an toàn AI bao gồm một loạt các biện pháp giảm thiểu tiềm năng. Các báo cáo gần đây này không tính đến tất cả các nỗ lực an toàn AI của Google DeepMind, cũng như tất cả các tiêu chuẩn ngành. Cách tiếp cận toàn diện của chúng tôi đối với an toàn và bảo mật AI vượt xa những gì được ghi lại.”

Điểm số của Anthropic cũng giảm kể từ lần SaferAI vào tháng 10. Điều này một phần là do những thay đổi mà công ty đã thực hiện đối với của mình vài ngày trước khi phát hành các mô hình Claude 4, trong đó Anthropic loại bỏ các cam kết giải quyết các mối đe dọa từ bên trong vào thời điểm phát hành các mô hình có tầm cỡ đó. “Đó là quy trình rất tệ,” Campos nói. Anthropic đã không trả lời ngay lập tức yêu cầu bình luận.

Các tác giả của nghiên cứu cũng cho biết phương pháp luận của nó đã trở nên chi tiết hơn kể từ tháng 10 năm ngoái, điều này giải thích cho một số khác biệt trong điểm số.

Các công ty cải thiện điểm số của họ nhiều nhất là xAI, đạt 18% so với 0% vào tháng 10; và Meta, đạt 22% so với điểm số trước đó là 14%.

Nghiên cứu của FLI rộng hơn—không chỉ xem xét các hoạt động quản lý rủi ro mà còn xem xét cách tiếp cận của các công ty đối với các tác hại hiện tại, an toàn hiện sinh, quản trị và chia sẻ thông tin. Một hội đồng gồm sáu chuyên gia độc lập đã chấm điểm cho mỗi công ty dựa trên đánh giá các tài liệu có sẵn công khai như chính sách, bài nghiên cứu và báo cáo tin tức, cùng với dữ liệu không công khai bổ sung mà các công ty đã được tạo cơ hội cung cấp. Điểm cao nhất là Anthropic (C cộng). OpenAI đạt điểm C và Google đạt điểm C trừ. (xAI và Meta đều đạt điểm D.)

Tuy nhiên, trong điểm số của FLI cho cách tiếp cận của mỗi công ty đối với “an toàn hiện sinh”, mọi công ty đều đạt điểm D trở xuống. “Tất cả họ đều nói: chúng tôi muốn xây dựng những cỗ máy siêu thông minh có thể thông minh hơn con người về mọi mặt, và tuy nhiên, họ không có kế hoạch làm thế nào họ sẽ kiểm soát thứ này,” Tegmark nói.

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác. 

“`

Posted in Tin tức

Điều hướng bài viết

Previous PostNgày Kỹ năng Thanh niên Thế giới 2025: Shanghai Electric tiên phong về Kỹ năng AI và Kỹ thuật số với Giải đấu Sáng tạo Toàn cầu
Next PostUntamed Giống như một chuyến đi miễn phí đến Yosemite, nếu bạn không ngại bộ phim hình sự sáo rỗng

dẫn đường

  • trang đầu
  • SeaPRwire
  • ACN Newswire
  • JCN Newswire
  • Tin tức
  • Việc kinh doanh
  • tài chính
  • About
  • Contact

liên kết

  • ADVFN
  • NASDAQ
  • Bloomberg
  • Newswire
  • TodayInSG
  • BeritaPagi
  • JamKopi
  • HunaTimes
  • EAStory
  • TaiwanPR