(SeaPRwire) –   Vào đầu tháng này, Google đã phát hành hệ thống lâu đợi của mình là “Gemini”, cho phép người dùng lần đầu tiên truy cập công nghệ tạo hình ảnh AI của nó thông qua các yêu cầu văn bản. Mặc dù hầu hết người dùng sớm đồng ý rằng hệ thống này rất ấn tượng, tạo ra hình ảnh chi tiết cho các yêu cầu văn bản trong vài giây, nhưng người dùng đã phát hiện ra rằng nó khó để làm cho hệ thống tạo ra hình ảnh của người da trắng, và sớm có những tweet lan truyền với những ví dụ khiến người ta ngạc nhiên như .

Một số người đổ lỗi cho Gemini vì quá “thức tỉnh”, sử dụng Gemini như vũ khí mới nhất trong cuộc chiến văn hóa leo thang về tầm quan trọng của việc nhận ra tác động của sự phân biệt đối xử lịch sử. Nhiều người nói rằng nó phản ánh sự mệt mỏi bên trong Google, và một số người xem trọng lĩnh vực “đạo đức AI” là một sự xấu hổ.

Ý tưởng rằng công việc đạo đức AI là nguyên nhân là sai. Thực tế, Gemini đã cho thấy Google bài học của đạo đức AI. Trong khi đạo đức AI tập trung vào việc giải quyết các trường hợp sử dụng có thể dự đoán trước – chẳng hạn như các mô tả lịch sử – thì dường như Gemini đã chọn cách tiếp cận “một kích cỡ phù hợp với tất cả”, dẫn đến sự kết hợp khó chịu của kết quả đa dạng và gây ngạc nhiên.

Tôi nên biết về điều này. Tôi đã làm việc về đạo đức trong AI trong các công ty công nghệ trong hơn 10 năm, khiến tôi trở thành một trong những chuyên gia hàng đầu thế giới về vấn đề này (đây là một lĩnh vực còn non trẻ!). Tôi cũng sáng lập và đồng lãnh đạo đội “Đạo đức AI” của Google, trước khi họ sa thải tôi và đồng lãnh đạo sau báo cáo cảnh báo chính xác về những vấn đề này đối với việc tạo ra ngôn ngữ. Nhiều người chỉ trích quyết định của Google, tin rằng nó phản ánh sự phân biệt hệ thống và ưu tiên tốc độ liều lĩnh hơn là chiến lược suy nghĩ kỹ lưỡng trong AI. Tôi hoàn toàn đồng ý.

Sự cố Gemini một lần nữa làm rõ chiến lược không chuyên nghiệp của Google trong các lĩnh vực mà tôi đặc biệt có thể giúp đỡ, và bây giờ tôi có thể giúp công chúng hiểu rõ hơn một cách tổng quát. Bài viết này sẽ thảo luận một số cách mà các công ty AI có thể làm tốt hơn lần sau, tránh cho phía cực hữu có đạn dược không cần thiết trong cuộc chiến văn hóa, và đảm bảo rằng AI mang lại lợi ích cho nhiều người nhất trong tương lai.

Một trong những khía cạnh quan trọng trong việc vận hành đạo đức trong AI là nêu rõ khả năng sử dụng có thể dự đoán trước, bao gồm cả việc sử dụng sai và lạm dụng. Điều này có nghĩa là phải làm rõ các câu hỏi như Một khi mô hình chúng tôi đang nghĩ đến xây dựng được triển khai, người dùng sẽ sử dụng nó như thế nào? Và chúng tôi có thể thiết kế nó như thế nào để mang lại lợi ích tối đa trong bối cảnh này? Cách tiếp cận này nhận ra tầm quan trọng trung tâm của “bối cảnh sử dụng” khi tạo ra hệ thống AI. Loại suy nghĩ và bối cảnh này, dựa trên sự tương tác của xã hội và công nghệ, khó khăn hơn đối với một số người so với những người khác – đây là nơi mà những người có chuyên môn về tương tác người-máy, khoa học xã hội và khoa học nhận thức đặc biệt có kỹ năng (nhấn mạnh tầm quan trọng của liên ngành trong tuyển dụng công nghệ). Những vai trò này thường không được trao quyền và ảnh hưởng nhiều như các vai trò kỹ thuật, và đối với Gemini, tôi đoán rằng những người có kỹ năng tốt nhất trong việc nêu rõ khả năng sử dụng có thể dự đoán trước không được trao quyền, dẫn đến một hệ thống không thể xử lý nhiều loại sử dụng thích hợp, chẳng hạn như mô tả các nhóm chủ yếu là da trắng lịch sử.

Mọi thứ đi sai khi tổ chức coi tất cả các trường hợp sử dụng là một trường hợp sử dụng, hoặc không mô hình hóa các trường hợp sử dụng. Do đó, mà không có phân tích đạo đức dựa trên trường hợp sử dụng trong các bối cảnh khác nhau, hệ thống AI có thể không có mô hình “bên trong” giúp xác định người dùng đang yêu cầu gì (và liệu nó có nên được tạo ra hay không). Đối với Gemini, điều này có thể liên quan đến việc xác định liệu người dùng đang tìm kiếm hình ảnh lịch sử hay đa dạng, và yêu cầu của họ có mơ hồ hay ác ý.

Để hỗ trợ, tôi đã tạo ra bảng sau nhiều năm trước. Nhiệm vụ là điền vào các ô; Tôi đã điền vào một vài ví dụ liên quan đến Gemini cụ thể.

Các ô màu xanh lá (hàng trên) là những nơi mà AI có lợi có khả năng cao nhất (không phải là nơi AI luôn mang lại lợi ích). Các ô màu đỏ (hàng giữa) là những nơi AI có hại có khả năng cao nhất (nhưng cũng có thể là nơi đổi mới có lợi không lường trước được). Phần còn lại của các ô có khả năng mang lại kết quả hỗn hợp hơn – một số kết quả tốt, một số xấu.

Bước tiếp theo liên quan đến việc làm rõ các lỗi có thể xảy ra trong các bối cảnh khác nhau, giải quyết sai sót không cân xứng đối với các nhóm dễ bị tổn thương bởi sự phân biệt đối xử. Nhóm phát triển Gemini dường như đã làm đúng phần này phần lớn. Đội dường như đã có sự dự đoán để nhận ra rủi ro của việc quá đại diện cho người da trắng trong tình huống trung lập hoặc tích cực, điều này sẽ làm tăng quan điểm thống trị da trắng về thế giới. Và do đó, có lẽ có một tiểu mô-đun trong Gemini được thiết kế để hiển thị da sẫm màu hơn cho người dùng.

Thực tế là các bước này rõ ràng trong Gemini, nhưng không phải các bước liên quan đến khả năng sử dụng có thể dự đoán trước, có thể một phần do ý thức công chúng tăng về thiên vị trong hệ thống AI: một thiên vị da trắng dễ dự đoán trước là một cơn ác mộng PR, lặp lại , trong khi các cách tiếp cận tinh tế hơn để xử lý “bối cảnh sử dụng” không được dự đoán trước. Kết quả tổng thể là một hệ thống “bỏ qua” trong việc bao gồm các trường hợp sử dụng thích hợp có thể dự đoán trước.

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác. 

Điểm chính là có thể có công nghệ mang lại lợi ích cho người dùng và giảm thiểu thiệt hại đối với nhữ