(SeaPRwire) –   Không deepfake chính trị nào làm cho các chuyên gia thông tin sai lệch toàn cầu lo lắng hơn cuộc gọi giả mạo của Tổng thống Mỹ Joe Biden bắt đầu lan truyền trong cuối tuần qua.

Trong tin nhắn điện thoại, một giọng nói được chỉnh sửa để nghe giống Biden kêu gọi cử tri ở New Hampshire không bỏ phiếu trong cuộc bầu cử sơ bộ Dân chủ vào thứ Ba. “Hãy lưu lại phiếu bầu của bạn cho cuộc bầu cử tháng 11,” tin nhắn điện thoại nói. Nó thậm chí sử dụng một trong những cụm từ đặc trưng của Biden: “Cái gì một đám lộn xộn”. Thực tế, tổng thống không có tên trên lá phiếu ở cuộc bầu cử New Hampshire – và việc bỏ phiếu trong cuộc bầu cử sơ bộ không ngăn cản mọi người tham gia vào cuộc bầu cử tháng 11.

Nhiều người đã cảnh báo rằng các công nghệ video và hình ảnh tạo bởi trí tuệ nhân tạo mới sẽ được sử dụng năm nay nhằm mục đích chính trị, trong khi đại diện cho gần một nửa thế giới đang trong cuộc bầu cử. Nhưng đó là deepfake âm thanh khiến các chuyên gia lo ngại bây giờ. Chúng dễ chỉnh sửa, rẻ tiền để sản xuất và đặc biệt khó truy nguồn gốc. Kết hợp một tin nhắn điện thoại thuyết phục với cơ sở dữ liệu đăng ký cử tri, và một đối tượng xấu có một vũ khí mạnh mẽ mà thậm chí các hệ thống bầu cử tiên tiến nhất cũng không đủ khả năng xử lý, các nhà nghiên cứu nói.

“Thời điểm deepfake chính trị đã đến,” Robert Weissman, chủ tịch tổ chức bảo vệ người tiêu dùng Public Citizen, nói. Ông kêu gọi các nhà lập pháp áp đặt các biện pháp bảo vệ chống lại các bản ghi âm và video giả mạo nhằm tránh “sự hỗn loạn bầu cử”.

Tin nhắn giả mạo Biden đến trong bối cảnh một số lượng ngày càng tăng các chiến dịch chính trị ở Mỹ sử dụng phần mềm trí tuệ nhân tạo để tiếp cận cử tri hàng loạt – và khi các nhà đầu tư đang đổ tiền vào các startup sao chép giọng nói. Vào thứ Hai, khi tin nhắn deepfake Biden lan truyền, công ty sao chép giọng nói ElevenLabs thông báo đã huy động được một vòng tài trợ mới định giá công ty ở mức 1,1 tỷ USD.

Bản ghi âm chính trị bị làm giả không phải là lần đầu tiên. Năm ngoái, các deepfake âm thanh lan truyền trên mạng xã hội trước cuộc bầu cử quốc hội Slovakia, bao gồm một đoạn clip mà lãnh đạo đảng Michal Simecka dường như đang thảo luận kế hoạch mua phiếu bầu. Tuy nhiên, việc sử dụng video và âm thanh deepfake trong chính trị cho đến nay vẫn còn hạn chế.

Việc tạo ra tin nhắn Biden giả mạo chính xác là như thế nào vẫn chưa rõ. Công tố viên bang New Hampshire đang điều tra cuộc gọi vào thứ Hai. Nhưng việc truy tìm nguồn gốc tin nhắn giả đến từ đâu sẽ đặc biệt khó khăn bởi vì nó được lan truyền qua điện thoại thay vì trực tuyến, theo Joan Donovan, phó giáo sư nghiên cứu báo chí và truyền thông mới nổi tại Đại học Boston.

“Đây là dấu hiệu của thế hệ tiếp theo các chiêu trò bẩn thỉu,” Donovan nói.

Có một lý do nữa khiến đoạn clip Biden giả mạo đặc biệt gây lo ngại cho các nhà nghiên cứu thông tin sai lệch và các quan chức bầu cử. Nó xác nhận nỗi sợ lớn nhất của họ: Các đối tượng xấu không chỉ sử dụng deepfake để ảnh hưởng đến quan điểm công chúng mà còn ngăn cản cử tri đến phòng phiếu.

“Ngay cả nếu thông tin sai lệch chỉ gây ra sự nhầm lẫn ảnh hưởng đến vài trăm hoặc hàng ngàn phiếu bầu, điều đó cũng có thể có ý nghĩa đối với kết quả và kết cục,” Nick Diakopoulos, giáo sư Đại học Northwestern nghiên cứu âm thanh và video bị làm giả trong bầu cử, nói.

Ủy ban Bầu cử Liên bang Mỹ đã có những bước nhỏ nhằm quy định deepfake chính trị, nhưng chưa siết chặt các công nghệ giúp tạo ra chúng. Một số tiểu bang đã đề xuất luật riêng của họ nhằm kiểm soát deepfake.

Các quan chức bầu cử đang tổ chức các bài tập huấn luyện để chuẩn bị cho một làn sóng deepfake. Khoảng 100 quan chức liên bang và tiểu bang đã tập trung tại Colorado vào tháng 8 để trao đổi về phản ứng tốt nhất đối với một kịch bản giả tưởng về một video có thông tin sai lệch về bầu cử. Deepfake cũng là trọng tâm của một bài tập ở Arizona vào tháng 12 khi các quan chức làm việc qua một tình huống giả định video của Thư ký bang Adrian Fontes bị làm giả nhằm lan truyền thông tin sai lệch.

Trong khi đó, công cụ phát hiện deepfake vẫn còn ở giai đoạn sơ khai và kết quả không thể chắc chắn.

Ví dụ, công cụ phát hiện của ElevenLabs cho thấy cuộc gọi Biden có khả năng không được tạo bằng phần mềm sao chép – trong khi công ty phát hiện deepfake Clarity cho rằng nó có khả năng hơn 80% là một deepfake.

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.