(SeaPRwire) – “Chúng tôi vô tình nhận thấy bài đăng của bạn… và có vẻ như bạn đang trải qua những lúc khó khăn,” tin nhắn bắt đầu. “Chúng tôi ở đây để chia sẻ với bạn những tài liệu và nguồn lực có thể mang lại sự an ủi.” Các liên kết đến đường dây nóng cứu trợ tự tử, dịch vụ trò chuyện 24/7 và câu chuyện của những người đã vượt qua khủng hoảng sức khỏe tâm thần tiếp theo. “Gửi bạn một nụ hôn ảo,” tin nhắn kết thúc.
Lời nhắn này, gửi dưới dạng tin nhắn riêng trên Reddit bởi công ty công nghệ nhân tạo (AI) , đại diện cho những gì một số nhà nghiên cứu nói là một công cụ hứa hẹn để chống lại tự tử ở Mỹ, làm mất gần 50.000 sinh mạng mỗi năm. Các công ty như Samurai đang sử dụng AI để phân tích các bài đăng trên mạng xã hội để tìm dấu hiệu có ý định tự tử, sau đó can thiệp thông qua các chiến lược như tin nhắn trực tiếp.
Có một sự ngộ nghĩnh nhất định trong việc khai thác mạng xã hội cho mục đích phòng ngừa tự tử, vì nó thường bị đổ lỗi gây ra cuộc khủng hoảng sức khỏe tâm thần và tự tử ở Mỹ, . Nhưng một số nhà nghiên cứu tin rằng có thực sự triển vọng trong việc đi thẳng đến nguồn để “phát hiện những người đang gặp khó khăn trong thời gian thực và vượt qua hàng triệu mảnh nội dung,” theo lời đồng sáng lập Samurai Patrycja Tempska.
Samurai không phải là công ty duy nhất sử dụng AI để tìm và tiếp cận những người có nguy cơ. Công ty cho biết mô hình AI của nó mỗi ngày đánh dấu hơn 400 bài đăng trên mạng xã hội có ý định tự tử. Và Meta, công ty mẹ của Facebook và Instagram, hoặc hành vi duyệt hoặc tìm kiếm liên quan đến tự tử cho thấy ai đó đang nghĩ đến tự tử. Nếu ai đó chia sẻ hoặc tìm kiếm nội dung liên quan đến tự tử, nền tảng sẽ đẩy qua một tin nhắn với thông tin về như Đường dây Cứu trợ Khủng hoảng và Tự tử – hoặc, nếu đội ngũ của Meta đánh giá là cần thiết, nhân viên ứng cứu sẽ được gọi vào.
Nền tảng của những nỗ lực này là ý tưởng rằng các thuật toán có thể làm điều gì đó mà truyền thống đã làm cho con người khó khăn: xác định ai có nguy cơ tự hại để họ có thể nhận được trợ giúp trước khi quá muộn. Nhưng một số chuyên gia nói rằng cách tiếp cận này – mặc dù hứa hẹn – chưa sẵn sàng cho thời đại.
“Chúng tôi rất biết ơn khi phòng ngừa tự tử đã đến với ý thức của xã hội nói chung. Điều đó thực sự quan trọng,” Tiến sĩ Christine Moutier, giám đốc y tế của Quỹ Phòng chống Tự tử Mỹ (AFSP), nói. “Nhưng nhiều công cụ đã được đưa ra mà không nghiên cứu kết quả thực tế.”
Dự đoán ai có khả năng cố gắng tự tử là điều khó khăn ngay cả đối với các chuyên gia con người được đào tạo cao nhất, Tiến sĩ Jordan Smoller, đồng giám đốc Trung tâm Nghiên cứu và Phòng chống Tự tử Mass General Brigham và Đại học Harvard, nói. Có các yếu tố nguy cơ mà các bác sĩ lâm sàng biết phải tìm kiếm ở bệnh nhân của họ – một số chẩn đoán tâm thần, trải qua sự kiện gây chấn thương, – nhưng tự tử là “rất phức tạp và đa dạng”, Smoller nói. “Có rất nhiều biến thể trong những gì dẫn đến tự hại”, và hầu như không bao giờ có một yếu tố kích hoạt duy nhất.
Hy vọng là AI, với khả năng lọc dữ liệu khổng lồ, có thể nhận ra những xu hướng trong lời nói và viết mà con người sẽ không bao giờ nhận thấy, Smoller nói. Và có khoa học để hỗ trợ hy vọng đó.
Hơn một thập kỷ trước, John Pestian, giám đốc Trung tâm Y học Tính toán tại Bệnh viện Nhi Cincinnati, đã chứng minh rằng AI có thể dự đoán ý định tự tử với độ chính xác cao hơn các bác sĩ lâm sàng – một phát hiện nhấn mạnh tiềm năng của AI trong việc nhận ra ý định tự tử trong văn bản. Kể từ đó, có nhiều nghiên cứu cho thấy AI có thể nhận ra ý định tự tử trong bài đăng trên mạng xã hội trên các nền tảng khác nhau.
Các công ty như Samurai Labs đang đưa những phát hiện đó vào thực tiễn. Từ tháng 1 đến tháng 11 năm 2023, mô hình của Samurai phát hiện hơn 25.000 bài đăng có thể tự tử trên Reddit, theo dữ liệu công ty chia sẻ với TIME. Sau đó, một nhân viên giám sát quyết định liệu người dùng có nên nhận tin nhắn về cách cách để nhận được trợ giúp hay không. Khoảng 10% người nhận các tin nhắn này liên hệ với đường dây cứu trợ tự tử, và đại diện của công ty đã hợp tác với lực lượng ứng cứu để hoàn thành bốn vụ cứu hộ trực tiếp. (Samurai không có đối tác chính thức với Reddit, mà thay vào đó sử dụng công nghệ của mình để độc lập phân tích bài đăng trên nền tảng. Reddit triển khai các tính năng phòng ngừa tự tử khác, chẳng hạn như một tính năng cho phép người dùng .)
Đồng sáng lập Michal Wroczynski thêm rằng can thiệp của Samurai có thể mang lại lợi ích bổ sung khó theo dõi hơn. Một số người có thể gọi đường dây cứu trợ sau đó, ví dụ, hoặc đơn giản là hưởng lợi từ cảm giác có người quan tâm đến họ. “Điều này đã làm tôi rơi nước mắt,” một người viết trong một tin nhắn được chia sẻ với TIME. “Có người quan tâm đủ để lo lắng về tôi sao?”
Khi ai đó đang trong cơn khủng hoảng sức khỏe tâm thần cấp tính, một sự xao lãng – chẳng hạn như đọc một tin nhắn xuất hiện trên màn hình của họ – có thể cứu mạng, bởi vì nó làm gián đoạn chu kỳ suy nghĩ có hại, Moutier nói. Nhưng Pestian nói rằng các công ty phải biết AI có thể và không thể làm được trong tình huống khủng hoảng.
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.
Các dịch vụ kết nối người dùng mạng xã hội với hỗ trợ con người có thể hiệu quả, Pestian nói. “Nếu bạn có bạn bè, họ có thể nói, ‘Để tôi đưa bạn đến bệnh viện,'” ông nói. “AI có thể là chiếc xe đưa người đó đến chăm sóc.” Điều có nguy cơ hơn, theo quan điểm của ông, là “để AI thực hiện chăm sóc” bằng cách huấn luyện nó sao chép các khía cạnh của liệu pháp. Một người đàn ông ở Bỉ