HomeTin tức mớiCông cụ AI có nguồn mở của Bumble để bắt ảnh khoả...

Công cụ AI có nguồn mở của Bumble để bắt ảnh khoả thân không mong muốn

Kể từ năm 2019, Bumble đã sử dụng công nghệ máy học để bảo vệ người dùng khỏi những bức ảnh khiêu dâm. Được gọi là , tính năng này sàng lọc hình ảnh được gửi từ các trận đấu để xác định xem chúng có mô tả nội dung không phù hợp hay không. Nó chủ yếu được thiết kế để chụp những bức ảnh khỏa thân không được yêu cầu, nhưng cũng có thể gắn cờ những bức ảnh tự sướng cởi trần và hình ảnh về súng – cả hai đều không được phép xuất hiện trên Bumble. Khi có kết quả phù hợp, ứng dụng sẽ làm mờ hình ảnh vi phạm, cho phép bạn quyết định xem bạn muốn xem, chặn hoặc báo cáo người đã gửi hình ảnh đó cho bạn.

Trong a , Bumble thông báo đây là Private Detector nguồn mở, làm cho khung có sẵn trên . “Chúng tôi hy vọng rằng tính năng này sẽ được cộng đồng công nghệ rộng rãi áp dụng khi chúng tôi làm việc song song để biến Internet trở thành một nơi an toàn hơn,” công ty cho biết, trong quá trình này, công ty thừa nhận rằng họ chỉ là một trong nhiều người chơi trên thị trường hẹn hò trực tuyến.

Tiến bộ tình dục không mong muốn là một thực tế thường xuyên đối với nhiều phụ nữ cả trực tuyến và trong thế giới thực. A phát hiện ra rằng 57% phụ nữ cảm thấy họ bị quấy rối trên các ứng dụng hẹn hò mà họ sử dụng. Gần đây hơn, một từ Vương quốc Anh phát hiện ra rằng 76 phần trăm các cô gái trong độ tuổi từ 12 đến 18 đã được gửi những hình ảnh khỏa thân không được yêu cầu. Vấn đề còn mở rộng ra ngoài các ứng dụng hẹn hò, với các ứng dụng như có giải pháp riêng của chúng.

Tất cả các sản phẩm do Engadget giới thiệu đều được lựa chọn bởi đội ngũ biên tập viên của chúng tôi, độc lập với công ty mẹ của chúng tôi. Một số câu chuyện của chúng tôi bao gồm các liên kết liên kết. Nếu bạn mua thứ gì đó thông qua một trong những liên kết này, chúng tôi có thể kiếm được hoa hồng liên kết. Tất cả giá đều chính xác tại thời điểm xuất bản.

Sưu tầm

Must Read

spot_img