Những kẻ lừa đảo đang lợi dụng thảm họa động đất ở Thổ Nhĩ Kỳ và Syria để chiếm đoạt tiền quyên góp, khiến nỗ lực cứu trợ khó khăn hơn.
Những kẻ lừa đảo tuyên bố lý do kêu gọi quyên góp là hỗ trợ những người sống sót đang sống trong cảnh đói khát sau trận động đất thế kỷ giết chết hơn 41.000 người ở Thổ Nhĩ Kỳ và Syria. Nhưng thay vì giúp đỡ các nạn nhân tuyệt vọng, những kẻ lừa đảo lại chuyển tiền quyên góp từ thiện sang tài khoản PayPal hay ví tiền điện tử của mình.
Trên TikTok Live, nền tảng phát hình ảnh trực tuyến, người tạo nội dung có thể kiếm tiền bằng cách nhận quà tặng kỹ thuật số. Giờ đây, các tài khoản lừa đảo trên TikTok liên tục đăng những bức ảnh về cảnh thảm khốc ở hiện trường động đất hay những bản tin truyền hình về nỗ lực cứu hộ để kêu gọi quyên góp.
Những lời giới thiệu trong các bài đăng này thường chứa những khẩu hiệu như “Hãy giúp đỡ Thổ Nhĩ Kỳ” hay “Cầu nguyện cho Thổ Nhĩ Kỳ” và kết thúc bằng thông điệp “ủng hộ nạn nhân động đất”.
Một tài khoản đã phát trực tiếp trong hơn ba tiếng, hiển thị hình ảnh quay từ trên cao cho thấy những tòa nhà bị phá hủy, kèm hiệu ứng âm thanh các vụ nổ, với chú thích: “Hãy giúp Thổ Nhĩ Kỳ. Hãy quyên góp”.
Một video trực tiếp khác cho thấy bức ảnh một đứa trẻ đang hoảng sợ chạy khỏi một vụ nổ với thông điệp được đưa ra là “Hãy giúp đạt được mục tiêu quyên góp này”, nhằm gợi ý người xem tặng quà trên TikTok để “làm từ thiện”.
Tuy nhiên, bức ảnh đứa trẻ không phải được chụp trong trận động đất ở Thổ Nhĩ Kỳ và Syria tuần trước. Nó từng được đăng trên Twitter hồi năm 2018 với chú thích “Chấm dứt nạn diệt chủng Afrin”, đề cập tới một thành phố ở phía tây bắc Syria, nơi các tay súng được Thổ Nhĩ Kỳ hậu thuẫn tấn công lực lượng dân quân người Kurd vào cùng năm đó.
Trên Twitter, nhiều người dùng cũng đang chia sẻ những hình ảnh đầy cảm động về động đất cùng các liên kết đến ví điện tử để quyên góp. Một tài khoản đã đăng những lời kêu gọi giống hệt nhau 8 lần trong vòng 12 tiếng, với hình ảnh người lính cứu hỏa đang ôm em bé giữa những tòa nhà đổ sập.
Tuy nhiên, đây không phải ảnh thật. Báo OEMA của Hy Lạp cho biết nó thực chất được tạo ra bởi phần mềm trí tuệ nhân tạo (AI) Midjourney. Những chương trình tạo hình ảnh AI thường mắc lỗi và người dùng Twitter đã nhanh chóng phát hiện ra rằng bàn tay phải của người lính cứu hỏa này có 6 ngón.
Một địa chỉ ví điện tử nhận quyên góp từng được sử dụng trong các tweet lừa đảo và spam từ năm 2018. Địa chỉ còn lại từng đăng nội dung khiêu dâm trên mạng xã hội VK của Nga.
Khi BBC liên hệ, những người đăng tweet quyên góp tuyên bố họ không lừa đảo. “Mục đích của tôi là có thể giúp đỡ những người bị ảnh hưởng bởi động đất nếu tôi gây quỹ thành công”, một người nói. “Hiện tại, họ đang phải sống trong giá rét, trẻ em không có thức ăn. Tôi có thể chứng minh điều này bằng hóa đơn”.
Tuy nhiên, cuối cùng, họ không gửi hóa đơn chuyển tiền hay bất kỳ bằng chứng nào cho thấy danh tính thật của mình.
Ở một số bài đăng khác trên Twitter, những kẻ lừa đảo tạo tài khoản gây quỹ giả và đăng liên kết tới PayPal.