Những kẻ lừa đảo ngày càng thông minh hơn và đó là lý do tại sao chúng ta tìm ra những cách mới mỗi ngày để lừa dối người khác và trước đây một số người đã thử Hacking Tài khoản của bạn trên Facebook hoặc e-mail của bạn, sau đó anh ta gửi email cho bạn bè, gia đình và bất kỳ ai trong tài khoản và cố gắng đòi tiền với lý do rằng họ chính là bạn và tất nhiên là bạn đang gặp rắc rối và cần số tiền đó gấp. mánh khóe rẻ tiền đó hiệu quả với tỷ lệ rất nhỏ, nhưng có vẻ như sự phát triển của trí tuệ nhân tạo đã khiến mánh khóe đó thành công một cách đáng sợ.


hành vi trộm cắp danh tính

Bạn có biết tại sao lừa đảo mạo danh không hoạt động hiệu quả không, bởi vì kẻ lừa đảo cần phải là một hacker để hack tài khoản mạng xã hội hoặc email của bạn và hầu hết thời gian những người khác không tin điều đó và cố gắng gọi điện thoại với bạn để xác nhận câu chuyện, nhưng điều gì sẽ xảy ra nếu anh ta cố gắng Bạn của bạn, hoặc có lẽ là anh trai, vợ của bạn, hoặc ai đó thân thiết với bạn, gọi cho bạn và nói chuyện với bạn bằng giọng nói và yêu cầu bạn vay một số tiền vì anh ta cần nó. Điều gì sẽ xảy ra? kết quả Tất nhiên, thủ thuật sẽ hoạt động ngay lập tức và bạn sẽ gửi tiền bằng mọi cách. Đây là điều đã xảy ra với rất nhiều người trong giai đoạn hiện nay, cứ tưởng người thân cầu cứu nhưng hóa ra chỉ là trò lừa đảo được hỗ trợ bởi trí tuệ nhân tạo AI.


 Thủ thuật được cung cấp bởi trí tuệ nhân tạo

Kẻ lừa đảo sử dụng trí tuệ nhân tạo để xuất hiện giống như một thành viên trong gia đình đang gặp khó khăn hoặc gặp khó khăn và cần hỗ trợ tài chính, và theo một báo cáo được đăng bởi Washington Post, Ruth Card, một phụ nữ 73 tuổi, đã nhận được một cuộc gọi từ một người mà ngay khi nghe thấy giọng nói của anh ta, bà biết ngay đó là anh ta, cháu trai của bà, Brandon, người đã nói với bà rằng anh ta đang ở trong tù mà không có điện thoại hay ví và cần tiền để tại ngoại.

Ngay lập tức Ruth và chồng cô là Greg vội vã đến ngân hàng gần nhất và rút khoảng 3000 đô la (số tiền rút tối đa hàng ngày), sau đó họ vội vã đến một ngân hàng khác để rút thêm tiền cho cháu trai của họ, nhưng nhân viên ngân hàng đã trấn an họ và nói với họ, một số khách hàng nhận được cuộc gọi từ những người họ biết và đang hỏi Tiền, nhưng hóa ra giọng nói này là giả. Vậy nếu người trên điện thoại không phải là cháu của bạn thì sao.

Đó là những gì Ruth và chồng cô, Greg nghĩ, nghe có vẻ giống Brandon nhưng không phải anh ta, và họ ngay lập tức nhận ra mình đã bị lừa. Ruth nói: “Chúng tôi hoàn toàn bị lừa dối, và chúng tôi tin rằng mình đang nói chuyện với Brandon.

Chỉ để biết thông tin: trang web giả mạo có sẵn cho mọi người và dễ sử dụng, nhưng nó không hỗ trợ tiếng Ả Rập và đây là trang web: https://elevenlabs.io

Một công ty chuyên về lĩnh vực này là ElevenLabs, một công ty khởi nghiệp tạo giọng nói AI được thành lập vào năm 2022 có thể chuyển đổi một mẫu âm thanh ngắn thành giọng nói được tạo nhân tạo thông qua công cụ chuyển văn bản thành giọng nói. Công cụ của công ty có thể được sử dụng miễn phí hoặc với chi phí bắt đầu từ $5.


Thủ thuật hoạt động như thế nào?

Sự tiến bộ trong trí tuệ nhân tạo đã cho phép những kẻ lừa đảo sao chép âm thanh chỉ bằng một mẫu âm thanh của một vài cụm từ hoặc câu mà chính bạn nói. Do đó, thông qua trí tuệ nhân tạo và các công cụ trực tuyến rẻ tiền hoặc thậm chí miễn phí, kẻ lừa đảo có thể lấy được bản sao chính xác của tệp âm thanh của bạn và những người khác, sau đó kẻ lừa đảo sử dụng trí tuệ nhân tạo để khiến hắn nói bằng giọng điệu giống như giọng nói của bạn.

Mặc dù lừa đảo có nhiều hình thức nhưng chúng hoạt động theo cùng một cách khi kẻ lừa đảo mạo danh một người đáng tin cậy như anh, em họ hoặc bạn bè và thuyết phục nạn nhân gửi tiền cho anh ta vì anh ta đang gặp khó khăn.

Nhưng công nghệ giọng nói được hỗ trợ bởi AI làm cho mánh khóe trở nên thuyết phục hơn. Điều này đã được chứng minh qua báo cáo của tờ báo, nơi các nạn nhân mô tả rằng phản ứng của họ là lo lắng xen lẫn kinh hoàng tột độ khi biết rằng người thân của họ đang gặp nguy hiểm, và đây là hợp âm nhạy cảm mà kẻ lừa đảo chơi, khi cảm xúc đối với người khác hoạt động trong đó. thiếu logic và do đó chúng tôi không thể suy nghĩ đúng đắn và mục tiêu của chúng tôi trở thành Chỉ giúp đỡ những người chúng tôi quan tâm.


Trí tuệ nhân tạo

Thủ thuật này đề cập đến tiến bộ kỹ thuật mà chúng ta đã đạt được và sự phát triển của trí tuệ nhân tạo có thể làm được rất nhiều điều tuyệt vời, và tôi có thể bị thay thế bởi một trí tuệ nhân tạo viết bài cho bạn trong tương lai, ai biết được.

Bình luận từ người quản lý trang iPhone Islam: Chúng tôi đang làm việc với nó, Walid 🤣

Nhưng như chúng ta biết, mọi thứ đều có hai mặt, và mặt trái của trí tuệ nhân tạo là bị những kẻ lừa đảo và những kẻ lừa đảo lạm dụng để bắt chước giọng nói và thuyết phục nạn nhân, đặc biệt là người già, rằng người thân và họ hàng của họ đang gặp khó khăn và cần hỗ trợ tài chính.

Đó là một hàm ý nghiệt ngã về sự phát triển hiện tại của AI tổng quát hỗ trợ các chương trình tạo văn bản, hình ảnh hoặc âm thanh dựa trên dữ liệu đã nhập. Những tiến bộ trong toán học và sức mạnh tính toán đã cải thiện cơ chế đào tạo cho các chương trình như vậy. Điều này đã thúc đẩy một số lượng lớn các công ty tung ra chatbot, công cụ tạo hình ảnh và thậm chí cả giọng nói không thể phân biệt được với bản gốc.

Một chuyên gia cho biết phần mềm tạo giọng nói AI phân tích những yếu tố khiến giọng nói của một người trở nên độc đáo bao gồm tuổi tác, giới tính và giọng nói, đồng thời tìm kiếm cơ sở dữ liệu giọng nói rộng lớn để tìm ra những giọng nói tương tự và dự đoán các mẫu. Sau đó, một giai điệu giống hệt giọng nói của một người có thể được tạo lại và tạo ra hiệu ứng tương tự. Nó lấy một mẫu âm thanh nhỏ mà bạn có thể lấy từ những nơi như YouTube hoặc có thể là một trong các video trên Facebook, Instagram hoặc thậm chí là Facebook của bạn.


 một câu chuyện khác

Câu chuyện bắt đầu khi bố mẹ anh nhận được điện thoại từ một người tự xưng là luật sư của con trai họ Birkin và nói với họ rằng anh ta đã giết một người do tai nạn xe hơi, và Birkin hiện đang ở trong tù và cần một số tiền cho vụ án, sau đó anh ta nói với họ. rằng con trai họ sẽ sớm nói chuyện với họ.

Luật sư gọi điện cho Birkin và ngay sau đó người mẹ nghe thấy giọng nói của Birkin nói với họ rằng anh ấy yêu họ và cần tiền. Vài giờ sau, luật sư gọi lại cho cha mẹ của Birkin, nói rằng con trai họ cần 21000 USD trước ngày ra tòa vào cuối ngày hôm đó.

Cha mẹ của Birkin sau đó nói rằng cuộc gọi nghe có vẻ bất thường và đã có một số nghi ngờ, nhưng điều đó nhanh chóng bị xua tan bởi linh cảm mách bảo họ rằng họ đã nói chuyện với con trai mình và cậu bé cần họ giúp đỡ.

Thật không may, kế hoạch tiếp theo là lao ra ngoài và rút số tiền đã được gửi cho kẻ lừa đảo. Và sự thật đã lộ ra khi người con trai thật gọi điện cho họ, đến đây thì sự việc sáng tỏ và họ biết rằng mình đã bị lừa và kẻ lừa đảo đã tẩu thoát cùng với số tiền của họ. Và trong trường hợp bạn đang thắc mắc làm thế nào họ có được giọng nói của Birkin, thì câu trả lời rất dễ dàng là qua Internet, nơi anh ấy đã đăng một số video nói về trượt tuyết trên YouTube và rất có thể, kẻ lừa đảo sẽ cố gắng truy cập tệp âm thanh cho bạn bằng cách tìm kiếm trên YouTube hoặc trên mạng xã hội tài khoản của bạn hoặc thậm chí trong những câu chuyện bạn đăng trên TikTok hoặc Instagram.

Cuối cùng, để không rơi vào bẫy, nếu bạn nhận được cuộc gọi từ một giọng nói nói rằng anh ta là thành viên trong gia đình bạn và anh ta cần tiền, hãy tạm dừng cuộc gọi này và cố gắng liên hệ với người này để xác nhận sự việc. Ngoài ra, nếu bạn cảm thấy nghi ngờ, hãy thử nói chuyện với người đó về những điều bạn biết và hỏi họ về bất cứ điều gì để đảm bảo đó không phải là giọng giả.

Bạn đã gặp phải vấn đề này trước đây chưa và bạn đã giải quyết nó như thế nào? Hãy cho chúng tôi biết trong phần bình luận

Nguồn:

Bưu điện Washington

Những bài viết liên quan