Nagbabala ang FBI sa AI Deepfake Extortion Scams

Kahanga-hanga ang mga kakayahan ng generative AI na lumikha ng parang buhay na mga imahe, ngunit sinabi ng US Federal Bureau of Investigation na ang mga kriminal ay gumagamit ng mga deepfakes upang i-target ang mga biktima para sa pangingikil.

"Ang FBI ay patuloy na tumatanggap ng mga ulat mula sa mga biktima, kabilang ang mga menor de edad na bata at hindi pumayag na mga nasa hustong gulang, na ang mga larawan o video ay binago sa tahasang nilalaman," sabi ng ahensya sa isang alerto ng PSA noong Lunes.

Sinasabi ng FBI na ang mga ahensya ng pagpapatupad ng batas ay nakatanggap ng higit sa 7,000 mga ulat noong nakaraang taon ng online na pangingikil na nagta-target sa mga menor de edad, na may pagtaas sa mga biktima ng tinatawag na "sextortion scam" gamit ang mga deepfakes mula noong Abril.

Ang deepfake ay isang mas karaniwang uri ng video o audio content na ginawa gamit ang artificial intelligence na naglalarawan ng mga maling kaganapan na lalong mahirap tukuyin bilang peke, salamat sa mga generative AI platform tulad ng Midjourney 5.1 at OpenAI's DALL-E 2.

Noong Mayo, naging viral ang isang deepfake ng Tesla at Twitter CEO na si Elon Musk para i-scam ang mga crypto investor. Ang video na ibinahagi sa social media ay naglalaman ng footage ng Musk mula sa mga nakaraang panayam, na na-edit upang magkasya sa scam.

Ang mga deepfakes ay hindi lahat ng malisyoso, ang isang deepfake ni Pope Francis na nakasuot ng puting Balenciaga jacket ay naging viral noong unang bahagi ng taong ito, at kamakailan lamang, ang AI-generated deepfakes ay ginamit din para buhayin ang mga biktima ng pagpatay.

Sa mga rekomendasyon nito, nagbabala ang FBI laban sa pagbabayad ng anumang ransom dahil ang paggawa nito ay hindi ginagarantiyahan na hindi ipo-post ng mga kriminal ang deepfake pa rin.

Ang FBI ay nagpapayo din ng pag-iingat kapag nagbabahagi ng personal na impormasyon at nilalaman online, kabilang ang paggamit ng mga feature sa privacy tulad ng paggawa ng mga account na pribado, pagsubaybay sa online na aktibidad ng mga bata, at pagmamasid sa hindi pangkaraniwang pag-uugali mula sa mga taong nakipag-ugnayan ka sa nakaraan. Inirerekomenda din ng ahensya ang pagpapatakbo ng madalas na paghahanap para sa personal at impormasyon ng miyembro ng pamilya online.

Kabilang sa iba pang ahensyang nagpapatunog ng alarma ang US Federal Trade Commission, na nagbabala na ang mga kriminal ay gumagamit ng mga deepfakes para linlangin ang mga hindi pinaghihinalaang biktima na magpadala ng pera pagkatapos gumawa ng audio deepfake ng isang kaibigan o miyembro ng pamilya na nagsasabing sila ay kinidnap.

"Ang artificial intelligence ay hindi na isang malayong ideya mula sa isang sci-fi na pelikula. Nabubuhay tayo kasama nito, dito at ngayon. Ang isang scammer ay maaaring gumamit ng AI upang i-clone ang boses ng iyong mahal sa buhay, "sabi ng FTC sa isang alerto ng consumer noong Marso, idinagdag na ang lahat ng mga kriminal na pangangailangan ay isang maikling audio clip ng boses ng isang miyembro ng pamilya upang maging totoo ang pag-record.

Hindi pa sumasagot ang FBI Decrypt's humiling ng komento.

Manatili sa balita sa crypto, makakuha ng mga pang-araw-araw na update sa iyong inbox.

Pinagmulan: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams