देशभर में बढ़ते अपराधों के बीच ठगों ने AI की मदद से लोगों के साथ ठगी की वारदात को अंजाम देना शुरू कर दिया है। अब आर्टिफिशियल इंटेलिजेंस के जरिए ठगी का एक और मामला सामने आया है। ताजा मामला दिल्ली के यमुनानगर का है जहां ठगों ने AI टूल के जरिए एक बुजुर्ग से फिरौती वसूल ली। पुलिस के मुताबिक वारदात 24 अक्टूबर की है।
दिल्ली के यमुना विहार के रहने वाले लक्ष्मी चंद चावला के मोबाइल पर व्हाट्सएप कॉल आया। उनसे कहा गया कि कॉल करने वाले के पास उनका भतीजा है। अगर 50 हजार रूपये नहीं भेजे गए तो वो उनके भतीजे के साथ मारपीट करेगा। इसके बाद लक्ष्मी चंद चावला को एक आवाज सुनाई गई। वो आवाज उनके भतीजे के आवाज से मिलती-जुलती थी। आवाज रोने की थी। ये आवाज सुनकर लक्ष्मी चंद चावला घबरा गए। उन्हें डर हो गया कि कहीं कॉल करने वाला उनके भतीजे को नुकसान न पहुंचा दे। उन्हें लगा कि उनके भतीजे का अपहरण हो गया है। कॉल करने वाले ने उन्हें एक पेटीएम नंबर दिया। उन्होंने डर और घबराहट में दिए गए नंबर पर 50 हजार रूपये भेज दिए।
पैसे ट्रांसफर कर इसके बाद लक्ष्मी चंद ने अपने भाई को फोन कर भतीजे के बारे में पूछताछ की। पता चला कि उनका भतीजा कपिल घर पर सुरक्षित है और वह कहीं नहीं गया। फोन पर बात होने के बाद लक्ष्मीचंद समझ गए कि वह ठगी का शिकार हो गए हैं। लक्ष्मीचंद ने इस मामले की शिकायत पुलिस से की। नॉर्थ ईस्ट दिल्ली की साइबर थाना पुलिस ने इस मामले में एफआईआर दर्ज कर जांच शुरू कर दी है। पुलिस इस मामले में मनी ट्रेल को ट्रैक करने की कोशिश कर रही है लेकिन अब तक पुलिस को इस मामले में कोई सुराग नहीं मिला है।
AI के जरिए किसी का भी असली जैसा दिखने वाला फर्जी वीडियो या फोटो बनाया जा सकता है। ऐसा ही होता है आवाजों के साथ। आपके आवाज के कुछ नमूने अगर AI को दिए जाएं तो वो उसी आवाज में नई बातें रिकॉर्ड कर देगा। यानी किसी की भी असली जैसी आवाज में फर्जी बातें AI से रिकॉर्ड कराई जा सकती हैं। आवाज के नमूने WhatsApp या अन्य मैसेंजर ऐप पर भेजे गए वॉयस मैसेज या कॉल रिकॉर्डिंग के जरिए इकट्ठा किए जा सकते हैं।