রশ্মিকা মান্দানার পর এবার ক্যাটরিনা কাইফের ছবি ডিপফেকের শিকার, অভিনেত্রীর এমন ছবি সামনে এসেছে

ডিপফেকের আরেকটি নমুনা সোশ্যাল মিডিয়ায় ক্রমশ ভাইরাল হচ্ছে। আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) ভিত্তিক ডিপফেক টেকনোলজির নতুন শিকার হলেন জনপ্রিয় অভিনেত্রী ক্যাটরিনা কাইফ। তার আসন্ন ছবি টাইগার থ্রি'র একটি দৃশ্যে কারচুপি করে…

Avatar

ডিপফেকের আরেকটি নমুনা সোশ্যাল মিডিয়ায় ক্রমশ ভাইরাল হচ্ছে। আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) ভিত্তিক ডিপফেক টেকনোলজির নতুন শিকার হলেন জনপ্রিয় অভিনেত্রী ক্যাটরিনা কাইফ। তার আসন্ন ছবি টাইগার থ্রি’র একটি দৃশ্যে কারচুপি করে কৃত্রিম বুদ্ধিমত্তার মাধ্যমে একটি নতুন সংস্করণ তৈরি করা হয়েছে। ক্যাটরিনাকে তোয়ালের বদলে লো-কাট হোয়াইট টপে দেখা যায়, যা সম্পূর্ণ নকল। এর আগে অভিনেত্রী রশ্মিকা মান্দানা ডিফফেকের শিকার হয়েছিলেন। তার লিফটের একটি ডিপফেক ভিডিও খুব ভাইরাল হয়েছিল।

জেনারেটিভ এআই এ ধরনের ভুয়ো ও এডিট করা ডিপফেক ফটো-ভিডিও তৈরি করা অনেক সহজ করে দিয়েছে। যে কেউ মুহূর্তের মধ্যে এ ধরনের জাল কনটেন্ট তৈরি করতে পারে। রশ্মিকার এডিট করা ভিডিওর পর সুপারস্টার অমিতাভ বচ্চনও ডিপফেক প্রযুক্তির আশঙ্কা প্রকাশ করেছেন। এমনকি রশ্মিকা নিজেও সোশ্যাল মিডিয়ায় পোস্ট করেছেন এবং এটিকে বেশ ভীতিজনক বলে বর্ণনা করেছেন। এই মুহূর্তে ক্যাটরিনার তরফ থেকে কোনও প্রতিক্রিয়া পাওয়া যায়নি। ডিপফেক প্রযুক্তির অপব্যবহার নিয়ে প্রতিনিয়ত অভিযোগ রয়েছে। শুধু সেলিব্রিটি বা রাজনীতিবিদরাই নন, সাধারণ মানুষও এর শিকার হতে পারেন। এমন পরিস্থিতিতে আমাদের অবশ্যই নিজেদের রক্ষার জন্য কিছু সতর্কতামূলক পদক্ষেপ নিতে হবে, যাতে আমরা এ ধরনের প্রযুক্তির ফাঁদে না পড়ি। তার আগে জেনে নেওয়া যাক ডিপফেক প্রযুক্তি কী।

ai deepfake

ডিপফেক মানে কৃত্রিম বুদ্ধিমত্তা (এআই) থেকে তৈরি ছবি, ভিডিও, অডিও। আসলে ডিপফেক কনটেন্ট একেবারে নকল হলেও দেখতে একেবারে বাস্তব। এর মাধ্যমে আপনি একজনের পরিবর্তে অন্য কাউকে ফিট করতে পারবেন। মানুষের পক্ষে আসল এবং নকলের মধ্যে পার্থক্য করা খুব কঠিন হয়ে পড়ে।ডিপফেকের মতো ঘটনা যদি আপনার সঙ্গে ঘটে, তাহলে সঙ্গে সঙ্গে পুলিশ বা সাইবার সেলের কাছে অভিযোগ দায়ের করুন। তথ্যপ্রযুক্তি আইন ২০০০ অনুযায়ী, কারও পরিচয় বিকৃত করে অনলাইনে কোনও কিছু পোস্ট করা অপরাধ। এর জন্য কমপক্ষে ১ লক্ষ টাকা জরিমানার পাশাপাশি জেলও হতে পারে।