বলিউডবিনোদন

রশ্মিকা মান্দানার পর এবার ক্যাটরিনা কাইফের ছবি ডিপফেকের শিকার, অভিনেত্রীর এমন ছবি সামনে এসেছে

Advertisement
Advertisement

ডিপফেকের আরেকটি নমুনা সোশ্যাল মিডিয়ায় ক্রমশ ভাইরাল হচ্ছে। আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) ভিত্তিক ডিপফেক টেকনোলজির নতুন শিকার হলেন জনপ্রিয় অভিনেত্রী ক্যাটরিনা কাইফ। তার আসন্ন ছবি টাইগার থ্রি’র একটি দৃশ্যে কারচুপি করে কৃত্রিম বুদ্ধিমত্তার মাধ্যমে একটি নতুন সংস্করণ তৈরি করা হয়েছে। ক্যাটরিনাকে তোয়ালের বদলে লো-কাট হোয়াইট টপে দেখা যায়, যা সম্পূর্ণ নকল। এর আগে অভিনেত্রী রশ্মিকা মান্দানা ডিফফেকের শিকার হয়েছিলেন। তার লিফটের একটি ডিপফেক ভিডিও খুব ভাইরাল হয়েছিল।

Advertisement
Advertisement

জেনারেটিভ এআই এ ধরনের ভুয়ো ও এডিট করা ডিপফেক ফটো-ভিডিও তৈরি করা অনেক সহজ করে দিয়েছে। যে কেউ মুহূর্তের মধ্যে এ ধরনের জাল কনটেন্ট তৈরি করতে পারে। রশ্মিকার এডিট করা ভিডিওর পর সুপারস্টার অমিতাভ বচ্চনও ডিপফেক প্রযুক্তির আশঙ্কা প্রকাশ করেছেন। এমনকি রশ্মিকা নিজেও সোশ্যাল মিডিয়ায় পোস্ট করেছেন এবং এটিকে বেশ ভীতিজনক বলে বর্ণনা করেছেন। এই মুহূর্তে ক্যাটরিনার তরফ থেকে কোনও প্রতিক্রিয়া পাওয়া যায়নি। ডিপফেক প্রযুক্তির অপব্যবহার নিয়ে প্রতিনিয়ত অভিযোগ রয়েছে। শুধু সেলিব্রিটি বা রাজনীতিবিদরাই নন, সাধারণ মানুষও এর শিকার হতে পারেন। এমন পরিস্থিতিতে আমাদের অবশ্যই নিজেদের রক্ষার জন্য কিছু সতর্কতামূলক পদক্ষেপ নিতে হবে, যাতে আমরা এ ধরনের প্রযুক্তির ফাঁদে না পড়ি। তার আগে জেনে নেওয়া যাক ডিপফেক প্রযুক্তি কী।

Advertisement

ai deepfake

Advertisement
Advertisement

ডিপফেক মানে কৃত্রিম বুদ্ধিমত্তা (এআই) থেকে তৈরি ছবি, ভিডিও, অডিও। আসলে ডিপফেক কনটেন্ট একেবারে নকল হলেও দেখতে একেবারে বাস্তব। এর মাধ্যমে আপনি একজনের পরিবর্তে অন্য কাউকে ফিট করতে পারবেন। মানুষের পক্ষে আসল এবং নকলের মধ্যে পার্থক্য করা খুব কঠিন হয়ে পড়ে।ডিপফেকের মতো ঘটনা যদি আপনার সঙ্গে ঘটে, তাহলে সঙ্গে সঙ্গে পুলিশ বা সাইবার সেলের কাছে অভিযোগ দায়ের করুন। তথ্যপ্রযুক্তি আইন ২০০০ অনুযায়ী, কারও পরিচয় বিকৃত করে অনলাইনে কোনও কিছু পোস্ট করা অপরাধ। এর জন্য কমপক্ষে ১ লক্ষ টাকা জরিমানার পাশাপাশি জেলও হতে পারে।

Advertisement

Related Articles

Back to top button