বলিউডবিনোদন

রশ্মিকা মান্দানার পর এবার ক্যাটরিনা কাইফের ছবি ডিপফেকের শিকার, অভিনেত্রীর এমন ছবি সামনে এসেছে

Advertisement

ডিপফেকের আরেকটি নমুনা সোশ্যাল মিডিয়ায় ক্রমশ ভাইরাল হচ্ছে। আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) ভিত্তিক ডিপফেক টেকনোলজির নতুন শিকার হলেন জনপ্রিয় অভিনেত্রী ক্যাটরিনা কাইফ। তার আসন্ন ছবি টাইগার থ্রি’র একটি দৃশ্যে কারচুপি করে কৃত্রিম বুদ্ধিমত্তার মাধ্যমে একটি নতুন সংস্করণ তৈরি করা হয়েছে। ক্যাটরিনাকে তোয়ালের বদলে লো-কাট হোয়াইট টপে দেখা যায়, যা সম্পূর্ণ নকল। এর আগে অভিনেত্রী রশ্মিকা মান্দানা ডিফফেকের শিকার হয়েছিলেন। তার লিফটের একটি ডিপফেক ভিডিও খুব ভাইরাল হয়েছিল।

জেনারেটিভ এআই এ ধরনের ভুয়ো ও এডিট করা ডিপফেক ফটো-ভিডিও তৈরি করা অনেক সহজ করে দিয়েছে। যে কেউ মুহূর্তের মধ্যে এ ধরনের জাল কনটেন্ট তৈরি করতে পারে। রশ্মিকার এডিট করা ভিডিওর পর সুপারস্টার অমিতাভ বচ্চনও ডিপফেক প্রযুক্তির আশঙ্কা প্রকাশ করেছেন। এমনকি রশ্মিকা নিজেও সোশ্যাল মিডিয়ায় পোস্ট করেছেন এবং এটিকে বেশ ভীতিজনক বলে বর্ণনা করেছেন। এই মুহূর্তে ক্যাটরিনার তরফ থেকে কোনও প্রতিক্রিয়া পাওয়া যায়নি। ডিপফেক প্রযুক্তির অপব্যবহার নিয়ে প্রতিনিয়ত অভিযোগ রয়েছে। শুধু সেলিব্রিটি বা রাজনীতিবিদরাই নন, সাধারণ মানুষও এর শিকার হতে পারেন। এমন পরিস্থিতিতে আমাদের অবশ্যই নিজেদের রক্ষার জন্য কিছু সতর্কতামূলক পদক্ষেপ নিতে হবে, যাতে আমরা এ ধরনের প্রযুক্তির ফাঁদে না পড়ি। তার আগে জেনে নেওয়া যাক ডিপফেক প্রযুক্তি কী।

ai deepfake

ডিপফেক মানে কৃত্রিম বুদ্ধিমত্তা (এআই) থেকে তৈরি ছবি, ভিডিও, অডিও। আসলে ডিপফেক কনটেন্ট একেবারে নকল হলেও দেখতে একেবারে বাস্তব। এর মাধ্যমে আপনি একজনের পরিবর্তে অন্য কাউকে ফিট করতে পারবেন। মানুষের পক্ষে আসল এবং নকলের মধ্যে পার্থক্য করা খুব কঠিন হয়ে পড়ে।ডিপফেকের মতো ঘটনা যদি আপনার সঙ্গে ঘটে, তাহলে সঙ্গে সঙ্গে পুলিশ বা সাইবার সেলের কাছে অভিযোগ দায়ের করুন। তথ্যপ্রযুক্তি আইন ২০০০ অনুযায়ী, কারও পরিচয় বিকৃত করে অনলাইনে কোনও কিছু পোস্ট করা অপরাধ। এর জন্য কমপক্ষে ১ লক্ষ টাকা জরিমানার পাশাপাশি জেলও হতে পারে।

Related Articles

Back to top button