প্রতিবন্ধী নারীর ডিপফেক ভিডিও তৈরি করে রাজনৈতিক অপপ্রচার
বুম বাংলাদেশ দেখেছে, প্রতিবন্ধী এক নারীর স্থির ছবি দিয়ে প্রযুক্তির মাধ্যমে ডিপফেক ভিডিওটি তৈরি করা হয়েছে

সামাজিক যোগাযোগ মাধ্যম ফেসবুকে একটি ভিডিও পোস্ট করা হয়েছে। ভিডিওতে দেখা যাচ্ছে, প্রতিবন্ধকতার শিকার একজন নারী জানাচ্ছেন তাকে প্রতিবন্ধী কার্ড করে দেওয়ার কথা বলে একজন বিএনপি নেতা টাকা নিলেও সেটি করে দেননি। এর ফলে তিনি আরও জানান- তিনি বিএনপিকে ভোট দিবেন না, বরং দাঁড়িপাল্লায় ভোট দিবেন। এ ধরনের কয়েকটি পোস্ট দেখুন এখানে, এখানে ও এখানে।
গত ১০ জানুয়ারি 'উত্তরবঙ্গ টেলিভিশন' নামের একটি ফেসবুক পেজ থেকে ভিডিওটি পোস্ট করা হয়। পোস্টে উল্লেখ করা হয় "প্রতিবন্ধী ভাতার নামে বিএনপি নেতাদের চরম প্রতারণা! টাকা নিয়েও কার্ড দেননি, ফেরত চাইলে হুমকি ......। পোস্টটির স্ক্রিনশট দেখুন--
ফ্যাক্ট চেক:
বুম বাংলাদেশ যাচাই করে দেখেছে, দাবিটি সঠিক নয়। রানা প্লাজা দুর্ঘটনায় ডান হাত হারানো একজন প্রতিবন্ধী নারীর ২০১৩ সালের একটি ছবি ব্যবহার করে ডিপফেক ভিডিওটি তৈরি করা হয়েছে।
আলোচ্য ভিডিওটি থেকে কী-ফ্রেম নিয়ে সার্চ করে, এনবিসি নিউজে ২০১৩ সালের ২০ জুন "Bangladesh collapse left many amputees" শিরোনামে প্রকাশিত একটি প্রতিবেদনে আলোচ্য ভিডিওর নারীর একটি স্থির ছবি পাওয়া যায়। তবে কোথাও আলোচ্য ভিডিওটি পাওয়া যায়নি। ভিডিওটির একটি স্ক্রিনশট (বামে) ও এনবিসি নিউজের স্ক্রিনশট (ডানে) দেখুন--
[ উপস্থাপনার স্বার্থে এনবিসি নিউজের প্রতিবেদনের স্ক্রিনশটটিতে কিছু সম্পাদনা করা হয়েছে।] প্রতিবেদনে উল্লেখ করা হয়, ছবির নারীর নাম রিক্তা যিনি ২০১৩ সালে রানা প্লাজা দুর্ঘটনায় তার ডান হাত হারিয়েছেন।
পরবর্তীতে কথিত ভিডিওটি পর্যবেক্ষণে দেখা যায়, কথা বলার সময় ভিডিওর নারীর মুখের ভঙ্গিমা এবং স্বাভাবিক কথার ভঙ্গিমার মধ্যে অসঙ্গতি রয়েছে। এছাড়াও, ভিডিওতে বাস্তব দৃশ্যের অডিওর তুলনায় বক্তার কথা বলার সাউন্ড কিছুটা অস্বাভাবিক মনে হয়েছে। গুগলের ভিও-৩ বা তার পরবর্তী সংস্করণের মডেল ব্যবহার করে তৈরি করা এআই ভিডিওতে অডিওর এমন উচ্চ মাত্রার আউটপুট শোনা যায়।
গুগল 'Veo' হলো গুগলের একটি প্রায় বাস্তবসম্মত ভিডিও জেনারেশন টুল যা গুগল ডিপমাইন্ড দ্বারা তৈরি করা হয়েছে। এটি টেক্সট-টু-ভিডিও জেনারেশন, ইমেজ-টু-ভিডিও তৈরি করার টুল এবং সর্বশেষ সংস্করণ, Veo-3 (ভিও-৩) ভিডিওর পাশাপাশি নেটিভ অডিও তৈরি করতে পারে।
এছাড়াও গুগলের জেনারেটিভ টুল তাদের কনটেন্টে 'SynthID' নামক এক ধরনের ওয়াটারমার্কিং ব্যবহার করে যা শোনা যায় না বা খালি চোখে শনাক্ত করা যায় না। তবে গুগলের SynthID ডিটেকশন টুলটি সেটি শনাক্ত করতে পারে। এই প্রক্রিয়ায় যাচাই করলে টুলটি আলোচ্য ভিডিওটিকে 'গুগলের এআই টুল দিয়ে তৈরি' বলে ফলাফল দিয়েছে। দেখুন--
অর্থাৎ ডিপফেক ভিডিওটি এআই প্রযুক্তির সহায়তায় তৈরি করা হয়েছে।
সুতরাং সামাজিক মাধ্যমে এআই প্রযুক্তিতে তৈরি একটি ডিপফেক ভিডিওকে বাস্তবে এক নারীর দেওয়া বক্তব্যের বলে প্রচার করা হয়েছে, যা বিভ্রান্তিকর।




