HomeNo Image is Available
AuthorsNo Image is Available
Contact UsNo Image is Available
Correction PolicyNo Image is Available

Languages & Countries :






More about them

ফেক নিউজNo Image is Available
ফ্যাক্ট ফাইলNo Image is Available
শরীর স্বাস্থ্যNo Image is Available
HomeNo Image is Available
AuthorsNo Image is Available
Contact UsNo Image is Available
Correction PolicyNo Image is Available

Languages & Countries :






More about them

ফেক নিউজNo Image is Available
ফ্যাক্ট ফাইলNo Image is Available
শরীর স্বাস্থ্যNo Image is Available
ফেক নিউজ

প্রতিবন্ধী নারীর ডিপফেক ভিডিও তৈরি করে রাজনৈতিক অপপ্রচার

বুম বাংলাদেশ দেখেছে, প্রতিবন্ধী এক নারীর স্থির ছবি দিয়ে প্রযুক্তির মাধ্যমে ডিপফেক ভিডিওটি তৈরি করা হয়েছে

By - BOOM FACT Check Team | 25 Jan 2026 9:30 AM IST

সামাজিক যোগাযোগ মাধ্যম ফেসবুকে একটি ভিডিও পোস্ট করা হয়েছে। ভিডিওতে দেখা যাচ্ছে, প্রতিবন্ধকতার শিকার একজন নারী জানাচ্ছেন তাকে প্রতিবন্ধী কার্ড করে দেওয়ার কথা বলে একজন বিএনপি নেতা টাকা নিলেও সেটি করে দেননি। এর ফলে তিনি আরও জানান- তিনি বিএনপিকে ভোট দিবেন না, বরং দাঁড়িপাল্লায় ভোট দিবেন। এ ধরনের কয়েকটি পোস্ট দেখুন এখানে, এখানে এখানে

গত ১০ জানুয়ারি 'উত্তরবঙ্গ টেলিভিশন' নামের একটি ফেসবুক পেজ থেকে ভিডিওটি পোস্ট করা হয়। পোস্টে উল্লেখ করা হয় "প্রতিবন্ধী ভাতার নামে বিএনপি নেতাদের চরম প্রতারণা! টাকা নিয়েও কার্ড দেননি, ফেরত চাইলে হুমকি ......। পোস্টটির স্ক্রিনশট দেখুন--




ফ্যাক্ট চেক:

বুম বাংলাদেশ যাচাই করে দেখেছে, দাবিটি সঠিক নয়। রানা প্লাজা দুর্ঘটনায় ডান হাত হারানো একজন প্রতিবন্ধী নারীর ২০১৩ সালের একটি ছবি ব্যবহার করে ডিপফেক ভিডিওটি তৈরি করা হয়েছে।

আলোচ্য ভিডিওটি থেকে কী-ফ্রেম নিয়ে সার্চ করে, এনবিসি নিউজে ২০১৩ সালের ২০ জুন "Bangladesh collapse left many amputees" শিরোনামে প্রকাশিত একটি প্রতিবেদনে আলোচ্য ভিডিওর নারীর একটি স্থির ছবি পাওয়া যায়। তবে কোথাও আলোচ্য ভিডিওটি পাওয়া যায়নি। ভিডিওটির একটি স্ক্রিনশট (বামে) ও এনবিসি নিউজের স্ক্রিনশট (ডানে) দেখুন--



[ উপস্থাপনার স্বার্থে এনবিসি নিউজের প্রতিবেদনের স্ক্রিনশটটিতে কিছু সম্পাদনা করা হয়েছে।] প্রতিবেদনে উল্লেখ করা হয়,  ছবির নারীর নাম রিক্তা যিনি ২০১৩ সালে রানা প্লাজা দুর্ঘটনায় তার ডান হাত হারিয়েছেন।

পরবর্তীতে কথিত ভিডিওটি পর্যবেক্ষণে দেখা যায়, কথা বলার সময় ভিডিওর নারীর মুখের ভঙ্গিমা এবং স্বাভাবিক কথার ভঙ্গিমার মধ্যে অসঙ্গতি রয়েছে। এছাড়াও, ভিডিওতে বাস্তব দৃশ্যের অডিওর তুলনায় বক্তার কথা বলার সাউন্ড কিছুটা অস্বাভাবিক মনে হয়েছে। গুগলের ভিও-৩ বা তার পরবর্তী সংস্করণের মডেল ব্যবহার করে তৈরি করা এআই ভিডিওতে অডিওর এমন উচ্চ মাত্রার আউটপুট শোনা যায়।

গুগল 'Veo' হলো গুগলের একটি প্রায় বাস্তবসম্মত ভিডিও জেনারেশন টুল যা গুগল ডিপমাইন্ড দ্বারা তৈরি করা হয়েছে। এটি টেক্সট-টু-ভিডিও জেনারেশন, ইমেজ-টু-ভিডিও তৈরি করার টুল এবং সর্বশেষ সংস্করণ, Veo-3 (ভিও-৩) ভিডিওর পাশাপাশি নেটিভ অডিও তৈরি করতে পারে।

এছাড়াও গুগলের জেনারেটিভ টুল তাদের কনটেন্টে 'SynthID' নামক এক ধরনের ওয়াটারমার্কিং ব্যবহার করে যা শোনা যায় না বা খালি চোখে শনাক্ত করা যায় না। তবে গুগলের SynthID ডিটেকশন টুলটি সেটি শনাক্ত করতে পারে। এই প্রক্রিয়ায় যাচাই করলে টুলটি আলোচ্য ভিডিওটিকে 'গুগলের এআই টুল দিয়ে তৈরি' বলে ফলাফল দিয়েছে। দেখুন--



 অর্থাৎ ডিপফেক ভিডিওটি এআই প্রযুক্তির সহায়তায় তৈরি করা হয়েছে।

সুতরাং সামাজিক মাধ্যমে এআই প্রযুক্তিতে তৈরি একটি ডিপফেক ভিডিওকে বাস্তবে এক নারীর দেওয়া বক্তব্যের বলে প্রচার করা হয়েছে, যা বিভ্রান্তিকর।

Tags:

Related Stories