BOOM Bangladesh
  • ফেক নিউজ
  • ফ্যাক্ট ফাইল
  • শরীর স্বাস্থ্য
  • Home-icon
    Home
  • Authors-icon
    Authors
  • Contact Us-icon
    Contact Us
  • Correction Policy-icon
    Correction Policy
  • ফেক নিউজ-icon
    ফেক নিউজ
  • ফ্যাক্ট ফাইল-icon
    ফ্যাক্ট ফাইল
  • শরীর স্বাস্থ্য-icon
    শরীর স্বাস্থ্য
  • Home
  • ফেক নিউজ
  • প্রতিবন্ধী নারীর ডিপফেক ভিডিও তৈরি...
ফেক নিউজ

প্রতিবন্ধী নারীর ডিপফেক ভিডিও তৈরি করে রাজনৈতিক অপপ্রচার

বুম বাংলাদেশ দেখেছে, প্রতিবন্ধী এক নারীর স্থির ছবি দিয়ে প্রযুক্তির মাধ্যমে ডিপফেক ভিডিওটি তৈরি করা হয়েছে

By - BOOM FACT Check Team |
Published -  25 Jan 2026 9:30 AM IST
  • প্রতিবন্ধী নারীর ডিপফেক ভিডিও তৈরি করে রাজনৈতিক অপপ্রচার

    সামাজিক যোগাযোগ মাধ্যম ফেসবুকে একটি ভিডিও পোস্ট করা হয়েছে। ভিডিওতে দেখা যাচ্ছে, প্রতিবন্ধকতার শিকার একজন নারী জানাচ্ছেন তাকে প্রতিবন্ধী কার্ড করে দেওয়ার কথা বলে একজন বিএনপি নেতা টাকা নিলেও সেটি করে দেননি। এর ফলে তিনি আরও জানান- তিনি বিএনপিকে ভোট দিবেন না, বরং দাঁড়িপাল্লায় ভোট দিবেন। এ ধরনের কয়েকটি পোস্ট দেখুন এখানে, এখানে ও এখানে।

    গত ১০ জানুয়ারি 'উত্তরবঙ্গ টেলিভিশন' নামের একটি ফেসবুক পেজ থেকে ভিডিওটি পোস্ট করা হয়। পোস্টে উল্লেখ করা হয় "প্রতিবন্ধী ভাতার নামে বিএনপি নেতাদের চরম প্রতারণা! টাকা নিয়েও কার্ড দেননি, ফেরত চাইলে হুমকি ......। পোস্টটির স্ক্রিনশট দেখুন--




    ফ্যাক্ট চেক:

    বুম বাংলাদেশ যাচাই করে দেখেছে, দাবিটি সঠিক নয়। রানা প্লাজা দুর্ঘটনায় ডান হাত হারানো একজন প্রতিবন্ধী নারীর ২০১৩ সালের একটি ছবি ব্যবহার করে ডিপফেক ভিডিওটি তৈরি করা হয়েছে।

    আলোচ্য ভিডিওটি থেকে কী-ফ্রেম নিয়ে সার্চ করে, এনবিসি নিউজে ২০১৩ সালের ২০ জুন "Bangladesh collapse left many amputees" শিরোনামে প্রকাশিত একটি প্রতিবেদনে আলোচ্য ভিডিওর নারীর একটি স্থির ছবি পাওয়া যায়। তবে কোথাও আলোচ্য ভিডিওটি পাওয়া যায়নি। ভিডিওটির একটি স্ক্রিনশট (বামে) ও এনবিসি নিউজের স্ক্রিনশট (ডানে) দেখুন--



    [ উপস্থাপনার স্বার্থে এনবিসি নিউজের প্রতিবেদনের স্ক্রিনশটটিতে কিছু সম্পাদনা করা হয়েছে।] প্রতিবেদনে উল্লেখ করা হয়, ছবির নারীর নাম রিক্তা যিনি ২০১৩ সালে রানা প্লাজা দুর্ঘটনায় তার ডান হাত হারিয়েছেন।

    পরবর্তীতে কথিত ভিডিওটি পর্যবেক্ষণে দেখা যায়, কথা বলার সময় ভিডিওর নারীর মুখের ভঙ্গিমা এবং স্বাভাবিক কথার ভঙ্গিমার মধ্যে অসঙ্গতি রয়েছে। এছাড়াও, ভিডিওতে বাস্তব দৃশ্যের অডিওর তুলনায় বক্তার কথা বলার সাউন্ড কিছুটা অস্বাভাবিক মনে হয়েছে। গুগলের ভিও-৩ বা তার পরবর্তী সংস্করণের মডেল ব্যবহার করে তৈরি করা এআই ভিডিওতে অডিওর এমন উচ্চ মাত্রার আউটপুট শোনা যায়।

    গুগল 'Veo' হলো গুগলের একটি প্রায় বাস্তবসম্মত ভিডিও জেনারেশন টুল যা গুগল ডিপমাইন্ড দ্বারা তৈরি করা হয়েছে। এটি টেক্সট-টু-ভিডিও জেনারেশন, ইমেজ-টু-ভিডিও তৈরি করার টুল এবং সর্বশেষ সংস্করণ, Veo-3 (ভিও-৩) ভিডিওর পাশাপাশি নেটিভ অডিও তৈরি করতে পারে।

    এছাড়াও গুগলের জেনারেটিভ টুল তাদের কনটেন্টে 'SynthID' নামক এক ধরনের ওয়াটারমার্কিং ব্যবহার করে যা শোনা যায় না বা খালি চোখে শনাক্ত করা যায় না। তবে গুগলের SynthID ডিটেকশন টুলটি সেটি শনাক্ত করতে পারে। এই প্রক্রিয়ায় যাচাই করলে টুলটি আলোচ্য ভিডিওটিকে 'গুগলের এআই টুল দিয়ে তৈরি' বলে ফলাফল দিয়েছে। দেখুন--



    অর্থাৎ ডিপফেক ভিডিওটি এআই প্রযুক্তির সহায়তায় তৈরি করা হয়েছে।

    সুতরাং সামাজিক মাধ্যমে এআই প্রযুক্তিতে তৈরি একটি ডিপফেক ভিডিওকে বাস্তবে এক নারীর দেওয়া বক্তব্যের বলে প্রচার করা হয়েছে, যা বিভ্রান্তিকর।

    Tags

    Deepfake Video
    Read Full Article
    Claim :   একজন প্রতিবন্ধী নারীর কাছ থেকে টাকা নিয়েও তাকে কার্ড দেয়নি বিএনপি নেতা
    Claimed By :  Facebook Post
    Fact Check :  False
    Next Story
    Our website is made possible by displaying online advertisements to our visitors.
    Please consider supporting us by disabling your ad blocker. Please reload after ad blocker is disabled.
    X
    Or, Subscribe to receive latest news via email
    Subscribed Successfully...
    Copy HTMLHTML is copied!
    There's no data to copy!