HomeNo Image is Available
AuthorsNo Image is Available
Contact UsNo Image is Available
Correction PolicyNo Image is Available

Languages & Countries :






More about them

ফেক নিউজNo Image is Available
ফ্যাক্ট ফাইলNo Image is Available
শরীর স্বাস্থ্যNo Image is Available
HomeNo Image is Available
AuthorsNo Image is Available
Contact UsNo Image is Available
Correction PolicyNo Image is Available

Languages & Countries :






More about them

ফেক নিউজNo Image is Available
ফ্যাক্ট ফাইলNo Image is Available
শরীর স্বাস্থ্যNo Image is Available
ফেক নিউজ

জামায়াতকে ভোট দিবেন না বলে প্রচারিত বৃদ্ধার সাক্ষাৎকারটি এআই জেনারেটেড

বুম বাংলাদেশ দেখেছে, ভিডিওটি বৃদ্ধার অরিজিনাল সাক্ষাৎকারের নয় বরং এআই প্রযুক্তিতে এটি তৈরি করা হয়েছে।

By - BOOM FACT Check Team | 1 Feb 2026 1:03 AM IST

সামাজিক যোগাযোগ মাধ্যম ফেসবুকের বিভিন্ন আইডি ও পেজ থেকে একজন বৃদ্ধা মহিলার সাক্ষাৎকার দিচ্ছেন এমন একটি ভিডিও পোস্ট করে দাবি করা হচ্ছে, তিনি বলছেন, জামায়াত একাত্তরের রাজাকার, মীরজাফর, বিশ্বাসঘাতক, তাদেরকে ভোট দিবেন না। এরকম কয়েকটি পোস্ট দেখুন এখানেএখানে এবং এখানে

গত ২৯ জানুয়ারি ‘বিএনপি নিউজ’ নামক একটি পেইজ থেকে ভিডিওটি পোস্ট করে উল্লেখ করা হয়, “৮০ বছরের দাদির কাঁপানো সতর্কবার্তা | ভিডিওটা শেয়ার করুন।” নিচে পোস্টটির স্ক্রিনশট দেখুন-- 



ফ্যাক্ট চেক:

বুম বাংলাদেশ যাচাই করে দেখেছে, ভিডিওটি বাস্তব নয়। অর্থাৎ ভিডিওটিতে বৃদ্ধার সাক্ষাৎকারের বাস্তব দৃশ্যের নয় বরং কৃত্রিম বুদ্ধিমত্তা বা আর্টিফিশিয়াল ইন্টেলিজেন্স (এআই) প্রযুক্তি ব্যবহার করে ভিডিওটি তৈরি করা হয়েছে।

আলোচ্য ভিডিওটির কি ফ্রেম নিয়ে রিভার্স ইমেজ সার্চ করে গ্রহণযোগ্য কোনো মাধ্যমে দাবি অনুযায়ী ভিডিওটি বাস্তব হওয়ার বিষয়ে কিংবা ভিডিওটির বিষয়েও উল্লেখযোগ্য কোনো তথ্য পাওয়া যায়নি।

ভিডিওটি পর্যবেক্ষণ করে দেখা যায়, ভিডিওর কথা বলার ধরনের সাথে মুখভঙ্গির কিছু অসংলগ্নতা চোখে পড়ে। কথা বলার সময় গালের পেশি বা গলার পরিবর্তন অস্বাভাবিক ও কৃত্রিম। ব্যাকগ্রাউন্ডে থাকা অন্যান্য ব্যক্তিদের নড়াচড়া কিছুটা অস্পষ্ট বা ঝাপসা দেখা যায়। 

পাশাপাশি, ভিডিওতে বাস্তব এমন দৃশ্যের অডিওর তুলনায় বক্তার কথা বলার সাউন্ড কিছুটা অস্বাভাবিক মনে হচ্ছে। গুগলের ভিও-৩ বা তার পরবর্তী সংস্করণের মডেল ব্যবহার করে তৈরি করা এআই ভিডিওতে অডিওর এমন উচ্চতর আউটপুট শোনা যায়।

গুগল 'Veo' হলো গুগলের একটি প্রায় বাস্তবসম্মত ভিডিও জেনারেশন টুল যা গুগল ডিপমাইন্ড দ্বারা তৈরি করা হয়েছে। এটি টেক্সট-টু-ভিডিও জেনারেশন, ইমেজ-টু-ভিডিও জেনারেশন এবং সর্বশেষ সংস্করণ, ভিও-৩ ভিডিওর পাশাপাশি নেটিভ অডিও তৈরি করতে পারে।

পরবর্তীতে, এআই-ডিপফেক কন্টেন্ট শনাক্তকরণ টুল 'DeepFake-o-meter' ব্যবহার করে ভিডিওটি যাচাই করা হয়। টুলটি ভিডিওটিকে সম্ভাব্য এআই দ্বারা তৈরি ভিডিও হিসেবে ফলাফল প্রদান করেছে। ভিডিওর ফলাফলের স্ক্রিনশট দেখুন-- 



এছাড়া এআই ভিডিও শনাক্তের আরেক টুল 'সাইট ইন্জিন' ব্যবহার করেও ভিডিওটি যাচাই করা হয়। এই টুলটিও ভিডিওটিকে সম্ভাব্য এআই দ্বারা তৈরি ভিডিও হিসেবে ফলাফল প্রদান করেছে। ভিডিওটির ফলাফলের স্ক্রিনশট দেখুন-- 



অর্থাৎ আলোচ্য ভিডিওটি বাস্তব নয় বরং এটি এআই প্রযুক্তি ব্যবহার করে তৈরি করা হয়েছে।

সুতরাং এআই প্রযুক্তিতে তৈরি ভিডিওকে বৃদ্ধার সাক্ষাৎকার দাবিতে প্রচার করা হচ্ছে ফেসবুকে, যা বিভ্রান্তিকর।

Related Stories