HomeNo Image is Available
AuthorsNo Image is Available
Contact UsNo Image is Available
Correction PolicyNo Image is Available

Languages & Countries :






More about them

ফেক নিউজNo Image is Available
ফ্যাক্ট ফাইলNo Image is Available
শরীর স্বাস্থ্যNo Image is Available
HomeNo Image is Available
AuthorsNo Image is Available
Contact UsNo Image is Available
Correction PolicyNo Image is Available

Languages & Countries :






More about them

ফেক নিউজNo Image is Available
ফ্যাক্ট ফাইলNo Image is Available
শরীর স্বাস্থ্যNo Image is Available
ফেক নিউজ

এআই তৈরি ভিডিও শাহজালাল বিমানবন্দরের অগ্নিকাণ্ডের বলে প্রচার

বুম বাংলাদেশ দেখেছে, আলোচ্য ভিডিওটি শাহজালাল বিমানবন্দরের আগুনের দৃশ্যের নয় বরং এআই প্রযুক্তিতে এটি তৈরি করা হয়েছে।

By - BOOM FACT Check Team | 23 Oct 2025 1:34 AM IST

সামাজিক যোগাযোগ মাধ্যম ফেসবুকে একটি ভিডিও পোস্ট করা হয়েছে। ভিডিওতে একটি স্থাপনায় আগুন লাগার পরে ফায়ার সার্ভিস কর্মীদের আগুন নেভানোর প্রচেষ্টা দেখা যাচ্ছে। এরকম ভিডিও সম্বলিত একটি ফেসবুক পোস্ট দেখুন এখানে

গত ১৮ অক্টোবর 'Sojol Hossain’ নামের একটি ফেসবুক অ্যাকাউন্টে ভিডিওটি পোস্ট করা হয়। পোস্টে উল্লেখ করা হয় "ঢাকা আন্তর্জাতিক বিমানবন্দরে 🔥🤲 ..." পোস্টটির স্ক্রিনশট দেখুন--



ফ্যাক্ট চেক:

বুম বাংলাদেশ যাচাই করে দেখেছে, দাবিটি সঠিক নয়। ভিডিওটি শাহজালাল বিমানবন্দরের আগুন লাগার পরের কোনো দৃশ্যের নয় বরং এআই প্রযুক্তির সহায়তায় আলোচ্য ভিডিওটি তৈরি করে প্রচার করা হয়েছে।

আলোচ্য ভিডিও থেকে কি-ফ্রেম নিয়ে সার্চ করে গ্রহণযোগ্য কোনো মাধ্যমে কোনো উল্লেখযোগ্য কোনো তথ্য পাওয়া যায়নি। পরবর্তীতে ভিডিওটি পর্যবেক্ষণ করে বাস্তব ঘটনার দৃশ্যের তুলনায় কিছু অসঙ্গতি পাওয়া যায়।

ভিডিওতে বাস্তব এমন দৃশ্যের অডিওর তুলনায় ভিডিওটিতে কথা বলার সাউন্ড কিছুটা অস্বাভাবিক মনে হয়েছে। সম্প্রতি সাধারণত গুগলের ভিও-৩ মডেল ব্যবহার করে তৈরি করা এআই ভিডিওতে অডিওর এমন উচ্চতর আউটপুট শোনা যায়।

গুগল 'Veo' হলো গুগলের একটি প্রায় বাস্তবসম্মত ভিডিও জেনারেশন টুল যা গুগল ডিপমাইন্ড দ্বারা তৈরি করা হয়েছে। এটি টেক্সট-টু-ভিডিও জেনারেশন, ইমেজ-টু-ভিডিও জেনারেশন এবং সর্বশেষ সংস্করণ, ভিও-৩ ভিডিওর পাশাপাশি নেটিভ অডিও তৈরি করতে পারে।

এছাড়াও গুগলের জেনারেটিভ টুল তাদের কন্টেন্টে 'SynthID' নামক এক ধরণের ওয়াটারমার্কিং ব্যবহার করে যা শোনা যায় না বা খালি চোখে শনাক্ত করা যায়না। তবে গুগলের SynthID ডিটেকশন টুল সেটি শনাক্ত করতে পারে। এই প্রক্রিয়ায় যাচাই করলে টুলটি আলোচ্য ভিডিওর অডিওকে 'গুগলের এআই টুল দিয়ে তৈরি' বলে ফলাফল দিয়েছে। দেখুন--



অডিওতে 'SynthID' শনাক্ত করলেও টুলটি ভিডিওতে 'SynthID' শনাক্ত করতে পারেনি। সাধারণত একটি ভিও-জেনারেটেড ভিডিওর কোয়ালিটি বিভিন্ন কারণে স্বাভাবিকের তুলনায় কম হয়ে গেলে কিংবা সম্পাদনার কারণে কম্প্রেস হলে অনেক ক্ষেত্রেই 'SynthID' শনাক্ত করা কঠিন হয়ে যায় কিংবা শনাক্ত হয়না।

পরবর্তীতে আরেক এআই-ডিপফেক কন্টেন্ট শনাক্তকরণ টুল 'DeepFake-o-meter'-এর মাধ্যমে যাচাই করলেও টুলটির বেশকিছু ডিটেকশন মেথডের মধ্যে অধিকাংশ মেথডেই ভিডিওটি সম্ভাব্য এআই দ্বারা তৈরি বলে ফলাফল পাওয়া গেছে।

অর্থাৎ ভিডিওটি এআই প্রযুক্তিতে তৈরি।

সুতরাং সামাজিক মাধ্যমে এআই প্রযুক্তিতে তৈরি একটি ভিডিওকে বাস্তব দৃশ্যের ভিডিও বলে প্রচার করা হয়েছে; যা বিভ্রান্তিকর।

Tags:

Related Stories