HomeNo Image is Available
AuthorsNo Image is Available
Contact UsNo Image is Available
Correction PolicyNo Image is Available

Languages & Countries :






More about them

ফেক নিউজNo Image is Available
ফ্যাক্ট ফাইলNo Image is Available
শরীর স্বাস্থ্যNo Image is Available
HomeNo Image is Available
AuthorsNo Image is Available
Contact UsNo Image is Available
Correction PolicyNo Image is Available

Languages & Countries :






More about them

ফেক নিউজNo Image is Available
ফ্যাক্ট ফাইলNo Image is Available
শরীর স্বাস্থ্যNo Image is Available
ফেক নিউজ

পুলিশ কর্মকর্তার বক্তব্য বলে এআই জেনারেটেড ভিডিও প্রচার

বুম বাংলাদেশ দেখেছে, ভিডিওটি বাস্তব কোনো বক্তব্যের নয় বরং এআই প্রযুক্তিতে এটি তৈরি করা হয়েছে।

By - BOOM FACT Check Team | 21 Aug 2025 11:48 AM IST

সামাজিক যোগাযোগ মাধ্যম ফেসবুকে একটি ভিডিও পোস্ট করা হয়েছে। ভিডিওতে দেখা যাচ্ছে, বাংলাদেশ পুলিশের পোশাক পরা এক কর্মকর্তা বলছেন, 'চাকরি চলে যেতে পারে তবু বলি একটা দল ক্ষমতায় যাওয়ার (জন্য) যা শুরু করছে তা আওয়ামীলীগের ১৭ বছরকেও হার মানাচ্ছে। ভোট না দিলে তারা নাকি মানুষকে জান নিয়ে ঘরে ফিরতে দিবেনা। এদের জাহেল বললেও কম হবে ' এরকম কয়েকটি পোস্ট দেখুন এখানে, এখানেএখানে

গত ১৬ আগস্ট ‘Good Job’ নামক একটি ফেসবুক অ্যাকাউন্ট থেকে ভিডিওটি পোস্ট করা হয়। পোস্টে উল্লেখ করা হয় "১ বছরে ১৭ বছরকেও হার মানালো এদেরকে আবুজাহেল বল্লেও ভুল হবে।" পোস্টটির স্ক্রিনশট দেখুন--



ফ্যাক্ট চেক:

বুম বাংলাদেশ যাচাই করে দেখেছে, দাবিটি সঠিক নয়। ভিডিওটি বাংলাদেশ পুলিশের কোনো কর্মকর্তার বক্তব্যের নয় বরং এআই প্রযুক্তিতে এটি তৈরি করা হয়েছে। অর্থাৎ এআই প্রযুক্তিতে তৈরি ভিডিওকে বাস্তবে দেওয়া বক্তব্যের বলে প্রচার করা হচ্ছে।

আলোচ্য ভিডিও থেকে কি-ফ্রেম নিয়ে সার্চ করে এবং ভিডিওতে প্রচারিত দাবি (বক্তব্য) সরাসরি সার্চ করে গণমাধ্যম সহ গ্রহণযোগ্য কোনো মাধ্যমে কোনো উল্লেখযোগ্য তথ্য পাওয়া যায়নি।

পরবর্তীতে ভিডিওটি পর্যবেক্ষণ করে বক্তার বক্তব্যে অসম্পূর্ণ বাক্য শোনা যায়। পাশাপাশি বক্তার সামনে রাখা সংবাদ মাধ্যমগুলোর ইন্টারভিউ মাইকের লোগোও পরিচিত কোনো সংবাদমাধ্যমের নয়। এছাড়াও, বক্তার পেছনের ব্যনারের টেক্সট দেখা যায় যা পাঠের অযোগ্য।

অধিকাংশ ক্ষেত্রে এআই তৈরি 'টেক্সট আর্টিফ্যাক্ট'-এর ক্ষেত্রে অক্ষর কেটে যাওয়া, অদ্ভুতভাবে ঘুরানো-উল্টানো বা মুছে যাওয়া, অক্ষরের অমিল ইত্যাদি 'টেক্সট ডিস্টর্শন' দেখা যায়। এই টেক্সট ডিস্টর্শনের ফলে এআই তৈরি ছবি-ভিডিওর লেখা প্রায়শই পাঠযোগ্য হয় না। দেখুন--



ভিডিওতে বাস্তব এমন দৃশ্যের অডিওর তুলনায় ভিডিওটিতে কথা বলার সাউন্ড কিছুটা অস্বাভাবিক মনে হয়েছে। সম্প্রতি সাধারণত গুগলের ভিও-৩ মডেল ব্যবহার করে তৈরি করা এআই ভিডিওতে অডিওর এমন উচ্চতর আউটপুট শোনা যায়। 

গুগল 'Veo' হলো গুগলের একটি প্রায় বাস্তবসম্মত ভিডিও জেনারেশন টুল যা গুগল ডিপমাইন্ড দ্বারা তৈরি করা হয়েছে। এটি টেক্সট-টু-ভিডিও জেনারেশন, ইমেজ-টু-ভিডিও জেনারেশন এবং সর্বশেষ সংস্করণ, ভিও-৩ ভিডিওর পাশাপাশি নেটিভ অডিও তৈরি করতে পারে।

এছাড়াও গুগলের জেনারেটিভ টুল তাদের কন্টেন্টে 'SynthID' নামক এক ধরণের ওয়াটারমার্কিং ব্যবহার করে যা খালি চোখে দেখা না গেলেও গুগলের SynthID ডিটেকশন টুল সেটি শনাক্ত করতে পারে। এই প্রক্রিয়ায় যাচাই করলে টুলটি আলোচ্য ভিডিওর অডিওকে 'গুগলের এআই টুল দিয়ে তৈরি' বলে ফলাফল দিয়েছে। দেখুন--



অডিওতে 'SynthID' শনাক্ত করলেও টুলটি ভিডিওতে 'SynthID' ধরতে পারেনি। সাধারণত একটি ভিও-জেনারেটেড ভিডিওর কোয়ালিটি বিভিন্ন কারণে স্বাভাবিকের তুলনায় কম হয়ে গেলে কিংবা সম্পাদনার কারণে কম্প্রেস হলে অনেক ক্ষেত্রেই 'SynthID' ওয়াটারমার্ক শনাক্ত করা কঠিন হয়ে যায় কিংবা শনাক্ত হয়না।

আরেক এআই কন্টেন্ট শনাক্তকরণ টুল 'DeepFake-o-meter'-এর মাধ্যমে যাচাই করলেও টুলটি মিশ্র প্রতিক্রিয়াযুক্ত ফলাফল দিয়েছে। টুলটির বেশকিছু ডিটেকশন মেথডের মধ্যে সিংহভাগ মেথডেই ভিডিওটি অধিকতর সম্ভাব্য এআই দ্বারা তৈরি বলে ফলাফল পাওয়া গেছে। দেখুন--



অর্থাৎ ভিডিওটি এআই প্রযুক্তিতে তৈরি।

সুতরাং সামাজিক মাধ্যমে এআই প্রযুক্তিতে তৈরি একটি ভিডিওকে বাস্তবে দেওয়া বক্তব্যের বলে প্রচার করা হচ্ছে; যা বিভ্রান্তিকর।

Tags:

Related Stories