সামাজিক যোগাযোগ মাধ্যম ফেসবুকে একটি ভিডিও পোস্ট করা হয়েছে। ভিডিওতে দেখা যাচ্ছে, একজন বৃদ্ধ ভিক্ষুক বলছেন, তিনি দাঁড়িপাল্লায় ভোট দিবেন তাহলে তাকে আর ভিক্ষা করতে হবেনা কারণ তাহলে যাকাতের মাধ্যমে আর্থিক সহায়তা পাবেন। এ ধরনের একটি পোস্ট দেখুন এখানে।
গত ২৪ জানুয়ারি 'উত্তরবঙ্গ টেলিভিশন' নামের একটি ফেসবুক পেজ থেকে ভিডিওটি পোস্ট করা হয়। পোস্টে উল্লেখ করা হয় "জামাতকে ভোট দিলে আমাকে আর ভিক্ষা করতে হবে না কেন এই কথা বললেন এই ভিক্ষুক ......। পোস্টটির স্ক্রিনশট দেখুন--
ফ্যাক্ট চেক:
বুম বাংলাদেশ যাচাই করে দেখেছে, দাবিটি সঠিক নয়। ভিডিওটি বাস্তবে এক বৃদ্ধার দেওয়া কোনো বক্তব্যের নয় বরং ভিডিওটি এআই প্রযুক্তির সহায়তায় তৈরি করা হয়েছে।
আলোচ্য ভিডিওটি থেকে কী-ফ্রেম নিয়ে সার্চ করে এবং ভিডিওতে প্রচারিত দাবি (বক্তব্য) সরাসরি সার্চ করে গণমাধ্যমসহ গ্রহণযোগ্য কোনো মাধ্যমে কোনো উল্লেখযোগ্য তথ্য পাওয়া যায়নি। পরবর্তীতে ভিডিওটি পর্যবেক্ষণে কথা বলার সময় কথিত বক্তার মুখের ভঙ্গিমায় অসঙ্গতি পাওয়া যায়।
পরবর্তীতে কথিত ভিডিওটি পর্যবেক্ষণে দেখা যায়, কথা বলার সময় ভিডিওর নারীর মুখের ভঙ্গিমা এবং স্বাভাবিক কথার ভঙ্গিমার মধ্যে অসঙ্গতি রয়েছে। এছাড়াও, ভিডিওতে বাস্তব দৃশ্যের অডিওর তুলনায় বক্তার কথা বলার সাউন্ড কিছুটা অস্বাভাবিক মনে হয়েছে। গুগলের ভিও-৩ বা তার পরবর্তী সংস্করণের মডেল ব্যবহার করে তৈরি করা এআই ভিডিওতে অডিওর এমন উচ্চ মাত্রার আউটপুট শোনা যায়।
গুগল 'Veo' হলো গুগলের একটি প্রায় বাস্তবসম্মত ভিডিও জেনারেশন টুল যা গুগল ডিপমাইন্ড দ্বারা তৈরি করা হয়েছে। এটি টেক্সট-টু-ভিডিও জেনারেশন, ইমেজ-টু-ভিডিও তৈরি করার টুল এবং সর্বশেষ সংস্করণ, Veo-3 (ভিও-৩) ভিডিওর পাশাপাশি নেটিভ অডিও তৈরি করতে পারে।
এছাড়াও গুগলের জেনারেটিভ টুল তাদের কনটেন্টে 'SynthID' নামক এক ধরনের ওয়াটারমার্কিং ব্যবহার করে যা শোনা যায় না বা খালি চোখে শনাক্ত করা যায় না। তবে গুগলের SynthID ডিটেকশন টুলটি সেটি শনাক্ত করতে পারে। এই প্রক্রিয়ায় যাচাই করলে টুলটি আলোচ্য ভিডিওটিকে 'গুগলের এআই টুল দিয়ে তৈরি' বলে ফলাফল দিয়েছে। ভিডিও এবং অডিও উভয় ক্ষেত্রেই ওয়াটারমার্ক পাওয়া গেছে। দেখুন--
অর্থাৎ ভিডিওটি এআই প্রযুক্তির সহায়তায় তৈরি করা হয়েছে।
উল্লেখ্য ভিডিওটির স্থিরচিত্র থেকে সার্চ করে কোনো ফলাফল পাওয়া যায়নি। যদি কোনো বাস্তব ব্যক্তির স্থিরচিত্র থেকে ভিডিও তৈরি করা হয় তাহলে এআই জেনারেটেড ভিডিও ডিপফেক ভিডিওতে পরিণত হয়।
সুতরাং সামাজিক মাধ্যমে এআই প্রযুক্তিতে তৈরি একটি ভিডিওকে বাস্তবে এক বৃদ্ধার দেওয়া বক্তব্যের বলে প্রচার করা হয়েছে, যা বিভ্রান্তিকর।




