সামাজিক যোগাযোগ মাধ্যম ফেসবুকে একটি ভিডিও পোস্ট করা হয়েছে। ভিডিওতে দেখা যাচ্ছে, সাবেক প্রধানমন্ত্রী শেখ হাসিনার মেয়ে সায়মা ওয়াজেদ পুতুল দেশে ফিরে দলের দায়িত্ব নেওয়ার বিষয়ে কথা বলছেন। এরকম কয়েকটি পোস্ট দেখুন এখানে ও এখানে।
গত ১৬ই সেপ্টেম্বর 'Piya DAs’ নামক একটি ফেসবুক পেজ থেকে ভিডিওটি পোস্ট করা হয়। পোস্টে উল্লেখ করা হয় "শেখ হাসিনার মেয়ে পুতুল, যে বার্তা দিলেন বিদেশ থেকে, জমে উঠেছে সবকিছু, আপনার কাছে কী মনে হয়🇧🇩" পোস্টটির স্ক্রিনশট দেখুন--
ফ্যাক্ট চেক:
বুম বাংলাদেশ যাচাই করে দেখেছে, দাবিটি বিভ্রান্তিকর। ভিডিওটি সায়মা ওয়াজেদ পুতুলের বাস্তবে দেওয়া কোনো বক্তব্যের নয় বরং এআই প্রযুক্তির সহায়তায় ভিডিওটি তৈরি করা হয়েছে।
আলোচ্য দাবিটি নিয়ে সার্চ করে গ্রহণযোগ্য কোনো মাধ্যমে এই সংক্রান্ত কোনো তথ্য পাওয়া যায়নি। পরবর্তীতে ভিডিওটি পর্যবেক্ষণ করে অস্বাভাবিক মুখভঙ্গি ও অঙ্গভঙ্গি দেখা যায়।
এছাড়া বাস্তব এমন দৃশ্যের অডিওর তুলনায় ভিডিওটিতে কথা বলার সাউন্ড কিছুটা অস্বাভাবিক মনে হয়েছে। সাধারণত গুগলের ভিও-৩ মডেল ব্যবহার করে তৈরি করা এআই ভিডিওতে অডিওর এমন উচ্চতর আউটপুট শোনা যায়।
গুগল 'Veo' হলো গুগলের একটি প্রায় বাস্তবসম্মত ভিডিও জেনারেশন টুল যা গুগল ডিপমাইন্ড দ্বারা তৈরি করা হয়েছে। এটি টেক্সট-টু-ভিডিও জেনারেশন, ইমেজ-টু-ভিডিও জেনারেশন এবং সর্বশেষ সংস্করণ, ভিও-৩ ভিডিওর পাশাপাশি নেটিভ অডিও তৈরি করতে পারে।
তবে, গুগলের জেনারেটিভ টুল তাদের কন্টেন্টে 'SynthID' নামক এক ধরণের ওয়াটারমার্কিং ব্যবহার করে যা সাধারণভাবে শোনা যায় না বা খালি চোখে শনাক্ত করা যায়না। তবে গুগলের SynthID ডিটেকশন টুল সেটি শনাক্ত করতে পারে। এই প্রক্রিয়ায় যাচাই করলে টুলটি আলোচ্য ভিডিওর অডিওকে 'গুগলের এআই টুল দিয়ে তৈরি' বলে ফলাফল দিয়েছে। দেখুন--
অডিওতে 'SynthID' শনাক্ত করলেও টুলটি ভিডিওতে 'SynthID' শনাক্ত করতে পারেনি। একটি ভিও-জেনারেটেড ভিডিওর কোয়ালিটি বিভিন্ন কারণে স্বাভাবিকের তুলনায় কম হয়ে গেলে কিংবা সম্পাদনার কারণে কম্প্রেস হলে অনেক ক্ষেত্রেই 'SynthID' শনাক্ত করা কঠিন হয়ে যায় কিংবা শনাক্ত হয়না। যেটি অডিওর ক্ষেত্রে সহজে বিকৃতি ঘটেনা।
যদিও এখানে ভিডিওতে 'SynthID' শনাক্ত করতে পারেনি তবে একটি কন্টেন্টের অডিও গুগলের টুল থেকে এবং ভিডিও ভিন্ন টুল থেকে তৈরি করে সংযুক্ত করার সম্ভাবনা কম থাকে। এতে অডিওর সাথে মুখভঙ্গির মিল রাখা সহজ হয় না। সাধারণত একটি ছবি ব্যবহার করে গুগলের জেনারেটিভ কোনো টুল/মডেলকে কমান্ডের মাধ্যমে এ জাতীয় ভিডিও তৈরি করা হয়।
পরবর্তীতে রিভার্স ইমেজ সার্চের মাধ্যমে ভারতীয় গণমাধ্যম 'টিভি ৯' এর বাংলা সংস্করণের ওয়েবসাইটে মূল ছবিটি পাওয়া যায়। সামাজিক যোগাযোগ মাধ্যমে প্রচারিত ভিডিওর স্থিরচিত্রের সাথে (বামে) 'টিভি ৯' এর বাংলা সংস্করণের ওয়েবসাইটে পাওয়া ছবির (ডানে) পাশাপাশি মিল দেখুন--
ভিডিওটি যাচাইয়ের ক্ষেত্রে আরেক এআই-ডিপফেক কন্টেন্ট শনাক্তকরণ টুল 'DeepFake-o-meter'-এর মাধ্যমে যাচাই করলেও টুলটি মিশ্র প্রতিক্রিয়াযুক্ত ফলাফল দিয়েছে। টুলটির বেশকিছু ডিটেকশন মেথডের মধ্যে অধিকাংশ মেথডেই ভিডিওটি সম্ভাব্য এআই দ্বারা তৈরি বলে ফলাফল পাওয়া গেছে। দেখুন--
অর্থাৎ ভিডিওটি এআই প্রযুক্তিতে তৈরি।
সুতরাং সামাজিক মাধ্যমে এআই প্রযুক্তিতে তৈরি একটি ভিডিওকে বাস্তবে দেওয়া বক্তব্যের বলে প্রচার করা হচ্ছে; যা বিভ্রান্তিকর।