সামাজিক যোগাযোগ মাধ্যম ফেসবুকে একটি ছবি পোস্ট করা হয়েছে। ছবিতে দেখা যাচ্ছে বাংলাদেশ জামায়াতে ইসলামীর আমীর শফিকুর আপত্তিকর অবস্থায় একজন নারীর পাশে বসে আছেন। ছবিটি পোস্ট করে বলা হয়েছে, জামায়াত আমীরের আপত্তিকর ছবি ভাইরাল হয়েছে। ছবিটি সহ প্রচারিত একটি পোস্ট দেখুন এখানে।
গত ১ ফেব্রুয়ারি ‘Channel Ai’ নামক একটি পেজ থেকে ছবিটি পোস্ট করা হয়। পোস্টে উল্লেখ করা হয়, “এবার ভাইরাল হলো জামাত আমিরের আপত্তিকর ছবি"। পোস্টটির স্ক্রিনশট দেখুন --
ফ্যাক্ট চেক:
বুম বাংলাদেশ যাচাই করে দেখেছে, ছবিটি বাস্তব নয়। জামায়াতের আমীর ডা. শফিকুর রহমানের আপত্তিকর বলে প্রচারিত ছবিটি বাস্তব নয় বরং আর্টিফিশিয়াল ইন্টিলিজেন্স (এআই) প্রযুক্তি ব্যবহার করে ছবিটি তৈরি করা হয়েছে। ছবিটি একটি এআই নামীয় স্যটায়ার ক্যাটাগরির পেজ থেকে প্রচার করা হলেও বাস্তব ঘটনার ছবি হিসেবে সোশ্যাল মিডিয়ায় প্রচার ও শেয়ার হয়েছে।
ছবিটি 'Channel Ai' নামের একটি পেজ থেকে প্রকাশ করা হয়েছে। নাম থেকেই বোঝা যাচ্ছে পেজটি থেকে এআই তৈরি কন্টেন্ট প্রচার করা হতে পারে। পেজটি পর্যবেক্ষণে বেশকিছু এআই কন্টেন্টও দেখতে পাওয়া যায়। একইসাথে বাস্তব ছবি দিয়ে ফটোকার্ডও প্রকাশ করতে দেখা গেছে। এছাড়াও পেজটি Satire/Parody ক্যাটাগরি হিসেবে পাব্লিশ করা হয়েছে। পেজটির ফটোকার্ডে স্যাটায়ার কন্টেন্টও দেখা গেছে। পাশাপাশি তাদের ফটোকার্ডে তারিখ হিসেবে উল্লেখ করা হয়েছে ৩৬ জুলাই, ২০২৫। অর্থাৎ পেজটিতে এআই ও সাধারণ কন্টেন্ট দিয়ে স্যাটায়ার তৈরি করা হয়।
পেজটির ক্যাটাগরি অনুযায়ী- আলোচ্য ছবিটি স্যাটায়ার হিসেবে প্রচার করা হলেও ছবিসহ পোস্টটি বাস্তব ঘটনার ছবি হিসেবে সাধারণ ব্যবহারকারীগণ মনে করেছেন বলে কমেন্টে মতামত দেখা গেছে। এছাড়াও ছবিটি ডাউনলোড করে ও শেয়ার করে বিভিন্ন পেজ-গ্রুপে বাস্তব ঘটনার কিংবা অনিশ্চিত হিসেবে হিসেবে প্রচার হতে দেখা গেছে। এদিকে আলোচ্য পেজটি নামের মতো নিজেদের লোগোটিও 'চ্যানেল আই' এর কাছাকাছি ডিজাইন করেছে এমনকি ফটোকার্ড ফরম্যাটের ক্ষেত্রেও চ্যানেল আইয়ের ফরম্যাটকে সম্পাদনা করে তৈরি করা হয়েছে। প্রচারিত ছবিটির (বামে) সাথে 'চ্যানেল আই' এর ফটোকার্ড ফরম্যাটের (ডানে) তুলনামূলক চিত্র দেখুন --
প্রচারিত ছবিটি নিয়ে শুরুতে রিভার্স ইমেজ সার্চ করে গ্রহণযোগ্য কোনো মাধ্যমে ছবিটির বিষয়ে কোনো উল্লেখযোগ্য তথ্য পাওয়া যায়নি। পর্যবেক্ষণে ছবিটিতে দৃশ্যের সাথে বাস্তব পারিপার্শ্বিকতার অসঙ্গতি পরিলক্ষিত হয়। কিছুক্ষেত্রে এআই দিয়ে তৈরি ছবিতে এ ধরণের অসঙ্গতি পাওয়া যায়।
সাম্প্রতিক সময়ে এআই প্রযুক্তি ব্যবহার করে একের অধিক আলাদা আসল ব্যক্তির ছবি ব্যবহার করে একই দৃশ্যে তাদের জুড়ে দেওয়া কিংবা একটি ছবিকে সম্পাদনা বা বিকৃত করার উদাহরণ বৃদ্ধি পেয়েছে। নিখুঁত এবং সহজলভ্য হওয়ায় এই ধরণের সরাসরি বা ছবি থেকে ছবি তৈরির ক্ষেত্রে গুগলের জেনারেটিভ টুল 'জেমিনি (Gemini)' ব্যবহারের প্রবণতা বেশি লক্ষ্য করা যাচ্ছে। জেমিনির ২.৫ ফ্ল্যাশ বা তার চেয়ে উন্নত মডেলে (ছবির ক্ষেত্রে ন্যানো ব্যানানা বলা হয়) আগের চেয়েও বেশি বাস্তবের ন্যায় যে কোনো ধরণের ছবি তৈরি করতে সক্ষম।
ন্যানো ব্যানানা (Nano Banana) হলো গুগল-এর Gemini 2.5 Flash Image মডেলটির কোডনেম বা অভ্যন্তরীণ ডাকনাম। এই মডেলটি মূলত একটি উন্নত এআই ইমেজ এডিটিং মডেল যা টেক্সট কমান্ড বা বর্ণনা ব্যবহার করে ছবি তৈরি এবং সম্পাদনা করতে পারে। সর্বশেষ হালনাগাদে জেমিনির মডেলগুলোকে আরো উন্নত করা হয়েছে।
জেমিনি টুল দিয়ে তৈরি কিনা নিশ্চিত হতে গুগলেরই SynthID ডিটেকশন টুলে ছবিটিকে যাচাই করা হয়েছে। কেননা গুগলের জেনারেটিভ টুলগুলো তাদের ইমেজ কন্টেন্টে সাধারণ ওয়াটারমার্কিংয়ের পাশাপাশি 'SynthID' নামক এক ধরণের ওয়াটারমার্কিং ব্যবহার করে যা খালি চোখে শনাক্ত করা যায় না। তবে গুগলের SynthID ডিটেকশন টুল সেটি শনাক্ত করতে পারে।
এই শনাক্তকরণ টুলের মাধ্যমে ফেসবুকে প্রচারিত ছবিটি যাচাই করলে 'গুগলের এআই ইমেজ জেনারেটিভ মডেল ব্যবহার করা হয়েছে' বলে ফলাফল দিয়েছে এবং ছবিতে SynthID শনাক্ত করেছে। দেখুন--
অর্থাৎ ছবিটি গুগলের এআই মডেল ব্যবহার করে তৈরি করা হয়েছে।
উল্লেখ্য এ ধরণের ছবির ক্ষেত্রে আলোচ্য ব্যক্তির পূর্ববর্তী ছবি বা মুখমন্ডল ও পুরোনো কোনো দৃশ্যপটের ছবি ব্যবহার করে সেই দৃশ্যপটে ব্যক্তিটিকে যুক্ত করে দেওয়া হয় বা দৃশ্যপটের কোনো ব্যক্তির মুখমন্ডলের জায়গায় আলোচ্য ব্যক্তির মুখমন্ডল বসিয়ে দেওয়ার মাধ্যমে বিকৃত করা হয়। এআই টুলগুলো বর্তমানে এই ধরণের সম্পাদনাও অনেকটা নিখুঁতভাবে করতে পারে। যদিও উপরের আলোচ্য ছবিটির ক্ষেত্রে দৃশ্যপটের ছবিটি সার্চ করে কোনো ফলাফল পাওয়া যায়নি। যদি পূর্ববর্তী কোনো দৃশ্যে একজন ব্যক্তিকে এআই এর মাধ্যমে সংযুক্ত করা হয় তাহলে সেই ধরণের কন্টেন্টকে এআই দ্বারা তৈরি হিসেবে উল্লেখ করার পাশপাশি আরো নির্দিষ্ট করে এআই দ্বারা সম্পাদনার মাধ্যমে তৈরি বলেও উল্লেখ করা যায়।
সুতরাং সামাজিক মাধ্যমে বাস্তব দৃশ্যের বলে এআই প্রযুক্তির সহায়তায় তৈরি ছবি বাস্তব ছবি হিসেবে প্রচার করা হয়েছে, যা বিভ্রান্তিকর।




