HomeNo Image is Available
AuthorsNo Image is Available
Contact UsNo Image is Available
Correction PolicyNo Image is Available

Languages & Countries :






More about them

ফেক নিউজNo Image is Available
ফ্যাক্ট ফাইলNo Image is Available
শরীর স্বাস্থ্যNo Image is Available
HomeNo Image is Available
AuthorsNo Image is Available
Contact UsNo Image is Available
Correction PolicyNo Image is Available

Languages & Countries :






More about them

ফেক নিউজNo Image is Available
ফ্যাক্ট ফাইলNo Image is Available
শরীর স্বাস্থ্যNo Image is Available
ফেক নিউজ

ওসমান হাদি হত্যাকাণ্ডের আসামী ফয়সাল-আলমগীরের বলে এআই ছবি প্রচার

বুম বাংলাদেশ দেখেছে, গুগলের SynthID ডিটেকশন টুল ছবিতে এআইয়ের SynthID ওয়াটারমার্ক শনাক্ত করেছে।

By - BOOM FACT Check Team | 14 March 2026 11:51 PM IST

গত ৮ মার্চ পশ্চিমবঙ্গ পুলিশের স্পেশাল টাস্ক ফোর্সের (এসটিএফ) এক সংবাদ বিজ্ঞপ্তিতে জানায়, ইনকিলাব মঞ্চের আহ্বায়ক শরিফ ওসমান বিন হাদি হত্যা মামলার প্রধান আসামি ফয়সাল করিম মাসুদ (রাহুল নামে ভারতে অবস্থান করছিলেন) ও তার সহযোগী আলমগীর হোসেনকে গ্রেপ্তার করেছে ভারতীয় পুলিশ। এরপরে সামাজিক যোগাযোগ মাধ্যম ফেসবুকে ফয়সাল ও আলমগীরের গ্রেপ্তারের ছবি বলে একটি দৃশ্য প্রচার করা হয়েছে। এরকম কয়েকটি পোস্ট দেখুন এখানে, এখানেএখানে



গত ৮ মার্চ 'Dhaka Prokash' এর ফেসবুক পেজ থেকে ছবিটি সহ একটি ফটোকার্ড পোস্ট করা হয়। পোস্টে উল্লেখ করা হয়, 'হাদি হ/ত্যা/কাণ্ড: গ্রেপ্তার দুই আসামিকে বাংলাদেশে আনার প্রক্রিয়া শুরু' (বানান অপরিবর্তিত)। পোস্টটির স্ক্রিনশট দেখুন--



ফ্যাক্ট-চেক:

বুম বাংলাদেশ যাচাই করে দেখেছে, ফয়সালের সাথে জুমার ছবিটি বাস্তব নয়। প্রচারিত ছবিটি কৃত্রিম বুদ্ধিমত্তা বা এআই (AI) প্রযুক্তির সাহায্যে তৈরি করা হয়েছে। গুগলের SynthID ডিটেকশন টুলে ছবিটি যাচাই করলে 'গুগলের এআই ইমেজ জেনারেটিভ মডেল ব্যবহার করা হয়েছে' বলে ফলাফল দিয়েছে এবং ছবিতে SynthID ওয়াটারমার্ক শনাক্ত করেছে।

ছবিটি নিয়ে কী-ফ্রেম সার্চ করে কোনো উল্লেখযোগ্য তথ্য পাওয়া যায়নি। ছবিটি পর্যবেক্ষণে দেখা যায়, সবুজ হুডি পরা ব্যক্তির হাতের আঙুলগুলো ঝাপসা এবং অসংলগ্ন। হাতকড়ার চেইন বা কাঠামোটি হাতের চামড়া বা হাড়ের সাথে মিশে গেছে বলে মনে হচ্ছে। এআই প্রায়ই হাতের সূক্ষ্ম কাজ নিখুঁতভাবে ফুটিয়ে তুলতে ব্যর্থ হয়।

এআই তৈরি ছবির সমজাতীয় অসঙ্গতি পাওয়ার ফলে ছবিটি এআই কনটেন্ট শনাক্তকারী টুল দ্বারা তৈরির প্রয়োজনীয়তা তৈরি হয়। সম্প্রতি দুইটি আলাদা ছবি দিয়ে তাদেরকে একটি দৃশ্যের সাথে সামঞ্জস্যপূর্ন করে কোনো একটি চিত্র তৈরি করার ক্ষেত্রে এআইয়ের ব্যবহার বৃদ্ধি পেয়েছে। নিখুঁত, সীমাবদ্ধতা কম থাকা, সহজলভ্যতা ও ক্ষেত্রবিশেষ বিনামূল্যে হওয়ায় সাম্প্রতিক সময়ে এআই তৈরি ছবি তৈরির ক্ষেত্রে গুগলের জেনারেটিভ টুল 'জেমিনি (Gemini)' ব্যবহারের প্রবণতা বেশি লক্ষ্য করা যাচ্ছে। জেমিনির ২.৫ ফ্ল্যাশ বা তার চেয়ে উন্নত মডেলে (ছবির ক্ষেত্রে ন্যানো ব্যানানা বলা হয়) আগের চেয়েও বেশি বাস্তবের ন্যায় যে কোনো ধরনের ছবি তৈরি করতে সক্ষম।

ন্যানো ব্যানানা (Nano Banana) হলো গুগল-এর Gemini 2.5 Flash Image মডেলটির কোডনেম বা অভ্যন্তরীণ ডাকনাম। এই মডেলটি মূলত একটি উন্নত এআই ইমেজ এডিটিং মডেল যা টেক্সট কমান্ড বা বর্ণনা ব্যবহার করে ছবি তৈরি এবং সম্পাদনা করতে পারে। সর্বশেষ হালনাগাদে জেমিনির মডেলগুলোকে আরো উন্নত করা হয়েছে। এদিকে, গুগলের জেনারেটিভ টুলগুলো তাদের ইমেজ কনটেন্ট সাধারণ ওয়াটারমার্কিংয়ের পাশাপাশি 'SynthID' নামক এক ধরনের ওয়াটারমার্কিং ব্যবহার করে যা খালি চোখে শনাক্ত করা যায় না। তবে গুগলের SynthID ডিটেকশন টুল সেটি শনাক্ত করতে পারে।

পরবর্তীতে, ছবি দুইটি জেমিনি টুল দিয়ে তৈরি কিনা নিশ্চিত হতে গুগলেরই SynthID ডিটেকশন টুলে এটিকে যাচাই করা হয়েছে। এই শনাক্তকরণ টুলের মাধ্যমে  ছবিটির মূল ভার্শন যাচাই করলে 'গুগলের এআই ইমেজ জেনারেটিভ মডেল ব্যবহার করা হয়েছে' বলে ফলাফল দিয়েছে এবং ছবিতে SynthID ওয়াটারমার্ক শনাক্ত করেছে। দেখুন --



এখানে নীল চিহ্নিত অংশের অর্থ হলো এই জায়গাতে এআই এর লুকোনো ওয়াটারমার্ক পাওয়া গেছে (Detected)। এছাড়াও, ধূসর চিহ্নিত অংশের জায়গাতে টুলটি সরাসরি ওয়াটারমার্ক পায়নি তবে সম্ভাবনা রয়েছে (Unsure) এবং কমলা চিহ্নিত অংশের অর্থ হলো এই জায়গাতে ওয়াটারমার্ক পাওয়া যায়নি (Not detected)। তবে কোনো ছবির কোনো একটি অংশে এই লুকোনো ওয়াটারমার্ক পাওয়ার অর্থ হলো ছবিটি এআই দ্বারা তৈরি অথবা সম্পাদিত। কিছুক্ষেত্রে সিন্থেটিক হওয়ার পরেও যে যে অংশগুলোতে ধূসর ও কমলা দেখা যাচ্ছে সেই অংশগুলোর ওয়াটারমার্ক সাধারণত সামাজিক যোগাযোগ মাধ্যমের কারণে কিংবা সম্পাদনার কারণে মুছে যেতে পারে ফলে শনাক্ত করা কঠিন হয়ে পড়ে।

অর্থাৎ ছবিটি গুগলের এআই মডেল ব্যবহার করে সম্পাদনার মাধ্যমে তৈরি করা হয়েছে। 

সুতরাং সামাজিক মাধ্যমে বাস্তব ঘটনার বলে এআই প্রযুক্তির সহায়তায় তৈরি ছবি প্রচার করা হয়েছে, যা বিভ্রান্তিকর।

Tags:

Related Stories