রাশিয়ার সঙ্গে যুদ্ধ দীর্ঘায়িত হওয়ার প্রেক্ষাপটে ইউক্রেনকে ঘিরে নতুন ধরনের তথ্যযুদ্ধের চিত্র সামনে আসছে। সাম্প্রতিক সময়ে সামাজিক যোগাযোগমাধ্যমে ছড়িয়ে পড়া অতিরিক্ত বাস্তবধর্মী কৃত্রিম বুদ্ধিমত্তা নির্ভর ভিডিওগুলোতে ইউক্রেনীয় সেনাদের বিপন্ন ও ভেঙে পড়া অবস্থায় দেখানো হচ্ছে। এসব ভিডিওর একটি বড় অংশ তৈরি করা হয়েছে ওপেনএআইয়ের উন্নত টেক্সট টু ভিডিও প্রযুক্তি ব্যবহার করে, যা সাধারণ দর্শকের চোখে প্রায় পুরোপুরি বাস্তব বলে মনে হয়।
নভেম্বরের শুরুতে এসব ভিডিও প্রথম ছড়িয়ে পড়ে। ভিডিওগুলোতে দেখা যায়, সামনের সারিতে অবস্থানরত ইউক্রেনীয় সেনারা কাঁদছেন, আত্মসমর্পণের কথা বলছেন এবং রুশ জনগণের কাছে ক্ষমা চাইছেন। একই সঙ্গে তাঁরা যুদ্ধের জন্য নিজেদের সরকারকে দায়ী করছেন। দৃশ্যগুলো দেখতে এতটাই স্বাভাবিক যে বহু দর্শক এগুলোকে বাস্তব যুদ্ধক্ষেত্রের ভিডিও বলে ধরে নিচ্ছেন।
এই ভিডিওগুলোর একটি শনাক্ত করেন রাশিয়ার একজন জনপ্রিয় লাইভস্ট্রিমার, যিনি বর্তমানে যুক্তরাষ্ট্রে বসবাস করেন। তিনি লক্ষ্য করেন, ভিডিওতে ব্যবহৃত মুখটি আসলে তাঁর নিজের। বিষয়টি প্রথমে গুরুত্ব না দিলেও অল্প সময়ের মধ্যেই ভিডিওগুলোর ভিউ সংখ্যা দ্রুত বাড়তে থাকে এবং বিপুলসংখ্যক মানুষ সেগুলো সত্য বলে বিশ্বাস করতে শুরু করে। অনেক ব্যবহারকারী মন্তব্যে তথাকথিত ইউক্রেনীয় সেনাদের প্রতি সহানুভূতি জানাচ্ছিলেন এবং দেশটির নেতৃত্বের বিরুদ্ধে ক্ষোভ প্রকাশ করছিলেন।
ওই লাইভস্ট্রিমার জানান, তিনি কখনো কোনো সেনাবাহিনীতে কাজ করেননি, ইউক্রেনীয় সেনাবাহিনীতে তো নয়ই। তাঁর চেহারা ব্যবহার করে তৈরি ওই কৃত্রিম ভিডিওগুলো মূলত ইউক্রেনীয় সেনাদের মনোবল ভেঙে পড়েছে এমন একটি ভুয়া বর্ণনা ছড়িয়ে দিতে ব্যবহৃত হচ্ছিল। ভিডিওতে তাঁকে ইউক্রেনের পতাকা সংবলিত পোশাক পরে রুশ ভাষায় বলতে শোনা যায়, তাঁদের জোর করে যুদ্ধে পাঠানো হয়েছে এবং তাঁরা সামনে এগোতে চান না।
সম্প্রতি এনবিসি নিউজ পর্যালোচনা করা ২১টি এআই নির্ভর ভিডিওতে দেখা গেছে, এগুলোর অনেকগুলোই উন্নত কৃত্রিম বুদ্ধিমত্তা সফটওয়্যার দিয়ে তৈরি বা পরিবর্তিত। কিছু ভিডিওতে এতটাই নিখুঁত বাস্তবতা রয়েছে যে সাধারণভাবে এগুলোর কৃত্রিম উৎস শনাক্ত করা কঠিন। তবে অন্তত অর্ধেক ভিডিওর এক কোণে ছোট একটি লোগো দেখা যায়, যা ইঙ্গিত দেয় এগুলো ওপেনএআইয়ের সর্বশেষ ভিডিও জেনারেশন সংস্করণ ব্যবহার করে তৈরি।
কিছু ভিডিওতে জনপ্রিয় রুশ অনলাইন ব্যক্তিত্বদের মুখ ব্যবহার করে নাটকীয় ডিপফেক তৈরি করা হয়েছে। অন্যগুলোতে দেখা যায়, একসঙ্গে অনেক ইউক্রেনীয় সেনা রুশ বাহিনীর কাছে আত্মসমর্পণ করছে। যেসব ভিডিও অন্য এআই প্ল্যাটফর্মে তৈরি, সেগুলোতেও সূক্ষ্ম ত্রুটি রয়েছে, যেমন সেনাদের পোশাক বা হেলমেটের নকশায় সামান্য অসঙ্গতি। ইউক্রেনীয়দের কাছে আরও একটি বিষয় চোখে পড়ার মতো, অধিকাংশ ভিডিওতে সেনারা রুশ ভাষায় কথা বলছেন, অথচ বাস্তবে ইউক্রেনীয় সেনাদের বড় অংশ ইউক্রেনীয় ভাষা ব্যবহার করে।
ইউটিউব, টিকটক, ফেসবুক ও এক্সে ছড়িয়ে পড়া এসব ভিডিওর মূল লক্ষ্য ছিল ইউক্রেনীয় সেনাদের যুদ্ধ করতে অনিচ্ছুক ও আত্মসমর্পণে প্রস্তুত হিসেবে তুলে ধরা। কারা এসব ভিডিও তৈরি বা ছড়িয়েছে তা নিশ্চিতভাবে জানা না গেলেও এগুলোকে রাশিয়া ইউক্রেন যুদ্ধকে ঘিরে জনমত প্রভাবিত করার সর্বশেষ বিভ্রান্তিমূলক প্রচেষ্টা হিসেবে দেখা হচ্ছে।
একজন তথ্য বিশ্লেষক জানান, উন্নত এআই প্রযুক্তি দিয়ে তৈরি ভুয়া দাবিগুলো শনাক্ত করা ও খণ্ডন করা আগের চেয়ে অনেক কঠিন হয়ে উঠেছে। অনেক ভিডিওতে দৃশ্যগত কোনো অসঙ্গতি না থাকায় দর্শকরা বুঝতেই পারেন না যে তারা মিথ্যা কিছু দেখছেন।
ওপেনএআই জানিয়েছে, তাদের ভিডিও প্রযুক্তির অতিরিক্ত বাস্তবধর্মী সক্ষমতা অপব্যবহার ও প্রতারণা নিয়ে গুরুত্বপূর্ণ উদ্বেগ তৈরি করছে। প্রতিষ্ঠানটি দাবি করে, নীতিমালা লঙ্ঘনকারী কনটেন্ট শনাক্ত ও প্রতিরোধে তাদের ব্যবস্থা রয়েছে। তবে একই সঙ্গে তারা স্বীকার করেছে, সব ধরনের ক্ষতিকর ব্যবহার পুরোপুরি ঠেকানো সব সময় সম্ভব হয় না।
বিশেষজ্ঞরা সতর্ক করছেন, কৃত্রিম বুদ্ধিমত্তা নির্ভর ভিডিও প্রযুক্তি এত দ্রুত উন্নত হচ্ছে যে খুব শিগগিরই বাস্তব ও ভুয়া আলাদা করা সাধারণ মানুষের জন্য প্রায় অসম্ভব হয়ে উঠতে পারে। যুদ্ধকালীন তথ্যযুদ্ধে এই ধরনের ভিডিও জনমত, আস্থা এবং আন্তর্জাতিক সমর্থনের ওপর গভীর প্রভাব ফেলতে পারে বলে আশঙ্কা করা হচ্ছে।



