যুক্তরাষ্ট্রের প্রতিরক্ষা দপ্তরের সঙ্গে কাজ করার ক্ষেত্রে কৃত্রিম বুদ্ধিমত্তা প্রতিষ্ঠানগুলোর নির্দিষ্ট সীমারেখা থাকা উচিত বলে মন্তব্য করেছেন Sam Altman। তার প্রতিষ্ঠান OpenAI জানিয়েছে, সামরিক ব্যবহারে এআই প্রযুক্তি প্রয়োগের ক্ষেত্রে তারা প্রতিদ্বন্দ্বী প্রতিষ্ঠান Anthropic–এর মতোই কিছু মৌলিক শর্ত ও সতর্ক অবস্থান বজায় রাখবে।
একজন মুখপাত্র নিশ্চিত করেছেন, পেন্টাগন যদি তাদের বর্তমান চুক্তি বাতিল করে অন্য কোনো প্রতিষ্ঠানের সঙ্গে কাজ করার সিদ্ধান্তও নেয়, তবু স্বয়ংক্রিয় অস্ত্র বা যুক্তরাষ্ট্রের নাগরিকদের ওপর ব্যাপক নজরদারির মতো সংবেদনশীল বিষয়ে একই ধরনের আপত্তি সামনে আসবে। অর্থাৎ প্রতিরক্ষা দপ্তরের সঙ্গে কাজের প্রশ্নে এআই ব্যবহারের সীমা ও নীতিগত অবস্থান থেকে সরে আসার সুযোগ নেই।
শুক্রবার সকালে সিএনবিসিকে দেওয়া এক সাক্ষাৎকারে প্রধান নির্বাহী বলেন, প্রতিরক্ষা দপ্তরের সঙ্গে প্রযুক্তি কোম্পানিগুলোর কাজ করা গুরুত্বপূর্ণ, তবে তা অবশ্যই আইনগত সুরক্ষা ও শিল্পখাতের নির্ধারিত কিছু লালরেখার মধ্যে থাকতে হবে। সামরিক ক্ষেত্রে এআই ব্যবহারের বিষয়ে শিল্পখাতের যে সতর্কতা রয়েছে, সেটি উপেক্ষা করা যাবে না বলেও তিনি উল্লেখ করেন।
প্রতিদ্বন্দ্বী প্রতিষ্ঠানের প্রসঙ্গে তিনি বলেন, মতপার্থক্য থাকলেও তিনি তাদের নিরাপত্তা–সংক্রান্ত অবস্থানকে গুরুত্ব দেন এবং মনে করেন তারা নিরাপত্তা ইস্যুতে আন্তরিক। একই সঙ্গে তিনি যুক্ত করেন, ভবিষ্যতে পরিস্থিতি কোন দিকে গড়াবে তা এখনো পরিষ্কার নয়।
এ বিষয়ে প্রতিরক্ষা দপ্তর মন্তব্য করতে অস্বীকৃতি জানিয়েছে।
ঘটনার সঙ্গে সংশ্লিষ্ট এক সূত্র জানায়, প্রতিরক্ষা সচিবের ঘোষণার প্রেক্ষাপটে প্রধান নির্বাহী সরাসরি পেন্টাগনের সঙ্গে যোগাযোগ করেন। সেখানে প্রতিদ্বন্দ্বী প্রতিষ্ঠানকে সরবরাহ শৃঙ্খল ঝুঁকি হিসেবে চিহ্নিত করা বা প্রতিরক্ষা ক্রয় আইনের আওতায় বাধ্যতামূলকভাবে সামরিক কাজে যুক্ত করার সম্ভাবনা নিয়ে উদ্বেগ প্রকাশ করা হয়।
প্রতিদ্বন্দ্বী প্রতিষ্ঠানের তৈরি ‘Claude’ মডেলই প্রথম সামরিক বাহিনীর শ্রেণিবদ্ধ ব্যবস্থায় ব্যবহৃত এআই সিস্টেম। তবে প্রতিষ্ঠানটিকে শুক্রবার বিকেল ৫টা ১ মিনিটের মধ্যে তাদের অভ্যন্তরীণ সুরক্ষা বিধিনিষেধ শিথিল করে সব বৈধ ব্যবহারের অনুমতি দিতে বলা হয়েছে। এতে সম্মত না হলে ২০০ মিলিয়ন ডলারের চুক্তি বাতিল হতে পারে এবং প্রতিষ্ঠানটিকে সরবরাহ শৃঙ্খল ঝুঁকিপূর্ণ হিসেবে চিহ্নিত করা হতে পারে, যে তকমা সাধারণত বিদেশি প্রতিপক্ষের সঙ্গে সংশ্লিষ্ট কোম্পানিগুলোর ক্ষেত্রে ব্যবহার করা হয়।
প্রতিদ্বন্দ্বী প্রতিষ্ঠান জানিয়েছে, তারা প্রতিরক্ষা দপ্তরের সঙ্গে কাজ করতে আগ্রহী। তবে স্বয়ংক্রিয় অস্ত্র ও গণ নজরদারিতে এআই ব্যবহারের বিষয়ে তাদের উদ্বেগ প্রযুক্তিটির নির্ভরযোগ্যতা নিয়ে। বর্তমান আইন ও বিধিবিধান এআই প্রযুক্তির দ্রুত অগ্রগতিকে পুরোপুরি বিবেচনায় নিচ্ছে না বলেও তারা মনে করে।
বৃহস্পতিবার কর্মীদের উদ্দেশে পাঠানো এক স্মারকে প্রধান নির্বাহী বলেন, বিষয়টি আর শুধু একটি প্রতিষ্ঠানের সঙ্গে প্রতিরক্ষা দপ্তরের বিরোধ নয়, বরং পুরো শিল্পখাতের জন্য গুরুত্বপূর্ণ ইস্যু। সেখানে তিনি উল্লেখ করেন, তাদের কাছে এমন একটি প্রস্তাব রয়েছে যা শ্রেণিবদ্ধ পরিবেশে এআই মডেল ব্যবহারের সুযোগ দেবে এবং একই সঙ্গে তাদের নীতিগত অবস্থানের সঙ্গে সামঞ্জস্যপূর্ণ থাকবে। এ ধরনের কাঠামো অন্যান্য এআই গবেষণা প্রতিষ্ঠানেও প্রযোজ্য হতে পারে বলেও তিনি ইঙ্গিত দেন।
স্মারকে তিনি আরও লেখেন, এই বিরোধ এআই ব্যবহারের ধরন নয়, বরং নিয়ন্ত্রণের প্রশ্নে। তার ভাষ্য অনুযায়ী, একটি বেসরকারি মার্কিন কোম্পানি গণতান্ত্রিকভাবে নির্বাচিত সরকারের চেয়ে বেশি শক্তিশালী হতে পারে না, যদিও নীতিনির্ধারণে কোম্পানিগুলোর মতামত ও প্রভাব থাকতে পারে।
তিনি সতর্ক করেন, বর্তমান পরিস্থিতি জাতীয় নিরাপত্তার জন্য ঝুঁকি তৈরি করতে পারে এবং সরকারের এমন পদক্ষেপ নেওয়ার সম্ভাবনা বাড়াতে পারে যা যুক্তরাষ্ট্রের এআই নেতৃত্বকেও ক্ষতিগ্রস্ত করবে। উত্তেজনা কমাতে তারা ভূমিকা রাখতে চান বলেও উল্লেখ করেন।
গত গ্রীষ্মে একাধিক এআই কোম্পানি প্রতিরক্ষা দপ্তরের সঙ্গে চুক্তি স্বাক্ষর করে, যার লক্ষ্য ছিল যুদ্ধক্ষেত্র ও প্রশাসনিক খাতে গুরুত্বপূর্ণ জাতীয় নিরাপত্তা চ্যালেঞ্জ মোকাবিলায় অগ্রসরমান এআই সক্ষমতার প্রোটোটাইপ তৈরি। তবে সাম্প্রতিক সময় পর্যন্ত সামরিক বাহিনীর শ্রেণিবদ্ধ ব্যবস্থায় ব্যবহৃত একমাত্র মডেল ছিল প্রতিদ্বন্দ্বী প্রতিষ্ঠানের সিস্টেম। চলতি সপ্তাহে এক কর্মকর্তা জানান, প্রযুক্তি উদ্যোক্তার প্রতিষ্ঠান ‘Grok’ এখন শ্রেণিবদ্ধ ব্যবহারের উপযোগী হিসেবে যুক্ত হয়েছে, আর অন্য প্রতিষ্ঠানগুলোও কাছাকাছি পর্যায়ে রয়েছে।
সম্পাদকীয় নোটে জানানো হয়েছে, এআই সক্ষমতা সম্প্রসারণ ও নিরাপত্তা নিশ্চিতে প্রতিরক্ষা দপ্তরের পূর্বে দেওয়া একটি মন্তব্য পরবর্তীতে ভুলবশত সরবরাহ করা হয়েছিল বলে জানানো হলে সেটি প্রতিবেদন থেকে প্রত্যাহার করা হয়েছে।







Add comment