ঢাকা, শনিবার,২৪ ফেব্রুয়ারি ২০১৮

মতামত

বুদ্ধিযুক্ত সমরাস্ত্র নিয়ে আতঙ্ক

আনিসুর রহমান এরশাদ

০৭ ফেব্রুয়ারি ২০১৮,বুধবার, ১৮:০৬ | আপডেট: ১১ ফেব্রুয়ারি ২০১৮,রবিবার, ১৪:৪৭


প্রিন্ট
বুদ্ধিযুক্ত সমরাস্ত্র নিয়ে আতঙ্ক

বুদ্ধিযুক্ত সমরাস্ত্র নিয়ে আতঙ্ক

ঘাতক রোবট হচ্ছে সম্পূর্ণভাবে স্বচালিত একটি অস্ত্র, যা মানুষের হস্তক্ষেপ ছাড়াই নির্দিষ্ট লক্ষ্যকে বাছাই করতে পারে এবং লক্ষ্যবস্তুতে হামলা চালাতে পারে। গত কয়েক বছরে বুদ্ধিযুক্ত সমরাস্ত্র অস্ত্র তৈরিতে যথেষ্ট অগ্রগতি হয়েছে। স্বয়ংক্রিয় অস্ত্রকে আধুনিক যুদ্ধের পরিস্থিতির উপযুক্ত করে তোলা হয়েছে, স্বয়ংক্রিয় আগ্নেয়াস্ত্রের ক্ষমতাকে সংরক্ষণ করার সামর্থ্য বেড়েছে। 

স্বচালিত অস্ত্র, সমরাস্ত্রের তৃতীয় প্রজন্ম। অস্ত্রের ক্ষেত্রে এক নতুন বৈপ্লবিক ধারণা। এই অস্ত্র নিয়ে এখন নানা আশঙ্কা সৃষ্টি হয়েছে। যেমন- ১. বুদ্ধিযুক্ত সমরাস্ত্র সন্ত্রাসের অস্ত্র হয়ে উঠতে পারে। ২. স্বৈরাচারী-অত্যাচারী শাসক ও সন্ত্রাসবাদী গোষ্ঠীগুলো এসব অস্ত্র নিরপরাধ-নিরীহ জনগণের বিরুদ্ধে ব্যবহার করতে পারে। ৩.হ্যাকাররা বুদ্ধিযুক্ত সমরাস্ত্র হ্যাক করে সেগুলো দিয়ে অপ্রীতিকর ঘটনা ঘটাতে পারে, অনাকাক্সিক্ষত উপায়ে ব্যবহার করতে পারে।

যেকোনো ধরনের অস্ত্রে বা অস্ত্র ব্যবস্থাপনায় কৃত্রিম বুদ্ধিমত্তার সংযুক্তি অস্ত্র ব্যবহারের ক্ষেত্রে মানুষের নিয়ন্ত্রণের বাইরে যেতে পারে। একটা সময়ে মানুষের বিপক্ষে অবস্থান গ্রহণে সক্ষম হতে পারে; ফলে স্বচালিত অস্ত্রের ঝুঁকি মারাত্মক। স্বয়ংক্রিয় রোবটকে যুদ্ধে মোতায়েনের মানে- যুদ্ধ হবে পুরোপুরি স্বয়ংক্রিয় যুদ্ধ।

স্বয়ংক্রিয় অস্ত্রের ধারণক্ষমতা প্রথাগত অস্ত্রের তুলনায় অনেক গুণ বেশি, ক্ষিপ্রতাও বেশি, সহজে বেশি হতাহত করতেও সক্ষম। রোবটিক্স প্রযুক্তির ভয়াবহতা এতটাই বেশি যে, ‘খুনি রোবট’ যুদ্ধযাত্রার বিকাশ ঘটলে নিরাপত্তাজনিত ব্যবস্থা শেষ হয়ে যাবে, নতুন অস্ত্র প্রতিযোগিতা শুরু হবে, এর অপব্যবহারে বেসামরিক নাগরিকেরা ক্ষতিগ্রস্ত হবে।

একবার স্বচালিত সমরাস্ত্রের পথে গেলে, সেখান থেকে আবার ফেরা কঠিন হবে। তাই সমরাস্ত্র খাতে কৃত্রিম বুদ্ধিমত্তার ব্যবহারের ধারণাটি অত্যন্ত বাজে এবং সব ধরনের স্বচালিত অস্ত্র তৈরির ওপর নিষেধাজ্ঞা জারির মাধ্যমেই এই ধারণাকে প্রতিহত করা সম্ভব। কৃত্রিম বুদ্ধিমত্তায় তৈরি ‘ঘাতক রোবট’, ‘খুনি রোবট’, ‘রোবট সৈন্য’, ‘কিলার রোবট’, ‘হত্যাকারী রোবট’, ‘অস্ত্রঘাতক’, ‘অস্ত্র পরিচালনাকারী রোবট’-এর উদ্ভাবন-উৎপাদন-ব্যবহার তথা অটোনোমাস উয়েপন্স সিস্টেমকে আইনগতভাবে নিষিদ্ধের ব্যাপারে কার্যকর ব্যবস্থা গ্রহণের আহ্বান জানিয়ে জাতিসঙ্ঘকে খোলা চিঠি পাঠিয়েছেন রোবটিক্স এবং আর্টিফিসিয়াল ইন্টেলিজেন্স-এআই তথা কৃত্রিম বুদ্ধিমত্তাবিষয়ক বিশেষজ্ঞরা। তারা লিথাল অটোনোমাস উয়েপন্স সিস্টেম-লজ বা প্রাণঘাতী স্বয়ংক্রিয় অস্ত্রপদ্ধতি ব্যবহারের নৈতিকতা নিয়ে প্রশ্ন তুলেছেন এবং স্বয়ংক্রিয় অস্ত্রের ভয়াবহ বিপদ সম্পর্কে সাবধান করে দিয়েছেন। ইউএন কনভেনশন অন সার্টেন কনভেনশনাল উয়েপন্সের (সিসিডব্লিউ) জন্য সুপারিশমালায় রোবট অস্ত্র নিয়ন্ত্রণ, রোবটের উন্নয়ন কার্যক্রমের বিরুদ্ধে ব্যবস্থা গ্রহণ এবং ব্যবহার বন্ধের কথা এসেছে। বিশ্বখ্যাত পদার্থবিদ স্টিফেন হকিং বলেছেন, ‘এআই বা কৃত্রিম বুদ্ধি চিরকালের সবচেয়ে বড় ভ্রম। কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ।’ মার্কিন প্রতিষ্ঠান টেসলার সিইও অ্যালোন মাস্ক আর্টিফিসিয়াল ইন্টেলিজেন্সকে মানব অস্তিত্বের পক্ষে সবচেয়ে বড় হুমকি বলে বর্ণনা করেছেন।

এআই হচ্ছে স্বয়ং চিন্তা করতে ও সিদ্ধান্ত নিতে সক্ষম যন্ত্র। স্বশাসিত বা স্বচালিত সমরাস্ত্রের বিকাশে কাজ করে রোবটিক্স বা রোবট নির্মাণপ্রযুক্তি। সামরিক অভিযানে ব্যাপক হারে ব্যবহৃত ড্রোনকেও অনেকে রোবটের আওতায় ধরেন। কিলার রোবটকে সামরিক ভাষায় বলা হয় লিথাল অটোনোমাস উয়েপনস (এলএডাব্লিউএস) বা স্বয়ংক্রিয় প্রাণঘাতী অস্ত্র। যেসব স্বয়ংক্রিয় অস্ত্র মানুষ হত্যা করে, সেগুলোকে যুক্তরাষ্ট্র বলে প্রিডেটর-রিপার, যুক্তরাজ্য বলে তারামাস বা গড অব থান্ডার। লকহিড মার্টিন কোম্পানি ড্রোন ক্ষেপণাস্ত্রকে বলে দ্য টার্মিনেটর। যুক্তরাষ্ট্রের রয়েছে- স্বয়ংক্রিয়ভাবে উড়তে এবং রণতরীতে অবতরণে সক্ষম এক্স ফরটি সেভেন বি, সাড়ে সাত টন ওজনের ট্রাক ও স্বয়ংক্রিয় ডুবোজাহাজ। এ ধরনের অস্ত্র উদ্ভাবনে ব্যাপক গবেষণা করছে- যুক্তরাজ্য, ইসরাইল, রাশিয়া, চীন, তাইওয়ান এবং দক্ষিণ কোরিয়া। অবশ্য কোনো দেশের সরকার বা সামরিক বাহিনী এখন পর্যন্ত পুরোপুরি স্বয়ংক্রিয় অস্ত্রশস্ত্র মোতায়েন করেনি। তবু বৈশ্বিক প্রতিরক্ষাব্যবস্থার বড় একটি অংশ ইতোমধ্যে আংশিকভাবে স্বয়ংক্রিয় হয়ে গেছে। এ ক্ষেত্রে টার্গেট নির্ধারণ, হামলা চালাতে ব্যবহৃত হচ্ছে মানুষ ও কম্পিউটারচালিত পদ্ধতির যৌথ ব্যবস্থাপনা।

স্বয়ংক্রিয়ভাবে লক্ষ্য নির্ধারণের প্রযুক্তিতে অটোমেটিক টার্গেট রিকগনিশন করে একটি যন্ত্র। সেন্সর বা ক্যামেরা তথ্য পাঠাচ্ছে একটি যন্ত্রে এবং সেখানে তথ্যগুলোর সঙ্কলন এবং বিশ্লেষণের প্রক্রিয়াটি সম্পন্ন হচ্ছে। এসব প্রযুক্তি মরুভূমির মতো ছিমছাম একটা জায়গায় ট্যাংকের মতো বস্তু অথবা সাগরে একটি জাহাজকে চিহ্নিত করতে পারছে। তবে খুবই জটলাময় পরিবেশে একটি স্কুলবাস বা ট্রাক আর ট্যাংকের পার্থক্য বুঝতে পারছে না, একজন শিশু এবং একজন অস্ত্রধারী সৈন্যের মধ্যে কোনো তফাত করতে পারছে না। ফলে অত্যন্ত আতঙ্কজনক এক বিশ্বের দিকে আমরা এগিয়ে যাচ্ছি। ডেনমার্কের একটি জেলখানায় বাইরে থেকে ড্রোন ব্যবহার করে এক বন্দীকে সেলফোন ও অস্ত্র সরবরাহ করার ঘটনা ঘটেছে। ফলে দূর নিয়ন্ত্রিত বা স্বয়ংচালিত আকাশযান ড্রোন নিয়ে নিরাপত্তা ঝুঁকির বিষয়টিও সামনে এসেছে। অনেক দেশেই ড্রোন লাইসেন্স নেয়া বাধ্যতামূলক করা হয়েছে।

এমন পরিস্থিতিতে যুদ্ধে ঘাতক রোবট ব্যবহারের নৈতিকতা নিয়ে প্রশ্ন ওঠাই স্বাভাবিক। কারণ ঘাতক রোবটের হাতে অস্ত্র তুলে দিয়ে সামরিক সদস্যরা সম্মুখ সমরের প্রাণহানি বা ক্ষতি এড়াতে পারলেও মানবজাতি হুমকির মুখে পড়বে। কিলার রোবটকে কিছু নির্দেশনা দিয়ে শত্রুস্থাপনায় ছেড়ে দিলেও নিশ্চিন্ত থাকা যাবে না। কারণ স্বয়ংক্রিয় অস্ত্র কিলার রোবট কোনো শত্রুকে হত্যা করবে কি না নিজেই সে সিদ্ধান্ত নিতে পারবে। লড়াইয়ে বা যুদ্ধক্ষেত্রে এই স্বয়ংক্রিয় যন্ত্রটি কিভাবে নিজেই হত্যার মতো সিদ্ধান্ত নেবে বা কিভাবে সামরিক ও বেসামরিক লক্ষ্য চিনবে তা পরিষ্কার নয়। কিলার রোবট ব্যাপক হত্যাযজ্ঞ বা গণহত্যার মতো কোনো ঘটনা ঘটিয়ে ফেললে তার দায়িত্ব কে নেবে? নৈতিক ও সামাজিক ক্ষেত্রে এলএডব্লিউএস বা স্বয়ংক্রিয় প্রাণঘাতী অস্ত্র রোবটের প্রভাব মোটেই ইতিবাচক হবে না। আমরা জানি, মানুষকে অন্ধ করার ক্ষমতাসম্পন্ন লেজার অস্ত্র উন্নত করা নিষিদ্ধ করা হয়েছিল ১৯৯৫ সালে জাতিসঙ্ঘের অস্ত্রবিষয়ক কনভেশনে। এখন নতুন আন্তর্জাতিক আইনের মাধ্যমে কিলার রোবটের ব্যবহার নিষিদ্ধ চাওয়াটা তাই মোটেই নতুন ধরনের ঘটনা নয়।

এ ধরনের এলএডব্লিউএস বা কিলার রোবট তৈরি, সামরিক বাহিনীতে সরবরাহ ও তা দিয়ে সামরিক অভিযান পরিচালনা করা হলে, মানবাধিকার বিপন্ন হবে, জবাবদিহিতা না থাকায় অপব্যবহার বাড়বে, ভবিষ্যৎ অপরাধ রোধের পথ বন্ধ হবে, হামলার শিকার ব্যক্তিরাও পাবে না কোনো ক্ষতিপূরণ, দায়ীদের জন্য সামাজিক নিন্দার পথ রুদ্ধ হবে, আন্তর্জাতিক রাজনৈতিক অঙ্গনে বিশাল প্রভাব ফেলবে। বিপজ্জনক এলাকায় কোনো মানুষের সাহায্য ছাড়াই এসব যন্ত্র যেভাবে লক্ষ্য নির্ধারণ ও হামলা করতে সমর্থ হচ্ছে তাতে তারা হয়তো রিমোট-কন্ট্রোলড ড্রোনকেও পেছনে ফেলবে। এই স্বয়ংক্রিয় যোদ্ধার অপরাধ ও বেআইনি কাজ করার শক্তি রয়েছে কিন্তু সেজন্য কাউকে দায়ী করা যাবে না। অনেক সময় এমন হতে পারে যে রোবটের কমান্ডার জানেন যে, এটি বেআইনি কাজ করবে এবং যদি যোগাযোগব্যবস্থা বিকল হয়ে তাহলে সে এটিকে রুখতে পারবে না। ফলে রোবট সৈন্য যুদ্ধাপরাধ সংঘটিত করলেও তার কমান্ডারের বিচারকে ফাঁকি দিতে সফটওয়্যারের কিংবা নির্মাণপদ্ধতির দোহাই দিয়ে পার পেয়ে যাবে।

যুদ্ধক্ষেত্রে কোনো সৈনিক যদি ইচ্ছাকৃতভাবে তার রোবট সেনাকে নির্দেশ দিয়ে কোনো হত্যাকাণ্ড ঘটায় তাহলে তার দায়ভার সেই সৈনিককেই বহন করতে হবে। কিন্তু কোনো মানুষের সংশ্লিষ্টতা ছাড়াই কোনো রোবট সৈনিক যদি একাকী একই কাজ করে তাহলে তার দায়িত্ব সে নেবে না। এ কারণে কাউকে বিচারের সম্মুখীন করা সম্ভব হবে না। ফলে এসব নতুন ধরনের বিপদ এড়াতে বিশ্বের শান্তিপ্রিয় মানুষ চায়, অস্ত্রশস্ত্র পরিচালনায় কৃত্রিম বুদ্ধিমত্তার ব্যবহার বন্ধ হোক, দ্রুততার সাথে সম্পূর্ণভাবে সশস্ত্র স্বয়ংক্রিয় যোদ্ধা বা রোবট সৈন্য নির্মাণ পুরোপুরি নিষিদ্ধ করা হোক। 

 

 

Logo

সম্পাদক : আলমগীর মহিউদ্দিন

প্রকাশক : শামসুল হুদা, এফসিএ

১ আর. কে মিশন রোড, (মানিক মিয়া ফাউন্ডেশন), ঢাকা-১২০৩।
ফোন: ৫৭১৬৫২৬১-৯

© সর্বস্বত্ব স্বত্বাধিকার সংরক্ষিত | নয়া দিগন্ত ২০১৫