২৪ এপ্রিল ২০২৪, ১১ বৈশাখ ১৪৩১, ১৪ শাওয়াল ১৪৪৫
`

 ঘাতক রোবট!

রোবট এক সময় ঘাতক হয়ে উঠতে পারে বলে আশংঙ্কা করা হচ্ছে। - ছবি: সংগৃহীত

ঘাতক রোবট হচ্ছে সম্পূর্ণভাবে স্বচালিত একটি অস্ত্র, যা মানুষের হস্তক্ষেপ ছাড়াই নির্দিষ্ট লক্ষ্য বাছাই করতে পারে এবং লক্ষ্যবস্তুতে হামলা চালাতে পারে। গত কয়েক বছরে বুদ্ধিযুক্ত সমরাস্ত্র অস্ত্র তৈরিতে যথেষ্ট অগ্রগতি হয়েছে। স্বয়ংক্রিয় অস্ত্রকে আধুনিক যুদ্ধের পরিস্থিতির উপযুক্ত করে তোলা হয়েছে, স্বয়ংক্রিয় আগ্নেয়াস্ত্রের মতো সংরক্ষণ করার সামর্থ্য বেড়েছে।

স্বচালিত অস্ত্র, সমরাস্ত্রের তৃতীয় প্রজন্ম। অস্ত্রের ক্ষেত্রে এক নতুন বৈপ্লবিক ধারণা। এই অস্ত্র নিয়ে এখন নানা আশঙ্কা সৃষ্টি হয়েছে। যেমন১. বুদ্ধিযুক্ত সমরাস্ত্র সন্ত্রাসের অস্ত্র হয়ে উঠতে পারে। ২. স্বৈরাচারী-অত্যাচারী শাসক ও সন্ত্রাসবাদী গোষ্ঠীগুলো এসব অস্ত্র নিরপরাধ-নিরীহ জনগণের বিরুদ্ধে ব্যবহার করতে পারে। ৩.হ্যাকাররা বুদ্ধিযুক্ত সমরাস্ত্র হ্যাক করে সেগুলো দিয়ে অপ্রীতিকর ঘটনা ঘটাতে পারে, অনাকাক্সিক্ষত উপায়ে ব্যবহার করতে পারে।

যেকোনো ধরনের অস্ত্রে বা অস্ত্র ব্যবস্থাপনায় কৃত্রিম বুদ্ধিমত্তার সংযুক্তি অস্ত্র ব্যবহারের ক্ষেত্রে মানুষের নিয়ন্ত্রণের বাইরে যেতে পারে। একটা সময়ে মানুষের বিপে অবস্থান গ্রহণে সম হতে পারে; ফলে স্বচালিত অস্ত্রের ঝুঁকি মারাত্মক। স্বয়ংক্রিয় রোবটকে যুদ্ধে মোতায়েনের মানে যুদ্ধ হবে পুরোপুরি স্বয়ংক্রিয় যুদ্ধ।

স্বয়ংক্রিয় অস্ত্রের ধারণমতা প্রথাগত অস্ত্রের তুলনায় অনেক গুণ বেশি, প্রিতাও বেশি, সহজে বেশি হতাহত করতেও সম। রোবটিক্স প্রযুক্তির ভয়াবহতা এতটাই বেশি যে, ‘খুনি রোবট’ যুদ্ধযাত্রার বিকাশ ঘটলে নিরাপত্তাজনিত ব্যবস্থা শেষ হয়ে যাবে, নতুন অস্ত্র প্রতিযোগিতা শুরু হবে, এর অপব্যবহারে বেসামরিক নাগরিকেরা তিগ্রস্ত হবে।

একবার স্বচালিত সমরাস্ত্রের পথে গেলে, সেখান থেকে আবার ফেরা কঠিন হবে। তাই সমরাস্ত্র খাতে কৃত্রিম বুদ্ধিমত্তার ব্যবহারের ধারণাটি অত্যন্ত বাজে এবং সব ধরনের স্বচালিত অস্ত্র তৈরির ওপর নিষেধাজ্ঞা জারির মাধ্যমেই এই ধারণাকে প্রতিহত করা সম্ভব। কৃত্রিম বুদ্ধিমত্তায় তৈরি ‘ঘাতক রোবট’, ‘খুনি রোবট’, ‘রোবট সৈন্য’, ‘কিলার রোবট’, ‘হত্যাকারী রোবট’, ‘অস্ত্রঘাতক’, ‘অস্ত্র পরিচালনাকারী রোবট’-এর উদ্ভাবন-উৎপাদন-ব্যবহার তথা অটোনোমাস উয়েপন্স সিস্টেমকে আইনগতভাবে নিষিদ্ধের ব্যাপারে কার্যকর ব্যবস্থা গ্রহণের আহ্বান জানিয়ে জাতিসঙ্ঘকে খোলা চিঠি পাঠিয়েছেন রোবটিক্স এবং আর্টিফিসিয়াল ইন্টেলিজেন্স-এআই তথা কৃত্রিম বুদ্ধিমত্তাবিষয়ক বিশেষজ্ঞরা।

তারা লিথাল অটোনোমাস উয়েপন্স সিস্টেম-লজ বা প্রাণঘাতী স্বয়ংক্রিয় অস্ত্রপদ্ধতি ব্যবহারের নৈতিকতা নিয়ে প্রশ্ন তুলেছেন এবং স্বয়ংক্রিয় অস্ত্রের ভয়াবহ বিপদ সম্পর্কে সাবধান করে দিয়েছেন। ইউএন কনভেনশন অন সার্টেন কনভেনশনাল উয়েপন্সের (সিসিডব্লিউ) জন্য সুপারিশমালায় রোবট অস্ত্র নিয়ন্ত্রণ, রোবটের উন্নয়ন কার্যক্রমের বিরুদ্ধে ব্যবস্থা গ্রহণ এবং ব্যবহার বন্ধের কথা এসেছে। বিশ্বখ্যাত পদার্থবিদ স্টিফেন হকিং বলেছেন, ‘এআই বা কৃত্রিম বুদ্ধি চিরকালের সবচেয়ে বড় ভ্রম। কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ।’ মার্কিন প্রতিষ্ঠান টেসলার সিইও অ্যালোন মাস্ক আর্টিফিসিয়াল ইন্টেলিজেন্সকে মানব অস্তিত্বের পে সবচেয়ে বড় হুমকি বলে বর্ণনা করেছেন।

এআই হচ্ছে স্বয়ং চিন্তা করতে ও সিদ্ধান্ত নিতে সম যন্ত্র। স্বশাসিত বা স্বচালিত সমরাস্ত্রের বিকাশে কাজ করে রোবটিক্স বা রোবট নির্মাণপ্রযুক্তি। সামরিক অভিযানে ব্যাপক হারে ব্যবহৃত ড্রোনকেও অনেকে রোবটের আওতায় ধরেন। কিলার রোবটকে সামরিক ভাষায় বলা হয় লিথাল অটোনোমাস উয়েপনস (এলএডাব্লিউএস) বা স্বয়ংক্রিয় প্রাণঘাতী অস্ত্র। যেসব স্বয়ংক্রিয় অস্ত্র মানুষ হত্যা করে, সেগুলোকে যুক্তরাষ্ট্র বলে প্রিডেটর-রিপার, যুক্তরাজ্য বলে তারামাস বা গড অব থান্ডার। লকহিড মার্টিন কোম্পানি ড্রোন পেণাস্ত্রকে বলে দ্য টার্মিনেটর। যুক্তরাষ্ট্রের রয়েছে স্বয়ংক্রিয়ভাবে উড়তে এবং রণতরীতে অবতরণে সক্ষম এক্স ফরটি সেভেন বি, সাড়ে সাত টন ওজনের ট্রাক ও স্বয়ংক্রিয় ডুবোজাহাজ। এ ধরনের অস্ত্র উদ্ভাবনে ব্যাপক গবেষণা করছে যুক্তরাজ্য, ইসরাইল, রাশিয়া, চীন, তাইওয়ান এবং দণি কোরিয়া। অবশ্য কোনো দেশের সরকার বা সামরিক বাহিনী এখন পর্যন্ত পুরোপুরি স্বয়ংক্রিয় অস্ত্রশস্ত্র মোতায়েন করেনি। তবু বৈশ্বিক প্রতিরাব্যবস্থার বড় একটি অংশ ইতোমধ্যে আংশিকভাবে স্বয়ংক্রিয় হয়ে গেছে। এক্ষেত্রে টার্গেট নির্ধারণ, হামলা চালাতে ব্যবহৃত হচ্ছে মানুষ ও কম্পিউটারচালিত পদ্ধতির যৌথ ব্যবস্থাপনা।

স্বয়ংক্রিয়ভাবে লক্ষ্য নির্ধারণের প্রযুক্তিতে অটোমেটিক টার্গেট রিকগনিশন করে একটি যন্ত্র। সেন্সর বা ক্যামেরা তথ্য পাঠাচ্ছে একটি যন্ত্রে এবং সেখানে তথ্যগুলোর সঙ্কলন এবং বিশ্লেষণের প্রক্রিয়াটি সম্পন্ন হচ্ছে। এসব প্রযুক্তি মরুভূমির মতো ছিমছাম একটা জায়গায় ট্যাংকের মতো বস্তু অথবা সাগরে একটি জাহাজকে চিহ্নিত করতে পারছে। তবে খুবই জটলাময় পরিবেশে একটি স্কুলবাস বা ট্রাক আর ট্যাংকের পার্থক্য বুঝতে পারছে না, একজন শিশু এবং একজন অস্ত্রধারী সৈন্যের মধ্যে কোনো তফাত করতে পারছে না। ফলে অত্যন্ত আতঙ্কজনক এক বিশ্বের দিকে আমরা এগিয়ে যাচ্ছি। ডেনমার্কের একটি জেলখানায় বাইরে থেকে ড্রোন ব্যবহার করে এক বন্দীকে সেলফোন ও অস্ত্র সরবরাহ করার ঘটনা ঘটেছে। ফলে দূর নিয়ন্ত্রিত বা স্বয়ংচালিত আকাশযান ড্রোন নিয়ে নিরাপত্তা ঝুঁকির বিষয়টিও সামনে এসেছে। অনেক দেশেই ড্রোন লাইসেন্স নেয়া বাধ্যতামূলক করা হয়েছে।

এমন পরিস্থিতিতে যুদ্ধে ঘাতক রোবট ব্যবহারের নৈতিকতা নিয়ে প্রশ্ন ওঠাই স্বাভাবিক। কারণ ঘাতক রোবটের হাতে অস্ত্র তুলে দিয়ে সামরিক সদস্যরা সম্মুখ সমরের প্রাণহানি বা তি এড়াতে পারলেও মানবজাতি হুমকির মুখে পড়বে। কিলার রোবটকে কিছু নির্দেশনা দিয়ে শত্রুস্থাপনায় ছেড়ে দিলেও নিশ্চিন্ত থাকা যাবে না। কারণ স্বয়ংক্রিয় অস্ত্র কিলার রোবট কোনো শত্রুকে হত্যা করবে কি না নিজেই সে সিদ্ধান্ত নিতে পারবে। লড়াইয়ে বা যুদ্ধক্ষেত্রে এই স্বয়ংক্রিয় যন্ত্রটি কিভাবে নিজেই হত্যার মতো সিদ্ধান্ত নেবে বা কিভাবে সামরিক ও বেসামরিক ল্য চিনবে তা পরিষ্কার নয়। কিলার রোবট ব্যাপক হত্যাযজ্ঞ বা গণহত্যার মতো কোনো ঘটনা ঘটিয়ে ফেললে তার দায়িত্ব কে নেবে? এলএডব্লিউএস বা স্বয়ংক্রিয় প্রাণঘাতী অস্ত্র রোবটের প্রভাব মোটেই ইতিবাচক হবে না। আমরা জানি, মানুষকে অন্ধ করার মতাসম্পন্ন লেজার অস্ত্র উন্নত করা নিষিদ্ধ করা হয়েছিল ১৯৯৫ সালে জাতিসঙ্ঘের অস্ত্রবিষয়ক কনভেশনে। এখন নতুন আন্তর্জাতিক আইনের মাধ্যমে কিলার রোবটের ব্যবহার নিষিদ্ধ চাওয়াটা তাই মোটেই নতুন ধরনের ঘটনা নয়।

এ ধরনের এলএডব্লিউএস বা কিলার রোবট তৈরি, সামরিক বাহিনীতে সরবরাহ ও তা দিয়ে সামরিক অভিযান পরিচালনা করা হলে, মানবাধিকার বিপন্ন হবে, জবাবদিহিতা না থাকায় অপব্যবহার বাড়বে, ভবিষ্যৎ অপরাধ রোধের পথ বন্ধ হবে, হামলার শিকার ব্যক্তিরাও পাবে না কোনো তিপূরণ, দায়ীদের জন্য সামাজিক নিন্দার পথ রুদ্ধ হবে, আন্তর্জাতিক রাজনৈতিক অঙ্গনে বিশাল প্রভাব ফেলবে। বিপজ্জনক এলাকায় কোনো মানুষের সাহায্য ছাড়াই এসব যন্ত্র যেভাবে ল্য নির্ধারণ ও হামলা করতে সমর্থ হচ্ছে তাতে তারা হয়তো রিমোট-কন্ট্রোলড ড্রোনকেও পেছনে ফেলবে। এই স্বয়ংক্রিয় যোদ্ধার অপরাধ ও বেআইনি কাজ করার শক্তি রয়েছে কিন্তু সেজন্য কাউকে দায়ী করা যাবে না। অনেক সময় এমন হতে পারে যে রোবটের কমান্ডার জানেন যে, এটি বেআইনি কাজ করবে এবং যদি যোগাযোগব্যবস্থা বিকল হয়ে তাহলে সে এটিকে রুখতে পারবে না। ফলে রোবট সৈন্য যুদ্ধাপরাধ সংঘটিত করলেও তার কমান্ডারের বিচারকে ফাঁকি দিতে সফটওয়্যারের কিংবা নির্মাণপদ্ধতির দোহাই দিয়ে পার পেয়ে যাবে।

যুদ্ধক্ষেত্রে কোনো সৈনিক যদি ইচ্ছাকতভাবে তার রোবট সেনাকে নির্দেশ দিয়ে কোনো হত্যাকাণ্ড ঘটায় তাহলে তার দায়ভার সেই সৈনিককেই বহন করতে হবে। কিন্তু কোনো মানুষের সংশ্লিষ্টতা ছাড়াই কোনো রোবট সৈনিক যদি একাকী একই কাজ করে তাহলে তার দায়িত্ব সে নেবে না। এ কারণে কাউকে বিচারের সম্মুখীন করা সম্ভব হবে না। ফলে এসব নতুন ধরনের বিপদ এড়াতে বিশ্বের শান্তিপ্রিয় মানুষ চায়, অস্ত্রশস্ত্র পরিচালনায় কৃত্রিম বুদ্ধিমত্তার ব্যবহার বন্ধ হোক, দ্রুততার সাথে সম্পর্ণভাবে সশস্ত্র স্বয়ংক্রিয় যোদ্ধা বা রোবট সৈন্য নির্মাণ পুরোপুরি নিষিদ্ধ করা হোক।

 

দেখুন:

আরো সংবাদ



premium cement
গাজা ইস্যুতে ইউরোপের নীতির সমালোচনায় অ্যামনেস্টি রানা প্লাজা ধসের ১১ বছর গাজা যুদ্ধ নিয়ে প্রতিবাদ : নিউইয়র্ক বিশ্ববিদ্যালয় থেকে ১৩৩ জন গ্রেফতার বিপজ্জনক মাত্রার অতিবেগুনি রশ্মির ক্ষতি থেকে বাঁচবেন কিভাবে বিয়ের বাজার শেষে বাড়ি ফেরা হলো না চাচা-ভাতিজির প্রধানমন্ত্রী আজ থাইল্যান্ড সফরে যাচ্ছেন ভারতীয় ৩ সংস্থার মশলায় ক্যান্সার সৃষ্টিকারী উপাদান সাবেক শিবির নেতা সুমনের পিতার মৃত্যুতে অধ্যাপক মিয়া গোলাম পরওয়ারের শোক গণকবরে লাশ খুঁজছেন শত শত ফিলিস্তিনি মা ভারতের লোকসভা নির্বাচনে আলোচনায় নেতাদের ভাই-বোন ও সন্তান সংখ্যা চীনে শতাব্দীর ভয়াবহ বন্যার শঙ্কা, ঝুঁকিতে ১৩ কোটি মানুষ

সকল