AI in global politics: সাম্প্রতিক ইরান-ইজরায়েল সংঘাত বিশ্বজুড়ে এক নতুন এবং ভয়ঙ্কর আলোচনার জন্ম দিয়েছে। এই উত্তেজনা কেবল দুটি দেশের সামরিক শক্তির প্রদর্শন বা ভূ-রাজনৈতিক কৌশলের মধ্যেই সীমাবদ্ধ নেই, বরং যুদ্ধের পদ্ধতিতে এক নীরব বিপ্লবের ইঙ্গিত দিচ্ছে, যার কেন্দ্রে রয়েছে কৃত্রিম বুদ্ধিমত্তা বা আর্টিফিশিয়াল ইন্টেলিজেন্স (AI)। সামরিক বিশ্লেষক থেকে শুরু করে প্রযুক্তিবিদ এবং নীতি নির্ধারকরা আজ এক জটিল প্রশ্নের মুখোমুখি: আধুনিক যুদ্ধক্ষেত্রে AI-এর ক্রমবর্ধমান ভূমিকা কি মানবতাকে এক অনিয়ন্ত্রিত পারমাণবিক সংঘাতের দিকে ঠেলে দিতে পারে?
আশঙ্কা করা হচ্ছে যে, মানুষের নিয়ন্ত্রণের বাইরে গিয়ে AI যদি কোনোদিন পারমাণবিক অস্ত্র ব্যবহারের সিদ্ধান্ত নিয়ে ফেলে, তবে তার পরিণতি হবে মানব সভ্যতার জন্য বিপর্যয়কর। এই প্রেক্ষাপটে, কৃত্রিম বুদ্ধিমত্তার হাতে পারমাণবিক যুদ্ধের নিয়ন্ত্রণ চলে যাওয়ার সম্ভাবনাটি আর কল্পবিজ্ঞানের বিষয় নয়, বরং এটি এক বাস্তব এবং জরুরি আলোচনার বিষয় হয়ে উঠেছে।
ইরান এবং ইজরায়েলের মধ্যেকার দীর্ঘদিনের ছায়া যুদ্ধ সাম্প্রতিক মাসগুলোতে এক নতুন মাত্রা পেয়েছে। সিরিয়ায় ইরানের কনস্যুলেটে ইজরায়েলি হামলার প্রতিক্রিয়ায় ইরানের পক্ষ থেকে সরাসরি ইজরায়েলের ভূখণ্ড লক্ষ্য করে কয়েকশ ড্রোন ও মিসাইল নিক্ষেপ করা হয়। এর জবাবে ইজরায়েলও পাল্টা হামলা চালায়। এই আক্রমণ ও পাল্টা আক্রমণের ঘটনাপ্রবাহে সবচেয়ে গুরুত্বপূর্ণ দিকটি হলো উভয় পক্ষের দ্বারা অত্যাধুনিক প্রযুক্তির ব্যবহার।
ইজরায়েলের আয়রন ডোম এবং অন্যান্য আকাশ প্রতিরক্ষা ব্যবস্থা যেমন ডেভিড’স স্লিং ও অ্যারো সিস্টেম প্রায় ৯৯ শতাংশ ইরানি ড্রোন ও মিসাইলকে প্রতিহত করতে সক্ষম হয়েছে। এই প্রতিরক্ষা ব্যবস্থাগুলোর সাফল্যের পেছনে রয়েছে অত্যন্ত উন্নত মানের র্যাডার, সেন্সর এবং কৃত্রিম বুদ্ধিমত্তা চালিত অ্যালগরিদম, যা সেকেন্ডের মধ্যে একাধিক লক্ষ্যের গতিপথ বিশ্লেষণ করে সেগুলোকে ধ্বংস করার সিদ্ধান্ত নিতে পারে। অন্যদিকে, ইরানের ড্রোনগুলোও সুনির্দিষ্ট লক্ষ্যবস্তুতে আঘাত হানার জন্য প্রোগ্রাম করা হয়েছিল।
এই ঘটনাই প্রমাণ করে যে, আজকের যুদ্ধক্ষেত্রে জয়-পরাজয়ের অন্যতম নির্ধারক হয়ে উঠছে কৃত্রিম বুদ্ধিমত্তা।
যুদ্ধক্ষেত্রে কৃত্রিম বুদ্ধিমত্তার ব্যবহার এখন আর কোনো নতুন ধারণা নয়। গোয়েন্দা তথ্য সংগ্রহ, নজরদারি, শত্রুর অবস্থান চিহ্নিত করা এবং সাইবার আক্রমণে বহু বছর ধরেই AI ব্যবহৃত হয়ে আসছে। তবে এর প্রয়োগ আরও গভীরে প্রবেশ করেছে, বিশেষ করে ‘টার্গেট রিকগনিশন’ বা লক্ষ্যবস্তু শনাক্তকরণের ক্ষেত্রে।
সংবাদমাধ্যমের রিপোর্ট অনুযায়ী, ইজরায়েলি ডিফেন্স ফোর্সেস (IDF) গাজায় হামাসের বিরুদ্ধে যুদ্ধে ‘ল্যাভেন্ডার’ এবং ‘দ্য গসপেল’-এর মতো AI-ভিত্তিক সিস্টেম ব্যবহার করেছে। অভিযোগ রয়েছে যে, ‘ল্যাভেন্ডার’ নামক সিস্টেমটি হাজার হাজার সন্দেহভাজন হামাস সদস্যকে ন্যূনতম মানবিক পর্যবেক্ষণ ছাড়াই টার্গেট হিসেবে চিহ্নিত করেছে। এই সিস্টেমগুলো বিপুল পরিমাণ ডেটা (যেমন – সোশ্যাল মিডিয়া অ্যাক্টিভিটি, ফোন কল, পরিচিতি) বিশ্লেষণ করে সম্ভাব্য লক্ষ্যবস্তুর তালিকা তৈরি করে। এর ফলে অনেক দ্রুত সিদ্ধান্ত নেওয়া সম্ভব হলেও, ভুলের আশঙ্কা এবং নিরীহ মানুষের জীবনহানির ঝুঁকি বহুগুণে বেড়ে যায়।
এখানেই নৈতিক প্রশ্নটি বড় হয়ে দেখা দেয়: একটি অ্যালগরিদম কি মানুষের জীবন-মৃত্যুর সিদ্ধান্ত নেওয়ার অধিকারী হতে পারে?এই প্রযুক্তিগত অগ্রগতির পরবর্তী এবং সবচেয়ে ভয়ঙ্কর ধাপটি হলো ‘লিথাল অটোনোমাস ওয়েপন সিস্টেমস’ (LAWS), যা জনপ্রিয়ভাবে ‘স্লটারবটস’ বা ‘ঘাতক রোবট’ নামে পরিচিত। এগুলি এমন ধরনের অস্ত্র যা মানুষের হস্তক্ষেপ ছাড়াই স্বাধীনভাবে লক্ষ্যবস্তু খুঁজে বের করতে, শনাক্ত করতে এবং ধ্বংস করতে সক্ষম।
বর্তমানে বিশ্বের ক্ষমতাধর দেশগুলো এই প্রযুক্তি নিয়ে গবেষণা চালাচ্ছে। এর সমর্থকদের যুক্তি হলো, এই সিস্টেমগুলো মানুষের চেয়ে দ্রুত, নির্ভুল এবং আবেগহীনভাবে কাজ করতে পারে, যা যুদ্ধক্ষেত্রে নিজেদের পক্ষে تلفাতের সংখ্যা কমিয়ে আনতে সহায়ক হবে। কিন্তু এর বিপদের দিকটি আরও অনেক বেশি গুরুতর। যদি এই ধরনের স্বশাসিত অস্ত্র ব্যবস্থা কোনো পারমাণবিক শক্তিধর দেশের হাতে চলে আসে এবং সেটিকে পারমাণবিক অস্ত্রের কমান্ড অ্যান্ড কন্ট্রোল সিস্টেমের সাথে যুক্ত করা হয়, তবে পরিস্থিতি মানব নিয়ন্ত্রণের বাইরে চলে যেতে পারে।
পারমাণবিক যুদ্ধের ক্ষেত্রে সবচেয়ে বড় আশঙ্কাটি হলো ‘ফলস পজিটিভ’ বা ভুল তথ্য। ইতিহাসে এমন একাধিক ঘটনা রয়েছে যেখানে প্রযুক্তিগত ত্রুটির কারণে একটি দেশ ভুলবশত ধরে নিয়েছে যে তাদের উপর পারমাণবিক হামলা হতে চলেছে। উদাহরণস্বরূপ, ১৯৮৩ সালের ২৬শে সেপ্টেম্বর, সোভিয়েত ইউনিয়নের আকাশ প্রতিরক্ষা ব্যবস্থার স্যাটেলাইট ভুলবশত পাঁচটি আমেরিকান পারমাণবিক মিসাইল ছোড়ার সংকেত দেয়। সেই সময়ে সোভিয়েত ডিউটি অফিসার স্ট্যানিস্লাভ পেট্রোভ তার উপস্থিত বুদ্ধি এবং অভিজ্ঞতার উপর নির্ভর করে এটিকে একটি সিস্টেমের ত্রুটি হিসেবে চিহ্নিত করেন এবং পাল্টা আক্রমণের প্রক্রিয়া শুরু করেননি।
তার এই সিদ্ধান্তই সেদিন বিশ্বকে একটি সম্ভাব্য পারমাণবিক যুদ্ধ থেকে রক্ষা করেছিল। এখন প্রশ্ন হলো, যদি সেইদিন স্ট্যানিস্লাভ পেট্রোভের জায়গায় একটি AI সিস্টেম থাকত, যা শুধুমাত্র ডেটা এবং পূর্ব-নির্ধারিত প্রোটোকল অনুযায়ী কাজ করে, তবে কি সে একই রকম ‘মানবিক’ সিদ্ধান্ত নিতে পারত? উত্তরটি সম্ভবত ‘না’। একটি AI সিস্টেম হয়তো ডেটাকে চূড়ান্ত বলে ধরে নিয়ে স্বয়ংক্রিয়ভাবে পাল্টা পারমাণবিক হামলা শুরু করার নির্দেশ দিত, যার ফলে কয়েক মিনিটের মধ্যেই বিশ্ব এক ভয়াবহ ধ্বংসযজ্ঞের মুখোমুখি হতো।
বিষয়টি আরও জটিল হয়ে ওঠে যখন ‘ডেড হ্যান্ড’ বা ‘পেরিমিটার’ সিস্টেমের মতো স্বয়ংক্রিয় প্রতিশোধমূলক ব্যবস্থার কথা ভাবা হয়। সোভিয়েত আমলে তৈরি এই সিস্টেমটি এমনভাবে ডিজাইন করা হয়েছিল যে, যদি দেশের নেতৃত্ব পারমাণবিক হামলায় নিশ্চিহ্ন হয়ে যায় এবং যোগাযোগ ব্যবস্থা ভেঙে পড়ে, তবে এটি স্বয়ংক্রিয়ভাবে দেশের সমস্ত পারমাণবিক অস্ত্র শত্রুপক্ষের দিকে ছুড়ে দেবে। এখন যদি এই ধরনের ব্যবস্থাকে কৃত্রিম বুদ্ধিমত্তার মাধ্যমে আরও উন্নত করা হয়, তবে তা আরও বিপজ্জনক হয়ে উঠবে। একটি AI-চালিত ‘ডেড হ্যান্ড’ সিস্টেম সাইবার আক্রমণ বা প্রযুক্তিগত ত্রুটির কারণেও সক্রিয় হয়ে যেতে পারে, যার পরিণতি হবে অকল্পনীয়।
বিশ্বজুড়ে এই বিষয়ে উদ্বেগ বাড়ছে। রাষ্ট্রসংঘ সহ বিভিন্ন আন্তর্জাতিক মঞ্চে স্বশাসিত অস্ত্র ব্যবস্থার নিয়ন্ত্রণের জন্য আলোচনা চলছে। অনেক বিজ্ঞানী, নোবেল বিজয়ী এবং মানবাধিকার কর্মী এই ধরনের অস্ত্রের উপর সম্পূর্ণ নিষেধাজ্ঞার দাবি জানিয়েছেন। তাদের মতে, যেহেতু একটি মেশিন নৈতিকতা, সহানুভূতি বা পরিস্থিতির প্রেক্ষাপট বুঝতে পারে না, তাই তার হাতে জীবন-মৃত্যুর চূড়ান্ত ক্ষমতা দেওয়া উচিত নয়।
কিন্তু এই বিষয়ে কোনো আন্তর্জাতিক ঐক্যমত্যে পৌঁছানো অত্যন্ত কঠিন। কারণ মার্কিন যুক্তরাষ্ট্র, চীন, রাশিয়া এবং ইজরায়েলের মতো দেশগুলো AI প্রযুক্তিতে একে অপরকে ছাড়িয়ে যাওয়ার এক নিরন্তর প্রতিযোগিতায় লিপ্ত। তারা মনে করে, এই প্রযুক্তিগত শ্রেষ্ঠত্বই আগামী দিনের ভূ-রাজনৈতিক ক্ষমতার চাবিকাঠি। ফলে, কেউই এই প্রযুক্তি থেকে পিছিয়ে থাকতে চায় না, যা এক নতুন এবং আরও বিপজ্জনক অস্ত্র প্রতিযোগিতার জন্ম দিয়েছে।
উপসংহারে বলা যায়, ইরান-ইজরায়েল সংঘাত আমাদের চোখে আঙুল দিয়ে দেখিয়ে দিয়েছে যে, যুদ্ধক্ষেত্রের প্রযুক্তিগত চরিত্র দ্রুত বদলে যাচ্ছে এবং কৃত্রিম বুদ্ধিমত্তা সেই পরিবর্তনের প্রধান চালিকাশক্তি। AI একদিকে যেমন সামরিক সক্ষমতা বাড়াতে পারে, তেমনই অন্যদিকে এটি মানব সভ্যতাকে এক অভূতপূর্ব ঝুঁকির মুখে দাঁড় করিয়ে দিয়েছে।
পারমাণবিক অস্ত্রের বোতাম যদি কোনোদিন মানুষের হাত থেকে AI-এর হাতে চলে যায়, তবে একটি ছোট ভুল বা প্রযুক্তিগত ত্রুটিই সমগ্র পৃথিবীকে ধ্বংসের দ্বারপ্রান্তে নিয়ে যেতে পারে। তাই, এই প্রযুক্তির নিয়ন্ত্রণ এবং এর নৈতিক ব্যবহারের জন্য সুস্পষ্ট আন্তর্জাতিক আইন ও প্রোটোকল তৈরি করা এখন সময়ের দাবি। মানবতাকে তার নিজের সৃষ্টির দাস হওয়া থেকে রক্ষা করার দায়িত্ব মানুষেরই। এই প্রযুক্তির লাগাম টেনে ধরার সময় এখনই, নতুবা ভবিষ্যৎ প্রজন্ম হয়তো আমাদের এই ভুলের ক্ষমা করবে না।