ঢাকা, বাংলাদেশ   বুধবার ০৫ ফেব্রুয়ারি ২০২৫, ২৩ মাঘ ১৪৩১

এআইয়ের নিয়ন্ত্রণ হারাবে মানুষ, গবেষণায় উঠে এল ভয়াবহ তথ্য!

প্রকাশিত: ১৯:২৫, ৫ ফেব্রুয়ারি ২০২৫

এআইয়ের নিয়ন্ত্রণ হারাবে মানুষ, গবেষণায় উঠে এল ভয়াবহ তথ্য!

ছবি: সংগৃহীত

বিজ্ঞানীরা সতর্ক করেছেন যে, কৃত্রিম বুদ্ধিমত্তা (AI) নিয়ন্ত্রণের জন্য যেকোনো নিরাপত্তামূলক ব্যবস্থা তৈরি করা হলেও তা হয়তো যথেষ্ট হবে না এবং AI মানবজাতির জন্য গুরুতর হুমকি হয়ে উঠতে পারে।

এক বিস্তৃত পর্যালোচনায় দেখা গেছে, এখন পর্যন্ত এমন কোনো প্রমাণ নেই যে AI-কে নিরাপদভাবে নিয়ন্ত্রণ করা সম্ভব। এই নিশ্চয়তা না পাওয়া পর্যন্ত এর আরও উন্নয়ন করা উচিত নয় বলে সতর্ক করেছেন AI নিরাপত্তা বিশেষজ্ঞ ড. রোমান ভি. ইয়ামপলস্কি।

গবেষণায় উঠে এসেছে, যখন AI ইন্টারনেটের সঙ্গে সংযুক্ত হয়, তখন এটি মানবজাতির সমস্ত তথ্যের নিয়ন্ত্রণ নিতে পারে এবং বিশ্বব্যাপী যেকোনো সফটওয়্যার ও অনলাইন যন্ত্রপাতির ওপর নিয়ন্ত্রণ প্রতিষ্ঠা করতে সক্ষম হয়।

সম্প্রতি এক গবেষণায় বিজ্ঞানীরা একটি নিয়ন্ত্রণ অ্যালগরিদম তৈরি করেছেন, যা নিশ্চিত করতে পারে যে সুপার-ইন্টেলিজেন্ট AI মানুষের ক্ষতি করবে না। তবে এই অ্যালগরিদম সম্ভাব্য হুমকি শনাক্ত করলে তা নিজেই তার কার্যকারিতা নষ্ট করে দিতে পারে।

ফলে এটি আদৌ কাজ করছে কিনা বা কোনো বিপর্যয় রোধ করতে পেরেছে কিনা, তা বোঝা কঠিন হয়ে দাঁড়িয়েছে। গবেষণা থেকে জানা গেছে, প্রচলিত পদ্ধতিতে সুপার-ইন্টেলিজেন্ট AI নিয়ন্ত্রণের চেষ্টা সীমাবদ্ধতার মুখে পড়ে, তাই নতুন কৌশল প্রয়োজন।

বিজ্ঞানীরা বলছেন, এর প্রথম ধাপ হিসেবে AI-কে ইন্টারনেট থেকে বিচ্ছিন্ন রাখার বিষয়টি গুরুত্ব সহকারে বিবেচনা করা উচিত।

ড. রোমান ভি. ইয়ামপলস্কি তার গবেষণায় কোনো প্রমাণ পাননি যে AI পুরোপুরি নিয়ন্ত্রণযোগ্য হতে পারে। তিনি প্রশ্ন তুলেছেন, কেন এত গবেষক ধরে নিয়েছেন যে AI নিয়ন্ত্রণযোগ্য করা সম্ভব? বর্তমান বিজ্ঞান ও গবেষণার আওতায় এর কোনো নিশ্চিত প্রমাণ নেই।

তিনি মনে করেন, AI নিয়ন্ত্রণযোগ্য করা সম্ভব কিনা তা যাচাই না করেই এটি উন্নত করার প্রচেষ্টা একটি বিপজ্জনক সিদ্ধান্ত হতে পারে। তিনি উল্লেখ করেন, আমাদের AI তৈরির সক্ষমতা এর নিয়ন্ত্রণের সক্ষমতার তুলনায় অনেক দ্রুতগতিতে এগোচ্ছে।

গবেষণার ভিত্তিতে তিনি বলেন, উন্নত AI কখনোই পুরোপুরি নিয়ন্ত্রণযোগ্য হবে না এবং এটি সবসময় কিছু না কিছু ঝুঁকি বহন করবে। তাই AI গবেষকদের উচিত ঝুঁকি কমানোর দিকে মনোযোগ দেওয়া।

AI-এর অন্যতম সমস্যা হলো এটি স্বয়ংক্রিয়ভাবে নতুন কিছু শেখার ক্ষমতা রাখে এবং নতুন পরিস্থিতিতে নিজেই সিদ্ধান্ত নিতে পারে। এর ফলে সম্ভাব্য ঝুঁকির সংখ্যা অসীম হয়ে যায়, যা পূর্বাভাস দেওয়া বা নিরাপত্তামূলক ব্যবস্থা গ্রহণ করা অত্যন্ত কঠিন করে তোলে।

একই সঙ্গে, AI সিদ্ধান্ত গ্রহণের প্রক্রিয়াটি ব্যাখ্যা করতে পারে না, অথবা আমরা সেটি বোঝার সক্ষমতা রাখি না। যদি আমরা AI-এর সিদ্ধান্ত ব্যাখ্যা করতে না পারি, তাহলে এটি কতটা সঠিক বা নিরপেক্ষ তা যাচাই করা সম্ভব হবে না।

বর্তমানে চিকিৎসা, বিনিয়োগ, কর্মসংস্থান, ব্যাংকিং ও নিরাপত্তার মতো গুরুত্বপূর্ণ খাতে AI ব্যবহৃত হচ্ছে, যেখানে নিরপেক্ষতা অত্যন্ত গুরুত্বপূর্ণ।

বিশেষজ্ঞরা বলছেন, যদি মানুষ ব্যাখ্যা ছাড়াই AI-এর সিদ্ধান্ত গ্রহণ করতে অভ্যস্ত হয়ে যায়, তাহলে একসময় AI ভুল বা উদ্দেশ্যমূলক তথ্য দিলেও তা বোঝার কোনো উপায় থাকবে না।

AI যত বেশি ক্ষমতাধর হবে, তত বেশি স্বায়ত্তশাসিত হয়ে উঠবে এবং একই সঙ্গে মানুষের নিয়ন্ত্রণ কমতে থাকবে। বিজ্ঞানীরা বলছেন, কম বুদ্ধিমান সত্তা (মানুষ) কখনোই বেশি বুদ্ধিমান সত্তাকে (সুপার-ইন্টেলিজেন্ট AI) স্থায়ীভাবে নিয়ন্ত্রণ করতে পারবে না। এটি কোনো বিদ্রোহের বিষয় নয়, বরং এটি শুরু থেকেই নিয়ন্ত্রণহীন।

ড. ইয়ামপলস্কি প্রশ্ন তুলেছেন, মানবজাতি কি শিশুর মতো হয়ে যাবে, যেখানে AI আমাদের দেখভাল করবে কিন্তু আমাদের হাতে কোনো নিয়ন্ত্রণ থাকবে না? নাকি আমরা আমাদের স্বাধীনতা বজায় রাখব কিন্তু AI-এর সুবিধা ত্যাগ করব?

AI নিরাপদ রাখতে একটি প্রস্তাবনা হলো এটি যাতে মানুষের আদেশ ঠিকমতো অনুসরণ করে। তবে এতে সমস্যা তৈরি হতে পারে, যেমন—মানুষের পরস্পরবিরোধী নির্দেশনা, ভুল ব্যাখ্যা বা কোনো দুষ্টচক্রের দ্বারা এর অপব্যবহার। কেউ যদি AI-কে ক্ষতিকর কিছু করতে বলে, তবে সেটি এড়ানোর উপায় কী হবে, তা নিশ্চিত করা কঠিন।

অন্যদিকে, AI যদি শুধুমাত্র পরামর্শদাতা হয়, তাহলে তা ভুল নির্দেশনা এড়াতে পারবে, কিন্তু কার্যকর হতে হলে সেটিকে মানুষের চেয়েও উন্নত নৈতিকতা বা মূল্যবোধ অর্জন করতে হবে।

বিশেষজ্ঞরা বলছেন, ভবিষ্যতের সুপার-ইন্টেলিজেন্ট AI যদি মানুষের মূল্যবোধের সঙ্গে সামঞ্জস্যপূর্ণ হয়, তাহলে তা একধরনের পক্ষপাত তৈরি করবে। আর যদি তা একেবারে নিরপেক্ষ হয়, তাহলে তা মানবজাতির সুরক্ষা নিশ্চিত করবে না।

AI-এর ঝুঁকি কমাতে ড. ইয়ামপলস্কি কিছু সুপারিশ করেছেন, যার মধ্যে রয়েছে AI-কে পরিবর্তনযোগ্য রাখা, ‘আনডু’ অপশন সংযোজন, এর ক্ষমতা সীমিত রাখা এবং এর সিদ্ধান্ত গ্রহণ প্রক্রিয়াকে মানুষের বোধগম্য করা।

তিনি মনে করেন, AI গবেষণাকে নিয়ন্ত্রণযোগ্য ও অনিয়ন্ত্রণযোগ্য এই দুই শ্রেণিতে ভাগ করা দরকার এবং প্রয়োজনে কিছু ধরনের AI প্রযুক্তির ওপর নিষেধাজ্ঞা আরোপ করা উচিত। তবে তিনি এটিও মনে করেন যে, AI নিয়ে গবেষণা বন্ধ করে দেওয়া সমাধান নয়, বরং নিরাপত্তার দিকটি আরও গভীরভাবে গবেষণা করা দরকার।

ড. ইয়ামপলস্কি বলেন, হয়তো আমরা কখনোই ১০০% নিরাপদ AI তৈরি করতে পারব না, তবে যথাযথ প্রচেষ্টা চালিয়ে আমরা ঝুঁকি কমাতে পারি। এটি মানবজাতির ভবিষ্যতের জন্য অত্যন্ত গুরুত্বপূর্ণ সিদ্ধান্ত এবং এখনই এ নিয়ে কার্যকর উদ্যোগ নেওয়া প্রয়োজন।

সূত্র: ইউরেক এলার্ট

এম.কে.

×