ঢাকা, বাংলাদেশ   শুক্রবার ১৪ মার্চ ২০২৫, ৩০ ফাল্গুন ১৪৩১

এআই মডেল

প্রশিক্ষণে সমস্যা

লামিয়া ইসরাত

প্রকাশিত: ১৯:৩৬, ১৪ মার্চ ২০২৫

প্রশিক্ষণে সমস্যা

কৃত্রিম বুদ্ধিমত্তা (এআই) ও মেশিন লার্নিং (এমএল) প্রযুক্তি আজকের বিশ্বে বিপ্লব ঘটাচ্ছে। এআই হলো এমন একটি প্রযুক্তি যা কম্পিউটারকে মানুষের মতো চিন্তা করতে শেখায়, আর এমএল হলো তার একটি শাখা, যেখানে কম্পিউটার স্বয়ংক্রিয়ভাবে ডাটা থেকে শিখে সিদ্ধান্ত নিতে পারে। কখনো কি এমন হয়েছে যে আপনি একটি মেশিন লার্নিং মডেল তৈরি করেছেনÑ যা প্রশিক্ষণ ডাটায় দারুণ কাজ করেছিল, কিন্তু বাস্তব জগতে তা ব্যর্থ হয়েছে? যদি হ্যাঁ, তাহলে আপনি একা নন। মেশিন লার্নিং একটি জটিল প্রক্রিয়া এবং এখানে ছোট ছোট ভুলও বড় সমস্যা তৈরি করতে পারে।

ভুল ডাটা, ভুল সিদ্ধান্ত
মেশিন লার্নিংয়ের পুরো ভিত্তি ডাটার ওপর নির্ভরশীল। কিন্তু যদি ডাটাই ভুল বা বিভ্রান্তিকর হয়, তাহলে যে মডেল তৈরি হবে তা কার্যত অকার্যকর হবে। কোভিড-১৯ মহামারির সময় এমন অসংখ্য মডেল তৈরি হয়েছিল, যা পরে দেখা গেছে সঠিকভাবে কাজ করে না। এ ধরনের মডেলের ব্যর্থতার অন্যতম কারণ হলো ‘গার্বেজ ইন, গার্বেজ আউট’Ñঅর্থাৎ, ভুল ডাটা দিলে ভুল ফলাফল আসবেই। অনেক সময় ডাটার মধ্যে লুকানো ভেরিয়েবল বা পরিবর্তিত চিহ্ন থাকে যা মডেলকে ভুল পথে পরিচালিত করে। উদাহরণস্বরূপ, কোভিড-১৯ চেস্ট ইমেজিং ডাটাসেটে দেখা গেছে যে যেসব রোগী বেশি অসুস্থ ছিলেন, তাদের স্ক্যান সাধারণত শোয়া অবস্থায় করা হয়েছে, আর সুস্থ রোগীদের স্ক্যান করা হয়েছে দাঁড়িয়ে। ফলে মডেলটি রোগ নির্ণয়ের পরিবর্তে শুধুমাত্র স্ক্যানিং অবস্থান শনাক্ত করতে শিখেছে।

সম্পর্ক ও সংকেত
অনেক সময় মডেল এমন কিছু বিষয়ের ওপর নির্ভর করে যা আসল সমস্যার সঙ্গে সম্পর্কহীন। যেমন মার্কিন সেনাবাহিনী একবার একটি মডেল তৈরি করেছিল যাতে ট্যাংকের ছবি শনাক্ত করা যাবে। কিন্তু পরে দেখা গেল যে মডেলটি ট্যাংকের পরিবর্তে ছবির আলোর অবস্থানের ভিত্তিতে কাজ করছে। এতে দিনের সময় পরিবর্তন হলে মডেল পুরোপুরি ব্যর্থ হয়। এ ধরনের সমস্যা সমাধানের জন্য বিভিন্ন পদ্ধতি অনুসরণ করা যায়। একটি পদ্ধতি হলো এক্সপ্লেইনেবল, যা দেখায় যে মডেল কোন অংশ দেখে সিদ্ধান্ত নিচ্ছে। যদি দেখা যায় মডেল প্রধান বস্তু বাদ দিয়ে ব্যাকগ্রাউন্ডের দিকে বেশি মনোযোগ দিচ্ছে, তবে সেটি কার্যকর মডেল নয়।

তথ্য ফাঁস ও পরীক্ষার ভুল
মেশিন লার্নিং মডেলের আরেকটি বড় সমস্যা হলো ‘ডাটা লিকেজ’ বা তথ্য ফাঁস। অর্থাৎ মডেল প্রশিক্ষণের সময় এমন কিছু তথ্য পেয়ে যায়, যা বাস্তবে পাওয়ার কথা নয়। এটি তখন ঘটে যখন মডেল প্রশিক্ষণের আগে পুরো ডাটাসেটের কিছু বৈশিষ্ট্য জেনে ফেলে। উদাহরণস্বরূপ, অনেক সময় ডাটা আগেই স্বাভাবিককরণ করা হয়, যা মডেলকে ভবিষ্যতের তথ্য সম্পর্কে ধারণা দিতে পারে। এ ধরনের সমস্যা দেখা যায় শেয়ার বাজার পূর্বাভাস মডেলে, যেখানে অতীতের তথ্য বিশ্লেষণ করে ভবিষ্যৎ অনুমান করার চেষ্টা করা হয়। যদি মডেল অনিচ্ছাকৃতভাবে ভবিষ্যতের ডাটা পেয়ে যায়, তাহলে তার পূর্বাভাস অস্বাভাবিকভাবে ভালো হতে পারে। কিন্তু বাস্তবে, নতুন পরিস্থিতিতে এটি ব্যর্থ হবে।

মূল্যায়ন প্রক্রিয়ার সীমাবদ্ধতা
একটি মডেল মূল্যায়নের ক্ষেত্রে ভুল মেট্রিক ব্যবহার করাও বড় সমস্যা হতে পারে। অনেক ক্ষেত্রেই শুধুমাত্র ‘সঠিকতার হার’ দেখে সিদ্ধান্ত নেওয়া হয়, যা বিভ্রান্তিকর হতে পারে। উদাহরণস্বরূপ, যদি একটি মডেল কেবলমাত্র সংখ্যাগরিষ্ঠ শ্রেণির ভবিষ্যদ্বাণী করে, তাহলে তার সঠিকতার হার বেশি হতে পারে, কিন্তু এটি কার্যকর নয়। বিশেষ করে, সময়-সারণির ভবিষ্যদ্বাণী মডেলগুলোর ক্ষেত্রে ভুল মেট্রিক ব্যবহার করলে বড় ধরনের সমস্যা হতে পারে। গবেষণায় দেখা গেছে, অনেক জটিল মডেল আসলে একেবারেই সাধারণ মডেলের তুলনায় ভালো কাজ করে না। তাই মডেল মূল্যায়নের জন্য একাধিক মেট্রিক ব্যবহার করাই বুদ্ধিমানের কাজ।

ভুলগুলি এড়াতে হলে
এ ধরনের সমস্যা এড়ানোর জন্য গবেষকরা এখন ‘রিফর্মস চেকলিস্ট’ নামক একটি নির্দেশিকা অনুসরণ করছেন। এটি নিশ্চিত করে যে মডেল প্রশিক্ষণের প্রতিটি ধাপ যথাযথভাবে সম্পন্ন হয়েছে এবং কোনো গুরুত্বপূর্ণ ভুল নেই। এছাড়াও উন্নত ট্র্যাকিং ও যাচাই প্রযুক্তি ব্যবহার করে ডাটা লিকেজ এবং ওভারফিটিং কমানো সম্ভব। মেশিন লার্নিং মডেল তৈরি করার সময় অতিরিক্ত আত্মবিশ্বাস না রেখে বরং ভুল হতে পারে সেই মানসিকতা নিয়ে মডেলের পারফরম্যান্স বিশ্লেষণ করা উচিত। প্রতিটি সিদ্ধান্ত এবং তথ্য উৎস যাচাই করা জরুরি। কারণ ভুল একটি মডেল কেবল গবেষণার জন্যই নয়, বরং বাস্তব জীবনের গুরুত্বপূর্ণ সিদ্ধান্তেও বড় ধরনের সমস্যা তৈরি করতে পারে।

×