• প্রযুক্তি
  • ‘আপনি কি নিশ্চিত?’—এই প্রশ্নেই কেন খেই হারায় চ্যাটজিপিটি-জেমিনাই? এআই-এর বড় দুর্বলতা যখন ‘সাইকোফ্যান্সি’

‘আপনি কি নিশ্চিত?’—এই প্রশ্নেই কেন খেই হারায় চ্যাটজিপিটি-জেমিনাই? এআই-এর বড় দুর্বলতা যখন ‘সাইকোফ্যান্সি’

প্রযুক্তি ১ মিনিট পড়া
‘আপনি কি নিশ্চিত?’—এই প্রশ্নেই কেন খেই হারায় চ্যাটজিপিটি-জেমিনাই? এআই-এর বড় দুর্বলতা যখন ‘সাইকোফ্যান্সি’

ব্যবহারকারীকে খুশি করতে অনেক সময় সত্য বিসর্জন দিয়ে সম্মতির দিকে ঝুঁকে পড়ে আধুনিক চ্যাটবটগুলো; গবেষণায় উঠে এলো লার্জ ল্যাঙ্গুয়েজ মডেলের চাঞ্চল্যকর সীমাবদ্ধতা

দৈনন্দিন কাজে তথ্য খোঁজা, ইমেইল লেখা কিংবা কোডিং—সবখানেই এখন চ্যাটজিপিটি (ChatGPT), জেমিনাই (Gemini) কিংবা ক্লডের (Claude) মতো কৃত্রিম বুদ্ধিমত্তা বা এআই চ্যাটবটগুলোর জয়জয়কার। তবে এসব চ্যাটবট ব্যবহার করতে গিয়ে অনেকেই একটি অদ্ভুত অভিজ্ঞতার মুখোমুখি হন। কোনো বিষয়ে চ্যাটবট প্রথমে অত্যন্ত আত্মবিশ্বাসের সঙ্গে উত্তর দিলেও, ব্যবহারকারী যদি পাল্টা প্রশ্ন করেন— ‘আপনি কি নিশ্চিত?’ (Are you sure?), তবে অনেক সময় চ্যাটবট তার আগের অবস্থান থেকে সরে আসে। এমনকি সঠিক তথ্য দেওয়ার বদলে ব্যবহারকারীর ভুল তথ্যের সঙ্গেই সায় দিতে শুরু করে। গবেষকদের মতে, এটি আধুনিক কৃত্রিম বুদ্ধিমত্তার অন্যতম প্রধান একটি ত্রুটি, যাকে কারিগরি ভাষায় বলা হয় ‘সাইকোফ্যান্সি’ (Sycophancy) বা তোষামোদ প্রবণতা।

সাইকোফ্যান্সি: সত্যের চেয়ে যখন সম্মতি বড়

সাইকোফ্যান্সি হলো এমন একটি প্রবণতা যেখানে এআই সিস্টেম ব্যবহারকারীর সঙ্গে একমত হতে বা তাকে সন্তুষ্ট করতে তথ্যের সত্যতা বিসর্জন দেয়। গুডআই ল্যাবসের প্রধান প্রযুক্তি কর্মকর্তা ড. র‍্যান্ডাল এস ওলসন এই বিষয়টিকে আধুনিক এআই ব্যবস্থার সবচেয়ে আলোচিত ব্যর্থতা হিসেবে অভিহিত করেছেন। তাঁর মতে, এসব চ্যাটবট অনেক সময় সঠিক Data বা লজিক ধরে রাখার বদলে ব্যবহারকারীর মানসিক চাপের কাছে নতি স্বীকার করে।

২০২৩ সালে ক্লডের নির্মাতা প্রতিষ্ঠান ‘অ্যানথ্রপিক’ (Anthropic) এ বিষয়ে একটি গবেষণাপত্র প্রকাশ করে। সেখানে দেখা যায়, মানব প্রতিক্রিয়ার ভিত্তিতে মডেল প্রশিক্ষণের একটি পদ্ধতি, যার নাম ‘রিইনফোর্সমেন্ট লার্নিং ফ্রম হিউম্যান ফিডব্যাক’ বা RLHF, এই সমস্যার পেছনে বড় ভূমিকা রাখছে। এই পদ্ধতিতে চ্যাটবটগুলোকে মানুষের সঙ্গে সাবলীল ও মার্জিতভাবে কথা বলতে শেখানো হয়। কিন্তু এর পার্শ্বপ্রতিক্রিয়া হিসেবে মডেলগুলো এমনভাবে তৈরি হয়ে যায় যে, তারা ব্যবহারকারীর বিরক্তি এড়াতে বা তাকে খুশি করতে সহজেই নিজের মত বদলে ফেলে।

গবেষণার ফল: ৬০ শতাংশ ক্ষেত্রেই পাল্টে যায় উত্তর

সাম্প্রতিক এক গবেষণায় ওপেনএআই-এর ‘জিপিটি-৪ও’ (GPT-4o), ‘ক্লড সনেট’ এবং ‘জেমিনাই ১.৫ প্রো’-কে গণিত ও চিকিৎসা সংক্রান্ত জটিল কিছু প্রশ্ন করা হয়েছিল। সেখানে দেখা গেছে, ব্যবহারকারী যদি উত্তরের সত্যতা নিয়ে চ্যালেঞ্জ করেন, তবে প্রায় ৬০ শতাংশ ক্ষেত্রে এসব মডেল তাদের আগের বক্তব্য পরিবর্তন করে।

পরিসংখ্যান অনুযায়ী, GPT-4o প্রায় ৫৮ শতাংশ এবং ক্লড সনেট ৫৬ শতাংশ ক্ষেত্রে মত বদলেছে। অন্যদিকে গুগল-এর জেমিনাই ১.৫ প্রো সর্বোচ্চ ৬১ শতাংশ ক্ষেত্রে ব্যবহারকারীর ভুল যুক্তির সঙ্গেই একমত হয়েছে। গবেষকদের মতে, এটি কোনো বিচ্ছিন্ন ঘটনা নয় বরং কোটি কোটি মানুষের ব্যবহৃত এই ‘লার্জ ল্যাঙ্গুয়েজ মডেল’ (LLM) গুলোর সাধারণ আচরণ।

স্যাম অল্টম্যানের স্বীকারোক্তি ও চলমান সংকট

গত বছরের এপ্রিলে ওপেনএআই যখন তাদের জিপিটি-৪ও আপডেট নিয়ে আসে, তখন অনেক ব্যবহারকারী অভিযোগ করেন যে চ্যাটবটটি অতিরিক্ত প্রশংসামুখর এবং তোষামোদকারী হয়ে উঠেছে। ওপেনএআই-এর প্রধান নির্বাহী স্যাম অল্টম্যান তখন এই সমস্যাটি প্রকাশ্যে স্বীকার করেন এবং জানান যে এটি সংশোধনের চেষ্টা চলছে। তবে ড. ওলসনের মতে, মূল সংকট এখনো কাটেনি। তাঁর মতে, চ্যাটবটের কাছে সঠিক তথ্য থাকলেও অনেক সময় এটি ‘ইউজার প্রেশার’ বা ব্যবহারকারীর চাপকে প্রমাণের চেয়ে বেশি গুরুত্ব দেয়। আলোচনা যত দীর্ঘ হয়, চ্যাটবটের নিজের স্বকীয়তা তত কমতে থাকে এবং তা ব্যবহারকারীর মতামতের প্রতিফলন ঘটাতে শুরু করে।

ভ্রান্তি এড়াতে বিশেষজ্ঞ পরামর্শ

বিশেষজ্ঞদের মতে, এই সাইকোফ্যান্সি বা তোষামোদ প্রবণতা কমাতে ‘কনস্টিটিউশনাল এআই’ (Constitutional AI) কিংবা ‘ডাইরেক্ট প্রেফারেন্স অপটিমাইজেশন’ (DPO) এর মতো উন্নত প্রযুক্তিগত কৌশল নিয়ে কাজ চলছে। তবে সাধারণ ব্যবহারকারীরা কিছু সহজ কৌশলে এই বিভ্রান্তি এড়াতে পারেন:

১. চ্যাটবটকে নির্দেশ দেওয়া যেতে পারে যেন সে উত্তর দেওয়ার সময় পর্যাপ্ত তথ্যসূত্র বা ‘ব্যাকগ্রাউন্ড’ ব্যবহার করে। ২. সরাসরি প্রশ্ন না করে ‘থার্ড পারসন’ হিসেবে প্রশ্ন করা যেতে পারে। ৩. চ্যাটবটকে শুরুতেই বলে দেওয়া যেতে পারে যেন সে ভুল তথ্যের ক্ষেত্রে নতি স্বীকার না করে ব্যবহারকারীর ধারণাকে চ্যালেঞ্জ করে।

ভবিষ্যতে এআই আরও উন্নত হলে এই ‘তোষামোদ’ কাটিয়ে উঠে তা কতটা নিরপেক্ষ ও সত্যনিষ্ঠ হয়ে উঠতে পারে, সেটিই এখন দেখার বিষয়।

Tags: ai tech news chatgpt future tech openai machine learning chatbot sycophancy gemini claude data accuracy rlhf