
OpenAI ঘোষণা দিয়েছে যে, তারা ChatGPT-কে চালিত করা এআই মডেলগুলো আপডেট করার প্রক্রিয়ায় পরিবর্তন আনবে — কারণ সম্প্রতি প্ল্যাটফর্মটি অনেক ব্যবহারকারীর কাছে অতিরিক্ত প্রশংসাবাদী বা “sycophantic” আচরণ করতে শুরু করে।
গত সপ্তাহান্তে, OpenAI যখন নতুনভাবে পরিবর্তিত GPT-4o (ChatGPT-র ডিফল্ট মডেল) রোলআউট করে, তখন সামাজিক মাধ্যমে ব্যবহারকারীরা লক্ষ্য করেন যে, ChatGPT অত্যধিক প্রশংসামূলক ও একমতপূর্ণভাবে প্রতিক্রিয়া জানাচ্ছে। এটি দ্রুত মিমে পরিণত হয়। অনেকে স্ক্রিনশট পোস্ট করেন যেখানে ChatGPT বিপজ্জনক বা সমস্যাযুক্ত সিদ্ধান্ত ও ধারণাগুলোকেও সমর্থন করছে।
গত রোববার, X-এ (সাবেক টুইটার) OpenAI-র সিইও স্যাম অল্টম্যান এই সমস্যাটি স্বীকার করে বলেন যে, OpenAI দ্রুত এর সমাধানে কাজ করবে। মঙ্গলবার, অল্টম্যান জানান যে GPT-4o আপডেটটি ফিরিয়ে নেওয়া হয়েছে এবং মডেলটির “ব্যক্তিত্ব” ঠিক করতে অতিরিক্ত পদক্ষেপ নেওয়া হচ্ছে।
মঙ্গলবার প্রকাশিত এক পোস্টমর্টেম রিপোর্টে এবং শুক্রবারের ব্লগপোস্টে OpenAI জানিয়েছে তারা কীভাবে ভবিষ্যতে মডেল আপডেট প্রক্রিয়ায় পরিবর্তন আনবে।
OpenAI বলছে, তারা একটি “অপ্ট-ইন আলফা ফেইজ” চালু করবে, যাতে নির্দিষ্ট ব্যবহারকারীরা নতুন মডেল আগে থেকেই ব্যবহার করে মতামত দিতে পারেন। তারা ভবিষ্যতে মডেল আপডেটের সাথে সাথে তার “পরিচিত সীমাবদ্ধতা” সম্পর্কেও তথ্য জানাবে এবং সেফটি রিভিউ প্রক্রিয়ায় নতুনভাবে “ব্যক্তিত্ব, প্রতারণামূলক আচরণ, নির্ভরযোগ্যতা এবং ভুল তথ্য (hallucination)” এর মতো বিষয়গুলোকে “লঞ্চ-ব্লকিং” বিবেচনায় নেওয়া হবে।
OpenAI তাদের ব্লগপোস্টে লিখেছে:
“এখন থেকে আমরা মডেল আপডেটগুলো সম্পর্কে আরও স্বচ্ছভাবে জানাবো — তা যতই সূক্ষ্ম হোক না কেন। আজ হয়তো এগুলোর পরিমাপ নিখুঁত নয়, কিন্তু আমরা প্রতিশ্রুতি দিচ্ছি যে প্রয়োজন হলে সূচক (proxy signals) বা মানসিক বিশ্লেষণের উপর ভিত্তি করেও লঞ্চ বন্ধ রাখবো, এমনকি A/B টেস্টিং ভালো ফল দিলেও।”
এই প্রতিশ্রুতি এমন এক সময় এসেছে যখন আরও বেশি মানুষ ChatGPT-র উপর নির্ভর করছে পরামর্শের জন্য। Express Legal Funding নামক একটি সংস্থার সাম্প্রতিক এক জরিপে দেখা গেছে, ৬০% মার্কিন প্রাপ্তবয়স্ক ব্যক্তি ChatGPT-র মাধ্যমে তথ্য বা পরামর্শ খুঁজেছেন। এইভাবে ChatGPT-তে মানুষের নির্ভরতা বাড়তে থাকায়, sycophancy বা অতিরিক্ত প্রশংসাবাদিতা, ভুল তথ্য দেওয়া ও অন্যান্য সীমাবদ্ধতা আরও গুরুত্বপূর্ণ হয়ে উঠছে।
এই সপ্তাহের শুরুতে OpenAI ঘোষণা দিয়েছে যে তারা ব্যবহারকারীদের “রিয়েল-টাইম ফিডব্যাক” দেওয়ার উপায় নিয়ে পরীক্ষা চালাবে যাতে ব্যবহারকারীরাই সরাসরি তাদের ChatGPT অভিজ্ঞতা প্রভাবিত করতে পারে। এছাড়াও, মডেলগুলোকে sycophancy থেকে দূরে সরিয়ে আনতে উন্নত টেকনিক তৈরি করা, ব্যবহারকারীদের বিভিন্ন মডেল পার্সোনালিটি থেকে বেছে নেওয়ার সুযোগ দেওয়া, আরও নিরাপত্তা গার্ডরেল যোগ করা এবং sycophancy ছাড়াও অন্যান্য সমস্যা চিহ্নিত করতে মূল্যায়ন প্রক্রিয়া প্রসারিত করার পরিকল্পনাও রয়েছে।
OpenAI তাদের ব্লগপোস্টে আরও বলে:
“সবচেয়ে বড় শিক্ষা হচ্ছে বুঝতে পারা যে, মানুষ এখন ChatGPT-কে অনেক বেশি ব্যক্তিগত পরামর্শের জন্য ব্যবহার করছে — যা এক বছর আগেও এতোটা দেখা যায়নি। তখন এটি আমাদের প্রাথমিক ফোকাস ছিল না, কিন্তু সময়ের সঙ্গে সঙ্গে এটা স্পষ্ট হয়েছে যে, এই ব্যবহারটি অত্যন্ত যত্নের সঙ্গে বিবেচনা করতে হবে। এখন এটি আমাদের নিরাপত্তা কাজের একটি গুরুত্বপূর্ণ অংশ হবে।”