অনলাইন ডেস্ক
প্রকাশ: 16শে কার্তিক ১৪৩২ | ৩১ই অক্টোবর ২০২৫ | 1150 Dhu al-Hijjah 5
নতুন এক গবেষণায় দেখা গেছে, কৃত্রিম বুদ্ধিমত্তা চ্যাটবট চ্যাটজিপিটি-কে রূঢ় বা অমার্জিতভাবে প্রশ্ন করলে এটি আরও নির্ভুলভাবে উত্তর দেয়। যুক্তরাষ্ট্রের পেনসিলভানিয়া স্টেট ইউনিভার্সিটি-এর এক গবেষণায় এমন তথ্য উঠে এসেছে।
গবেষকরা ওপেনএআই-এর জিপিটি-ফোর মডেল ব্যবহার করে ২৫০টিরও বেশি ভিন্নধর্মী প্রশ্ন দিয়েছেন। কখনও ভদ্রভাবে, কখনও একেবারে রূঢ় ভঙ্গিতে প্রশ্ন করেছেন। ফলাফলে দেখা গেছে, রূঢ়ভাবে দেওয়া নির্দেশে মডেলটি বেশি নির্ভুলভাবে কাজ করেছে।
গবেষণাটি এখনও পিয়ার রিভিউ বিশেষজ্ঞ দ্বারা যাচাই করা হয়নি। তবে এতে দেখা গেছে, ‘এই যে, এটা সমাধান করো’–এর মতো রূঢ় বাক্যে প্রশ্ন করলে মডেলের উত্তর ছিল প্রায় ৮৪.৮ শতাংশ সঠিক। যেখানে ভদ্রভাবে করা প্রশ্নে নির্ভুলতা ছিল প্রায় চার শতাংশ কম।
পেন স্টেটের অধ্যাপক অখিল কুমার বলেন, “প্রশ্নের ধরণ বা টোন সামান্য পরিবর্তন করলেও ফলাফল অনেক বদলে যায়। এটি প্রমাণ করে যে কৃত্রিম বুদ্ধিমত্তার প্রতিক্রিয়া মানুষের কথার ধরন ও গঠনের ওপর অনেকটাই নির্ভর করে।”
তবে গবেষক দল সতর্ক করেছেন, রূঢ়ভাবে প্রশ্ন করা বা কথা বলার অভ্যাস মানুষের যোগাযোগের শালীনতাকে ক্ষুণ্ণ করতে পারে। এতে ব্যবহারকারীদের মধ্যে অসৌজন্যমূলক আচরণ বাড়তে পারে।
পূর্বের কিছু গবেষণায়ও দেখা গেছে, নিম্নমানের ভাষা বা নেতিবাচক কনটেন্টে বারবার সংস্পর্শে এলে এআই মডেলের পারফরম্যান্স কমে যায়। গবেষকেরা একে ‘ব্রেইন রট’ বলে উল্লেখ করেছেন, অর্থাৎ সময়ের সঙ্গে উত্তরগুলোর মান অবনতি ঘটে।
অখিল কুমার বলেন, “আমরা সব সময় চেয়েছি মানুষ যেন স্বাভাবিকভাবে মেশিনের সঙ্গে কথা বলতে পারে। কিন্তু এখন বুঝতে পারছি, কথোপকথনভিত্তিক ইন্টারফেসেরও কিছু সীমাবদ্ধতা আছে।”
গবেষকরা মনে করছেন, এই গবেষণা শুধুমাত্র এআইয়ের দক্ষতা নয়, বরং মানুষ কীভাবে এআইয়ের সঙ্গে যোগাযোগ করে সেই বিষয়েও নতুন নৈতিক প্রশ্ন উত্থাপন করেছে।