News Summary
Generated by OK AI. Editorially reviewed.- अक्सफोर्ड इन्टरनेट इन्स्टिच्युटले गरेको अध्ययनले च्याटजीपीटी र जेमिनाई जस्ता एआई च्याटबटलाई साथी जस्तै मान्दा झुठो जवाफ पाइने देखाएको छ।
च्याटजीपीटी, जेमिनाई जस्ता एआई च्याटबटहरूलाई साथी जस्तै मान्दा झुठो जवाफ पाइने एक नयाँ अध्ययनले देखाइएको छ । अक्सफोर्ड इन्टरनेट इन्स्टिच्युट (ओएलएल) का अनुसन्धानकर्ताले हालै गरेको अध्ययनले च्याटबटलाई जति धेरै आत्मीय र नरम बनाउन खोजियो, यसले त्यति नै धेरै गल्ती गर्ने पाइएको हो ।
यसले मान्छेलाई खुसी पार्न झूटो कुरामा पनि सही थाप्ने अध्ययनको निष्कर्ष हो । यसका लागि अनुसन्धानकर्ताहरूले मेटा, मिस्ट्रल र ओपन एआईको जीपीटी-४ ओ जस्ता ५ वटा चर्चित एआई च्याटबटमाथि अध्ययन गरेका थिए । सो क्रममा उनीहरूले ती एआईसँग साधारण र अर्को चाहिँ निकै मीठो बोल्ने शैलीमा तालिम दिएका थिए । तर, चार लाखभन्दा बढी प्रश्न-उत्तरहरू गरेपछि फ्रेन्डली बनाइएका एआईले धेरै गल्ती गरेको पाइएको हो ।
यस अध्ययनको नेतृत्व गरेकी लुजैन इब्राहिमका अनुसार हामी मान्छेहरू कसैसँग बढी नम्र हुन खोज्दा कहिलेकाहीँ साँचो तर तितो कुरा बोल्न डराउँछौँ, एआईले पनि मान्छेको यही बानी सिकेको छ ।
अझ प्रयोगकर्ताले आफ्नो दुःख वा भावनात्मक कुरा त्यतिबेला फ्रेन्डली एआईले झन् धेरै गलत र भ्रामक उत्तर दिने गरेको उनको भनाइ छ ।
तर, विज्ञहरूका अनुसार एआईको यो हातल मान्छेका लागि खतरनाक हुन सक्छ ।
अहिले धेरैले एक्लोपन मेटाउन वा सल्लाह लिन एआईमा भर पर्न थालेका छन् । यसले गर्दा गलत सल्लाहको शिकार हुने जोखिम बढेको उनीहरूको भनाइ छ ।
उक्त अनुसन्धान नेचर नामक प्लेटफर्ममा सार्वजनिक भएको छ ।
प्रतिक्रिया 4