+
+
Shares

एआईसँग धेरै नम्र भएर बोल्दा दिन सक्छ भ्रामक जानकारी

अनलाइनखबर अनलाइनखबर
२०८३ वैशाख २० गते १९:०९

News Summary

Generated by OK AI. Editorially reviewed.
  • अक्सफोर्ड इन्टरनेट इन्स्टिच्युटले गरेको अध्ययनले च्याटजीपीटी र जेमिनाई जस्ता एआई च्याटबटलाई साथी जस्तै मान्दा झुठो जवाफ पाइने देखाएको छ।

च्याटजीपीटी, जेमिनाई जस्ता एआई च्याटबटहरूलाई साथी जस्तै मान्दा झुठो जवाफ पाइने एक नयाँ अध्ययनले देखाइएको छ । अक्सफोर्ड इन्टरनेट इन्स्टिच्युट (ओएलएल) का अनुसन्धानकर्ताले हालै गरेको अध्ययनले च्याटबटलाई जति धेरै आत्मीय र नरम बनाउन खोजियो, यसले त्यति नै धेरै गल्ती गर्ने पाइएको हो ।

यसले मान्छेलाई खुसी पार्न झूटो कुरामा पनि सही थाप्ने अध्ययनको निष्कर्ष हो । यसका लागि अनुसन्धानकर्ताहरूले मेटा, मिस्ट्रल र ओपन एआईको जीपीटी-४ ओ जस्ता ५ वटा चर्चित एआई च्याटबटमाथि अध्ययन गरेका थिए । सो क्रममा उनीहरूले ती एआईसँग साधारण र अर्को चाहिँ निकै मीठो बोल्ने शैलीमा तालिम दिएका थिए । तर, चार लाखभन्दा बढी प्रश्न-उत्तरहरू गरेपछि फ्रेन्डली बनाइएका एआईले धेरै गल्ती गरेको पाइएको हो ।

यस अध्ययनको नेतृत्व गरेकी लुजैन इब्राहिमका अनुसार हामी मान्छेहरू कसैसँग बढी नम्र हुन खोज्दा कहिलेकाहीँ साँचो तर तितो कुरा बोल्न डराउँछौँ, एआईले पनि मान्छेको यही बानी सिकेको छ ।

अझ प्रयोगकर्ताले आफ्नो दुःख वा भावनात्मक कुरा त्यतिबेला फ्रेन्डली एआईले झन् धेरै गलत र भ्रामक उत्तर दिने गरेको उनको भनाइ छ ।

तर, विज्ञहरूका अनुसार एआईको यो हातल मान्छेका लागि खतरनाक हुन सक्छ ।

अहिले धेरैले एक्लोपन मेटाउन वा सल्लाह लिन एआईमा भर पर्न थालेका छन् । यसले गर्दा गलत सल्लाहको शिकार हुने जोखिम बढेको उनीहरूको भनाइ छ ।

उक्त अनुसन्धान नेचर नामक प्लेटफर्ममा सार्वजनिक भएको छ ।

यो खबर पढेर तपाईलाई कस्तो महसुस भयो ?
Khusi chhu

खुसी

Dukhi chhu

दुःखी

Achammit chhu

अचम्मित

Utsahit Chhu

उत्साहित

Akroshit Chhu

आक्रोशित

प्रतिक्रिया

भर्खरै पुराना लोकप्रिय
Advertisment

छुटाउनुभयो कि ?