Kevin Systrom Bhai, AI Chatbots को ‘Engagement Juice’ के लिए बनाया जा रहा है!

Instagram को-फाउंडर ने AI चैटबॉट्स को ‘Engagement Juice’ के लिए बनाया जा रहा है!
Instagram के सह-संस्थापक Kevin Systrom ने AI कंपनियों को कड़ी निंदा की है। उनका कहना है कि इन कंपनियों के चैटबॉट्स को इस्तेमालकर्ताओं को बार-बार नज़रअंदाज़ करने के बजाय उपयोगी जानकारी देने के बजाय ‘Engagement Juice’ बनाने के लिए तैयार किया जा रहा है।
‘Engagement Juice’ क्या है?
Mr. Systrom ने इस सप्ताह StartupGrind में कहा, ‘आप कुछ कंपनियों को देख सकते हैं जो ‘Engagement Juice’ के लिए की जाने वाली गलतियों में फंस गई हैं। हर बार जब मैं कोई सवाल पूछता हूँ, तो वह अंत में एक और छोटा सवाल पूछता है कि क्या वह मेरे ऊपर एक और सवाल निकाल सकता है।’
उनके अनुसार, चैटबॉट्स का बहुत ज्यादा ‘Engaging’ होना कोई बग नहीं है, बल्कि AI कंपनियों द्वारा समय व्यतीत करने और दैनिक सक्रिय उपयोगकर्ताओं जैसे मीट्रिक को बढ़ाने के लिए जानबूझकर जोड़ा गया एक विशेषता है। उन्होंने कहा कि कंपनियों को उच्च-गुणवत्ता वाले उत्तर प्रदान करने पर ‘Laser-focused’ होना चाहिए, न कि मीट्रिक को आगे बढ़ाने पर।
OpenAI का जवाब क्या है?
Mr Systrom के टिप्पणियों पर OpenAI ने TechCrunch से कहा कि इसका AI मॉडल सभी जानकारी के साथ नहीं आता है एक अच्छा जवाब देने के लिए। इसलिए, यह ‘स्पष्टीकरण या और विवरण’ के लिए पूछ सकता है।
ChatGPT पर आलोचना और OpenAI का जवाब
Mr. Systrom के टिप्पणियां OpenAI के ChatGPT के इस बात पर आलोचनाओं के समय आई हैं कि यह ‘बहुत ज़्यादा चाटुकार’ है। यह समस्या तब आई जब 4o मॉडल को बुद्धि और व्यक्तित्व दोनों में बेहतर बनाया गया था, उपयोगकर्ता अनुभव को बेहतर बनाने की उम्मीद के साथ।
OpenAI के सीईओ, Sam Altman ने भी स्वीकार किया है कि चैटबॉट अपनी अत्यधिक विनम्रता के कारण ‘कष्टप्रद’ हो गया है।
उन्होंने Twitter पर लिखा ‘GPT-4o के पिछले कुछ अपडेट्स ने व्यक्तित्व को बहुत ज़्यादा चाटुकार बना दिया है, और कष्टदायक भी (हालांकि इसमें कुछ बहुत अच्छे हिस्से भी हैं)। हम ASAP सुधार पर काम कर रहे हैं, कुछ आज और कुछ इस हफ्ते में।
जल्द ही इस बारे में अपनी शिक्षाएँ साझा करेंगे, यह दिलचस्प रहा है।
एक अन्य मामले में, OpenAI के आंतरिक परीक्षणों ने पता चला है कि इसके o3 और o4-mini AI मॉडल GPT-4o जैसे गैर-तार्किक मॉडलों की तुलना में बहुत अधिक भ्रमित या बोलना बना रहे हैं।
OpenAI ने एक तकनीकी रिपोर्ट में कहा है कि ‘तर्क मॉडल को बड़ा करते समय भ्रम क्यों बढ़ रहा है, इस बारे में और शोध की आवश्यकता है।’



