मुंबई, 29 अगस्त, (न्यूज़ हेल्पलाइन) आर्टिफिशियल इंटेलिजेंस (AI) की दुनिया में डेटा प्राइवेसी को लेकर एक नई बहस छिड़ गई है। एन्थ्रोपिक (Anthropic), जो अपने एआई सहायक क्लॉड (Claude) के लिए जानी जाती है, ने एक बड़ा नीतिगत बदलाव किया है। कंपनी अब अपने भविष्य के एआई मॉडल को प्रशिक्षित करने के लिए उपयोगकर्ताओं की चैट का उपयोग करना चाहती है।
कंपनी ने उपयोगकर्ताओं को एक अल्टीमेटम दिया है: 28 सितंबर, 2025 तक यह तय करना होगा कि वे इस नई नीति में शामिल होना चाहते हैं या नहीं। जो उपयोगकर्ता इसमें शामिल होने के लिए सहमत होंगे, उनके चैट डेटा को 30 दिनों के बजाय पांच साल तक संग्रहीत (Store) किया जाएगा।
क्यों लिया गया यह फैसला?
एन्थ्रोपिक का कहना है कि यह कदम क्लॉड की क्षमताओं में सुधार करने और दुरुपयोग के खिलाफ उसकी सुरक्षा सुविधाओं को बढ़ाने के लिए उठाया गया है। कंपनी का दावा है कि उपयोगकर्ता की बातचीत का उपयोग करने से क्लॉड अधिक प्रभावी और सुरक्षित बनेगा।
आपकी जानकारी का क्या होगा?
एन्थ्रोपिक ने यह स्पष्ट किया है कि यह अपडेट केवल नई या फिर से शुरू की गई चैट पर लागू होगा। पुरानी बातचीत का उपयोग तब तक नहीं किया जाएगा जब तक कि उपयोगकर्ता उन्हें जारी नहीं रखते। हालांकि, कंपनी ने यह भी कहा है कि एक बार डेटा को मॉडल प्रशिक्षण में शामिल कर लिया गया, तो उसे वापस नहीं लिया जा सकता।
एन्थ्रोपिक ने यह भी आश्वासन दिया है कि वह संवेदनशील डेटा को फ़िल्टर करने के लिए उपकरणों का उपयोग करती है और वह उपयोगकर्ताओं की जानकारी किसी तीसरी पार्टी को नहीं बेचती है। हालांकि, यह नई नीति एआई चैटबॉट और उपयोगकर्ता की गोपनीयता के बीच के जटिल संबंधों को दर्शाती है। यह उपयोगकर्ताओं के लिए एक महत्वपूर्ण निर्णय है कि वे अपने डेटा को एआई के भविष्य के लिए कितना साझा करना चाहते हैं।