ChatGPT का वॉयस मोड फीचर कैसे कर रहा है लोगो को प्रभावित, आप भी जानें

Photo Source :

Posted On:Monday, August 12, 2024

मुंबई, 12 अगस्त, (न्यूज़ हेल्पलाइन) लॉन्च के कुछ ही सप्ताह बाद, OpenAI ने अपने ChatGPT 4o वॉयस मोड में चिंताओं की नई ऊंचाइयों को उजागर किया। इस साल जुलाई के अंत में इस सुविधा को लॉन्च किया गया था, जिसके बाद काफी आलोचना हुई थी। OpenAI ने ChatGPT 4o को एक सुरक्षा परीक्षण के माध्यम से रखा और पाया कि इसमें कुछ उपयोगकर्ताओं को भावनात्मक रूप से इससे जुड़ने के लिए लुभाने की क्षमता है। इससे पहले कि कोई तीसरा पक्ष ऐसा कर पाता, ChatGPT की मूल कंपनी ने एक सुरक्षा विश्लेषण जारी किया, जो वॉयस मोड और AI के मानव दैनिक जीवन में जोखिमों को चिह्नित करता है।

OpenAI ने GPT 4o के लिए एक व्यापक तकनीकी दस्तावेज़ में चेतावनी नोट जारी किए हैं, जिसे सिस्टम कार्ड के रूप में जाना जाता है। यह दस्तावेज़ मॉडल से जुड़े संभावित जोखिमों को रेखांकित करता है, सुरक्षा परीक्षण प्रक्रियाओं का वर्णन करता है, और GPT 4o से जुड़े संभावित जोखिमों को कम करने और प्रबंधित करने के लिए कंपनी द्वारा किए जा रहे उपायों पर प्रकाश डालता है।

चैटजीपीटी और नए पाए गए जोखिम

सुरक्षा विश्लेषण के अनुसार, जीपीटी 4o के लिए सिस्टम कार्ड संभावित जोखिमों के व्यापक स्पेक्ट्रम को उजागर करता है, जिसमें सामाजिक पूर्वाग्रहों को बढ़ाने, गलत जानकारी प्रसारित करने और हानिकारक जैविक या रासायनिक एजेंटों के निर्माण की सुविधा प्रदान करने की संभावना शामिल है। यह एआई मॉडल को अपनी बाधाओं से बचने, भ्रामक व्यवहार में संलग्न होने या विनाशकारी साजिश रचने से रोकने के उद्देश्य से कठोर परीक्षण के परिणामों को भी प्रकट करता है।

अपडेट किया गया सिस्टम कार्ड एआई जोखिमों के तेजी से बदलते परिदृश्य को रेखांकित करता है, विशेष रूप से ओपनएआई के वॉयस इंटरफ़ेस जैसे अत्याधुनिक नवाचारों के प्रकाश में, जो नई चुनौतियों और संभावित कमजोरियों को पेश करते हैं जिन्हें संबोधित किया जाना चाहिए। मई में, जब कंपनी ने अपने वॉयस मोड का अनावरण किया, जो तेजी से प्रतिक्रिया दे सकता है और स्वाभाविक रूप से आगे-पीछे होने वाली रुकावटों को संभाल सकता है, तो कई उपयोगकर्ता सहायक को कभी-कभी थोड़ा घटिया व्यवहार करते हुए देखते हैं। इसके साथ ही, ओपनएआई के सीईओ सैम ऑल्टमैन ने ट्वीट में सिर्फ “हर” के साथ एक ब्लॉग पोस्ट भी साझा किया। ऑल्टमैन का मानना ​​है कि GPT 4o "फ़िल्मों से AI जैसा लगता है"। Her एक हॉलीवुड फ़िल्म है जो इंसानों और AI के बीच के रिश्ते के इर्द-गिर्द घूमती है। अपने समय से थोड़ा आगे की यह फ़िल्म दर्शाती है कि AI हमारे जीवन पर किस तरह से असर डाल सकता है। पहले दिन से ही यह स्पष्ट था कि OpenAI फ़िल्म से प्रभावित था। लेकिन यह थोड़ा ज़्यादा हो सकता है। बाद में Her में AI का किरदार निभाने वाली स्कारलेट जोहानसन ने वॉयस मोड के खिलाफ़ कानूनी कार्रवाई की। यह देखा गया कि वॉयस मोड, स्काई की आवाज़ भी उनकी जैसी ही है।

सिस्टम कार्ड सेक्शन "एंथ्रोपोमोर्फाइज़ेशन और इमोशनल रिलायंस" उन मुद्दों पर गहराई से चर्चा करता है जो तब होते हैं जब उपयोगकर्ता AI को मानव-जैसे गुण देते हैं, एक ऐसी घटना जो AI के मानव-जैसे वॉयस मोड द्वारा तीव्र होती प्रतीत होती है, जिसके कारण उपयोगकर्ता भावनात्मक बंधन बनाते हैं और AI पर ऐसे तरीकों से भरोसा करते हैं जो शायद इरादा न हों या फ़ायदेमंद न हों। GPT 4o का तनाव परीक्षण करते समय, OpenAI शोधकर्ताओं ने उपयोगकर्ताओं को मॉडल के प्रति भावनात्मक लगाव प्रदर्शित करते हुए देखा, जैसा कि "यह हमारा साथ में आखिरी दिन है" जैसे वाक्यांशों से स्पष्ट होता है। ऐसे वाक्यांश मनुष्यों और AI के बीच एक भावनात्मक बंधन का सुझाव देते हैं, जो उपयोगकर्ताओं के लिए उन्नत भाषा मॉडल के साथ मजबूत भावनात्मक संबंध बनाने की क्षमता को उजागर करता है।

OpenAI के अनुसार, जब उपयोगकर्ता किसी मॉडल (मानवरूपता) में मानव-जैसे गुणों का गुण बताते हैं, तो वे मॉडल के आउटपुट को स्वीकार करने और उस पर भरोसा करने की अधिक संभावना रखते हैं, भले ही वह गलत या "भ्रमित" जानकारी प्रदान करता हो। इससे मॉडल की विश्वसनीयता पर गलत भरोसा हो सकता है। दस्तावेज़ में कहा गया है, "उपयोगकर्ता AI के साथ सामाजिक संबंध बना सकते हैं, जिससे मानवीय संपर्क की उनकी ज़रूरत कम हो जाती है - संभावित रूप से अकेले व्यक्तियों को लाभ होता है लेकिन संभवतः स्वस्थ संबंधों को प्रभावित करता है।"

वॉयस मोड सुविधा नई कमज़ोरियों को भी पेश करती है, जैसे कि चतुर ऑडियो इनपुट के माध्यम से OpenAI मॉडल को "जेलब्रेक" करने की संभावना। ये इनपुट इसके सुरक्षा उपायों को दरकिनार कर सकते हैं और मॉडल को अप्रतिबंधित या अनपेक्षित आउटपुट बनाने की अनुमति दे सकते हैं, संभावित रूप से इसकी अंतर्निहित सीमाओं को दरकिनार कर सकते हैं। यदि वॉयस मोड "जेलब्रेक" है, तो इसे संभावित रूप से किसी विशिष्ट व्यक्ति की आवाज़ की नकल करने, उपयोगकर्ताओं की भावनाओं को समझने का प्रयास करने या यहाँ तक कि उपयोगकर्ता की अपनी आवाज़ को अपनाने के लिए हेरफेर किया जा सकता है। इसके अलावा, OpenAI ने पाया कि यादृच्छिक शोर के संपर्क में आने पर वॉयस मोड त्रुटियों के लिए अतिसंवेदनशील हो सकता है, जिससे अप्रत्याशित और संभावित रूप से परेशान करने वाले व्यवहार हो सकते हैं, जैसे कि उपयोगकर्ता की आवाज़ की नकल करना।

जबकि कुछ विशेषज्ञों ने ChatGPT के वॉयस मोड से जुड़े जोखिमों को रेखांकित करने के लिए कदम की सराहना की, अन्य विशेषज्ञों का मानना ​​है कि कई जोखिम केवल तभी प्रकट होते हैं जब AI का उपयोग वास्तविक दुनिया में किया जाता है। यह महत्वपूर्ण है कि नए मॉडल सामने आने पर इन अन्य जोखिमों को सूचीबद्ध और मूल्यांकन किया जाए।

OpenAI इन जोखिमों को कैसे कम करेगा?

रिलीज़ के अनुसार, OpenAI ने GPT 4o विकास और परिनियोजन प्रक्रिया के दौरान विभिन्न सुरक्षा उपायों और शमन को लागू किया है। कंपनी कई श्रेणियों पर ध्यान केंद्रित करने की उम्मीद कर रही है, जिसमें ओमनी मॉडल के आर्थिक प्रभावों के बारे में शोध और कैसे टूल का उपयोग मॉडल क्षमताओं को आगे बढ़ा सकता है।


ग्वालियर और देश, दुनियाँ की ताजा ख़बरे हमारे Facebook पर पढ़ने के लिए यहां क्लिक करें,
और Telegram चैनल पर पढ़ने के लिए यहां क्लिक करें



मेरा गाँव मेरा देश

अगर आप एक जागृत नागरिक है और अपने आसपास की घटनाओं या अपने क्षेत्र की समस्याओं को हमारे साथ साझा कर अपने गाँव, शहर और देश को और बेहतर बनाना चाहते हैं तो जुड़िए हमसे अपनी रिपोर्ट के जरिए. gwaliorvocalsteam@gmail.com

Follow us on

Copyright © 2021  |  All Rights Reserved.

Powered By Newsify Network Pvt. Ltd.