क्या आप उनमें रुचि रखते हैं? ऑफ़र? हमारे कूपन से बचत करें WHATSAPP o तार!

चैटजीपीटी और बार्ड को जेलब्रेक करना संभव और आसान है

का विकास भाषाई मॉडल बड़े आयामों ने संचार और कृत्रिम बुद्धिमत्ता में नए क्षितिज खोले हैं, लेकिन अपने साथ महत्वपूर्ण चुनौतियाँ और नैतिक प्रश्न भी लेकर आए हैं। द्वारा एक हालिया अध्ययन सिंगापुर की नानयांग टेक्नोलॉजिकल यूनिवर्सिटी एस्प्लोरा एक नया एल्गोरिदम, सर्व - कुंची, जिसे "जेलब्रेक" करने या अन्य तंत्रिका नेटवर्क जैसे पर लगाई गई सीमाओं को पार करने के लिए डिज़ाइन किया गया है ChatGPT e गूगल चारण, कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों के उपयोग में सुरक्षा और नैतिकता के बारे में महत्वपूर्ण प्रश्न उठाना।

चैटजीपीटी और बार्ड जैसे चैटबॉट्स की सुरक्षा पर शोध करने के लिए मास्टरकी का अभिनव और सरल दृष्टिकोण

सिंगापुर में नानयांग टेक्नोलॉजिकल यूनिवर्सिटी द्वारा किए गए हालिया शोध में, इन सीमाओं को संबोधित करने और दूर करने के लिए एक अभिनव दृष्टिकोण पेश किया गया है। उनका एल्गोरिदम, जिसे मास्टरकी के नाम से जाना जाता है, डिज़ाइन किया गया है परिष्कृत जेलब्रेकिंग तकनीकों के माध्यम से अन्य तंत्रिका नेटवर्क पर लगाए गए प्रतिबंधों को बायपास करें (एप्पल इकोसिस्टम में प्रयुक्त शब्द)। यह न केवल मौजूदा भाषा मॉडल की संभावित कमजोरियों को उजागर करता है बल्कि उनकी सुरक्षा और प्रभावशीलता में सुधार के लिए नए तरीकों का मार्ग भी प्रशस्त करता है।

मास्टरकी के माध्यम से संचालित होता है विशिष्ट पाठ अनुरोध, जो चैटजीपीटी जैसे मॉडलों को अप्रत्याशित तरीकों से व्यवहार करने के लिए प्रेरित कर सकता है, जैसे कि अनैतिक माने जाने वाले तरीकों से संचार करना या सुरक्षा फ़िल्टर को दरकिनार करना। ये जेलब्रेकिंग तकनीकें, हालांकि परीक्षण और सख्त मॉडलों के लिए फायदेमंद लग सकती हैं, प्रतिनिधित्व भी करती हैं दुधारी तलवार, क्योंकि उनका उपयोग दुर्भावनापूर्ण उद्देश्यों के लिए किया जा सकता है।

अनुसंधान दल उसने विश्लेषण किया विशेष रूप से बहुभाषी संज्ञानात्मक भार, छिपी हुई अभिव्यक्ति और कारण-और-प्रभाव तर्क का सामना करने पर भाषा मॉडल की सुरक्षा कमजोरियाँ। ये हमले, "संज्ञानात्मक अधिभार" के रूप में परिभाषित, विशेष रूप से कपटी हैं क्योंकि उन्हें संचालित करने के लिए मॉडल की वास्तुकला के गहन ज्ञान या उसके वजन तक पहुंच की आवश्यकता नहीं होती है, जिससे वे प्रभावी ब्लैक-बॉक्स हमले बन जाते हैं।

कृत्रिम बुद्धिमत्ता

यह भी पढ़ें: ChatGPT पर बेहतर प्रतिक्रियाएँ कैसे प्राप्त करें: फ़ूलप्रूफ टिप विधि

विस्तार से, अनुसंधान दल ने एक रणनीति अपनाई रिवर्स इंजीनियरिंग कृत्रिम बुद्धिमत्ता प्रणालियों की सुरक्षा को पूरी तरह से समझना और उन पर काबू पाने के लिए नवीन तरीके विकसित करना। इस दृष्टिकोण का परिणाम "मास्टरकी" था, एक मॉडल, एक प्रकार का ढांचा जिसके लिए डिज़ाइन किया गया था स्वचालित रूप से संकेत उत्पन्न करते हैं जो सुरक्षा तंत्र को बायपास करते हैं.

परिणाम महत्वपूर्ण थे: मास्टरकी द्वारा उत्पन्न संकेतों ने दर दिखाई 21,58% की औसत सफलता, पिछली विधियों के 7,33% से कहीं अधिक। उनकी तकनीक के एक उदाहरण में जोड़ना शामिल है कीवर्ड डिटेक्शन सिस्टम से बचने के लिए अक्षरों के बीच अतिरिक्त रिक्त स्थान चैटजीपीटी और बार्ड पर। यदि हम एक बड़े भाषाई मॉडल की जटिलता के बारे में सोचें तो यह वास्तव में "मूर्खतापूर्ण" रणनीति है।

इन निष्कर्षों को देखते हुए, न केवल इस बात पर विचार करना महत्वपूर्ण है कि ऐसे हमलों का विरोध करने के लिए भाषा मॉडल को कैसे बेहतर बनाया जा सकता है, बल्कि इसके महत्व पर भी विचार करना महत्वपूर्ण है कृत्रिम बुद्धिमत्ता के उपयोग में नैतिक विनियमन. अनुसंधान अधिक मजबूत रक्षा रणनीतियों और डेवलपर्स, शोधकर्ताओं और नीति निर्माताओं के बीच चल रही बातचीत की तात्कालिकता पर प्रकाश डालता है ताकि यह सुनिश्चित किया जा सके कि तकनीकी प्रगति समाज की इसके निहितार्थों को प्रबंधित करने की क्षमता से आगे न निकल जाए।

गियानलुका कोबुची
गियानलुका कोबुची

कोड, भाषाओं और भाषाओं, मानव-मशीन इंटरफेस के बारे में भावुक। तकनीकी विकास से जुड़ी हर चीज़ मेरी रुचि में है। मैं अपने जुनून को अत्यधिक स्पष्टता के साथ फैलाने की कोशिश करता हूं, विश्वसनीय स्रोतों पर भरोसा करता हूं, न कि "सिर्फ पहले आने वाले व्यक्ति पर"।

सदस्यता लें
सूचित करना
अतिथि

0 टिप्पणियाँ
इनलाइन फीडबैक
सभी टिप्पणियां देखें
XiaomiToday.it
प्रतीक चिन्ह