OpenAI, एक कंपनी जो अब कृत्रिम बुद्धिमत्ता के क्षेत्र में सबसे आगे है, हाल ही में की घोषणा के विशिष्ट कार्य के साथ एक नई टीम का निर्माण एआई-संबंधित प्रौद्योगिकियों को आगे बढ़ाने से जुड़े संभावित विनाशकारी जोखिमों का मूल्यांकन करें और उन्हें कम करें. यह कदम जेनेरिक मॉडल द्वारा लायी जाने वाली चुनौतियों और खतरों को सक्रिय रूप से संबोधित करने के बढ़ते महत्व पर प्रकाश डालता है। जाहिर है, जहां उनकी ठीक से निगरानी नहीं की जाती.
इस लेख के विषय:
OpenAI द्वारा जोखिम की पहचान
जैसे-जैसे कृत्रिम बुद्धिमत्ता तेजी से विकसित हो रही है, नए जोखिम सामने आ रहे हैं जो वैश्विक स्तर पर गंभीर प्रभाव डाल सकते हैं। इसके लिए नई ओपनएआई तैयारी टीम खुद को समर्पित करेगी ट्रैक करने के लिए, मूल्यांकन करने के लिए, पूर्वानुमान e रक्षा करना इन संभावित समस्याओं के विरुद्ध. पहचाने गए जोखिमों में से हैं: खतरों नाभिकीय, एक विषय जो एआई के क्षेत्र में जिम्मेदार कार्रवाई की तात्कालिकता पर प्रकाश डालता है।
परमाणु खतरों के अलावा, टीम पदार्थ-संबंधी खतरों पर भी ध्यान केंद्रित करेगी रासायनिक, जैविक और रेडियोलॉजिकल, साथ ही एफ परकृत्रिम बुद्धिमत्ता की स्व-प्रतिकृति की घटना, या स्वयं को स्वायत्त रूप से दोहराने की कृत्रिम बुद्धिमत्ता प्रणाली की क्षमता। फोकस के अन्य क्षेत्रों में एआई की मनुष्यों को धोखा देने की क्षमता और शामिल हैं खतरों तक साइबर सुरक्षा.
उन्नत AI के लाभ और चुनौतियाँ
ओपनएआई मानता है कि अग्रणी एआई मॉडल, जो कि सबसे उन्नत मौजूदा मॉडल की क्षमताओं को पार करते हैं, उनमें क्षमता है समस्त मानवता का कल्याण करें. और नहीं, आप जो सोचते हैं, उसके विपरीतकृत्रिम बुद्धिमत्ता हमारी नौकरियाँ चुराने के लिए यहाँ नहीं है बल्कि, इसे बनाने के लिए।
हालाँकि, महान शक्ति के साथ, बड़ी जिम्मेदारी भी आती है। इसलिए इसका विकास करना जरूरी है नीतियों उन जोखिमों के बारे में जानकारी दी, जो आपको इसकी अनुमति देते हैं एआई मॉडल का मूल्यांकन और निगरानी करें, यह सुनिश्चित करने के लिए कि लाभ संबंधित जोखिमों से अधिक है।
यह भी पढ़ें: डीपमाइंड के पास एआई जोखिमों को रोकने का समाधान है
इस नई टीम का नेतृत्व किसे सौंपा गया है अलेक्जेंडर मैड्री, मशीन लर्निंग के क्षेत्र में एक अग्रणी व्यक्ति। फिलहाल वह छुट्टी पर हैं के निदेशक की भूमिका तैनाती योग्य मशीन लर्निंग के लिए एमआईटी का केंद्र, माद्री जोखिम-सूचित विकास नीति विकसित करने और बनाए रखने के प्रयासों का समन्वय करेगा।
वैश्विक प्राथमिकता की ओर
ओपनएआई के सीईओ, सैम ऑल्टमैन, यह नया नहीं है एआई के संभावित विनाशकारी जोखिमों के बारे में चिंताओं के लिए। उन्होंने सुझाव दिया कि एआई प्रौद्योगिकियों का उपचार पी होना चाहिएइसे परमाणु हथियारों जितनी ही गंभीरता से लिया गया हैएआई से जुड़े विलुप्त होने के जोखिमों को कम करने के लिए सामूहिक प्रयास की आवश्यकता पर प्रकाश डाला गया। यह नई टीम इस दृष्टिकोण को साकार करने की दिशा में एक ठोस कदम का प्रतिनिधित्व करती है, जो इसमें योगदान देने के लिए ओपनएआई की प्रतिबद्धता को उजागर करती है आर्टिफिशियल इंटेलिजेंस का जिम्मेदार प्रबंधन.