यूरोप में वर्तमान कृत्रिम बुद्धिमत्ता (एआई) नियामक परिदृश्य तकनीकी दिग्गजों सहित कई चिंताओं को बढ़ा रहा है OpenAI. ओपनएआई के सीईओ, सैम ऑल्टमैन, हाल ही में है व्यक्त ईयू एआई अधिनियम के संबंध में उनकी आशंका, एक प्रस्तावित कानून जो वर्तमान में यूरोपीय सांसदों द्वारा अनुमोदन के अंतिम चरण से गुजर रहा है।
ओपनएआई ईयू एआई अधिनियम के बारे में चिंतित है, यूरोपीय कानून जो बड़े पैमाने पर एआई सिस्टम के रचनाकारों पर नए दायित्व लगाता है
एल 'यूरोपीय संघ एआई अधिनियम एक विनियमन है जिसका उद्देश्य तथाकथित "आधार मॉडल" के रचनाकारों पर नए दायित्व थोपना है, यानी बड़े पैमाने पर कृत्रिम बुद्धिमत्ता प्रणाली जो सेवाओं को शक्ति प्रदान करती है जैसे ChatGPT e DALL-E ओपनएआई द्वारा। यह कानून ओपनएआई के कामकाज और यूरोपीय बाजार में इसकी उपस्थिति पर महत्वपूर्ण प्रभाव डाल सकता है। हाल ही में एक साक्षात्कार में, ऑल्टमैन कहा गया कि कानून का विवरण सर्वोपरि है।''
हम अनुपालन करने का प्रयास करेंगे, लेकिन यदि हम अनुपालन करने में विफल रहते हैं तो हम काम करना बंद कर देंगे
यह भी पढ़ें: आधिकारिक: चैटजीपीटी के पास एक एंड्रॉइड ऐप होगा
यह बयान उनकी चिंताओं की गंभीरता को रेखांकित करता है. मुख्य तो वह है ChatGPT जैसी प्रणालियों को EU कानून के तहत "उच्च जोखिम" के रूप में नामित किया जा सकता है. इसका मतलब यह होगा कि OpenAI को कई सुरक्षा और पारदर्शिता आवश्यकताओं को पूरा करना होगा। तकनीकी चुनौतियों के अलावा, ईयू एआई अधिनियम संभावनाएं भी प्रस्तुत करता है खतरों व्यावसायिक ओपनएआई के लिए। वर्तमान मसौदे के प्रावधान के लिए बुनियादी मॉडल के रचनाकारों की आवश्यकता है उनके सिस्टम डिज़ाइन के बारे में विवरण प्रकट करें और एक प्रदान करें "प्रशिक्षण के लिए उपयोग किए गए कॉपीराइट डेटा का सारांश". इससे OpenAI पर संभावित मुकदमे चल सकते हैं, क्योंकि ChatGPT और DALL-E जैसे AI सिस्टम को वेब से खींचे गए बड़ी मात्रा में डेटा का उपयोग करके प्रशिक्षित किया जाता है, जिसमें से अधिकांश कॉपीराइट होता है।
अतीत में, OpenAI ने इस प्रकार की जानकारी साझा की थी, लेकिन उसने ऐसा करना बंद कर दिया है क्योंकि इसके उपकरण तेजी से व्यावसायिक रूप से मूल्यवान हो गए हैं। मार्च में, OpenAI के सह-संस्थापक, इल्या Sutskever, ने कहा कि कंपनी ने अतीत में इतना कुछ बताना गलत किया था और उनके काम को प्रतिद्वंद्वियों द्वारा कॉपी किए जाने से रोकने के लिए प्रशिक्षण विधियों और डेटा स्रोतों जैसी जानकारी को गुप्त रखना आवश्यक था।
यूरोप में AI का विनियमन एक संवेदनशील मुद्दा है जो OpenAI और कृत्रिम बुद्धिमत्ता के क्षेत्र में काम करने वाली अन्य कंपनियों के भविष्य पर महत्वपूर्ण प्रभाव डाल सकता है। यह महत्वपूर्ण है कि व्यवसाय और नियामक एक साथ काम करें एक नियामक ढांचा विकसित करना जो तकनीकी वृद्धि और विकास को बाधित किए बिना नवाचार और सुरक्षा को बढ़ावा देता है। दरअसल, हमें याद है कि कंपनी का प्रमुख उत्पाद ChatGPT आया था इटली से अस्थायी रूप से प्रतिबंधित.