July 5, 2024

California का विवादास्पद AI Bill परमाणु युद्ध, catastrophic damage को लेकर चिंतित है

0

California का विवादास्पद AI Bill परमाणु युद्ध, catastrophic damage को लेकर चिंतित है ,danik media,California का विवादास्पद AI Bill परमाणु युद्ध, catastrophic damage को लेकर चिंतित है danikmedia

अस्तित्व के लिए खतरा बनने वाली Artificial Intelligence (AI) के खिलाफ सुरक्षा उपाय करने पर जोर देने वाले प्रस्तावित कानून को तकनीकी उद्योग के विभिन्न हितधारकों, जिनमें Start-up Founder, Investor, AI शोधकर्ता और Open Source Software की वकालत करने वाले संगठन शामिल हैं, से कड़ा प्रतिरोध मिला है। इस Bill को एसबी 1047 कहा जाता है और इसे California राज्य के सीनेटर स्कॉट Weiner द्वारा पेश किया गया था।

Weiner के अनुसार, यह Bill बड़े और Powerful AI System के Developers को सामान्य सुरक्षा मानकों का पालन करने की आवश्यकता रखता है। लेकिन कानून के विरोधियों को पूरा यकीन है कि यह नवाचार को खत्म कर देगा और पूरे AI उद्योग को बर्बाद कर देगा।

इस साल मई में, California विधायिका ने विवादास्पद Bill पारित किया, जिसे वर्तमान में विभिन्न समितियों द्वारा आगे बढ़ाया जा रहा है। अगस्त में अंतिम मतदान के बाद, राज्य के गवर्नर गेविन न्यूजॉम द्वारा इस Bill को कानून में हस्ताक्षरित किए जाने का रास्ता साफ हो सकता है। यदि ऐसा होता है, तो एसबी 1047 देश का पहला बड़ा कानून बन जाएगा जो किसी ऐसे राज्य में AI को नियंत्रित करता है जहां कई बड़ी तकनीकी कंपनियां स्थित हैं।

Read More: Motorola ने Samsung को टक्कर देने के लिए Premium Razr 50 Ultra Launch किया

Bill क्या प्रस्तावित करता है?

‘Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act’ के नाम से भी जाना जाने वाला, एसबी 1047 का लक्ष्य मेटा, ओपनAI, और मिस्ट्रल जैसी शीर्ष AI कंपनियों को तेजी से आगे बढ़ रही इस तकनीक से जुड़े संभावित भयावह खतरों के लिए जिम्मेदार ठहराना है।

यह Bill मुख्य रूप से बड़े फ्रंटियर AI मॉडल को रोलआउट करने वाली संस्थाओं पर लागू होता है, जिसमें “बड़ा” शब्द को Bill में उन AI प्रणालियों के रूप में परिभाषित किया गया है जिन्हें 10^26 फ्लोटिंग ऑपरेशंस प्रति सेकंड (एफएलओपीएस) की कंप्यूटिंग शक्ति का उपयोग करके प्रशिक्षित किया गया है, जिसमें प्रशिक्षण प्रक्रिया की लागत 100 मिलियन अमेरिकी डॉलर (लगभग 834 करोड़ रुपये) से अधिक है। वे AI मॉडल जो 10^25 FLOPS से तीन गुना अधिक कंप्यूटिंग शक्ति का उपयोग करके फाइन-ट्यून किए गए हैं, वे भी इस Bill के दायरे में आते हैं।

“यदि ठीक से मानवीय नियंत्रण के अधीन नहीं है, तो Artificial Intelligence में भविष्य के विकास में जैविक, रासायनिक और परमाणु हथियारों जैसे सामूहिक विनाश के हथियारों के निर्माण और प्रसार को सक्षम करने सहित, सार्वजनिक सुरक्षा और सुरक्षा के लिए उपन्यास खतरे पैदा करने की क्षमता भी हो सकती है। साथ ही साइबर-आक्रामक क्षमताओं वाले हथियार भी शामिल हैं,” Bill में लिखा गया है।

Bill के नवीनतम मसौदे के अनुसार, बड़े फ्रंटियर AI मॉडल के Developers को “गंभीर नुकसान” के लिए उत्तरदायी ठहराया जा सकता है। इन नुकसानों में रासायनिक या परमाणु हथियार बनाने और महत्वपूर्ण बुनियादी ढांचे पर साइबर हमले शुरू करने के लिए AI का उपयोग करना शामिल है। इसमें सीमित मानवीय निरीक्षण के साथ काम करने वाले AI मॉडल द्वारा किए गए मानव अपराध भी शामिल हैं, जिसके परिणामस्वरूप मृत्यु, शारीरिक चोट और संपत्ति का नुकसान होता है।;

लाँकि, यदि AI द्वारा उत्पन्न आउटपुट के कारण मृत्यु या चोट लगती है, तो Developers को इसके लिए जिम्मेदार नहीं ठहराया जा सकता है, क्योंकि यह अन्यत्र उपलब्ध जानकारी है। दिलचस्प बात यह है कि Bill में AI मॉडल में आपात स्थिति के लिए इनबिल्ट किल स्विच होना भी ज़रूरी है। साथ ही, Developers को ऐसे बड़े फ्रंटियर AI मॉडल लॉन्च करने की अनुमति नहीं है जो गंभीर नुकसान पहुँचाने या सक्षम करने का उचित जोखिम रखते हों।,

अनुपालन सुनिश्चित करने के लिए, AI मॉडल तीसरे पक्ष के ऑडिटर द्वारा स्वतंत्र ऑडिट से गुजरना आवश्यक है। Bill के प्रस्तावित प्रावधानों का उल्लंघन करने वाले Developers को California के अटॉर्नी जनरल द्वारा कानूनी कार्रवाई का सामना करना पड़ सकता है। उन्हें ‘फ्रंटियर’ नामक एक नए AI प्रमाणन निकाय द्वारा अनुशंसित सुरक्षा मानकों का भी अनिवार्य रूप से पालन करना होगा मॉडल डिवीजन’ जिसे California सरकार द्वारा स्थापित किए जाने की परिकल्पना की गई है।

इस Bill पर हंगामा क्यों मचा है?

मूल रूप से, मसौदा कानून AI डूमर्स द्वारा व्यक्त किए गए दृष्टिकोणों को समाहित करता है। इसे ज्योफ्रे हिंटन और योशुआ जैसे तकनीकी उद्योग के लोगों द्वारा समर्थित किया गया है। बेंगियो का मानना ​​है कि AI मानवता को समाप्त कर सकता है और इसलिए इसे विनियमित किया जाना चाहिए।

Bill के प्रायोजकों में से एक सेंटर फॉर AI सेफ्टी है, जिसने एक खुला पत्र प्रकाशित किया है जिसमें कहा गया है कि AI से उत्पन्न जोखिम परमाणु युद्ध या किसी अन्य महामारी जितने ही गंभीर हैं।

जबकि Bill को इन तिमाहियों से समर्थन मिल रहा है, लेकिन इसे लेकर काफ़ी आलोचना हो रही है। लगभग सभी ने इसकी आलोचना की है। Bill के खिलाफ़ मुख्य तर्कों में से एक यह है कि यह प्रभावी रूप से Open Source AI मॉडल को खत्म कर देगा।,

जब AI मॉडल Open Source होते हैं, तो इसका मतलब है कि उनके आंतरिक कामकाज को कोई भी व्यक्ति स्वतंत्र रूप से एक्सेस या संशोधित कर सकता है, इस प्रकार यह सुनिश्चित होता है अधिक पारदर्शिता और बेहतर सुरक्षा। लेकिन प्रस्तावित California Bill मेटा जैसी कंपनियों को अपने AI मॉडल को Open Source बनाने से हतोत्साहित कर सकता है क्योंकि उन्हें अन्य Developers द्वारा तकनीक का दुरुपयोग करने के लिए जिम्मेदार ठहराया जा सकता है।

 विशेषज्ञों ने यह भी बताया है कि AI System को गलत व्यवहार करने से रोकना अधिक जटिल है ऐसा लगता है कि यह जितना है, उससे कहीं ज़्यादा है। इसलिए, विनियामक बोझ सिर्फ़ AI कंपनियों पर डालना पूरी तरह से उचित नहीं है, खासकर तब जब Bill में निर्धारित सुरक्षा मानक AI जैसी तेज़ी से बढ़ती तकनीक के लिए पर्याप्त लचीले नहीं हैं।

JOIN US:

About The Author

Leave a Reply