टेक उद्योग ने एआई के व्यापक पूर्वाग्रह को कम करने की कोशिश की। अब ट्रम्प अपने ‘वोक एआई’ प्रयासों को समाप्त करना चाहते हैं

टेक उद्योग ने एआई के व्यापक पूर्वाग्रह को कम करने की कोशिश की। अब ट्रम्प अपने 'वोक एआई' प्रयासों को समाप्त करना चाहते हैं

कैम्ब्रिज, मास। – अपने कार्यस्थल विविधता, इक्विटी और समावेशन कार्यक्रमों से पीछे हटने के बाद, टेक कंपनियां अब एआई उत्पादों में अपने डीईआई काम पर एक दूसरे की पुष्टि कर सकती हैं।

व्हाइट हाउस और रिपब्लिकन के नेतृत्व वाली कांग्रेस में, “वोक एआई” ने बदल दिया है हानिकारक एल्गोरिथम भेदभाव एक समस्या के रूप में जिसे फिक्सिंग की आवश्यकता है। एआई डेवलपमेंट में “एडवांस इक्विटी” के पिछले प्रयास और “हानिकारक और पक्षपाती आउटपुट” के उत्पादन पर अंकुश लगाने के लिए जांच का एक लक्ष्य है, जो कि हाउस ज्यूडिशियरी कमेटी द्वारा पिछले महीने अमेज़ॅन, गूगल, मेटा, माइक्रोसॉफ्ट, ओपनईएआई और 10 अन्य तकनीकी कंपनियों को भेजे गए सबपोनस के अनुसार।

और अमेरिकी वाणिज्य विभाग की मानक-सेटिंग शाखा ने बाहरी शोधकर्ताओं के साथ सहयोग के लिए अपनी अपील में एआई फेयरनेस, सुरक्षा और “जिम्मेदार एआई” के उल्लेखों को हटा दिया है। इसके बजाय वैज्ञानिकों को “वैचारिक पूर्वाग्रह को कम करने” पर ध्यान केंद्रित करने का निर्देश दिया जा रहा है, जो एसोसिएटेड प्रेस द्वारा प्राप्त दस्तावेज़ की एक प्रति के अनुसार “मानव उत्कर्ष और आर्थिक प्रतिस्पर्धा को सक्षम करेगा”।

कुछ मायनों में, तकनीकी कार्यकर्ताओं का उपयोग वाशिंगटन द्वारा संचालित प्राथमिकताओं के एक व्हिपलैश के लिए किया जाता है जो उनके काम को प्रभावित करते हैं।

लेकिन नवीनतम बदलाव ने हार्वर्ड विश्वविद्यालय के समाजशास्त्री एलिस मोंक सहित क्षेत्र के विशेषज्ञों के बीच चिंता जताई है, जिन्हें कई साल पहले Google द्वारा अपने एआई उत्पादों को अधिक समावेशी बनाने में मदद करने के लिए संपर्क किया गया था।

वापस तो, तकनीकी उद्योग पहले से ही पता था कि यह एक समस्या थी एआई की शाखा के साथ जो मशीनों को “देखने” और छवियों को समझने के लिए प्रशिक्षित करता है। कंप्यूटर विजन ने शानदार व्यावसायिक वादा किया, लेकिन पहले के कैमरे प्रौद्योगिकियों में पाए गए ऐतिहासिक पूर्वाग्रहों को प्रतिध्वनित किया, जो काले और भूरे रंग के लोगों को एक अप्रभावी प्रकाश में चित्रित करते थे।

“काले लोग या गहरे रंग के चमड़ी वाले लोग तस्वीर में आते हैं और हम कभी -कभी हास्यास्पद लगते हैं,” रंगवाद के एक विद्वान, लोगों की त्वचा की टोन और अन्य विशेषताओं के आधार पर भेदभाव का एक रूप।

Google ने भिक्षु द्वारा आविष्कार किए गए एक रंग पैमाने को अपनाया, जिसमें सुधार हुआ कि कैसे इसके एआई छवि उपकरण मानव त्वचा टन की विविधता को चित्रित करते हैं, एक दशकों पुराने मानक की जगह मूल रूप से व्हाइट डर्मेटोलॉजी रोगियों के इलाज के लिए डॉक्टरों के लिए डिज़ाइन किए गए हैं।

“उपभोक्ताओं को निश्चित रूप से परिवर्तनों के लिए एक बड़ी सकारात्मक प्रतिक्रिया थी,” उन्होंने कहा।

अब भिक्षु आश्चर्यचकित है कि क्या भविष्य में इस तरह के प्रयास जारी रहेंगे। जबकि वह यह नहीं मानता है कि उसके भिक्षु स्किन टोन पैमाने को खतरा है क्योंकि यह पहले से ही Google और अन्य जगहों पर दर्जनों उत्पादों में पका हुआ है – जिसमें कैमरा फोन, वीडियो गेम, एआई छवि जनरेटर शामिल हैं – वह और अन्य शोधकर्ताओं को चिंता है कि नया मूड भविष्य की पहल और वित्त पोषण कर रहा है ताकि सभी के लिए प्रौद्योगिकी काम बेहतर हो सके।

“Google चाहता है कि उनके उत्पाद भारत, चीन, अफ्रीका, एट cetera में हर किसी के लिए काम करें। यह हिस्सा डी-इम्यून की तरह है,” भिक्षु ने कहा। “लेकिन क्या उन प्रकार की परियोजनाओं के लिए भविष्य के वित्तपोषण को कम किया जा सकता है? बिल्कुल, जब राजनीतिक मनोदशा में बदलाव होता है और जब बहुत जल्दी बाजार में आने के लिए बहुत दबाव होता है।”

ट्रम्प ने कटौती की है सैकड़ों विज्ञान, प्रौद्योगिकी और स्वास्थ्य वित्त पोषण अनुदान DEI विषयों पर छूना, लेकिन चैटबॉट्स और अन्य AI उत्पादों के व्यावसायिक विकास पर इसका प्रभाव अधिक अप्रत्यक्ष है। एआई कंपनियों की जांच में, रिपब्लिकन रेप। जिम जॉर्डन, न्यायपालिका समिति के अध्यक्ष, ने कहा कि वह यह पता लगाना चाहते हैं कि क्या पूर्व राष्ट्रपति जो बिडेन के प्रशासन ने “जबरदस्ती” के साथ “कानूनन को सेंसर किया है”।

व्हाइट हाउस के विज्ञान और प्रौद्योगिकी नीति के कार्यालय के निदेशक माइकल क्रेटियोस ने इस महीने टेक्सास के एक कार्यक्रम में कहा कि बिडेन की एआई नीतियां “इक्विटी के नाम पर सामाजिक प्रभागों और पुनर्वितरण को बढ़ावा दे रही थीं।”

ट्रम्प प्रशासन ने एक साक्षात्कार के लिए क्रेट्सियो को उपलब्ध कराने से इनकार कर दिया, लेकिन उनके पास जो मतलब था, उसके कई उदाहरणों के हवाले से। एक बिडेन-युग एआई अनुसंधान रणनीति से एक पंक्ति थी जिसमें कहा गया था: “उचित नियंत्रण के बिना, एआई सिस्टम व्यक्तियों और समुदायों के लिए असमान या अवांछनीय परिणामों को बढ़ा सकते हैं, समाप्त कर सकते हैं या बढ़ा सकते हैं।”

बिडेन ने पदभार संभालने से पहले ही, अनुसंधान और व्यक्तिगत उपाख्यानों का एक बढ़ता हुआ शरीर एआई पूर्वाग्रह के नुकसान पर ध्यान आकर्षित कर रहा था।

एक अध्ययन में दिखाया गया है सेल्फ-ड्राइविंग कार तकनीक में गहरे रंग के पैदल चलने वालों का पता लगाने में एक कठिन समय होता है, जिससे उन्हें चलाने के अधिक खतरे में डाल दिया जाता है। एक और अध्ययन पूछ रहा है एक सर्जन की तस्वीर बनाने के लिए लोकप्रिय एआई टेक्स्ट-टू-इमेज जनरेटर ने पाया कि उन्होंने एक श्वेत व्यक्ति का उत्पादन किया, जो लगभग 98% प्रतिशत समय था, जो एक भारी पुरुष-प्रधान क्षेत्र में भी वास्तविक अनुपात से अधिक है।

फोन को अनलॉक करने के लिए फेस-मैचिंग सॉफ्टवेयर ने एशियाई चेहरों को गलत बताया। अमेरिकी शहरों में पुलिस गलत तरीके से गिरफ्तार किए गए अश्वेत पुरुष झूठे चेहरे की मान्यता मैचों के आधार पर। और एक दशक पहले, Google के अपने फ़ोटो ऐप ने दो अश्वेत लोगों की तस्वीर को “गोरिल्ला” के रूप में लेबल एक श्रेणी में छांटा था।

यहां तक ​​कि पहले ट्रम्प प्रशासन में सरकारी वैज्ञानिक 2019 में निष्कर्ष निकाला गया वह चेहरे की पहचान तकनीक नस्ल, लिंग या उम्र के आधार पर असमान रूप से प्रदर्शन कर रही थी।

बिडेन के चुनाव ने कुछ तकनीकी कंपनियों को एआई निष्पक्षता पर अपना ध्यान केंद्रित करने के लिए प्रेरित किया। Openai के CHATGPT के 2022 के आगमन ने नई प्राथमिकताओं को जोड़ा, दस्तावेजों की रचना करने और छवियों को उत्पन्न करने के लिए नए AI अनुप्रयोगों में एक वाणिज्यिक उछाल को उछाल दिया, Google जैसी कंपनियों पर दबाव डालने के लिए अपनी सावधानी को कम करने और पकड़ने के लिए।

फिर Google के मिथुन एआई चैटबॉट – और पिछले साल एक त्रुटिपूर्ण उत्पाद रोलआउट आया, जो इसे “वोक एआई” का प्रतीक बना देगा जिसे रूढ़िवादियों ने उम्मीद की थी। अपने स्वयं के उपकरणों के लिए छोड़ दिया, एआई उपकरण जो एक लिखित प्रॉम्प्ट से छवियों को उत्पन्न करते हैं, वे उन सभी दृश्य डेटा से संचित रूढ़ियों को समाप्त करने के लिए प्रवण होते हैं, जिस पर वे प्रशिक्षित थे।

Google अलग नहीं था, और जब विभिन्न व्यवसायों में लोगों को चित्रित करने के लिए कहा गया था, तो यह कंपनी के अपने सार्वजनिक शोध के अनुसार, हल्के-चमड़ी वाले चेहरों और पुरुषों के पक्ष में था, और जब महिलाओं को चुना गया था, तो छोटी महिलाओं को चुना गया था।

Google ने एक साल पहले ही मिथुन की एआई इमेज जनरेटर को रोल करने से पहले उन असमानताओं को कम करने के लिए तकनीकी रेलिंग को रखने की कोशिश की। यह समाप्त हो गया पूर्वाग्रह के लिए ओवरकंपेंसिंग18 वीं शताब्दी के पोशाक में पुरुषों की छवियों के साथ अमेरिकी संस्थापक पिता के लिए एक अनुरोध का जवाब देना, जो कि रंग और महिलाओं के लोगों को गलत ऐतिहासिक सेटिंग्स में रखना, जो काले, एशियाई और मूल अमेरिकी दिखाई दिए। Google ने जल्दी से माफी मांगी और अस्थायी रूप से फीचर पर प्लग खींच लिया, लेकिन नाराजगी राजनीतिक अधिकार द्वारा ली गई एक रैली रोना बन गई।

Google के सीईओ सुंदर पिचाई पास में बैठे, उपाध्यक्ष जेडी वेंस एआई शिखर सम्मेलन का इस्तेमाल किया फरवरी में पेरिस में एआई के माध्यम से “सर्वथा अहंकारी सामाजिक एजेंडा की उन्नति को कम करने के लिए,” उस क्षण का नामकरण करते हुए जब Google की एआई छवि जनरेटर “हमें यह बताने की कोशिश कर रहा था कि जॉर्ज वाशिंगटन काला था, या विश्व युद्ध में अमेरिका के आटा, मैं वास्तव में, महिलाएं थीं।”

“हमें उस हास्यास्पद क्षण से सबक याद रखना होगा,” वेंस ने सभा में घोषणा की। “और हम इससे क्या लेते हैं कि ट्रम्प प्रशासन यह सुनिश्चित करेगा कि अमेरिका में विकसित एआई सिस्टम वैचारिक पूर्वाग्रह से मुक्त हैं और कभी भी हमारे नागरिकों के मुक्त भाषण के अधिकार को प्रतिबंधित नहीं करते हैं।”

एक पूर्व बिडेन विज्ञान सलाहकार, जो उस भाषण में शामिल हुए, अलोंड्रा नेल्सन ने कहा कि ट्रम्प प्रशासन का एआई के “वैचारिक पूर्वाग्रह” पर नया ध्यान कुछ मायनों में एल्गोरिथम पूर्वाग्रह को संबोधित करने के लिए काम के वर्षों की मान्यता है जो आवास, बंधक, स्वास्थ्य देखभाल और लोगों के जीवन के अन्य पहलुओं को प्रभावित कर सकता है।

व्हाइट हाउस के विज्ञान और प्रौद्योगिकी नीति के पूर्व कार्यकारी निदेशक नेल्सन ने कहा, “मौलिक रूप से, यह कहने के लिए कि एआई सिस्टम वैचारिक रूप से पक्षपाती हैं, यह कहना है कि आप एल्गोरिथम पूर्वाग्रह की समस्या के बारे में पहचानते हैं, पहचानते हैं और चिंतित हैं, जो कि समस्या है कि हम में से कई लोग लंबे समय से चिंतित हैं।” सिद्धांतों के एक सेट का सह-लेखन AI अनुप्रयोगों में नागरिक अधिकारों और नागरिक स्वतंत्रता की रक्षा के लिए।

लेकिन नेल्सन को समान एआई पहल के निंदा के बीच सहयोग के लिए ज्यादा जगह नहीं दिखाई देती है।

“मुझे लगता है कि इस राजनीतिक स्थान में, दुर्भाग्य से, यह काफी संभावना नहीं है,” उसने कहा। “समस्याओं को अलग-अलग नाम दिया गया है- एक तरफ एल्गोरिथम भेदभाव या एल्गोरिथम पूर्वाग्रह, और दूसरी तरफ वैचारिक पूर्वाग्रह- हमें दो अलग-अलग समस्याओं के रूप में पछतावा होगा।”

Leave a Reply

Your email address will not be published. Required fields are marked *

2 × five =