ट्विटर ने पाया कि इसका एआई टूल काले लोगों, तस्वीरों से पुरुषों को क्रॉप करता है

ट्विटर के इमेज-क्रॉपिंग एल्गोरिदम में काले लोगों और पुरुषों को बाहर करने की दिशा में एक समस्याग्रस्त पूर्वाग्रह है, कंपनी ने बुधवार को नए शोध में कहा, “छवि को कैसे क्रॉप करना लोगों द्वारा सबसे अच्छा निर्णय है।”

द स्टडी ब्लैक लोगों के चेहरों को छोड़कर पोस्ट में छवि पूर्वावलोकन के बारे में पिछले साल उपयोगकर्ता की आलोचना के बाद इसके तीन मशीन लर्निंग शोधकर्ताओं द्वारा आयोजित किया गया था।

यह पाया महिलाओं के पक्ष में जनसांख्यिकीय समानता से 8 प्रतिशत का अंतर, और श्वेत व्यक्तियों के पक्ष में 4 प्रतिशत का अंतर।

कागज ने कई संभावित कारणों का हवाला दिया, जिसमें छवि पृष्ठभूमि और आंखों के रंग के मुद्दे शामिल हैं, लेकिन कहा कि कोई भी बहाना नहीं था।

शोधकर्ताओं ने लिखा, “मशीन लर्निंग आधारित क्रॉपिंग मौलिक रूप से त्रुटिपूर्ण है क्योंकि यह उपयोगकर्ता एजेंसी को हटा देता है और उपयोगकर्ता की अपनी पहचान और मूल्यों की अभिव्यक्ति को प्रतिबंधित करता है, इसके बजाय छवि के किस हिस्से को सबसे दिलचस्प माना जाता है, इस बारे में एक मानक टकटकी लगाता है।”

समस्या का मुकाबला करने के लिए, ट्विटर ने हाल ही में अपने मोबाइल ऐप पर बिना किसी फसल के – पूर्ण रूप से मानक पहलू अनुपात तस्वीरें दिखाना शुरू किया और उस प्रयास का विस्तार करने की कोशिश कर रहा है।

शोधकर्ताओं ने यह भी आकलन किया कि क्या फसलें सिर पर महिलाओं के शरीर का पक्ष लेती हैं, जो “पुरुष टकटकी” के रूप में जानी जाती है, लेकिन यह पाया गया कि ऐसा नहीं लगता है।

कागज ने कहा कि निष्कर्ष चेहरे की पहचान और पाठ विश्लेषण में पहचाने गए जनसांख्यिकीय पूर्वाग्रहों सहित कृत्रिम बुद्धिमत्ता प्रणालियों से असमान प्रभाव का एक और उदाहरण है।

2018 में माइक्रोसॉफ्ट और मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी के शोधकर्ताओं द्वारा किए गए काम और बाद में अमेरिकी सरकार के एक अध्ययन में पाया गया कि चेहरे की विश्लेषण प्रणाली सफेद लोगों की तुलना में अधिक बार रंग के लोगों की गलत पहचान करती है।

अमेज़ॅन ने 2018 में एक एआई भर्ती उपकरण को खत्म कर दिया, जो महिलाओं के खिलाफ पूर्वाग्रह दिखाता था।


.

प्रातिक्रिया दे

आपका ईमेल पता प्रकाशित नहीं किया जाएगा. आवश्यक फ़ील्ड चिह्नित हैं *

Close Bitnami banner
Bitnami