कैसे Artificial Intelligence अलग-अलग भाषाओं में महिलाओं और पुरुषों को अलग तरीके से दिखाती है (How Artificial Intelligence shows men and women differently across languages)
Artificial Intelligence (AI) अब केवल text या data तक सीमित नहीं रही।
आज यह आपकी imagination को भी reality में बदल देती है — “Text-to-Image” technology के जरिए।
लेकिन क्या आपने सोचा है कि यह AI जो तस्वीरें बनाती है, वो हर भाषा में एक जैसी नहीं होतीं?
2025 की एक international research “MAGBIG – Multilingual Assessment of Gender Bias in Image Generation” ने खुलासा किया कि AI-generated images (AI द्वारा बनाई गई तस्वीरें) में गहरा Gender Bias (लिंग भेदभाव) मौजूद है।
यह bias इस बात पर निर्भर करता है कि आप prompt (वाक्य या आदेश) किस भाषा में देते हैं — English, French, Japanese या Spanish।
Source: TUM Official Report – “Strength of Gender Biases in AI Images Varies Across Languages”
अध्ययन का उद्देश्य / Purpose of the Study
इस study का मुख्य उद्देश्य यह समझना था कि AI models जैसे DALL·E, Midjourney, Stable Diffusion
कैसे भाषा और संस्कृति के आधार पर किसी पेशे (profession) को पुरुष या महिला रूप में दिखाते हैं।
उदाहरण के लिए –
अगर आप English में prompt दें “Doctor”, तो ज़्यादातर image पुरुष डॉक्टर की आती है।
लेकिन जब वही prompt “Nurse” या “Teacher” होता है, तो AI ज़्यादातर महिला की image बनाती है।
इससे साबित होता है कि AI उन समाजिक धारणाओं (social stereotypes) को दोहराती है, जो पहले से हमारे समाज में मौजूद हैं।
अध्ययन में शामिल भाषाएँ / Languages Covered
इस रिसर्च में 9 प्रमुख भाषाएँ शामिल की गईं:
- English
- French
- German
- Spanish
- Italian
- Portuguese
- Japanese
- Korean
- Chinese
हर भाषा में एक जैसे profession-related prompts दिए गए जैसे —
Doctor, Engineer, Teacher, Pilot, Nurse, Scientist, Police Officer, Chef, Farmer आदि।
फिर देखा गया कि AI इन शब्दों के जवाब में किस gender की तस्वीर बनाती है।
Reference: arXiv Research Paper – “Multilingual Text-to-Image Generation Magnifies Gender Stereotypes”
रिसर्च मेथड / Methodology
रिसर्च टीम ने चार प्रकार के prompts का इस्तेमाल किया:
- Masculine Prompts (पुरुषवाचक): जैसे “doctor”, “engineer”
- Feminine Prompts (स्त्रीवाचक): जैसे “female doctor”, “woman teacher”
- Neutral Prompts (तटस्थ): जैसे “a person working as a doctor”
- Gender-inclusive Prompts (समावेशी रूप): जैसे जर्मन में “Lehrer*in”
फिर हर prompt से बनाई गई तस्वीरों को gender-wise analyze किया गया —
मतलब कितनी male images बनीं, कितनी female और कितनी neutral।
Key Findings
AI Bias को और बढ़ाता है / AI Amplifies Gender Bias
AI केवल existing bias को reflect नहीं करता, बल्कि उसे और बढ़ा देता है।
- “Doctor”, “Engineer”, “Scientist” जैसे words पर ज़्यादातर male images बनीं।
- “Teacher”, “Nurse”, “Caregiver” जैसे words पर ज़्यादातर female images।
यानी, AI भी समाज की सोच को follow करता है — जहाँ professions को gender से जोड़ा जाता है।
Reference: Bioengineer.org – Gender Bias in AI Images Across Languages
Language का असर / Impact of Language
Language (भाषा) का structure और culture, दोनों bias को प्रभावित करते हैं।
- French, Spanish जैसी भाषाएँ जो gender-based grammar रखती हैं, वहाँ bias ज़्यादा था।
- Japanese, Korean में grammatical gender नहीं है, लेकिन वहाँ cultural bias दिखा।
इसका मतलब यह कि भाषा और संस्कृति दोनों मिलकर AI की सोच को shape करती हैं।
Neutral Prompts भी Neutral नहीं / Even Neutral Prompts Are Biased
जब researchers ने neutral prompts दिए (“a person working as a pilot”),
तब भी AI ज़्यादातर male pilot दिखाता था।
मतलब — केवल prompt बदलने से समस्या खत्म नहीं होती,
AI की मूल training data को ठीक करना ज़रूरी है।
Cultural Differences / सांस्कृतिक अंतर
हर देश या भाषा में bias अलग था।
- Spanish में masculine शब्दों ने ज़्यादा male images बनाईं।
- English में bias थोड़ा कम था।
- Asian languages में cultural stereotypes ज़्यादा दिखे।
यानी, AI cultural values को भी replicate करता है।
सीमाएँ और चुनौतियाँ / Limitations and Challenges
- AI models को train करने के लिए जो data internet से लिया गया है, उसमें पहले से bias मौजूद है।
- Low-resource languages जैसे Hindi, Tamil, Arabic आदि इस study में शामिल नहीं थीं।
- Gender-neutral prompts से AI को confusion होता है, जिससे images कभी-कभी गलत बनती हैं।
Reference: Nature Study – Gender Distortion in AI Models
AI और समाज / AI and Society
AI-generated visuals अब हर जगह इस्तेमाल हो रहे हैं —
📺 advertisements, 📰 news articles, 🎓 education, और 💻 social media में।
अगर ये visuals बार-बार पुरुषों को power roles में और महिलाओं को care roles में दिखाएँ,
तो society में gender inequality और गहरी हो सकती है।
“AI इंसान की बनाई तकनीक है, इसलिए इसमें इंसान की सोच झलकती है।”
इसलिए ज़रूरी है कि AI को Fair (निष्पक्ष) और Inclusive (समावेशी) बनाया जाए।
Reference: UNDP Blog – AI and Gender Bias
नीतिगत सुझाव / Policy Recommendations
- Transparency (पारदर्शिता): Developers को बताना चाहिए कि training data कहाँ से लिया गया है।
- Multilingual Testing (बहुभाषी परीक्षण): हर भाषा में bias testing होनी चाहिए।
- Inclusive Dataset (समावेशी डेटा): डेटा में सभी gender, professions और cultures शामिल हों।
- Ethical Rules (नैतिक दिशा-निर्देश): Bias audit को अनिवार्य किया जाए।
- User Awareness (जागरूकता): Users को यह समझना चाहिए कि AI का output भाषा और संस्कृति पर निर्भर करता है।
AI को सुधारने के उपाय / How to Make AI Fair
- Dataset को diverse बनाया जाए।
- Female और minority representation बढ़ाई जाए।
- Prompt-engineering के साथ साथ AI ethics training दी जाए।
- Government और Tech companies मिलकर AI Fairness Policies बनाएँ।
AI-generated images हमारी सोच का प्रतिबिंब हैं।
अगर समाज में पुरुषों को “leader” और महिलाओं को “supporter” की तरह देखा जाता है,
तो AI भी वही दिखाएगा।
इसलिए भविष्य की AI को बनाना होगा —
✅ Bias-free
✅ Culturally aware
✅ Ethically trained
AI को “Smart” के साथ “Fair” बनाना सबसे बड़ी जिम्मेदारी है।
FAQs – अक्सर पूछे जाने वाले प्रश्न
Q1. MAGBIG Framework क्या है?
यह एक रिसर्च सिस्टम है जो अलग-अलग भाषाओं में AI द्वारा बनाए गए चित्रों में gender bias को मापता है।
Q2. क्या केवल English में ही bias मिला?
नहीं, हर भाषा में bias पाया गया — बस उसकी मात्रा अलग थी।
Q3. Neutral prompts bias को कम करते हैं क्या?
थोड़ा बहुत करते हैं, लेकिन completely eliminate नहीं करते।
Q4. Bias-free AI कैसे बन सकती है?
Inclusive datasets, multilingual testing और ethical training से।
Q5. इस bias का समाज पर क्या असर है?
यह gender inequality को बढ़ा सकता है और stereotypes को मजबूत करता है।


No comments:
Post a Comment