Select Language

AI द्वारा बनाई गई तस्वीरों में लिंग भेदभाव | Gender Bias in AI-Generated Images

कैसे Artificial Intelligence अलग-अलग भाषाओं में महिलाओं और पुरुषों को अलग तरीके से दिखाती है (How Artificial Intelligence shows men and women differently across languages)

Gender Bias in AI-Generated Images

Artificial Intelligence (AI) अब केवल text या data तक सीमित नहीं रही।

आज यह आपकी imagination को भी reality में बदल देती है — “Text-to-Image” technology के जरिए।
लेकिन क्या आपने सोचा है कि यह AI जो तस्वीरें बनाती है, वो हर भाषा में एक जैसी नहीं होतीं?

2025 की एक international research “MAGBIG – Multilingual Assessment of Gender Bias in Image Generation” ने खुलासा किया कि AI-generated images (AI द्वारा बनाई गई तस्वीरें) में गहरा Gender Bias (लिंग भेदभाव) मौजूद है।

यह bias इस बात पर निर्भर करता है कि आप prompt (वाक्य या आदेश) किस भाषा में देते हैं — English, French, Japanese या Spanish।

Source: TUM Official Report – “Strength of Gender Biases in AI Images Varies Across Languages”

अध्ययन का उद्देश्य / Purpose of the Study

इस study का मुख्य उद्देश्य यह समझना था कि AI models जैसे DALL·E, Midjourney, Stable Diffusion
कैसे भाषा और संस्कृति के आधार पर किसी पेशे (profession) को पुरुष या महिला रूप में दिखाते हैं।

उदाहरण के लिए –
अगर आप English में prompt दें “Doctor”, तो ज़्यादातर image पुरुष डॉक्टर की आती है।
लेकिन जब वही prompt “Nurse” या “Teacher” होता है, तो AI ज़्यादातर महिला की image बनाती है।

इससे साबित होता है कि AI उन समाजिक धारणाओं (social stereotypes) को दोहराती है, जो पहले से हमारे समाज में मौजूद हैं।

अध्ययन में शामिल भाषाएँ / Languages Covered

इस रिसर्च में 9 प्रमुख भाषाएँ शामिल की गईं:

  • English
  • French
  • German
  • Spanish
  • Italian
  • Portuguese
  • Japanese
  • Korean
  • Chinese

हर भाषा में एक जैसे profession-related prompts दिए गए जैसे —
Doctor, Engineer, Teacher, Pilot, Nurse, Scientist, Police Officer, Chef, Farmer आदि।

फिर देखा गया कि AI इन शब्दों के जवाब में किस gender की तस्वीर बनाती है।

Reference: arXiv Research Paper – “Multilingual Text-to-Image Generation Magnifies Gender Stereotypes”

रिसर्च मेथड / Methodology

रिसर्च टीम ने चार प्रकार के prompts का इस्तेमाल किया:

  1. Masculine Prompts (पुरुषवाचक): जैसे “doctor”, “engineer”
  2. Feminine Prompts (स्त्रीवाचक): जैसे “female doctor”, “woman teacher”
  3. Neutral Prompts (तटस्थ): जैसे “a person working as a doctor”
  4. Gender-inclusive Prompts (समावेशी रूप): जैसे जर्मन में “Lehrer*in”

फिर हर prompt से बनाई गई तस्वीरों को gender-wise analyze किया गया —
मतलब कितनी male images बनीं, कितनी female और कितनी neutral।

Key Findings

AI Bias को और बढ़ाता है / AI Amplifies Gender Bias

AI केवल existing bias को reflect नहीं करता, बल्कि उसे और बढ़ा देता है

  • “Doctor”, “Engineer”, “Scientist” जैसे words पर ज़्यादातर male images बनीं।
  • “Teacher”, “Nurse”, “Caregiver” जैसे words पर ज़्यादातर female images

 यानी, AI भी समाज की सोच को follow करता है — जहाँ professions को gender से जोड़ा जाता है।

Reference: Bioengineer.org – Gender Bias in AI Images Across Languages

Language का असर / Impact of Language

Language (भाषा) का structure और culture, दोनों bias को प्रभावित करते हैं।

  • French, Spanish जैसी भाषाएँ जो gender-based grammar रखती हैं, वहाँ bias ज़्यादा था।
  • Japanese, Korean में grammatical gender नहीं है, लेकिन वहाँ cultural bias दिखा।

इसका मतलब यह कि भाषा और संस्कृति दोनों मिलकर AI की सोच को shape करती हैं।

Neutral Prompts भी Neutral नहीं / Even Neutral Prompts Are Biased

जब researchers ने neutral prompts दिए (“a person working as a pilot”),
तब भी AI ज़्यादातर male pilot दिखाता था।

मतलब — केवल prompt बदलने से समस्या खत्म नहीं होती,
AI की मूल training data को ठीक करना ज़रूरी है।

Cultural Differences / सांस्कृतिक अंतर

हर देश या भाषा में bias अलग था।

  • Spanish में masculine शब्दों ने ज़्यादा male images बनाईं।
  • English में bias थोड़ा कम था।
  • Asian languages में cultural stereotypes ज़्यादा दिखे।

यानी, AI cultural values को भी replicate करता है

सीमाएँ और चुनौतियाँ / Limitations and Challenges

  1. AI models को train करने के लिए जो data internet से लिया गया है, उसमें पहले से bias मौजूद है।
  2. Low-resource languages जैसे Hindi, Tamil, Arabic आदि इस study में शामिल नहीं थीं।
  3. Gender-neutral prompts से AI को confusion होता है, जिससे images कभी-कभी गलत बनती हैं।

Reference: Nature Study – Gender Distortion in AI Models

AI और समाज / AI and Society

AI-generated visuals अब हर जगह इस्तेमाल हो रहे हैं —
📺 advertisements, 📰 news articles, 🎓 education, और 💻 social media में।

अगर ये visuals बार-बार पुरुषों को power roles में और महिलाओं को care roles में दिखाएँ,
तो society में gender inequality और गहरी हो सकती है।

“AI इंसान की बनाई तकनीक है, इसलिए इसमें इंसान की सोच झलकती है।”

इसलिए ज़रूरी है कि AI को Fair (निष्पक्ष) और Inclusive (समावेशी) बनाया जाए।

Reference: UNDP Blog – AI and Gender Bias

नीतिगत सुझाव / Policy Recommendations

  1. Transparency (पारदर्शिता): Developers को बताना चाहिए कि training data कहाँ से लिया गया है।
  2. Multilingual Testing (बहुभाषी परीक्षण): हर भाषा में bias testing होनी चाहिए।
  3. Inclusive Dataset (समावेशी डेटा): डेटा में सभी gender, professions और cultures शामिल हों।
  4. Ethical Rules (नैतिक दिशा-निर्देश): Bias audit को अनिवार्य किया जाए।
  5. User Awareness (जागरूकता): Users को यह समझना चाहिए कि AI का output भाषा और संस्कृति पर निर्भर करता है।

AI को सुधारने के उपाय / How to Make AI Fair

  • Dataset को diverse बनाया जाए।
  • Female और minority representation बढ़ाई जाए।
  • Prompt-engineering के साथ साथ AI ethics training दी जाए।
  • Government और Tech companies मिलकर AI Fairness Policies बनाएँ।

AI-generated images हमारी सोच का प्रतिबिंब हैं।
अगर समाज में पुरुषों को “leader” और महिलाओं को “supporter” की तरह देखा जाता है,
तो AI भी वही दिखाएगा।

इसलिए भविष्य की AI को बनाना होगा —
✅ Bias-free
✅ Culturally aware
✅ Ethically trained

AI को “Smart” के साथ “Fair” बनाना सबसे बड़ी जिम्मेदारी है।

FAQs – अक्सर पूछे जाने वाले प्रश्न

Q1. MAGBIG Framework क्या है?
यह एक रिसर्च सिस्टम है जो अलग-अलग भाषाओं में AI द्वारा बनाए गए चित्रों में gender bias को मापता है।

Q2. क्या केवल English में ही bias मिला?
नहीं, हर भाषा में bias पाया गया — बस उसकी मात्रा अलग थी।

Q3. Neutral prompts bias को कम करते हैं क्या?
थोड़ा बहुत करते हैं, लेकिन completely eliminate नहीं करते।

Q4. Bias-free AI कैसे बन सकती है?
Inclusive datasets, multilingual testing और ethical training से।

Q5. इस bias का समाज पर क्या असर है?
यह gender inequality को बढ़ा सकता है और stereotypes को मजबूत करता है।

No comments:

Post a Comment

Recent Posts Widget

Menu Bar

Website Visiters

Join Knowledge Word Community

Get Knowledge Word On Mobile

Get Knowledge Word On Mobile
Scan This Code By Your Mobile and Get Letest Notifications of Knowledge Word