Tech

എന്തുകൊണ്ടാണ് AI യുടെ പിഴവുകൾ പെൺകുട്ടികളെ ഏറ്റവും കൂടുതൽ വേദനിപ്പിക്കുന്നത്

AI കളിക്കളത്തെ സമനിലയിലാക്കുന്നില്ല. ഇത് കൂടുതൽ അസമത്വം ഉണ്ടാക്കുന്നു. അടുത്തിടെ, Grok AI സ്ത്രീകളും കുട്ടികളും ഉൾപ്പെടെയുള്ള യഥാർത്ഥ ആളുകളുടെ വ്യക്തമായ ചിത്രങ്ങൾ സൃഷ്ടിക്കുന്നതായി ഉപയോക്താക്കൾ കണ്ടെത്തിയതിനെത്തുടർന്ന് വിമർശനം നേരിട്ടിരുന്നു. xAI ഇപ്പോൾ ചില നിയന്ത്രണങ്ങൾ നടപ്പിലാക്കിയെങ്കിലും, ഈ സംഭവം ഗുരുതരമായ ഒരു ബലഹീനത വെളിപ്പെടുത്തി. ഇല്ലാതെ...

1 min read Via www.fastcompany.com

Mewayz Team

Editorial Team

Tech

ആർട്ടിഫിഷ്യൽ ഇൻ്റലിജൻസ് മഹത്തായ സമനിലയായിരിക്കണം - ലിംഗഭേദം, ഭൂമിശാസ്ത്രം അല്ലെങ്കിൽ പശ്ചാത്തലം എന്നിവ പരിഗണിക്കാതെ വിദ്യാഭ്യാസം, ആരോഗ്യം, സാമ്പത്തിക അവസരങ്ങൾ എന്നിവയിലേക്കുള്ള പ്രവേശനം ജനാധിപത്യവൽക്കരിക്കാൻ കഴിയുന്നത്ര ശക്തമായ ഒരു സാങ്കേതികവിദ്യ. പകരം, വർദ്ധിച്ചുവരുന്ന തെളിവുകൾ സൂചിപ്പിക്കുന്നത് വിപരീതമാണ് സംഭവിക്കുന്നതെന്ന്. ഡീപ്ഫേക്ക് ചൂഷണം മുതൽ പക്ഷപാതപരമായ നിയമന അൽഗോരിതം വരെ, AI യുടെ ഏറ്റവും വിനാശകരമായ പരാജയങ്ങൾ ആനുപാതികമായി പെൺകുട്ടികളിലും സ്ത്രീകളിലും പതിക്കുന്നു. സാങ്കേതിക വ്യവസായത്തിൻ്റെ അന്ധമായ പാടുകൾ - പരിശീലന ഡാറ്റ, ഉൽപ്പന്ന രൂപകൽപന, നേതൃത്വ ഘടനകൾ എന്നിവയിൽ നിർമ്മിച്ചിരിക്കുന്നത് - അമൂർത്തമായ നയപരമായ ആശങ്കകളല്ല. ഇതിനകം തന്നെ ഏറ്റവും ദുർബലരായ ആളുകൾക്ക് അവർ ഇപ്പോൾ യഥാർത്ഥ ദോഷം ഉണ്ടാക്കുകയാണ്.

ഡീപ്ഫേക്ക് പ്രതിസന്ധി: AI സ്ത്രീകൾക്കെതിരായ ആയുധമാകുമ്പോൾ

AI സൃഷ്‌ടിച്ച സമ്മതമില്ലാത്ത ചിത്രങ്ങളുടെ സ്കെയിൽ പകർച്ചവ്യാധി അനുപാതത്തിൽ എത്തിയിരിക്കുന്നു. ഹോം സെക്യൂരിറ്റി ഹീറോസിൻ്റെ 2023-ലെ റിപ്പോർട്ട് പ്രകാരം ഓൺലൈനിലെ ഡീപ്ഫേക്ക് ഉള്ളടക്കങ്ങളിൽ 98% അശ്ലീലമാണെന്നും അതിൽ 99% സ്ത്രീകളെ ലക്ഷ്യമിടുന്നുവെന്നും കണ്ടെത്തി. ഇവ സാങ്കൽപ്പിക അപകടസാധ്യതകളല്ല - ആയിരക്കണക്കിന് പെൺകുട്ടികളുടെ ജീവിതാനുഭവങ്ങളാണ്, അവരിൽ പലരും പ്രായപൂർത്തിയാകാത്തവർ. യുണൈറ്റഡ് സ്‌റ്റേറ്റ്‌സ്, യുണൈറ്റഡ് കിംഗ്‌ഡം, ദക്ഷിണ കൊറിയ എന്നിവിടങ്ങളിൽ ഉടനീളമുള്ള സ്‌കൂളുകളിൽ, സഹപാഠികൾക്കിടയിൽ പ്രചരിക്കുന്ന AI-നിർമ്മിത സ്‌പഷ്‌ടമായ ചിത്രങ്ങൾ വിദ്യാർത്ഥികൾ കണ്ടെത്തി, പലപ്പോഴും മിനിറ്റുകൾക്കുള്ളിൽ സൗജന്യമായി ലഭ്യമായ ആപ്പുകൾ ഉപയോഗിച്ച് സൃഷ്‌ടിക്കപ്പെട്ടു.

സ്ത്രീകളും കുട്ടികളും ഉൾപ്പെടെയുള്ള യഥാർത്ഥ ആളുകളുടെ വ്യക്തമായ ചിത്രങ്ങൾ സൃഷ്ടിക്കാൻ കഴിവുള്ള സിസ്റ്റം ഉപയോക്താക്കൾ കണ്ടെത്തിയ Grok AI-യുമായി ബന്ധപ്പെട്ട സംഭവം ഒരു അപാകതയല്ല. ഇത് ഒരു വിശാലമായ പാറ്റേണിൻ്റെ ലക്ഷണമായിരുന്നു: വേണ്ടത്ര സുരക്ഷാ സംവിധാനങ്ങളില്ലാതെ AI ടൂളുകൾ തകർപ്പൻ വേഗതയിൽ പുറത്തിറങ്ങുന്നു, അതിൻ്റെ അനന്തരഫലങ്ങൾ നേരിടാൻ ഏറ്റവും കുറഞ്ഞ ശക്തിയുള്ളവരെയാണ് ബാധിക്കുന്നത്. പ്ലാറ്റ്‌ഫോമുകൾ ഒടുവിൽ പൊതുജന പ്രതിഷേധത്തോട് പ്രതികരിക്കുമ്പോൾ, കേടുപാടുകൾ ഇതിനകം തന്നെ കഴിഞ്ഞു. ഇരകൾ ശാശ്വതമായ മാനസിക ആഘാതം, സാമൂഹിക ഒറ്റപ്പെടൽ, അങ്ങേയറ്റത്തെ സന്ദർഭങ്ങളിൽ സ്വയം ഉപദ്രവിക്കൽ എന്നിവ റിപ്പോർട്ട് ചെയ്യുന്നു. ഏത് നിയമ ചട്ടക്കൂടുകളേക്കാളും അല്ലെങ്കിൽ ഉള്ളടക്ക മോഡറേഷൻ സിസ്റ്റത്തേക്കാൾ വേഗത്തിൽ സാങ്കേതികവിദ്യ നീങ്ങുന്നു.

ഇതിനെ പ്രത്യേകമായി വഞ്ചനാപരമാക്കുന്നത് പ്രവേശനക്ഷമതയാണ്. ബോധ്യപ്പെടുത്തുന്ന ഡീപ്ഫേക്ക് സൃഷ്ടിക്കുന്നതിന് ഒരിക്കൽ സാങ്കേതിക വൈദഗ്ദ്ധ്യം ആവശ്യമാണ്. ഇന്ന്, സ്‌മാർട്ട്‌ഫോണുള്ള 13 വയസ്സുകാരന് രണ്ട് മിനിറ്റിനുള്ളിൽ അത് ചെയ്യാൻ കഴിയും. പെൺകുട്ടികൾക്കെതിരെ AI ആയുധമാക്കുന്നതിനുള്ള തടസ്സം ഫലത്തിൽ പൂജ്യമായി കുറഞ്ഞു, അതേസമയം മിക്ക ഇരകൾക്കും നീതി തേടുന്നതിനുള്ള തടസ്സം അസാധ്യമായി ഉയർന്നതാണ്.

അൽഗരിഥമിക് ബയസ്: പരിശീലന ഡാറ്റ എങ്ങനെയാണ് വിവേചനം എൻകോഡ് ചെയ്യുന്നത്

AI സിസ്റ്റങ്ങൾ അവ നൽകുന്ന ഡാറ്റയിൽ നിന്ന് പഠിക്കുന്നു, മാത്രമല്ല ലോക ഡാറ്റ നിഷ്പക്ഷമല്ല. 2018-ൽ ആമസോൺ ഒരു AI റിക്രൂട്ടിംഗ് ടൂൾ നിർമ്മിച്ചപ്പോൾ, "വനിതാ ചെസ്സ് ക്ലബ്ബ് ക്യാപ്റ്റൻ" പോലെ - "വിമൻസ്" എന്ന വാക്ക് ഉൾപ്പെടുന്ന റെസ്യൂമെകൾ വ്യവസ്ഥാപിതമായി പിഴ ചുമത്തി - കാരണം സാങ്കേതികവിദ്യയിൽ നിലവിലുള്ള ലിംഗ അസന്തുലിതാവസ്ഥയെ പ്രതിഫലിപ്പിക്കുന്ന ഒരു ദശാബ്ദത്തെ നിയമന ഡാറ്റയിൽ സിസ്റ്റം പരിശീലനം നേടിയിരുന്നു. ആമസോൺ ഉപകരണം സ്‌ക്രാപ്പ് ചെയ്‌തു, പക്ഷേ അടിസ്ഥാന പ്രശ്‌നം വ്യവസായത്തിലുടനീളം നിലനിൽക്കുന്നു. ചരിത്രപരമായ ഡാറ്റയിൽ പരിശീലനം ലഭിച്ച AI മോഡലുകൾ മുൻകാല പക്ഷപാതങ്ങളെ മാത്രം പ്രതിഫലിപ്പിക്കുന്നില്ല; അവ അവയെ സ്കെയിലിൽ വർദ്ധിപ്പിക്കുകയും ഓട്ടോമേറ്റ് ചെയ്യുകയും ചെയ്യുന്നു.

ഇത് നിയമിക്കുന്നതിനും അപ്പുറമാണ്. MIT, സ്റ്റാൻഫോർഡ് എന്നിവയുൾപ്പെടെയുള്ള സ്ഥാപനങ്ങളിൽ നിന്നുള്ള പഠനങ്ങൾ, മുഖം തിരിച്ചറിയൽ സംവിധാനങ്ങൾ ഇരുണ്ട ചർമ്മമുള്ള സ്ത്രീകളെ തെറ്റായി തിരിച്ചറിയുന്നത് ഇളം ചർമ്മമുള്ള പുരുഷന്മാരേക്കാൾ 34% വരെ കൂടുതലാണെന്ന് തെളിയിച്ചിട്ടുണ്ട്. ക്രെഡിറ്റ് സ്‌കോറിംഗ് അൽഗോരിതം സ്ത്രീകൾക്ക് ഒരേ സാമ്പത്തിക പ്രൊഫൈലുകളുള്ള പുരുഷന്മാരേക്കാൾ കുറഞ്ഞ പരിധികൾ വാഗ്ദാനം ചെയ്യുന്നു. പ്രാഥമികമായി പുരുഷ രോഗികളുടെ ഡാറ്റയിൽ പരിശീലിപ്പിച്ച ഹെൽത്ത്‌കെയർ AI, ഹൃദയാഘാതം മുതൽ സ്വയം രോഗപ്രതിരോധ വൈകല്യങ്ങൾ വരെ സ്ത്രീകളിൽ വ്യത്യസ്തമായി കാണപ്പെടുന്ന അവസ്ഥകൾക്ക് തെറ്റായ രോഗനിർണയത്തിനും ചികിത്സ വൈകുന്നതിനും ഇടയാക്കി.

അൽഗരിഥമിക് ബയസിൻ്റെ ഏറ്റവും അപകടകരമായ കാര്യം അത് വസ്തുനിഷ്ഠതയുടെ മുഖംമൂടി ധരിക്കുന്നു എന്നതാണ്. ഒരു മനുഷ്യൻ വിവേചനപരമായ തീരുമാനം എടുക്കുമ്പോൾ, അത് വെല്ലുവിളിക്കപ്പെടാം. ഒരു AI അത് ചെയ്യുമ്പോൾ, അത് ന്യായമായിരിക്കണമെന്ന് ആളുകൾ കരുതുന്നു — കാരണം അത് "വെറും കണക്ക്" ആണ്.

മാനസിക ആരോഗ്യ ടോൾ: AI-അധിഷ്ഠിത പ്ലാറ്റ്‌ഫോമുകളും പെൺകുട്ടികളുടെ ക്ഷേമവും

സാമൂഹ്യ മാധ്യമ അൽഗോരിതങ്ങൾ - AI-ൽ നിന്നുള്ളതാണ് - ഇടപഴകൽ പരമാവധിയാക്കാൻ രൂപകൽപ്പന ചെയ്തിട്ടുള്ളതാണ്, കൂടാതെ ഈ ഒപ്റ്റിമൈസേഷൻ കൗമാരക്കാരായ പെൺകുട്ടികൾക്ക് കുത്തനെയുള്ള ചിലവിലാണ് വരുന്നതെന്ന് ഗവേഷണം സ്ഥിരമായി കാണിക്കുന്നു. 2021-ൽ മെറ്റായിൽ നിന്ന് ചോർന്ന ആന്തരിക രേഖകൾ, കൗമാരപ്രായക്കാരായ മൂന്നിലൊന്ന് പെൺകുട്ടികൾക്കും ഇൻസ്റ്റാഗ്രാം ബോഡി ഇമേജ് പ്രശ്‌നങ്ങൾ വഷളാക്കുന്നുണ്ടെന്ന് കമ്പനിയുടെ സ്വന്തം ഗവേഷകർ കണ്ടെത്തിയതായി വെളിപ്പെടുത്തി. AI- നയിക്കുന്ന ശുപാർശ എഞ്ചിനുകൾ ഉള്ളടക്കം നിഷ്ക്രിയമായി പ്രദർശിപ്പിക്കുന്നില്ല; തീവ്രമായ ഭക്ഷണക്രമം, സൗന്ദര്യവർദ്ധക നടപടിക്രമങ്ങൾ, സ്വയം-ദ്രോഹം എന്നിവയെക്കുറിച്ചുള്ള കൂടുതൽ ദോഷകരമായ വസ്തുക്കളിലേക്ക് അവർ ദുർബലരായ ഉപയോക്താക്കളെ സജീവമായി സ്വാധീനിക്കുന്നു.

AI ചാറ്റ്ബോട്ടുകളുടെ ആവിർഭാവം അപകടത്തിൻ്റെ മറ്റൊരു തലം ചേർക്കുന്നു. പ്രായപൂർത്തിയാകാത്തവരെ അനുചിതമായ സംഭാഷണങ്ങളിൽ ഏർപ്പെടുത്തുന്നതിനോ അപകടകരമായ വൈദ്യോപദേശം നൽകുന്നതിനോ ദോഷകരമായ ചിന്താരീതികളെ ശക്തിപ്പെടുത്തുന്നതിനോ ഉള്ള AI കൂട്ടാളികളുടെയും ചാറ്റ്ബോട്ട് സേവനങ്ങളുടെയും റിപ്പോർട്ടുകൾ പുറത്തുവന്നിട്ടുണ്ട്. 2024-ലെ ഒരു അന്വേഷണത്തിൽ, നിരവധി ജനപ്രിയ AI ചാറ്റ്‌ബോട്ട് ആപ്പുകൾ അർത്ഥവത്തായ പ്രായ പരിശോധനയോ ഉള്ളടക്ക സുരക്ഷയോ നടപ്പിലാക്കുന്നതിൽ പരാജയപ്പെട്ടതായി കണ്ടെത്തി, ഇത് കഴിയുന്നത്ര ഇടപഴകാനും മനുഷ്യനാണെന്ന് തോന്നാനും രൂപകൽപ്പന ചെയ്‌തിരിക്കുന്ന സിസ്റ്റങ്ങളുമായുള്ള സംഭാഷണങ്ങളിൽ കുട്ടികളെ ഫലപ്രദമായി സംരക്ഷിക്കുന്നില്ല.

AI- പൂരിത ലോകത്ത് കൗമാരപ്രായത്തിൽ സഞ്ചരിക്കുന്ന പെൺകുട്ടികൾക്ക്, ക്യുമുലേറ്റീവ് ഇഫക്റ്റ് എന്നത് അവരുടെ രൂപം ഒരേസമയം വിലയിരുത്തുകയും അവരുടെ അവസരങ്ങൾ പരിമിതപ്പെടുത്തുകയും ചൂഷണത്തിന് വിധേയരാക്കുകയും ചെയ്യുന്ന ഒരു ഡിജിറ്റൽ പരിതസ്ഥിതിയാണ് - അൽഗോരിതങ്ങൾ നിഷ്പക്ഷമാണെന്നും ഫലങ്ങൾ "അവർക്കായി മാത്രം വ്യക്തിഗതമാക്കിയതാണ്" എന്നും പറയുകയും ചെയ്യുന്നു.

സാമ്പത്തിക വിടവ്: ജോലിസ്ഥലത്തെ ലിംഗ അസമത്വം വർദ്ധിപ്പിക്കുമെന്ന് AI ഭീഷണിപ്പെടുത്തുന്നു

എഐയും ഓട്ടോമേഷനും 2025-ഓടെ 85 ദശലക്ഷം തൊഴിലവസരങ്ങൾ ഇല്ലാതാക്കുമെന്ന് വേൾഡ് ഇക്കണോമിക് ഫോറം കണക്കാക്കുന്നു, ഓട്ടോമേഷനിൽ ഏറ്റവുമധികം സാധ്യതയുള്ള അഡ്മിനിസ്ട്രേറ്റീവ്, ക്ലറിക്കൽ, സർവീസ് റോളുകളിൽ സ്ത്രീകളെ അമിതമായി പ്രതിനിധീകരിക്കുന്നതിനാൽ ആനുപാതികമായി സ്ത്രീകളെ ബാധിക്കില്ല. അതേ സമയം, ആഗോളതലത്തിൽ AI പ്രൊഫഷണലുകളിൽ 22% മാത്രമാണ് സ്ത്രീകൾ, അതായത് ഈ സംവിധാനങ്ങൾ എങ്ങനെ രൂപകൽപന ചെയ്യുകയും വിന്യസിക്കുകയും ചെയ്യുന്നു എന്നതിൽ അവർക്ക് സ്വാധീനം കുറവാണ് - വളരുന്ന മേഖലകളിലെ അവസരങ്ങൾ കുറവാണ്.

ഇത് സങ്കീർണ്ണമായ ഒരു പ്രശ്നം സൃഷ്ടിക്കുന്നു. AI സമ്പദ്‌വ്യവസ്ഥയെ പുനർനിർമ്മിക്കുമ്പോൾ, സ്ത്രീകൾക്ക് ചരിത്രപരമായി തൊഴിൽ ലഭിച്ചിട്ടുള്ള വ്യവസായങ്ങൾ ചുരുങ്ങുകയാണ്, അതേസമയം പുതിയ സമ്പത്ത് സൃഷ്ടിക്കുന്ന വ്യവസായങ്ങൾ - AI വികസനം, മെഷീൻ ലേണിംഗ് എഞ്ചിനീയറിംഗ്, ഡാറ്റ സയൻസ് - പുരുഷ മേധാവിത്വത്തിൽ തുടരുന്നു. ബോധപൂർവമായ ഇടപെടൽ കൂടാതെ, AI ലിംഗ വേതന വിടവ് നിലനിർത്തുക മാത്രമല്ല ചെയ്യുന്നത്; അത് ത്വരിതപ്പെടുത്തുമെന്ന് ഭീഷണിപ്പെടുത്തുന്നു.

💡 DID YOU KNOW?

Mewayz replaces 8+ business tools in one platform

CRM · Invoicing · HR · Projects · Booking · eCommerce · POS · Analytics. Free forever plan available.

Start Free →
  • അഡ്‌മിനിസ്‌ട്രേറ്റീവ് റോളുകൾ: 73% സ്ത്രീകൾ വഹിക്കുന്നു, AI ഓട്ടോമേഷന് ഏറ്റവും ദുർബലമായവയിൽ ഉൾപ്പെടുന്നു
  • AI, മെഷീൻ ലേണിംഗ് വർക്ക്ഫോഴ്സ്: ആഗോളതലത്തിൽ 22% സ്ത്രീകൾ മാത്രം, സിസ്റ്റം ഡിസൈനിലെ വൈവിധ്യമാർന്ന ഇൻപുട്ട് പരിമിതപ്പെടുത്തുന്നു
  • സ്ത്രീകൾ നയിക്കുന്ന AI സ്റ്റാർട്ടപ്പുകൾക്കുള്ള വെഞ്ച്വർ ക്യാപിറ്റൽ: മൊത്തം AI ഫണ്ടിംഗിൻ്റെ 2% ൽ താഴെ മാത്രമാണ് എല്ലാ സ്ത്രീ സ്ഥാപക ടീമുകൾക്കും ലഭിക്കുന്നത്
  • STEM പൈപ്പ്‌ലൈൻ: 11 നും 15 നും ഇടയിൽ പ്രായമുള്ള പെൺകുട്ടികളുടെ കമ്പ്യൂട്ടർ സയൻസിൽ താൽപ്പര്യം 18% കുറയുന്നു, ഭാവി കരിയർ പാതകൾ നിർണ്ണയിക്കുന്ന ഒരു നിർണായക വിൻഡോ
  • സാങ്കേതികവിദ്യയിലെ ശമ്പള വിടവ്: AI റോളുകളിലെ സ്ത്രീകൾക്ക് തുല്യ സ്ഥാനങ്ങളിലെ പുരുഷ എതിരാളികളേക്കാൾ ശരാശരി 12-20% കുറവ് വരുമാനം ലഭിക്കുന്നു

ഈ ഷിഫ്റ്റ് നാവിഗേറ്റ് ചെയ്യുന്ന ബിസിനസുകൾക്ക്, അവർ തിരഞ്ഞെടുക്കുന്ന ടൂളുകൾ പ്രധാനമാണ്. Mewayz പോലുള്ള പ്ലാറ്റ്‌ഫോമുകൾ രൂപകൽപ്പന ചെയ്‌തിരിക്കുന്നത് - സ്ത്രീകളുടെ നേതൃത്വത്തിലുള്ള ബിസിനസ്സുകളും സോളോപ്രണേഴ്‌സും ഉൾപ്പെടെ - CRM, ഇൻവോയ്‌സിംഗ്, പേറോൾ, എച്ച്ആർ, അനലിറ്റിക്‌സ് എന്നിവയിലുടനീളമുള്ള എൻ്റർപ്രൈസ്-ഗ്രേഡ് കഴിവുകളിലേക്കുള്ള ആക്‌സസ്, സാങ്കേതിക പശ്ചാത്തലമോ ആറ് അക്കങ്ങളുള്ള സോഫ്റ്റ്‌വെയർ ബജറ്റോ ആവശ്യമില്ലാതെ തന്നെ. ബിസിനസ് ഇൻഫ്രാസ്ട്രക്ചറിലേക്കുള്ള പ്രവേശനം ജനാധിപത്യവൽക്കരിക്കുക എന്നത് AI-അധിഷ്ഠിത സാമ്പത്തിക പരിവർത്തനം സ്ത്രീകളെ കൂടുതൽ പിന്നിലാക്കില്ലെന്ന് ഉറപ്പാക്കാനുള്ള ഒരു മൂർത്തമായ മാർഗമാണ്.

ഹെൽത്ത്കെയർ ബ്ലൈൻഡ് സ്പോട്ടുകൾ: AI സ്ത്രീകളെ കാണാത്തപ്പോൾ

മെഡിക്കൽ AI അസാധാരണമായ വാഗ്ദാനങ്ങൾ നൽകുന്നു - വേഗത്തിലുള്ള രോഗനിർണ്ണയങ്ങൾ, കൂടുതൽ വ്യക്തിപരമാക്കിയ ചികിത്സകൾ, രോഗം നേരത്തെ കണ്ടെത്തൽ. എന്നാൽ ആ വാഗ്ദത്തം ആരുടെ ശരീരങ്ങളെ മനസ്സിലാക്കാൻ പരിശീലിപ്പിക്കപ്പെടുന്നു എന്നതിനെ ആശ്രയിച്ചിരിക്കുന്നു. ദ ലാൻസെറ്റ് ഡിജിറ്റൽ ഹെൽത്ത്-ൽ പ്രസിദ്ധീകരിച്ച ഒരു 2020 അവലോകനത്തിൽ, ഭൂരിഭാഗം AI ഡയഗ്നോസ്റ്റിക് ടൂളുകളും സ്ത്രീകളെ, പ്രത്യേകിച്ച് നിറമുള്ള സ്ത്രീകളെ ഗണ്യമായി കുറച്ചുകാണുന്ന ഡാറ്റാസെറ്റുകളിൽ പരിശീലിപ്പിച്ചതാണെന്ന് കണ്ടെത്തി. ഫലം: AI സംവിധാനങ്ങൾ ചില രോഗികൾക്ക് മികച്ചതും മറ്റുള്ളവർക്ക് അപകടകരമാംവിധം മോശവുമാണ്.

ലോകമെമ്പാടുമുള്ള മറ്റേതൊരു അവസ്ഥയേക്കാളും കൂടുതൽ സ്ത്രീകളെ ഹൃദയ സംബന്ധമായ അസുഖങ്ങൾ കൊല്ലുന്നു, എന്നിട്ടും ഹൃദയാഘാതം കണ്ടെത്തുന്നതിനുള്ള AI മോഡലുകൾ പ്രധാനമായും പുരുഷന്മാരുടെ രോഗലക്ഷണ അവതരണങ്ങളിൽ പരിശീലിപ്പിച്ചിട്ടുണ്ട്. ഹൃദയാഘാതം അനുഭവപ്പെടുന്ന സ്ത്രീകൾക്ക് "ക്ലാസിക്" നെഞ്ച് പിടിക്കുന്ന സാഹചര്യത്തേക്കാൾ ക്ഷീണം, ഓക്കാനം, താടിയെല്ല് വേദന എന്നിവ ഉണ്ടാകാറുണ്ട് - AI ട്രയേജ് സിസ്റ്റങ്ങൾക്ക് മുൻഗണന നൽകാത്തതോ പൂർണ്ണമായും നഷ്ടപ്പെടുന്നതോ ആയ ലക്ഷണങ്ങൾ. അതുപോലെ, പ്രാഥമികമായി കനംകുറഞ്ഞ ത്വക്ക് ടോണുകളിൽ പരിശീലനം ലഭിച്ച ഡെർമറ്റോളജിക്കൽ AI, ഇരുണ്ട ചർമ്മത്തിലെ അവസ്ഥകൾ നിർണ്ണയിക്കുന്നതിൽ വളരെ കുറഞ്ഞ കൃത്യത കാണിക്കുന്നു, ഇത് ലിംഗഭേദവും വംശീയവുമായ പക്ഷപാതത്തെ വർദ്ധിപ്പിക്കുന്നു.

ആരോഗ്യ സംരക്ഷണ AI വിടവ് അനിവാര്യമല്ല. ഇതൊരു ഡിസൈൻ തിരഞ്ഞെടുപ്പാണ് - അല്ലെങ്കിൽ കൂടുതൽ കൃത്യമായി പറഞ്ഞാൽ, ഡിസൈനിൻ്റെ പരാജയം. ഡെവലപ്‌മെൻ്റ് ടീമുകൾക്ക് വൈവിധ്യം ഇല്ലാതിരിക്കുകയും പരിശീലന ഡാറ്റാസെറ്റുകൾ ഉൾപ്പെടുത്തുന്നതിനായി മനഃപൂർവ്വം ക്യൂറേറ്റ് ചെയ്യപ്പെടാതിരിക്കുകയും ചെയ്യുമ്പോൾ, തത്ഫലമായുണ്ടാകുന്ന ടൂളുകൾ അവയ്ക്ക് മുമ്പുള്ള സിസ്റ്റങ്ങളുടെ പക്ഷപാതങ്ങളെ അവകാശമാക്കുകയും സ്കെയിൽ ചെയ്യുകയും ചെയ്യുന്നു.

അർഥവത്തായ മാറ്റം യഥാർത്ഥത്തിൽ ഇതുപോലെ കാണപ്പെടുന്നു

പ്രശ്നം അംഗീകരിക്കേണ്ടത് ആവശ്യമാണ്, പക്ഷേ അപര്യാപ്തമാണ്. അർത്ഥവത്തായ മാറ്റത്തിന് ഒന്നിലധികം തലങ്ങളിൽ ഘടനാപരമായ പ്രവർത്തനം ആവശ്യമാണ് - നയവും നിയന്ത്രണവും മുതൽ ഉൽപ്പന്ന രൂപകൽപ്പനയും ബിസിനസ് പ്രാക്ടീസും വരെ. ഒരു സിൽവർ ബുള്ളറ്റല്ലെങ്കിലും നിരവധി സമീപനങ്ങൾ വാഗ്ദാനങ്ങൾ പ്രകടമാക്കി.

നിയമനിർമ്മാണം നടക്കാൻ തുടങ്ങിയിരിക്കുന്നു. 2024-ൽ പ്രാബല്യത്തിൽ വന്ന EU-ൻ്റെ AI നിയമം, AI സിസ്റ്റങ്ങൾക്ക് അപകടസാധ്യത അടിസ്ഥാനമാക്കിയുള്ള വർഗ്ഗീകരണങ്ങൾ സ്ഥാപിക്കുകയും തൊഴിൽ, വിദ്യാഭ്യാസം, ആരോഗ്യ സംരക്ഷണം എന്നിവയിൽ ഉപയോഗിക്കുന്ന ഉയർന്ന അപകടസാധ്യതയുള്ള ആപ്ലിക്കേഷനുകളിൽ കർശനമായ ആവശ്യകതകൾ ചുമത്തുകയും ചെയ്യുന്നു. AI സൃഷ്ടിച്ച സമ്മതമില്ലാത്ത അടുപ്പമുള്ള ഇമേജറിയെ ക്രിമിനൽ കുറ്റമാക്കുന്ന നിയമങ്ങൾ നിരവധി യു.എസ് സംസ്ഥാനങ്ങൾ അവതരിപ്പിക്കുകയോ പാസാക്കുകയോ ചെയ്തിട്ടുണ്ട്. പതിനായിരക്കണക്കിന് സ്ത്രീകളെയും പെൺകുട്ടികളെയും ബാധിക്കുന്ന, 2024-ൽ രാജ്യവ്യാപകമായി ഡീപ്ഫേക്ക് പ്രതിസന്ധി നേരിട്ട ദക്ഷിണ കൊറിയ, AI- പ്രാപ്തമാക്കിയ ലൈംഗിക ചൂഷണത്തിന് ലോകത്തിലെ ഏറ്റവും ശക്തമായ ശിക്ഷകൾ നടപ്പിലാക്കി.

എന്നാൽ ആരാണ് AI നിർമ്മിക്കുന്നത്, ആരുടെ ആവശ്യങ്ങൾ ഡിസൈൻ പ്രക്രിയയിൽ കേന്ദ്രീകരിച്ചിരിക്കുന്നു എന്നതിൽ അടിസ്ഥാനപരമായി വേരൂന്നിയ ഒരു പ്രശ്‌നം നിയന്ത്രണം കൊണ്ട് മാത്രം പരിഹരിക്കില്ല. വൈവിധ്യത്തെ ഗൗരവമായി കാണുന്ന കമ്പനികൾ - ഒരു ബ്രാൻഡിംഗ് വ്യായാമമായിട്ടല്ല, മറിച്ച് ഒരു ഉൽപ്പന്ന വികസനത്തിൻ്റെ അനിവാര്യത എന്ന നിലയിലാണ് - മികച്ചതും സുരക്ഷിതവുമായ സംവിധാനങ്ങൾ നിർമ്മിക്കുക. മക്കിൻസിയിൽ നിന്നുള്ള ഗവേഷണം സ്ഥിരമായി കാണിക്കുന്നത് ലിംഗ വൈവിധ്യത്തിൻ്റെ മുൻനിരയിലുള്ള കമ്പനികൾ ശരാശരിക്ക് മുകളിലുള്ള ലാഭം നേടാനുള്ള സാധ്യത 25% കൂടുതലാണ്. AI യുടെ കാര്യം വരുമ്പോൾ, വൈവിധ്യം ഒരു ധാർമ്മിക ബാധ്യത മാത്രമല്ല; അതൊരു എഞ്ചിനീയറിംഗ് ആവശ്യകതയാണ്.

കൂടുതൽ തുല്യതയുള്ള AI ഭാവി കെട്ടിപ്പടുക്കുന്നു

മുന്നോട്ടുള്ള പാതയ്ക്ക് അസുഖകരമായ ഒരു സത്യവുമായി സത്യസന്ധമായ കണക്കുകൂട്ടൽ ആവശ്യമാണ്: AI നിഷ്പക്ഷമല്ല, ഒരിക്കലും നിഷ്പക്ഷമായിരുന്നില്ല, പക്ഷപാതത്തെ ചെറുക്കുന്നതിന് ആളുകൾ ബോധപൂർവവും സുസ്ഥിരവുമായ തിരഞ്ഞെടുപ്പുകൾ നടത്തുന്നില്ലെങ്കിൽ ഒരിക്കലും നിഷ്പക്ഷമായിരിക്കില്ല. ഇതിനർത്ഥം AI ടീമുകളെ വൈവിധ്യവൽക്കരിക്കുക, പ്രാതിനിധ്യ വിടവുകൾക്കുള്ള പരിശീലന ഡാറ്റ ഓഡിറ്റ് ചെയ്യുക, റിലീസിന് മുമ്പ് ശക്തമായ സുരക്ഷാ പരിശോധന നടപ്പിലാക്കുക, ദോഷം സംഭവിക്കുമ്പോൾ ഉത്തരവാദിത്ത സംവിധാനങ്ങൾ സൃഷ്ടിക്കുക.

ബിസിനസ്സുകൾക്കും സംരംഭകർക്കും - പ്രത്യേകിച്ച് AI- പരിവർത്തനം ചെയ്ത സമ്പദ്‌വ്യവസ്ഥയിലെ സ്ത്രീകൾ നിർമ്മിക്കുന്ന കമ്പനികൾ - പ്രവേശനക്ഷമത, സുതാര്യത, ന്യായമായ വില എന്നിവയ്ക്ക് മുൻഗണന നൽകുന്ന ഉപകരണങ്ങൾ തിരഞ്ഞെടുക്കുന്നത് പ്രായോഗികവും തത്വാധിഷ്ഠിതവുമായ തീരുമാനമാണ്. എൻ്റർപ്രൈസ് ബജറ്റുകൾക്കോ ​​സാങ്കേതിക വൈദഗ്ധ്യത്തിനോ പിന്നിൽ ശക്തമായ ബിസിനസ്സ് ടൂളുകൾ ഉൾപ്പെടുത്താൻ പാടില്ല എന്ന ബോധ്യത്തിലാണ് Mewayz നിർമ്മിച്ചിരിക്കുന്നത്. 207 മൊഡ്യൂളുകൾ CRM, HR മുതൽ ബുക്കിംഗ്, അനലിറ്റിക്‌സ് വരെ വ്യാപിച്ചുകിടക്കുന്നതിനാൽ, ഏത് ബിസിനസ്സ് ഉടമയ്ക്കും ലിംഗഭേദമോ സാങ്കേതിക പശ്ചാത്തലമോ ഉറവിടങ്ങളോ പരിഗണിക്കാതെ സ്കെയിലിൽ പ്രവർത്തിക്കാൻ കഴിയുന്ന തരത്തിലാണ് ഇത് രൂപകൽപ്പന ചെയ്‌തിരിക്കുന്നത്. വിശാലമായ ടെക്‌നോളജി ലാൻഡ്‌സ്‌കേപ്പ് കളിക്കളത്തെ ചരിഞ്ഞുകൊണ്ടിരിക്കുമ്പോൾ അത്തരം അടിസ്ഥാന സൗകര്യങ്ങളുടെ ജനാധിപത്യവൽക്കരണം എന്നത്തേക്കാളും പ്രധാനമാണ്.

ഇന്ന് വളരുന്ന പെൺകുട്ടികൾക്ക് ഒരു സമ്പദ്‌വ്യവസ്ഥയും ആരോഗ്യ പരിരക്ഷാ സംവിധാനവും ഇപ്പോൾ എടുക്കുന്ന AI തീരുമാനങ്ങളാൽ രൂപപ്പെട്ട ഒരു സാമൂഹിക ചുറ്റുപാടും പാരമ്പര്യമായി ലഭിക്കും. ഓരോ പക്ഷപാതപരമായ ഡാറ്റാസെറ്റും ശരിയാക്കാതെ അവശേഷിക്കുന്നു, ഓരോ സുരക്ഷാ ഗാർഡ്‌റെയിലും നിർമ്മിക്കാതെ അവശേഷിക്കുന്നു, എല്ലാ നേതൃത്വ ടീമും ഏകതാനമായി അവശേഷിക്കുന്നു - കൂടാതെ ആ തിരഞ്ഞെടുപ്പുകൾക്ക് തലമുറകളിലുടനീളം സംയോജിപ്പിക്കുന്ന അനന്തരഫലങ്ങളുണ്ട്. AI പെൺകുട്ടികളുടെയും സ്ത്രീകളുടെയും ഭാവി രൂപപ്പെടുത്തുമോ എന്നതല്ല ചോദ്യം. അത് ഇതിനകം തന്നെ. ഞങ്ങൾ അത് ആവശ്യപ്പെടുമോ എന്നതാണ് ചോദ്യം.

പതിവ് ചോദിക്കുന്ന ചോദ്യങ്ങൾ

AI എങ്ങനെയാണ് പെൺകുട്ടികളെയും സ്ത്രീകളെയും ആനുപാതികമല്ലാത്ത രീതിയിൽ ഉപദ്രവിക്കുന്നത്?

പക്ഷപാതപരമായ ഡാറ്റയിൽ പരിശീലിപ്പിച്ച AI സിസ്റ്റങ്ങൾ, നിയമന അൽഗോരിതം, ക്രെഡിറ്റ് സ്‌കോറിംഗ്, ഉള്ളടക്ക മോഡറേഷൻ എന്നിവയിൽ ലിംഗ സ്റ്റീരിയോടൈപ്പുകൾ ശാശ്വതമാക്കുന്നു. ഡീപ്‌ഫേക്ക് ടെക്‌നോളജി വൻതോതിൽ സ്ത്രീകളെ ലക്ഷ്യമിടുന്നു, പഠനങ്ങൾ കാണിക്കുന്നത് 90% സമ്മതമില്ലാത്ത ഡീപ്ഫേക്ക് ഉള്ളടക്കം സ്ത്രീകളെയാണ് കാണിക്കുന്നത്. നിറമുള്ള സ്ത്രീകളിൽ മുഖം തിരിച്ചറിയൽ മോശമായി പ്രവർത്തിക്കുന്നു, കൂടാതെ AI- സൃഷ്ടിച്ച തിരയൽ ഫലങ്ങൾ പലപ്പോഴും ദോഷകരമായ സ്റ്റീരിയോടൈപ്പുകളെ ശക്തിപ്പെടുത്തുന്നു, വിദ്യാഭ്യാസത്തിലും ജോലിയിലും പെൺകുട്ടികൾ അവരുടെ സ്വന്തം കഴിവുകൾ എങ്ങനെ കാണുന്നു എന്നതിനെ പരിമിതപ്പെടുത്തുന്നു.

AI പരിശീലന ഡാറ്റാസെറ്റുകൾ എന്തുകൊണ്ട് ലിംഗഭേദം സൃഷ്ടിക്കുന്നു?

പതിറ്റാണ്ടുകളുടെ വ്യവസ്ഥാപരമായ അസമത്വത്തെ പ്രതിഫലിപ്പിക്കുന്ന ചരിത്രപരമായ ഡാറ്റയിലാണ് മിക്ക AI മോഡലുകളും പരിശീലിപ്പിച്ചിരിക്കുന്നത്. നേതൃത്വം, STEM, അല്ലെങ്കിൽ സംരംഭകത്വം എന്നിവയിൽ ഡാറ്റാസെറ്റുകൾ സ്ത്രീകളെ പ്രതിനിധീകരിക്കാത്തപ്പോൾ, ആ വിടവുകൾ ആവർത്തിക്കാൻ അൽഗോരിതങ്ങൾ പഠിക്കുന്നു. ഈ സംവിധാനങ്ങൾ നിർമ്മിക്കുന്ന വൈവിധ്യമാർന്ന ടീമുകളുടെ അഭാവം പ്രശ്നം സങ്കീർണ്ണമാക്കുന്നു, കാരണം വികസന സമയത്ത് അന്ധമായ പാടുകൾ ശ്രദ്ധിക്കപ്പെടാതെ പോകുന്നു. ഇത് പരിഹരിക്കുന്നതിന് മനഃപൂർവമായ ഡാറ്റ ക്യൂറേഷനും അടിസ്ഥാനം മുതൽ ഉൾക്കൊള്ളുന്ന എഞ്ചിനീയറിംഗ് രീതികളും ആവശ്യമാണ്.

AI ലിംഗ പക്ഷപാതത്തെ ചെറുക്കാൻ ബിസിനസുകൾക്ക് എന്തുചെയ്യാൻ കഴിയും?

ബിസിനസ്സുകൾ പക്ഷപാതത്തിനായി അവരുടെ AI ടൂളുകൾ ഓഡിറ്റ് ചെയ്യണം, അവരുടെ ടീമുകളെ വൈവിധ്യവൽക്കരിക്കുകയും ധാർമ്മിക ഡിസൈൻ തത്വങ്ങൾ ഉപയോഗിച്ച് നിർമ്മിച്ച പ്ലാറ്റ്‌ഫോമുകൾ തിരഞ്ഞെടുക്കുകയും വേണം. Mewayz പോലുള്ള പ്ലാറ്റ്‌ഫോമുകൾ $19/mo മുതൽ ആരംഭിക്കുന്ന 207-മൊഡ്യൂൾ ബിസിനസ് ഒഎസ് വാഗ്ദാനം ചെയ്യുന്നു, അത് എല്ലാ പശ്ചാത്തലങ്ങളിലുമുള്ള സംരംഭകരെ app.mewayz.com-ൽ അവരുടെ ബിസിനസുകൾ നിർമ്മിക്കാനും ഓട്ടോമേറ്റ് ചെയ്യാനും പ്രാപ്‌തരാക്കുന്നു.

സ്ത്രീകളിലും പെൺകുട്ടികളിലും AI-യുടെ സ്വാധീനത്തെ അഭിസംബോധന ചെയ്യുന്ന നിയന്ത്രണങ്ങൾ ഉണ്ടോ?

EU AI നിയമവും നിർദ്ദിഷ്ട യുഎസ് നിയമനിർമ്മാണവും ഉയർന്ന അപകടസാധ്യതയുള്ള AI സിസ്റ്റങ്ങളെ തരംതിരിക്കാനും ബയസ് ഓഡിറ്റുകൾ നിർബന്ധമാക്കാനുമാണ് ലക്ഷ്യമിടുന്നത്, എന്നാൽ ആഗോളതലത്തിൽ നടപ്പാക്കൽ അസ്ഥിരമായി തുടരുന്നു. AI ധാർമ്മികതയെയും ലിംഗസമത്വത്തെയും കുറിച്ചുള്ള മാർഗ്ഗനിർദ്ദേശങ്ങൾ യുനെസ്കോ പ്രസിദ്ധീകരിച്ചിട്ടുണ്ട്, എന്നിട്ടും മിക്ക രാജ്യങ്ങളിലും ബൈൻഡിംഗ് ചട്ടക്കൂടുകൾ ഇല്ല. AI സംവിധാനങ്ങൾ സ്ത്രീകളെയും പാർശ്വവൽക്കരിക്കപ്പെട്ട കമ്മ്യൂണിറ്റികളെയും എങ്ങനെ ബാധിക്കുന്നുവെന്നത് പ്രത്യേകമായി അളക്കുന്ന നിർബന്ധിത സുതാര്യത റിപ്പോർട്ടുകൾക്കും ആഘാത വിലയിരുത്തലുകൾക്കുമായി അഭിഭാഷക ഗ്രൂപ്പുകൾ ആവശ്യപ്പെടുന്നു.

Try Mewayz Free

All-in-one platform for CRM, invoicing, projects, HR & more. No credit card required.

Start managing your business smarter today

Join 30,000+ businesses. Free forever plan · No credit card required.

Ready to put this into practice?

Join 30,000+ businesses using Mewayz. Free forever plan — no credit card required.

Start Free Trial →

Ready to take action?

Start your free Mewayz trial today

All-in-one business platform. No credit card required.

Start Free →

14-day free trial · No credit card · Cancel anytime