قرض دینے کا فیصلہ کرنے والے کمپیوٹر پروگرام بھی صنفی امتیاز کا شکار ہیں؟
[ad_1]
جیمی ہینمیئر ہانسن کا کریڈٹ سکور یا قرض کی ادائیگی کی صلاحیت ٹیکنالوجی کے شعبے میں کام کرنے والے اپنے شوہر ڈیوڈ سے بہتر تھی۔ دونوں کی جائیداد میں برابر کی شراکت داری ہے اور دونوں مل کر ٹیکس کے گوشوارے جمع کرواتے ہیں۔
اس کے باوجود ڈیوڈ کو ان کے ایپل کارڈ پر ان کی اہلیہ کے مقابلے میں 20 گنا زیادہ رقم قرض لینے کی اجازت دی گئی۔
یہ صورت حال انوکھی اور منفرد ہونے سے کہیں زیادہ تھی۔ یہاں تک کہ ایپل کے شریک بانی سٹیون ووزنیاک نے گذشتہ برس ٹویٹ کی تھی کہ ان کے ساتھ بھی ایسا ہی ہوا حالانکہ ان کا اور ان کی اہلیہ کا کوئی عیلحدہ علیحدہ اکاؤنٹ نہیں ہے اور نہ ہی کوئی علیحدہ جائیداد ہے۔
اس معاملے نے امریکہ میں کھلبلی مچائی اور تحقیقات بھی شروع ہوئیں جبکہ سیاستدانوں نے ایپل کارڈ کو چلانے والے بینک گولڈمین سیکس کو ان کے جواب پر تنقید کا نشانہ بنایا۔
اس کہانی نے مشین لرننگ اور الگوریتھم یعنی کمپیوٹر کے حساب کتاب کے قواعد کے متعلق تشویش کو ظاہر کیا ہے کہ یہ مشینیں فیصلہ کرنے میں واضح طور پر جنس پرست، نسل پرست یا دوسرے الفاظ میں تفریق اور امتیاز کرنے والی ہیں۔
معاشرے کا یہ خیال غلط ہے کہ کمپیوٹر غیرجانبدار مشین ہے جو امتیازی سلوک نہیں کرتا کیونکہ وہ انسانوں کی طرح سوچ نہیں سکتا جبکہ حقیقت یہ ہے کہ یہ مشینیں جو تاریخی اعداد و شمار پراسیس کرتی ہیں اور شاید وہ پروگرامرز جو انھیں بناتے ہیں اور ان میں اعداد وشمار ڈالتے ہیں وہ خود ہی متعصب ہوتے ہیں اور اکثر غیر ارادی طور پر جانبدار ہوتے ہیں۔
مساوات پر مشینیں واضح سوالات پوچھے بغیر ہی نتائج اخذ کرسکتی ہیں (جیسے صنفی معلومات نہ پوچھنے کے باوجود مرد اور خواتین میں تفریق)۔
یہ بھی پڑھیے
پاکستانی اشتہارات میں صنفی امتیاز
جذبات جانچنے والی ٹیکنالوجی پر پابندی کا مطالبہ
برطانیہ: انتہا پسند مواد کو بلاک کرنے کا سافٹ ویئر تیار
ہماری زندگی کیسے متاثر ہوتی ہے؟
ٹرانسپورٹ اور ٹیکنالوجی سے لے کر شاپنگ اور کھیل تک ہماری روزمرہ کی زندگی میں معاملات کو کمپیوٹر الگوریتھم کے استعمال سے بدلا اور بلاشبہ بہتر بنایا گیا ہے۔
اس کا واضح اور سب سے زیادہ براہ راست اثر ہماری مالی زندگی پر پڑا ہے لیکن اس پر بحث کی گنجائش ہے۔
بینک اور دوسرے قرض دینے والے ادارے بشمول گھر کے قرضے یا مورگیج کی درخواستوں پر فیصلہ کرنے کے لیے مشین کی ٹیکنالوجی کا استعمال کرتے ہیں۔ انشورنس کمپنیاں خطرناک حد تک مشینوں کے نتائج پر منحصر ہیں۔
صارفین کے لیے الگوریتھم یہ فیصلہ کرنے میں مرکزی حیثیت رکھتا ہے کہ صارفین کو کسی چیز کے لیے کتنا سود ادا کرنا ہوگا اور کیا انھیں وہ مصنوعات رکھنے کی اجازت ہے یا نہیں۔
انشورنس کو ہی لے لیجیے: نام نہاد ‘پوسٹ کوڈ لاٹری’ سے یہ حقیقت سامنے آئی ہے کہ الگوریتھم ہی یہ فیصلہ کرے گا کہ دو افراد ایک جیسی خصوصیات کے حامل اور ایک جیسے حفاظتی نظام والے مکان کے بیمے کے لیے مختلف رقم کیوں ادا کریں گے۔
الگوریتھم پوسٹ کوڈ دیکھ کر ان علاقوں میں جرائم کی شرح کا تعین کرتا ہے اور اس کے بعد اسی کے مطابق کسی مکان میں چوری ہونے کے امکانات کا اندازہ لگاتا ہے اور پھر اس کے مطابق پریمیم طے کرتا ہے۔
کریڈٹ سکور کے لیے کوئی بھی مشین آپ کے قرض ادا کرنے کی اہلیت یا آپ پر کتنا اعتماد کیا جا سکتا ہے پر غور کرتی ہے اور اس کے لیے آپ کے موبائل فون میں شامل رابطے اور فون نمبر سے لے کر اس بات کو بھی دیکھتی ہے کہ آپ کہاں گھر کرایے پر لے سکتے ہیں۔
ایپل کارڈ کے معاملے میں ہم نہیں جانتے کہ الگوریتھم کس طرح اپنے فیصلے کرتا ہے یا کون سا ڈیٹا استعمال کرتا ہے لیکن اس میں وہ تاریخی اعداد و شمار شامل ہوسکتے ہیں جس میں مختلف قسم کے افراد کو خطرہ سمجھا گیا ہے یا پھر جنھوں نے روایتی طور پر قرض کے لیے درخواستیں دی ہیں۔
تو کیا الگوریتھم امتیازی ہیں؟
ایپل کارڈ کے منتظم ادارے گولڈمین سیکس کا کہنا ہے کہ وہ درخواست گزار سے نہ ہی ان کی جنس، نسل یا عمر پوچھتے ہیں کیونکہ ایسا کرنا غیر قانونی ہو گا لہٰذا فیصلے اس بنیاد پر نہیں ہوتے کہ درخواست دینے والا مرد ہے یا عورت۔
بہرحال سان فرانسسکو میں یو ایس ایف سنٹر فار اپلائیڈ ڈیٹا ایتھکس کی ڈائریکٹر ریچل تھامس کا کہنا ہے کہ اس سے ‘لیٹنٹ ویریئبلز’ نظرانداز ہوتا ہے۔ انھوں نے ٹویٹر پر لکھا: ‘اگر چہ نسل اور صنف آپ کے الگوریتھم کے ان پٹ میں شامل نہیں بھی ہوں تو بھی وہ ان معاملات میں متعصب ہو سکتا ہے۔’
مثال کے طور پر کسی الگوریتھم کو کسی کی جنس کا علم نہیں لیکن وہ یہ جان سکتا ہے کہ آپ پرائمری سکول کے استاد ہیں اور تاریخی اعتبار سے پرائمری سکولوں میں خواتین اساتذہ زيادہ ہوتی ہیں۔ تاریخی اعداد و شمار متنازع طور پر زیادہ تر جرم اور انصاف کے معاملے میں اس زمانے سے حاصل کیے جا سکتے جب پولیس یا جج کے فیصلے کسی شخص کی نسل سے متاثر ہوا کرتے تھے۔
مشین ماضی کے نتائج کو سیکھتی ہے اور اس کی نقل کرتے ہوئے فیصلہ کرتی ہے جو کہ متعصبانہ ہو سکتا ہے۔
ایسے ڈیٹا کو پراسیس کرنا ان کے لیے اور خراب ہوتا ہے جسے انھوں نے پہلے نہ دیکھا ہو۔ اگر کوئی سفید فام نہیں ہے اور اس کا لہجہ زیادہ علاقائی ہے تو خود کار طریقے سے چہرے یا آواز کو پہچاننے والے سافٹ ویئر کے ذریعہ اسے بہت اچھی طرح سے پہچانا نہیں جا سکتا ہے کیونکہ اس میں جو ڈیٹا ڈالا گیا ہے اور جن پر ان کی تربیت کی گئی ہے وہ زیادہ تر ایسے سفید فام لوگوں کے ہیں جن کی بولیوں میں علاقائی لہجے کا شائبہ نہیں ہے اور بہت سے کال سینٹر اس قسم کے سافٹ ویئر کا استعمال کرتے ہیں۔
اس مسئلے کے بارے میں کیا کیا جاسکتا ہے؟
بہرصورت الگوریتھم کی غیرجانبداری پر کچھ عرصے سے شدید بحث جاری ہے لیکن نسبتاً اس کے کم نتائج سامنے آئے ہیں۔
اس کا ایک آپشن یہ ہے کاروباری ادارے مکمل طور پر یہ بات واضح کریں اور کھول کر رکھ دیں کہ انھوں نے اپنے الگوریتھم کو کیسے ترتیب دیا لیکن یہ مصنوعات بہت قیمتی تجارتی ملکیت ہیں جسے برسوں کی محنت کے بعد انتہائی ہنر مند اور اچھا معاوضہ لینے والے افراد نے تیار کیا ہے۔
وہ بہت آسانی کے ساتھ اپنے راز کو ظاہر کرنے کے لیے تیار نہیں ہوں گے۔ مثال کے طور پر زیادہ تر ریٹیلرز یا خوردہ فروش ایمیزون کے الگوریتھم کو مفت میں حاصل کرنا چاہیں گے۔
دوسرا آپشن الگوریتھم کی شفافیت ہے جس میں ایک صارف کو یہ بتایا جائے کہ اگر کوئی فیصلہ کیا گیا ہے تو کیوں کیا گیا ہے اور ان کے اعداد و شمار کے کون سے عناصر سب سے زیادہ اہم ہیں۔ تاہم ایسی معلومات کو متعین کرنے کے بہترین طریقہ پر اب تک کوئی رضامندی نہیں ہے۔
ایک جواب یہ ہو سکتا ہے کہ کم سے کم معلومات پر مبنی زیادہ الگوریتھم ہو۔
انشورنس انڈسٹری کو سافٹ ویئر مہیا کرنے والی کمپنی چارلس ٹیلر انشور ٹیک کے چیف ایگزیکٹو جیسن ساہوٹا کا کہنا ہے کہ ‘پولڈ پالیسیوں’ کا استعمال بڑھ رہا ہے۔
’ایک بیمہ کرنے والا مخصوص ملازمت پیشہ گروپ کے لیے گروپ ہیلتھ انشورنس فرداً فرداً کے بجائے ان کو پیش کرسکتا ہے جن کے وہ ملازم ہیں۔ پھر ایسے میں انشورنس میں آنے والے افراد کو انفرادی پرچے پُر کرنے کی ضرورت نہیں ہے کیونکہ انشورنس کرنے والی کمپنی مجموعی طور پر اپنے رسک کا اندازہ کرتی ہے‘۔
ان کا کہنا ہے کہ صارفین کی کم کلکس پر جلد ادائیگیوں کی مانگ پوری کی جا رہی ہے کیونکہ انشورنس انڈرائٹنگ کے عمل کو آسان بنایا جارہا ہے۔
بہت زیادہ ڈیٹا نکالنے سے درخواست گزار اور پالیسیوں میں فرق کرنا مشکل ہوجاتا ہے جس کی وجہ سے ہم آہنگی والی مصنوعات تیار ہوں گی اور جن کی قیمت زیادہ ہوگی۔
اس کے بجائے جیسن ساہوٹا کا کہنا ہے کہ لوگوں کو یہ بتایا جائے کہ کوئی معلومات ان سے کیوں طلب کی جارہی ہے اور اس کا استعمال کس طرح ہوگا۔
اگر کوئی چیز غیر دانستہ طور پر امتیازی پائی جاتی ہے تو پھر اعداد و شمار پر محض الزام لگانے کے بجائے ان کے مطابق اس مسئلے سے نمٹنے کا کوئی راستہ تلاش کرنا اہم ہے۔
Source link
International Updates by Focus News