Skip to main content
SearchLoginLogin or Signup

۲. جمع‌آوری، تحلیل، تصور، آموزش

ترجمه توسط امیرحسین پی‌براه

Published onMar 07, 2024
۲. جمع‌آوری، تحلیل، تصور، آموزش
·

اصل: قدرت را به چالش بکشید

فمینیسم داده متعهد به به چالش کشیدن ساختارهای قدرت نابرابر و تلاش در جهت عدالت است.

در سال ۱۹۷۱، انجمن و مؤسسه اکتشاف جغرافیایی دیترویت1 (DGEI) نقشه مناقشه‌آمیزی منتشر کرد با عنوان «جایی که مسافران، کودکان سیاه را در مسیر پوینت-داونتاون زیر پا می‌گذارند» (شکل ۲.۱). در نقشه، مکان‌هایی که در آن‌ها کودکانی کشته شده بودند با نقاط سیاه مشخص شده بودند. تنها در یک گوشه خیابان، شش کودک سیاه در طول شش ماه توسط رانندگان سفید کشته شده بودند. تمام سطح نقشه با نقاط سیاه پوشانده شده بود.

مردمی که در حاشیه آن مسیر مرگ‌بار زندگی می‌کردند، مدت‌ها بود که بزرگی مشکل را می‌شناختند و به تاثیر عمیقی که بر زندگی دوستان و همسایگان خود داشت پی برده بودند. اما جمع‌آوری داده‌ برای نشان‌دادن این حقیقت، به یک چالش بزرگ تبدیل شده بود. هیچ کسی سابقه دقیقی از این مرگ‌ومیرها را ثبت نکرده بود، و حتی کسی اطلاعات ابتدایی در مورد آن‌چه اتفاق افتاده بود را در اختیار عموم قرار نداده بود. گوندولین وارن2 می‌گوید:‌ «ما نتوانستیم اطلاعاتی به دست آوریم». وارن از سازمان‌دهندگان مستقر در دیترویت بود که رهبری یک همکاری غیرممکن را برعهده داشت: همکاری بین جوانان سیاه محله‌های حاشیه‌نشین و گروهی به رهبری جغرافی‌دانان مرد سفید از دانشگاه‌های آن اطراف3. از طریق این همکاری، جوانان شیوه‌های پیشرفته نقشه‌برداری را آموختند و با راهنمایی وارن، از دانش محلی خود استفاده کردند و مجموعه‌ای از گزارش‌های جامع تهیه کردند. این گزارش‌ها موضوعاتی مانند نابرابری‌های اجتماعی و اقتصادی میان کودکان محله را در برمی‌گرفت و شامل پیشنهادهایی عادلانه‌تر از نظر نژادی برای حدود مدارس بود.

نقشه DGEI را با نقشه دیگری از دیترویت مقایسه کنید، نقشه‌ای با عنوان «نقشه امنیت محل سکونت»4 که ۳۰ سال پیش تهیه شده بود (شکل ۲.۲). در هر دو نقشه از روش‌های ساده نقشه‌برداری استفاده شده است: نمای هوایی، فهرستِ واژه‌ها و کلیدواژه‌ها، و سایه‌زدن. اما شباهت‌ها همین‌جا تمام می‌شود. دو نقشه از نظر سبک بصری متفاوت هستند. اما تفاوتِ بنیادی‌تر، دیدگاه سازندگان این نقشه‌ها و گروه‌های مقصدی است که این نقشه‌ها برای آن‌ها آماده شده‌اند. نقشه اخیر توسط هیئت بازرگانی دیترویت، که همگی مردان سفید هستند، با همکاری هیئت بانکی وام مسکن فدرال، که بیشتر آن‌ها مردان سفید هستند، تهیه شده بود. این نقشه نه تنها در جهت رهایی‌بخشی نبود، بلکه یکی از اولین نمونه‌های عملی «قرمزکشی»5 بود، اصطلاحی که برای توصیف نحوه ارزیابی بانک‌ها از خطر اعطای وام به خریداران خانه بود که به جای اعتبار فردی به جمعیت محله (به‌طور خاص بر اساس نژاد و قومیت) توجه می‌کرد.

شکل ۲.۱

«جایی که مسافران، کودکان سیاه را در مسیر پوینت-داونتاون زیر پا می‌گذارند» (۱۹۷۱) یکی از تصاویر گزارش «یادداشت‌های میدانی شماره ۳: جغرافیای کودکان» است که نابرابری‌های نژادی کودکان دیترویت را نشان می‌داد. این نقشه توسط گوندولین وارن، مدیر اداری انجمن و مؤسسه اکتشاف جغرافیایی دیترویت (DGEI) در سال‌های ۱۹۶۸ تا ۱۹۷۱ با همکاری جوانان سیاه دیترویت و جغرافی‌دانان دانشگاهی سفیدپوست تهیه شده است. این گروه با همکاری یکدیگر مسائل مربوط به کودکان در محیط شهری را ترسیم کردند. وارن همچنین مدرسه‌ای را پایه‌گذاری کرد که در آن جوانان می‌توانستند به رایگان دوره‌هایی در زمینه جغرافی بگذرانند. با تشکر از گوندولین وارن و اکتشافات جغرافیایی و موسسه دیترویت.

قرمزکشی به دلیل این‌که در ابتدا برای کشیدن خطوط قرمز روی نقشه استفاده می‌شد، به این نام شناخته شده بود (گاهی‌اوقات بعضی مناطق با رنگ قرمز هاشور زده می‌شدند، مانند نقشه شکل ۲.۲). همه محله‌های سیاه‌پوست‌نشین دیترویت در مناطق قرمز این نقشه قرار داشتند، چرا که تبعیض در مسکن و سایر اشکال سلطه ساختاری پیش از این وجود داشتند6. اما عدم‌موافقت با پرداخت وام مسکن به کسانی که در این محله‌ها زندگی می‌کردند، نابرابری‌های موجود را تقویت کرد، و همان‌طور که دهه‌ها تحقیق نشان داد، تاثیر مستقیمی در بدتر کردن اوضاع داشت7.

شکل ۲.۲
نقشه امنیت مسکونی، یک نقشه قرمزکشی از دیترویت است که در سال ۱۹۳۹ منتشر شد. با همکاری بین اتاق بازرگانی دیترویت (که همه افراد آن سفیدپوست و مرد بودند) و هیئت‌مدیره بانک وام مسکن فدرال (که اکثر آن‌ها سفیدپوست و مرد بودند) ایجاد شد. رنگ‌های قرمز نمایان‌گر مناطقی هستند که این مؤسسات آن‌ها را مناطق قرمز، به‌عنوان مناطق با «خطر بالا» برای وام‌های بانکی، معرفی کرده‌اند. با تشکر از رابرت کی. نلسون، لادیل وینلینگ، ریچارد ماریسیانو، ناتان کانولی، و همکاران، نقشه‌برداری نابرابری: قرمزکشی در نیو دیل آمریکا.

نقشه‌های قرمزکشی اوایل قرن بیستم حسی بسیار مشابه رویکردهای «کلان‌داده»8 امروزی داشتند. این «راه‌کارهای» فناورانه و مقیاس‌پذیر در سراسر کشور به کار گرفته می‌شدند و یکی از روش‌های متعدد برای اطمینان از این‌که ثروت در میان سفیدپوستان باقی می‌ماند، مورد استفاده قرار می‌گرفتند9. در همان زمان که این نقشه‌ها تهیه می‌شدند، شرکت‌های بیمه، برای مثال، روش‌های داده‌محور مشابهی را برای اعطا (یا رد) خدمات به مشتریان بر اساس محل زندگی آن‌ها تهیه می‌کردند. قوانین منطقه‌بندی که صراحتا بر اساس نژاد تعیین شده بودند، پیش از این غیرقانونی اعلام شده بودند، اما در محدوده محله‌ها، «عهدنامه‌ها» همچنان تبعیض‌آمیز بودند و کاملا قانونی محسوب می‌شدند10. این پدیده‌‌ای است که سدریک رابینسون11، فیلسوف سیاسی، به آن «سرمایه‌داری نژادی»12 می‌گوید. این مساله در دنیای امروز همچنان ادامه دارد، برای مثال در قالب امتیازدهی اعتباری به مشتریان توسط الگوریتم‌هایی که اغلب تبعیض‌آمیز هستند یا از طریق تثبیت «یک درصدی‌ها» توسط قوانین مالیاتی13. علاوه بر این، مزایای سفیدپوستی افزوده می‌شود: شریل هریس14، کارشناس حقوق مدنی، توضیح می‌دهد که: «سفیدپوستی به‌عنوان «جایزه تسلی‌بخش»15 ارزش خود را حفظ می‌کند. این بدان معنا نیست که سفیدپوستان همیشه برنده می‌شوند، بلکه به این معناست که آنها هیچ‌وقت نمی‌بازند»16.

چه کسانی نقشه را تهیه می‌کنند و چه کسانی در نقشه مشخص می‌شوند؟ نقشه قرمزکشی نقشه‌ای است که قدرت سازندگان آن را تضمین می‌کند: مردان سفید‌پوست هیئت بازرگانی دیترویت، خانواده‌های آن‌ها، و اجتماعات آن‌ها. این نقشه خاص قرمزکشی «نقشه امنیت محل سکونت»17 نیز نامیده می‌شود. اما این عنوان، نشان‌دهنده چیزی بیشتر از تمایل به حفظ ارزش‌های مالی است. این نشان‌دهنده تمایلات گسترده‌تری بود برای حفظ و نگهداری مالکیت خانه، به‌عنوان روشی برای انباشت ثروت، و به همین ترتیب، جایگاه و قدرت که فقط در دسترس افراد سفیدپوست بود. در بسیاری از موارد، «راه‌حل‌های» داده‌محور همچنان به روش‌های مشابهی مورد استفاده قرار می‌گیرند: برای حمایت از منافع افراد و مؤسسات در موقعیت‌های قدرت، که جهان‌بینی‌ها و نظام‌های ارزشی آن‌ها به‌شدت با اجتماعاتی که داده‌های آن‌ها را تامین می‌کنند متفاوت است18.

در مقابل، نقشه DGEI این نابرابری داده و قدرت را به چالش می‌کشد. این کار را به سه روش کلیدی انجام می‌دهد. ابتدا، در مواجهه با داده‌های گم‌شده، DGEI ضدداده خود را گردآوری کرده است. وارن توضیح می‌دهد که چگونه «با افراد بانفوذ سیاسی ارتباط برقرار کرد تا به وسیله آن‌ها از اداره پلیس اطلاعات دقیقی در مورد زمان، محل، چگونگی و قاتل [هر کودک] کشته‌شده به دست آورد»19. دوم، نقشه DGEI داده‌هایی را ترسیم کرده است که مشخصا برای اندازه‌گیری میزان سرکوب ساختاری جمع‌آوری کرده بود. همان‌طور که در این گزارش توضیح داده‌اند، آن‌ها عمدا و صریحا بر مشکلات «مرگ، گرسنگی، درد، غم، و ناامیدی کودکان» تمرکز کردند20. سرانجام، نقشه DGEI توسط جوانان سیاه آن اجتماع، زیرنظر یک زن سیاه که سازمان‌دهنده گروه بود، و با حمایت جغرافی‌دانان دانشگاهی تهیه شده است21. هویت این سازندگان، نزدیکی آن‌ها به موضوع مورد نظر، شرایط همکاری آن‌ها، و رهبری پروژه حائز اهمیت است22.

به این دلایل، DGEI مدلی از اصل دوم فمینیسم داده ارائه کرده است: «قدرت را به چالش بکشید». به چالش‌کشیدن قدرت مستلزم بسیج علم داده برای عقب‌راندن ساختارهای نابرابر قدرت موجود و تلاش برای آینده عادلانه‌تر و منصفانه‌تر است. همان‌طور که در این فصل به آن خواهیم پرداخت، هدف از به چالش‌کشیدن قدرت، پیوند نزدیکی با بررسی و شناخت قدرت، اولین اصل فمینیسم داده، دارد. در واقع اولین قدم برای به چالش‌کشیدن قدرت، بررسی آن قدرت است. اما قدم بعدی - و دلیل این‌که ما دو اصل را به موضوع قدرت اختصاص دادیم - اقدام علیه وضعیت غیرمنصفانه موجود است.

انجام اقدام عملی می‌تواند اشکال مختلفی داشته باشد، و ما در این فصل چهار نقطه شروع را پیشنهاد می‌کنیم: (۱) «جمع‌آوری»: در مواجهه با داده‌های گم‌شده یا غفلت سازمانی، گردآوری ضدداده نقطه شروع قدرتمندی است که در مثال DGEI یا در نقشه‌های زن‌کشی ماریا سالگوئرو که در فصل ۱ مورد بحث قرار گرفت،‌ آن‌ها را دیدیم. (۲) «تحلیل»: به چالش‌کشیدن قدرت اغلب نیازمند نمایش نتایج ناعادلانه میان گروه‌ها است، و برای بررسی الگوریتم‌های غیرشفاف و پاسخ‌گو نگه‌داشتن موسسات باید روش‌های محاسباتی جدیدی تولید شود. (۳) «تصورکردن»: ما نباید فقط بر نتایج بی‌عدالتی تمرکز کنیم، زیرا در این صورت هرگز به علت اصلی بی‌عدالتی نخواهیم رسید. برای بی‌اثر کردن حقیقی قدرت، ما باید هدف نهایی خود را نه «انصاف» بلکه باید رهایی‌مشترک تصور کنیم. (۴) «آموزش»: هویت دانشمندان داده مهم است، بنابراین چگونه می‌توانیم افراد تازه‌وارد به این حوزه را درگیر و توانمند سازیم تا آمار جمعیتی را تغییر و نسل بعدی فمینیست‌های داده را پرورش دهند؟

تحلیل و افشای سلطه

می‌توان نقشه‌های قرمزکشی دیروز و الگوریتم‌های ارزیابی خطر امروز را مستقیما با هم مقایسه کرد. امروزه از این الگوریتم‌ها در بسیاری از شهرهای ایالات‌متحده برای اطلاع‌رسانی در مورد مدت‌زمان حبس یک زندانی، میزان وثیقه‌ای که باید تعیین گردد، و حتی این‌که آیا باید در ابتدا وثیقه تعیین شود یا خیر، استفاده می‌شود. کلمه «خطر» در نام آن الگوریتم‌ها به احتمال بازداشت یک فرد توسط پلیس برای ارتکاب جرمی در آینده اشاره می‌کند. الگوریتم‌های ارزیابی خطر، نمراتی تولید می‌کنند که بر تصمیماتی که باعث فرستادن یک فرد به زندان یا آزادی او می‌شود تأثیر می‌گذارد و در واقع، مسیر زندگی او را تغییر می‌دهد.

اما الگوریتم‌های ارزیابی خطر، هم‌چون نقشه‌های قرمزکشی، خنثی و بی‌طرف نیستند. در سال ۲۰۱۶، جولیا آنگوین23 تیمی را در پروپابلیکا24 رهبری کرد تا یکی از پرکاربردترین الگوریتم‌های ارزیابی خطر در ایالات‌متحده را که توسط شرکت نورث‌پوینت25 (اکویونت26 کنونی) تولید شده بود، بررسی کند27. تیم او متوجه شد که متهمان سفید بیشتر از متهمان سیاه، به‌اشتباه به‌عنوان کم‌خطر معرفی شده‌اند، و متهمان سیاه، به‌غلط بیشتر از متهمان سفید پرخطر نشان داده شده‌اند28. روزنامه‌نگاران با بررسی‌های بیشتر این مساله به یک برگه ۱۳۷ سوالی رسیدند که هر زندانی باید پر می‌کرد (شکل ۲.۳). پاسخ‌های فرد بازداشت‌شده به نرم‌افزار داده می‌شد و نرم‌افزار با مقایسه آن‌ها با داده‌های دیگر، نمره خطر فرد را مشخص می‌کرد. اگرچه پرسش‌نامه مستقیما سوالی در مورد نژاد نمی‌پرسید، اما سوالاتی را طرح می‌کرد که با توجه به نابرابری‌های ساختاری موجود در ایالات‌متحده، نژاد فرد را مشخص می‌کرد. سوالاتی مانند این‌که آیا شما توسط یک مادر تنها بزرگ شده‌اید؟ آیا تا به حال از مدرسه تعلیق شده‌اید؟ یا این‌که آیا دوستان یا خانواده‌ای دارید که دستگیر شده باشند؟ در ایالات‌متحده، هر یک از این سوال‌ها به مجموعه‌ بزرگ‌تری از واقعیت‌های اجتماعی، فرهنگی و سیاسی،‌ و اغلب نژادی مرتبط است. برای مثال، نشان داده شده است که ۶۷٪ از کودکان سیاه در خانواده‌های تک‌والد بزرگ می‌شوند، در حالی‌که فقط ۲۵٪ از کودکان سفید چنین شرایطی دارند29. به‌طور مشابه، مطالعات نشان داده است که کودکان سیاه شدیدتر از کودکان سفید برای یک شکل از تخلف جزئی تنبیه می‌شوند، و این مساله از دوران پیش‌دبستانی شروع می‌شود30. بنابراین، اگرچه سازندگان الگوریتم‌ها ادعا می‌کنند که نژاد را در نظر نمی‌گیرند، اما نژاد در داده‌هایی که از آن‌ها استفاده می‌کنند نهفته است. علاوه بر این، آن‌ها از آن اطلاعات برای تضعیف بیشتر سیاهان استفاده می‌کنند، حال چه به دلیل اعتقاد غلط به صحت داده‌های خود، یا به دلیل متاثرنشدن در مقابل شواهدی مبنی بر این‌که چگونه تبعیض‌نژادی از طریق فناوری آن‌ها عمل می‌کند.

شکل ۲.۳

الگوریتم ارزیابی خطر اکویونت که با نام «مدیریت پروفایل مجرمان اصلاحی برای مجازات‌های جایگزین» شناخته می‌شود، بر اساس پاسخ‌های متهمان به یک پرسش‌نامه ۱۳۷ سوالی عمل می‌کند. سوال‌هایی در مورد تربیت، شخصیت، خانواده و دوستان، و سوالات دیگری که به‌شکل غیرمستقیم نژاد را مشخص می‌کنند، مانند این‌که آیا آن‌ها توسط یک مادر تنها بزرگ شده‌اند. توجه داشته باشید که شواهد جرم خانوادگی دلیل قابل‌قبولی در پرونده‌های قضایی برای ارتکاب‌جرم یک فرد نخواهد بود، اما در این‌جا به‌عنوان عاملی در تصمیم‌گیری‌های مهم در مورد آزادی فرد استفاده می‌شود. با تشکر از جولیا آنگوین، جف لارسون، سوریا ماتو، و لورن کرشنر برای پروپابلیکا، ۲۰۱۶.

روها بنجامین31، جامعه‌شناس، برای این موقعیت‌ها اصطلاحی دارد: «جیم‌کدِ جدید»32 - جایی که کدهای نرم‌افزاری و تصور اشتباه از بی‌طرفی با هم ترکیب می‌شوند تا زندگی سیاهان و دیگر رنگین‌پوستان را کنترل و محدود کنند33. در این رابطه، نقشه قرمزکشی و الگوریتم ارزیابی خطر اکویونت شباهت‌های زیادی دارند. هر دو از داده‌های تجمیع‌شده «گروه‌های اجتماعی» استفاده می‌کنند تا در مورد هر« فرد» تصمیم‌گیری کنند: آیا باید به این شخص وام بدهیم؟ خطر این‌که این شخص دوباره مرتکب جرمی شود چقدر است؟ علاوه بر این، هر دو از داده‌های گذشته برای پیش‌بینی رفتار آینده و محدود کردن آن استفاده می‌کنند. در هر دو مورد، داده‌های گذشته مورد بحث (مانند الگوهای جداسازی تبعیضی مسکن یا تک‌والدی)، «محصول» شرایط ساختار نابرابر هستند. این شرایط نابرابر در میان گروه‌های اجتماعی بزرگ صادق است، اما با این‌حال، فناوری‌ها از این داده‌ها به‌عنوان «عناصری برای پیش‌بینی‌» که بر آینده یک فرد تأثیر می‌گذارند، استفاده می‌کنند. سوریا ماتو34، خبرنگار سابق پروپابلیکا که روی این داستان کار می‌کرد، مستقیما به این نکته اشاره می‌کند: «اکویونت این واقعیت را در نظر نگرفته که آمریکایی‌های آفریقایی‌تبار بدون‌توجه به این‌که مرتکب جرمی شده باشند یا نه، با احتمال بیشتری توسط پلیس دستگیر می‌شوند. این سیستم فرض می‌کند که اگر دستگیر شده باشید احتمالا خطر بیشتری دارید»35. این یکی از چالش‌های استفاده از داده‌های افراد به‌عنوان ورودی یک سیستم است: داده‌ها هرگز «خام» نیستند. داده‌ها همیشه محصول روابط اجتماعی نابرابر هستند - روابطی متاثر از قرن‌ها تاریخ. همانطور که بن گرین36، دانشمند کامپیوتر می‌گوید: «اگرچه خیلی‌ها در مورد توانایی یادگیری‌ماشین برای پیش‌بینی آینده صحبت می‌کنند، اما کاری که در واقعیت انجام می‌شود پیش‌بینی گذشته است»37. عملکرد چنین نرم‌افزارِ «پیش‌بینی‌کننده‌ای» باعث تقویت تقسیمات جمعیتی موجود و بیشترشدن نابرابری‌های اجتماعی می‌شود که برخی گروه‌ها را در طی نسل‌ها محدود کرده است. خطر جیم‌کد جدید این است که این یافته‌ها به‌شکل دستاوردهایی بی‌طرف معرفی می‌شوند، افراد و گروه‌ها را در طول زندگی‌شان دنبال می‌کنند، و امکانات آینده آن‌ها را محدود می‌سازند.

اما الگوریتم‌های یادگیری‌ماشین تنها گذشته را پیش‌بینی نمی‌کنند. آن‌ها منعکس‌کننده نابرابری‌های حال‌حاضر اجتماعی نیز هستند. به‌عنوان مثال، یک یافته کمترشناخته‌شده تحقیقات پروپابلیکا از اکویونت نشان می‌دهد که این الگوریتم‌ باعث رفتارهای به‌شدت متفاوتی با زنان شده است. به دلیل طیفی از عوامل، زنان کمتر از مردان به تکرار جرم (ارتکاب جرایم جدید) می‌پردازند. این بدان معناست که مقیاس خطر برای زنان «به‌گونه‌ای است که زنی با نمره خطر بالا، به‌طور کلی، در سطح یک نمره خطر متوسط یک مرد است». جولیا انگوین، خبرنگار اصلی گزارش توضیح می‌دهد که «واقعا تکان‌دهنده است که قضات به نگاه به این موارد تصور می‌کنند که نمره خطر بالا برای یک مرد و یک زن معنای یکسانی دارد، در حالی‌که این‌طور نیست»38.

از آنجا که کار‌های پیشین جرم‌شناسانی مانند کریستی هولتفرتر39 برخی از نابرابری‌های جنسیتی را مورد توجه قرار داده بودند، انگوین تصمیم گرفته بود بخشی از داستان را روی نژاد متمرکز کند40. اما عامل دیگری در تصمیم سرمقاله او نقش داشت: تبعیض‌جنسی در محل کار که زنان خبرنگار مانند خود آنگوین با آن مواجه بودند. انگوین توضیح می‌دهد که همیشه در مورد کار روی داستان‌هایی درباره زنان و جنسیت محتاط بوده، زیرا نمی‌خواسته به‌عنوان خبرنگاری که فقط روی مسائل زنان و جنسیت کار می‌کند، شناخته شود. اما او توضیح می‌دهد که «یکی از چیزهایی که باعث شد در طول جنبش MeToo# از خواب بیدار شوم این بود که متوجه شدم چقدر در طول این سال‌ها تصمیم‌های مشابه این گرفته بودم» - شکل درونی‌شده‌ای از سلطه که او را از پوشش‌دادن آن موضوعات مهم منصرف کرده بود. در اوایل سال ۲۰۱۸، زمانی که ما این مصاحبه را انجام دادیم، انگوین مشغول استخدام نیرو برای استارت‌آپ روزنامه‌نگاری داده خود به نام مارکاپ41 بود که به‌منظور بررسی داده‌محور مزایا و معایب گوناگون فناوری‌های جدید در جامعه تأسیس شده بود. انگیزه او این بود که ببیند چند نفر از متقاضیان کار با هر جنسیتی، در مورد مسائل مربوط به نابرابری جنسیتی صحبت می‌کنند. او توضیح می‌دهد: «در عصر داده‌ و هوش‌مصنوعی، چالش این است که مسئولیت‌پذیری دشوار است و سخت می‌توان آن را دنبال کرد. چالش روزنامه‌نگاری این است که تا حد امکان ارتباطات را به شکل ملموس بیان کنیم تا بتوانیم به دنیا نشان دهیم چه آسیب‌هایی وجود دارد».

انگوین به مسئله پیچیده‌ای اشاره می‌کند که احتمالا به سادگی حل نمی‌شود. حوزه روزنامه‌نگاری مدت‌هاست که به «گفتن حقیقت به قدرت» افتخار می‌کند. اما امروزه، جای این قدرت، از افراد و شرکت‌ها به مجموعه‌های‌داده‌ و مدل‌هایی که آن‌ها ساخته‌اند و استفاده می‌کنند، تغییر کرده است. بررسی این مجموعه‌های‌داده‌ و مدل‌ها به روش‌های جدیدی نیاز دارد، به‌خصوص زمانی که مانند داده‌های اکویونت در انحصار مالکیت‌خصوصی باشند. چگونه می‌توان درباره یک «جعبه‌سیاه» - عنوانی که گاهی این الگوریتم‌های مضر با آن توصیف می‌شوند - گزارش داد؟42 مشابه وضعیتی که گوندولین وارن هنگام بررسی داده‌های مرگ‌ کودکان دیترویت با آن مواجه شد، یا مانند ماریا سالگوئرو زمانی که شروع به ثبت قتل‌ زنان در مکزیک کرد، پروپابلیکا نیز هیچ مطالعه‌ای در مورد وجود سوءگیری‌نژادی در نمرات خطر یا مجموعه‌‌داده‌ای که بتوانند به آن‌ها برای پاسخ‌گویی اشاره کنند، پیدا نکرد. پروپابلیکا برای نوشتن گزارش ارزیابی خطر مجبور شد مجموعه‌داده خودش را تهیه کند. محققین پرونده، ده‌هزار متهم جنایی شهری در فلوریدا را بررسی و نمرات خطر تکرار جرم آن‌ها را با افرادی که واقعا در یک دوره دو ساله مرتکب جرم شده بودند مقایسه کردند. پس از انجام یک سری تحلیل‌های اولیه، مدل رگرسیونی ساختند که نژاد، سن، سابقه جنایی، تکرار جرم در آینده، درجه اتهام، و جنسیت را در نظر می‌گرفت. آن‌ها متوجه شدند که سن، نژاد، و جنسیت مهم‌ترین عوامل برای پیش‌بینی نمره خطر بالا هستند، به‌طوری که متهمان سیاه ۷۷٪ بیشتر از سفیدان احتمال دارد که نمره بالای تکرار خشونت بگیرند. تحلیل آن‌ها همچین شامل مدل‌هایی برای آزمایش دقت کلی مدل COMPAS در طول زمان و بررسی خطاها برای مشاهده تفاوت‌های نژادی در توزیع «مثبت کاذب»43 و «منفی کاذب»44 بود. همان‌طور که معلوم شد: سیستم با احتمال بیشتری پیش‌بینی می‌کرد که سفیدپوستان در صورت آزادی مرتکب جرم دیگری نخواهند شد، در حالی‌که آن‌ها در واقعیت مجددا این کار را می‌کردند45.

آنگوین و همکارانش از علم داده برای به چالش‌کشیدن علم داده استفاده کردند. آن‌ها با جمع‌آوری داده‌های گم‌شده و مهندسی‌معکوس الگوریتمی که خطر هر متهم را بررسی می‌کرد توانستند سوءگیری‌نژادی سیستم را ثابت کنند. این شیوه تحلیل به نام «حسابرسی الگوریتم‌ها»46 شناخته می‌شود که به شکل فزاینده‌ای در روزنامه‌نگاری و تحقیقات دانشگاهی مورد استفاده قرار می‌گیرد تا نشان دهد چگونه آسیب‌ها و فواید سیستم‌های خودکار، متفاوت از هم توزیع می‌شوند. نیکلاس دیاکوپولوس47، محقق روزنامه‌نگاری محاسباتی، پیشنهاد کرده است که کارهایی مانند این، به‌شکل رسمی در حوزه پاسخ‌گویی الگوریتم‌ها صورت گیرد تا به گسترش بیشتر این عمل کمک کند48. او و سورل فریدلر49، پژوهشگر کامپیوتر، مطرح کرده‌اند که الگوریتم‌ها باید در قبال عواقب‌شان «به‌طور عمومی پاسخ‌گو» باشند و مطبوعات جایی هستند که این حسابرسی می‌تواند صورت گیرد50. با اثبات این‌که چگونه تبعیض‌نژادی و تبعیض‌جنسی، در میان سایر ستم‌ها، باعث ایجاد نتایج نابرابر در بین گروه‌های اجتماعی می‌شود، تحلیل داده‌ها یک شیوه قدرتمند برای به چالش‌کشیدن قدرت و تلاش در جهت عدالت است.

نقض اثبات

بیایید در این‌جا در مورد سوال فمینیستیِ «چه کسی» که در فصل ۱ به آن اشاره کردیم قدری تامل کنیم. این تفاوت‌های قدرت دقیقا به چه کسی باید نشان داده شود؟ و برای پذیرفتن واقعی‌بودن سلطه به چه دلایلی نیاز است؟ زنانی مانند آنگوین که مواردی از تبعیض‌جنسیتی را در محل‌کار تجربه کرده‌اند، آسیب‌های آن رفتار ظالمانه را می‌دانند. جوانانی که گوندولین وارن در دیترویت با آنها کار می‌کرد، از نزدیک شاهد بودند که رانندگان سفید همسایه‌ها و دوستان سیاه آن‌ها را می‌کشند. آن‌ها نیازی ندارند تا به گروه‌های خود اثبات کنند که تبعیض‌نژادی ساختاری، یک عامل در این مرگ‌ها بوده است. در عوض، هدف آن‌ها از همکاری با DGEI این بود که ماهیت ساختاری مشکل را به کسانی ثابت کنند که در موقعیت‌های قدرت قرار دارند. آن گروه‌ها و نهادهای مسلط همان‌هایی بودند که با برتری‌دادن به منافع اجتماعی، سیاسی، و اقتصادی خود، مسئولیت عمده مشکل را بر عهده داشتند. و همچنین، به دلیل پدیده‌ای که از آن به‌عنوان خطر امتیاز نام بردیم، بعید به نظر می‌رسد که وجود چنین مشکلی را در وهله اول ببینند. تئوری تغییر که برانگیزنده این تلاش‌ها برای استفاده از داده‌ها به‌عنوان شاهد یا «اثبات» است، در صدد ایجاد آگاهی از گستردگی مشکل و ترغیب صاحبان قدرت برای انجام اقدامی است.

مطمئنا این نوع یافته‌های داده‌محور می‌توانند ترغیب‌کننده باشند. هنگامی‌که تحلیلی در یک روزنامه، وبلاگ، یا برنامه تلویزیونی پرمخاطب ظاهر شود (به عبارت دیگر: جایی به اندازه کافی مردانه و سفید که جریان اصلی محسوب شود)، حتما می‌تواند صاحبان قدرت به عمل وادارد. برای مثال، داستان پروپابلیکا در مورد الگوریتم‌های ارزیابی خطر، یکی از اعضای شورای شهر نیویورک را بر آن داشت تا لایحه‌ای را برای پاسخگویی الگوریتم‌ها پیشنهاد کند. این لایحه که در سال ۲۰۱۸ تصویب شد، اولین اقدام‌قانونی برای مقابله با تبعیض‌الگوریتمی در ایالات‌متحده بود و منجربه ایجاد یک کارگروه با تمرکز بر «عدالت و انصاف» در الگوریتم‌های شهری شد51. اگر برخی از توصیه‌های این کارگروه در شهری اجرا شود، بر کار تولیدکنندگان نرم‌افزار و همچنین قوانین در شهرهای دیگر تاثیر خواهد داشت. این رشته تاثیرگذاری‌ها - از مشکل یک اجتماع گرفته تا جمع‌آوری مدرک تا گزارش‌دادن و تا تغییر سیاست - نشان‌دهنده نمونه‌ای از بهترین آرمان‌های بیان حقیقت به قدرت است52.

اگرچه تحلیل و افشای سلطه و ستم به‌منظور پاسخگویی نهادها می‌تواند بسیار مفید باشد، اما اثربخشی آن با دو محدودیت همراه است. اثبات سلطه و ستم اگر با سایر ابزارهای مشارکت‌اجتماعی، سازماندهی‌سیاسی و اعتراض همراه نباشد، می‌تواند به‌راحتی بخشی از یک چرخه بی‌پایان شود. هرگونه مدرک داده‌محور را می‌توان ناچیز در نظر گرفت، چرا که به اندازه کافی «بزرگ»، به اندازه کافی «پاک»، یا به اندازه کافی دارای «ارزش خبری» نیست تا نهادهایی را که منافع خاصی در حفظ وضعیت موجود دارند، توجیه کنند تا پاسخ معناداری دهند53. همانطور که در فصل ۱ دیدیم، داده‌های ماریا سالگوئرو در مورد زن‌کشی توسط کمیسیون‌های دولتی، گزارش‌های آژانس‌های بین‌المللی، و احکام دادگاه‌های بین‌المللی تقویت شد. اما هیچ‌یک از این تلاش‌ها برای جمع‌آوری داده‌ برای انجام اقدامی جامع کافی نبود.

سوال فمینیستی «چه کسی» دیگر: بار اثبات بر دوش چه کسی است؟ در سال ۲۰۱۵، کاندیس لانیوس54، پژوهش‌گر ارتباطات، یک پست وبلاگی نوشت با عنوان «بررسی واقعیت: تقاضای شما برای اثبات آماری، نژادپرستانه است»55 که به‌طور گسترده‌ای به اشتراک گذاشته شد. در آن پست، او خلاصه‌ای از تحقیقات وسیعی را ارائه کرد مبنی بر این‌که کسانی که در موقعیت‌های قدرت هستند، روایت‌ها را از افرادی مشابه خودشان می‌پذیرند، اما از گروه‌های اقلیت‌شده آمارهای زیادی تقاضا می‌کنند56. در این موارد، او به شکل قانع‌کننده‌ای استدلال می‌کند که داده‌های بیشتر هرگز کافی نخواهد بود.

اثبات سلطه و ستم همچنین می‌تواند ناخواسته به بسط روایت‌های آسیب‌زننده‌ای که در فرهنگ وجود دارند - تبعیض‌جنسی، تبعیض‌نژادی، تبعیض بر پایه توانایی جسمی و ذهنی، یا هر نوع دیگری از سلبیت‌ها - دامن زنند و غیرعامدانه به آن‌چه که به‌عنوان «روایت‌های تقلیل‌گرایانه»57 شناخته می‌شود، کمک کند. این روایت‌ها، به جای آن‌که یک گروه یا فرهنگ را با نقاط قوت، خلاقیت، و عاملیتی که افراد آن فرهنگ‌ها دارند به تصویر بکشند، آن‌ها را به «مشکلات‌شان» تقلیل می‌دهند. برای مثال، مگی والتر58 و کریس اندرسون59 در کتاب خود، «آمارهای بومی»60، توضیح می‌دهند که چگونه آمارهایی که توسط گروه‌های استعمارگر مهاجر برای توصیف جمعیت‌های بومی استفاده شده‌اند، عمدتا به‌عنوان «سندی بر تفاوت، کمبود و ناکارآمدی» مورد استفاده قرار گرفته‌اند61. این مساله می‌تواند حتی زمانی رخ دهد که تهیه‌کنندگان آن آمارها نیت خوبی داشته باشند - برای مثال، همان‌طور که کیمبرلی سیل آلرز62 نشان داده است (به فصل ۱ مراجعه کنید)، بخش قابل‌توجهی از گزارش رسانه‌ها در مورد داده‌های مرگ‌ومیر مادران سیاه در دسته روایت‌های تقلیل‌گرایانه قرار می‌گیرند. این گزارش‌ها زنان سیاه را به‌عنوان قربانی نشان می‌دهند و تلاش‌‌های آن‌ها که دهه‌ها برای این مساله کار کرده‌اند را نمایش نمی‌دهند.

این مساله در مورد داده‌های جنسیتی نیز وجود دارد. نینا رابینوویچ بلکر63، مدیر ارتباطات Data2X، که یک موسسه غیرانتفاعی در زمینه بهبود کیفیت داده‌های مرتبط با جنسیت در بستر جهانی است، توضیح می‌دهد: «داده‌های کمی که درباره زنان جمع‌آوری می‌کنیم یا مربوط به تجربه خشونت است یا سلامت باروری»64. داده‌های فعلی ترویج روایت‌های تقلیل‌گرایانه بیشتر را تشویق می‌کنند - که در آن زنان بی‌رحمانه و به‌سادگی به‌عنوان قربانیان جرائم خشونت‌آمیز مانند قتل، تجاوز، یا خشونت شریک‌جنسی تصویر می‌شوند. این روایات الغا می‌کنند که افراد مورد مطالعه هیچ عاملیتی ندارند و نیاز به «حفظ شدن» از سوی دولت‌ها، نهادهای بین‌المللی، یا شهروندان مسئول دارند. به‌عنوان گامی برای مقابله با آن، بلکر تصمیم گرفت نمونه‌ای از اروگوئه را منتشر کند که به‌جای تمرکز بر خشونت، بر کمی‌کردن کمک‌های نامرئی و دیده‌نشده زنان در اقتصاد تمرکز داشت65.

بنابراین، اگرچه جمع‌آوری ضدداده‌ و تحلیل داده‌‌ها برای اثبات سلطه و ستم، هدف ارزشمندی است، اما آگاهی از نحوه نمایش افراد تحت ستم به همان اندازه مهم است. کار مستقیم با اجتماعات، که در فصل ۵ بیشتر در مورد آن صحبت می‌کنیم، مطمئن‌ترین راه‌حل برای این آسیب‌ها است. مگی والتر66، پژوهش‌گر بوم‌شناسی، توضیح می‌دهد که مالکیتِ فرآیند برای جلوگیری از انتشار روایت‌های تقلیل‌گرایانه کلیدی است: «ما [مردم بومی] باید قدرت واقعی در مورد نحوه آمارگیری در مورد خودمان را داشته باشم - کجا، چه زمانی، و چگونه»67. علاوه‌بر این، توجه دائمی به راه‌هایی که جوامع در حال‌حاضر با مسائل مواجهه خود برخورد می‌کنند، نیز بسیار حائز اهمیت است. این اقدامات، اغلب خلاقانه‌تر، موثرتر، و از نظر فرهنگی عملی‌تر از اقداماتی هستند که هر سازمان خارجی انجام می‌دهد.

عدالت را هدف بگیر، اما مفهوم بزرگ‌تر رهایی‌مشترک را تصور کن

همانطور که نمونه‌هایی که تاکنون در این کتاب به آن‌ها پرداخته شده به‌وضوح نشان می‌دهند، یکی از خطرناک‌ترین نتایج ابزارهای داده‌ و علم داده که توسط گروه‌های مسلط بسط پیدا کرده‌اند، توانایی آن‌ها در پنهان‌کردن سیاست‌ها و اهداف خود در پشت این فناوری‌ها است. بنجامین در کتاب خود «نژاد بعد از فناوری: ابزارهای لغو برای جیم‌کد جدید»68 (که پیشتر به آن اشاره شد)، از این پدیده به‌عنوان «بی‌طرفی خیالی داده و فناوری» یاد می‌کند، زیرا سیستم‌های داده‌محور مانند نقشه قرمزکشی و الگوریتم‌های ارزیابی‌خطر در واقع به هیچ‌وجه بی‌طرف نیستند69. مفهوم بی‌طرفی تصورشده او بر نقش مفروضات فرهنگی و پیش‌فرض‌های شخصی در حمایت از این باور نادرست تاکید می‌کند: آدم (به اشتباه) تصور می‌کند که داده‌ها و الگوریتم‌ها نسبت به افراد، کمتر جانب‌دار و تبعیض‌آمیز هستند، و درنتیجه «بی‌طرف‌تر» هستند70. اما همان‌طور که در فصل ۱ به آن اشاره کردیم، این محصولاتِ داده فقط به این دلیل بی‌طرف به نظر می‌رسند که دیدگاه کسانی که آن‌ها را تولید می‌کنند - نخبگان، مردان سفید و موسساتی که آن‌ها کنترل می‌کنند - پیش‌فرض و عادی در نظر گرفته می‌شود. فرضیات در مورد بی‌طرفی، تبدیل به یک مساله اساسی علم داده و رشته‌های مرتبط شده است، چرا که تبعیض‌جنسی، تبعیض‌نژادی، و ناقص‌بودن الگوریتم‌ها یکی پس از دیگری در حال برملاشدن هستند. افرادی که این سیستم‌ها را طراحی می‌کنند، چه کاری برای جلوگیری از این مشکلات می‌توانند انجام دهند؟ و دیگران چه کاری برای کمک به آن‌ها و پاسخ‌گو نگه‌داشتن آن‌ها می‌توانند انجام دهند؟

جست‌وجو برای پاسخ به این پرسش‌ها باعث ایجاد حوزه جدیدی از پژوهش به نام «اخلاق داده»71 شده است. این نشان‌دهنده‌ تلاشی روبه‌رشد میان‌رشته‌ای - انتقادی و محاسباتی - است برای اطمینان از این‌که مسائل اخلاقی ناشی از وابستگی روزافزون ما به سیستم‌های داده‌محورشناسایی و رفع می‌شوند. تاکنون، روند اصلی بر مساله «سوگیری» و ارزش‌های «انصاف، پاسخ‌گویی، و شفافیت» در کاهش اثرات آن تاکید داشته است72. این یک پیشرفتِ امیدوارکننده است، به‌ویژه برای رشته‌های فنی که در گذشته به مسائل اخلاقی توجه کافی نداشتند و در حالی‌که مکانیزم‌های تامین منابع مالی برای تحقیق درباره داده و اخلاق رو به افزایش است73. با این حال، همان‌طور که مفهوم بی‌طرفی تصورشده بنجامین نشان می‌دهد، برخورد با سوگیری در مجموعه داده، یک عمل فناورای کوچک برای یک مشکل بسیار بزرگ‌تر است. حتی ارزش‌هایی که در اینجا ذکر شدند و به‌دنبال برخورد با نمونه‌های سوگیری در سیستم‌های داده‌محور هستند، به خودی‌خود بی‌طرف نیستند، زیرا آن‌ها منبع سوگیری را در افراد و تصمیمات طراحی‌های خاص محدود می‌کنند. پس ما چگونه می‌توانیم شیوه‌ای را توسعه دهیم که منجربه سیستم‌های داده‌محوری شود که قدرت را در منبع آن به چالش بکشد؟

نمودار زیر (جدول ۲.۱) مجموعه‌ای جایگزین از مفاهیم هدایت‌کننده در این زمینه را معرفی می‌کند: این‌ها شش ایده‌آلی هستند که ما معتقدیم باید اخلاق داده را هدایت کنند. این مفاهیم همگی ریشه‌ در کنش‌گری فمینیستی تقاطعی، سازماندهی‌جمعی، و تفکر انتقادی دارند، که به‌طور صریح و بی‌تردید در راستای عدالت عمل می‌کنند.

جدول ۲.۱

از انصاف داده به دادگری داده

مفاهیمی که قدرت را به چالش می‌کشند

زیرا آن‌ها به ناهمسانی‌های ساختاری اذعان می‌کنند و در جهت از بین‌بردن آن‌ها عمل می‌کنند.

مفاهیمی که قدرت را حفظ می‌کنند

زیرا آن‌ها منشا مشکل را در افراد یا سیستم‌های فنی می‌یابند.

دادگری (justice)

اخلاق (ethics)

سلطه و ستم (oppression)

سوءگیری (bias)

عدالت (equity)

انصاف (fairness)

رهایی‌مشترک (co-liberation)

پاسخ‌گویی (accountability)

بازتابندگی (reflexivity)

شفافیت (transparency)

درک تاریخ، تمدن، و زمینه محیطی

درک الگوریتم‌ها

در ستون سمت راست ما برخی از مفاهیم مهم در رابطه با استفاده از داده‌ و الگوریتم‌ها را که امروزه نقل محافل‌عمومی (و خصوصی) هستند، فهرست کردیم. اینها گامی به جلو هستند، اما به اندازه کافی پیش نمی‌روند. در سمت چپ، مفاهیم متناظر مبتنی بر کنش‌گری فمینیستی تقاطعی و تفکر انتقادی را فهرست کردیم. شکاف بین این دو ستون نشان‌دهنده تفاوت اساسی دیدگاه‌ها در مورد دلیل به وجود آمدن بی‌عدالتی و نحوه عملکرد آن در جهان است. مفاهیم سمت راست بر این فرض استوار هستند که بی‌عدالتی نتیجه خطای افراد یا گروه‌های کوچک («افراد خرابکار»، «پلیس‌های نژادپرست»، «برنامه‌نویس‌های مرد») یا ایراد سیستم‌های فنی («الگوریتم‌ها/مجموعه‌های‌داده») است. اگرچه مطمئنا خطاهای فردی و سیستمی وجود دارد، اما آن‌ها ریشه اصلی مشکلاتی نیستند که بارها و بارها در داده‌ها و الگوریتم‌ها رخ می‌دهند.

اما علت ریشه‌ای چیست؟ اگر فصل ۱ را خوانده باشید، پاسخ را می‌دانید: ماتریس سلطه، ماتریس سلطه و ماتریس سلطه. مفاهیم ستون سمت راست ممکن است موثر باشند، اما در نهایت ریشه‌های مشکل را حفظ می‌کنند. به عبارت دیگر، آن‌ها ساختار فعلی قدرت را حفظ می‌کنند، حتی اگر قصد آن را نداشته باشند، چرا که ماتریس سلطه را درگیر نمی‌کنند. آنها توجه دانشمندان داده را به سوی یافتن راه‌حل‌های فنی سوق می‌دهند. گاهی آن اصلاحات ضروری و مهم هستند، اما همان‌طور که جولیا پاولز74 و هلن نیسنبام75، محققان فناوری، ابراز کرده‌اند، «سوگیری واقعی است، اما همچنین یک انحراف فریبنده است»76. اینجا مشکلی اساسی‌تر وجود دارد که باید رفع شود: همه ما با قدرت یا امتیاز برابر به زمان حال نرسیده‌ایم. صدها سال تاریخ و سیاست و فرهنگ ما را به زمان حال رسانده است. این یک واقعیت زندگی ما و همچنین داده‌های ما است. تمرکز بیشتر بر «دادگری داده‌» به جای تنها اشاره به «اخلاق داده‌»، می‌تواند کمک کند که نابرابری‌های گذشته به الگوریتم‌های غیرشفاف تبدیل نشوند؛ الگویی مانند نقشه‌های قرمزکشی قرن بیستم که مسیر زندگی مردم را در قرن بیست‌ویکم تعیین می‌کنند.

با پیشنهاد این جدول، ما نمی‌گوییم که اخلاق در علم داده جایی ندارد، یا سوگیری در مجموعه‌های‌داده‌ نباید رفع شود، یا شفافیت باید نادیده گرفته شود77. اما، نکته اصلی این است که مفاهیم سمت راست «به تنهایی» برای توضیح ریشه‌های اصلی سلطه و ستم ساختاری ناکافی هستند. آن‌ها با در نظر نگرفتن علل ریشه‌ای، دامنه پاسخ‌های ممکن را برای به چالش کشیدن قدرت و تلاش در جهت دست‌یافتن به عدالت محدود کرده‌اند. در مقابل، مفاهیم سمت چپ از این باور پایه‌ای فمینیستی شروع می‌شوند که سلطه و ستم، مفهومی واقعی، تاریخی، و جاری است که باید برچیده شود.

ساشا کوستانزا-چاک78، نظریه‌پرداز رسانه و طراح، یک رویکرد ترمیمی در مورد عدالت داده پیشنهاد کرده است79. کوستانزا-چاک با اقتباس از نظریه‌های عدالت ترمیمی - به این معنی که تصمیمات باید به‌گونه‌ای گرفته شوند که آسیب‌های گذشته را تشخیص داده و اصلاح کنند - اظهار می‌کند که هر مفهومی از «انصاف»80 الگوریتمی باید به ماهیت نظام‌مند «بی‌انصافی»81 که مدت‌ها توسط گروه‌های خاص بر دیگران اعمال شده، اعتراف کند. آن‌ها پذیرش دانشگاه را مثال می‌زنند - موضوعی که همیشه در اخبار بوده است، البته نه به این دلیل که شیوه اصلی حفظ امتیاز است82. یک رویکرد ترمیمی برای پذیرش در کالج و برای تصمیم‌گیری در مورد این‌که چه کسی باید اکنون پذیرفته شود می‌تواند این باشد که چه کسانی از نظر تاریخی در گذشته پذیرفته نشده‌اند، مانند زنانی که برای چندین دهه از MIT، جایی که کنستانزا-چاک در آن تدریس می‌کند، کنار گذاشته شده بودند. طبق این مدل، یک گروه ورودیِ «منصفانه» در زمان حال که تاریخ را در نظر گرفته باشد، می‌تواند از۹۰٪ زنان و رنگین‌پوستان تشکیل شود83.

آیا این رویکرد، عدالت را سیاسی می‌کند؟ قطعا بله، چرا که همه نظام‌ها، سیاسی هستند. در حقیقت، دعوت به اجتناب از سیاست راهی بسیار شناخته‌شده برای صاحبان قدرت است تا آن را حفظ کنند84. تواناییِ کنار گذاشتنِ سیاست به خودی‌خود یک امتیاز است که فقط در اختیار افرادی است که وجودشان وضعیت موجود را به چالش نمی‌کشد. اگر شما زنی سیاه، یا مردی مسلمان، یا عضو خدمات تغییرجنسیتی باشید و اکنون در ایالات متحده زندگی می‌کنید، خواه‌ناخواه، وجود شما در جهان سیاسی است85. بنابراین، کوستانزا-چاک توضیح می‌دهد که به‌جای طراحی الگوریتم‌هایی که ادعا می‌کنند «کوررنگ» هستند (از آنجایی که کوررنگی یک افسانه است)، ما باید الگوریتم‌هایی را طراحی کنیم که «دادگرانه»86 عمل کنند87. این به معنای حرکت از مفهوم غیرتاریخی انصاف به مدلی از «عدالت»88 است.

عدالت، دادگری با طعمی خاص است که با برابری متفاوت می‌باشد. در برابری، اندازه‌گیری از زمان t=0 شروع می‌شود که در آن t برابر با زمان و 0 نشان می‌دهد که هنوز زمانی سپری نشده است. براساس این فرمول، اصل برابری می‌گوید که منابع و/یا مجازات‌ها باید بر اساس آن‌چه که در لحظه کنونی اتفاق می‌افتد، یعنی در زمان t=0، تعیین شوند. اما این فرمول برای رفتار برابر به این معنی است که کسانی که در زمان حال جلوتر هستند، می توانند فراتر رفته، به دستاوردهای بیشتری برسند، و در صدر باقی بمانند، در حالی‌که کسانی که از عقب‌تر شروع کرده‌اند، هرگز نمی‌توانند به آن‌ها برسند. کیدادا گرین89، مدیر اجرایی انجمن تغذیه با شیر مادران سیاه، به این مساله اشاره می‌کند که در کشوری که نوزادان سیاه دو برابر نوزادان سفید جان خود را از دست می‌دهند، برابری در واقع به‌شکل نظام‌مندی ناعادلانه است: «در آمریکا، سطحی از صحت سیاسی وجود دارد که باعث می‌شود برخی باور داشته باشند که برابری راهی است که باید پیش گرفت. حتی زمانی که برابری ناعادلانه است، همچنان برخی می‌گویند که کار درستی است»90. تلاش به سوی جهانی که در آن با همه به‌صورت عادلانه و نه برابر رفتار شود، به معنای در نظرگرفتن ناهمسانی قدرت‌های فعلی و توزیع (یا توزیع مجدد) منابع است. ساختن یک مدل محاسباتی عادلانه بسیار دشوارتر از مدل برابری‌طلب است - زیرا نیازمند در نظر گرفتن زمان، تاریخ، و ناهمسانی قدرت‌‌ها است، اما غیرممکن نیست91.

این دشواری همچنین بر این نکته تاکید می‌کند که مفهوم سوءگیری (در افراد، در مجموعه‌های‌داده، در مدل‌های آماری یا در الگوریتم‌ها) به اندازه کافی قوی نیست تا بتوان ایده‌های مربوط به عدالت و دادگری را در آن تثبیت کرد. برای مثال، ویرجینیا یوبانکس92 درباره ایجاد سیستم مدیریت رفاه نیویورک در اوایل دهه ۱۹۷۰می‌نویسد: «سیستم‌های اولیه کلان‌داده بر پایه‌ فهم خاصی از این‌که چه چیزی تبعیض را می‌سازد، ساخته شده بودند: سوء‌گیری‌های شخصی»93. راه‌حل در آن زمان، حذف انسان از فرایند کار بود، و اکنون نیز به همین ترتیب است: بدون وجود افراد خراب‌کار - در این‌جا نژادپرست - تبعیض کمتری به وجود می‌آید. اما این شیوه نگرش چیزی است که رابین دی آنجلو94، محقق مطالعات سفید، آن را «تبعیض‌نژادی جدید» نامیده است: این باور که تبعیض‌نژادی نتیجه عملکرد منفرد افراد است و نه ساختارها یا سیستم‌ها95. یوبانکس در رابطه با مدیریت رفاه تاکید می‌کند که این کار (حذف انسان از فرایند کار) اغلب به معنای جایگزین‌کردن مددکاران اجتماعی، که اغلب زنان رنگین‌پوست که دارای همدلی، انعطاف‌پذیری، و توانایی گوش‌دادن بودند، با یک سیستم خودکار بوده که مجموعه‌ای از معیارهای سفت‌وسخت را، صرف نظر از موقعیت، اعمال می‌کردند.

در حالی‌که سوءگیری هنوز یک مشکل جدی است، اما نباید به‌عنوان مساله‌ای دیده شود که می‌توان آن را بعد از این کار رفع کرد. درعوض، ما باید به دنبال درک و طراحی سیستم‌هایی باشیم که ریشه سوءگیری‌ها را، که سلطه و ستم ساختاری است، رفع کند. در حقیقت، سلطه و ستم، خود نتیجه‌‌ای هستند که از ماتریس سلطه ناشی می‌شوند. در این مدل، گروه‌های مسلط از مزایایی برخوردار هستند که شایستگی آن را ندارند و گروه‌های اقلیت‌شده باید با دشواری‌های ناعادلانه زندگی کنند. شروع کار با در نظر گرفتن این فرض که مشکل، سلطه و ستم است و نه سوءگیری، به تصمیمات اساسی متفاوتی منتهی می‌شود، در مورد این‌که روی چه چیزی کار کنیم، با چه کسی کار کنیم، و چه زمانی بایستیم و بگوییم که یک مشکل را نمی‌توان و نباید با داده و فناوری حل کرد96. اگر می‌توانیم سیستمی را از ابتدا با هدف رهایی‌مشترک طراحی کنیم، چرا باید به بررسی سیستم‌های بالقوه معیوب بسنده کنیم؟97 و در اینجا، «رهایی مشترک» به معنی «آزاد کردن داده‌ها» نیست، بلکه به معنای «آزاد کردن مردم» است. مردم مورد اشاره در این‌جا تنها افرادی با امتیازات پایین نیستند، بلکه افراد با امتیازات بالا نیز می‌باشند: پژوهش‌گران داده، طراحان، محققین، و مربیان - به‌عبارت دیگر، کسانی مانند خودمان - که در سرپا نگه‌داشتن نظام‌های سلطه نقش دارند.

کلید رهایی‌مشترک در تعهد و باور به منفعت متقابل، هم از طرف اعضای گروه‌های مسلط و هم گروه‌های اقلیت‌شده است. این همان مفهوم «مشترک» در رهایی‌مشترک است. اغلب اوقات، خدمات داده‌ای که توسط شرکت‌های فناوری ارائه می‌شود، به‌عنوان کارهای خیریه‌ای در نظر گرفته می‌شوند (در فصل ۵ در مورد محدودیت‌های «داده برای مقاصد خیر» بحث می‌کنیم). اما چارچوب رهایی‌مشترک این نسبت را در قالب ایجاد رابطه‌ای برابر و التیام‌جمعی تغییر می‌دهد. نقل‌قول معروفی وجود دارد که به فعالان بومی در کوئینزلند استرالیا در دهه ۱۹۷۰ نسبت داده می‌شود: «اگر اینجا آمده‌اید تا به من کمک کنید، وقت خود را تلف کرده‌اید. اما اگر به این دلیل آمده‌اید که رهایی شما به رهایی من گره خورده است، آن‌وقت بیایید با هم کار کنیم»98.

این به چه معنی است؟ همانطور که توانا پتی99، شاعر و سازمان‌دهنده اجتماعی، در رابطه با تلاش‌های حوزه ضدتبعیض‌نژادی در ایالات‌متحده توضیح می‌دهد: «ما نیاز داریم که سفیدان عمیقا به این باور برسند که رهایی آن‌ها، انسانیت آن‌ها، وابسته به نابودی تبعیض‌نژادی و از بین‌رفتن برتری سفیدان است»100. در مورد جنسیت نیز به همین ترتیب است: مردان اغلب به این فکر نمی‌کنند که چگونه روابط جنسی نابرابر به نهادهایی که بر آن‌ها تسلط دارند نفوذ می‌کند و به همه آسیب می‌رساند.

هدف رهایی‌مشترک، انگیزه ایجاد پروژه «رفقای داده ما»101 (ODB) بوده است. این پروژه توسط گروهی متشکل از پنج زن، از جمله گندگادهارن102 و پتی، که در تلاقی کار دانشگاهی و سازمانی فعال هستند، هدایت می‌شود. این پروژه حرکتی نوآورانه و اجتماع‌محور است که بر جمع‌آوری داده‌هایی که به طور نامتناسبی بر افراد اقلیت‌شده تأثیر می‌گذارد،‌ تمرکز دارد. پروژه ODB با همکاری سازمان‌های‌اجتماعی در سه شهر ایالات‌متحده، تحقیقات مشارکتی و کارگاه‌های آموزشی را رهبری می‌کند که نتیجه آن انتشار دفترچه «راهنمای دفاع دیجیتال» بوده که اخیرا منتشر شده است. این مجموعه فعالیت‌ها، ابزارها، و راهنماهای کاربردی برای این طراحی شده‌اند تا توسط و برای گروه‌های به حاشیه‌رانده‌شده استفاده شوند تا دریابند که چگونه فناوری‌های داده‌محور بر زندگی آن‌ها تأثیر می‌گذارد103.

کتاب «راهنمای دفاع دیجیتال» ماحصل سال‌ها ایجاد رابطه، تحقیق، و همچنین تغییری آگاهانه است. این گروه در مقدمه راهنما توضیح می‌دهد: «ما می‌خواستیم افرادی را که مشکلات مربوط به جمع‌آوری داده‌ها، حریم خصوصی داده‌ها، و امنیت داده‌ها را تعریف می‌کنند، از نخبگان به گروه‌های تحت‌تاثیر تغییر دهیم. این مساله را روشن کنیم که اجتماعات چگونه با مشکلات داده‌محور روبرو می‌شوند و چگونه باید با آن‌ها مواجه شوند. و می‌خواستیم تحلیلی از داده‌ها و فناوری‌های داده‌محور را از و با تلاش این گروه‌ها ایجاد کنیم»104. با انجام این کار، پروژه ODB نشان داد که رهایی‌مشترک نه تنها به شفافیت روش‌ها بلکه به «بازتابندگی»105 نیاز دارد: توانایی بارتابندگی و پذیرش مسئولیت موقعیت خود در ابعاد متعدد و متقاطع ماتریس سلطه. در طول این مسیر، محققان و سازمان‌دهندگان درگیر در پروژه تصمیم گرفتند که برنامه تحقیقاتی خود را که در ابتدا به‌عنوان یک پروژه عمومی درباره ساختن پروفایل‌ داده‌‌ها و مقاومت آغاز شده بود، در پاسخ به مشکلاتی که توسط خود اجتماعات مطرح شده بود، به حوزه نظارت منتقل کنند106.

حتی در خود شرکت‌های بزرگ فناوری، شواهدی از افزایش حس تامل میان کارمندان در مورد نقش آن‌ها در ایجاد سیستم‌های داده زیان‌بخش وجود دارد، به‌‌عنوان نمونه: مخالفت کارکنان گوگل با همکاری شرکت گوگل و وزارت دفاع (DoD) در پروژه Maven که از هوش‌مصنوعی برای بهبود دقت حملات پهبادها استفاده می‌کرد؛ مخالفت کارکنان مایکروسافت با تصمیم شرکت مایکروسافت برای گرفتن ۴۸۰ میلیون دلار از وزارت دفاع برای توسعه برنامه‌های کاربردی نظامی هدست واقعیت افزوده HoloLens؛ و مخالفت کارکنان آمازون با قرارداد شرکت آمازون با اداره مهاجرت و گمرک ایالات‌متحده برای توسعه پلتفرم Rekognition که برای شناسایی افراد در مرزهای ایالات‌متحده به‌منظور بازداشت و اخراج آن‌ها ایجاد شده بود107. این مخالفت‌ها منجر به لغو پروژه‌های گوگل و مایکروسافت و همچنین افزایش آگاهی سیاسی در سراسر این بخش شد که در پایان کتاب بیشتر به آن می‌پردازیم108.

طراحی مجموعه‌های‌داده و سیستم‌های داده که با سلطه مقابله می‌کنند و در راستای دادگری، عدالت، و رهایی‌مشترک عمل می‌کنند، به ابزارهای جدیدی در جعبه‌ابزار جمعی ما نیاز دارند. ما چند نقطه شروع خوب داریم: ساختن الگوریتم‌های قابل درک‌تر یک هدف تحقیقاتی ستودنی و ارزشمند است. با این‌حال آن‌چه ما باید توضیح دهیم و به آن توجه کنیم، نه تنها عملکرد درونی الگوریتم‌های یادگیری‌ماشین، بلکه تاریخ، فرهنگ و زمینه‌ محیطی‌ای است که منجربه خروجی‌های تبعیض‌آمیز شده است. برای مثال، همان‌طور که در فصل ۱ بحث کردیم، این تصادفی نیست که نرم‌افزار تحلیل‌چهره نتوانست چهره جوی بولاموینی را ببیند. این تصادفی نیست که تصویر «لنا»109 که برای آزمایش اکثر الگوریتم‌های پردازش تصویر استفاده می‌شود، مربوط به صفحه میانی مجله «پلی‌بوی» شماره نوامبر ۱۹۷۲ است که از روی شانه‌های عکس بریده شده بود110. این تصادفی نیست که زنانی که روی کامپیوتر ENIAC کار می‌کردند به جشن پنجاهمین سالگرد در سال ۱۹۹۵ دعوت نشدند. این تصادفی نیست که کریستین داردن به سرعت همکاران مردش ارتقا پیدا نکرد. هیچ‌کدام اینها تصادفی نیستند: آن‌ها نقاط داده متصل به‌هم و نتایج قابل اندازه‌گیری و قابل پیش‌بینی ماتریس سلطه هستند. اما شما تنها زمانی می‌توانید الگو را تشخیص دهید که تاریخ، فرهنگ و زمینه‌ محیطی که آن را احاطه کرده است، بشناسید.

افرادی که با داده کار می‌کنند، به‌طور کلی، انتخاب‌هایی دارند - انتخاب‌هایی در مورد این‌که برای چه کسی کار کنند، روی کدام پروژه کار کنند، و چه ارزش‌هایی را نپذیرند111. شروع با این فرض که سلطه و ستم مشکل است، عدالت مسیر است، و رهایی‌مشترک هدف مورد نظر است، به پروژه‌هایی بنیاداً متفاوت منجر می‌شود که قدرت را در منابع خود به چالش می‌کشند. این فرض همچنین به معیارهای متفاوتی در مورد موفقیت منجر می‌شود. این موارد فراتر از کارایی یک پایگاه‌داده تحت بارگذاری، دقت یک الگوریتم دسته‌بندی، یا اندازه یک پایگاه کاربر یک سال پس از راه‌اندازی است. موفقیت پروژه‌ای که با در نظرگرفتن رهایی‌مشترک طراحی شده باشد همچنین به میزان اعتماد ایجاد شده بین نهادها و گروه‌ها بستگی دارد، به این‌که افرادی که دارای قدرت و منابع هستند چگونه به‌طور موثر قدرت و منابع خود را به اشتراک می‌گذارند، چقدر یادگیری در هر دو جهت اتفاق می‌افتد، چقدر افراد و سازمان‌ها در این فرآیند متحول می‌شوند و چقدر الهام‌بخشی برای کارهای مشترک آینده ایجاد می‌شود. این معیارها کمی غامض‌تر از اعداد و رتبه‌بندی‌هایی هستند که تصور می‌کنیم تنها گزینه ما هستند، اما با این وجود کاملا و دقیقا قابل اندازه‌گیری هستند.

داده را همانند یک فمینیست تقاطعی آموزش دهید

وقتی که گوندولین وارن و محققان DGEI داده‌های تصادفات با کودکان سیاه و فرار از محل را جمع‌آوری می‌کردند و یا دنبال اندازه‌گیری و وزن کردن شیشه‌های شکسته‌شده در زمین بازی‌های دیترویت بودند، این کارها را فقط برای ارائه یک نمونه داده‌محور برای تغییر انجام ندادند. کلمه «مؤسسه» در انجمن و مؤسسه اکتشاف جغرافیایی دیترویت، به بخش آموزش این سازمان اشاره می‌کند که کلاس‌هایی در زمینه جمع‌آوری داده‌، نقشه‌برداری، و کارتوگرافی برگزار می‌کند. این نتیجه اصرار وارن بود که جغرافی‌دانان دانشگاهی باید به اجتماعی که از دانش آن‌ها برای تحقیقات خود بهره می‌بردند، چیزی برگردانند. او متوجه بود در حالی‌که یک نقشه یا پروژه می‌تواند تاثیر متمرکزی داشته باشد، اما آموزش به اجتماع، آن‌ها را قادر می‌سازد تا به یک استراتژی طولانی‌مدت برای به چالش کشیدن قدرت دست پیدا کنند. در نهایت، ارتباطات سازمانی جغرافی‌دانان دانشگاهی به آن‌ها این امکان را داد که درس‌های دانشگاهی رایگان و معتبر به اعضای آن اجتماع تدریس کنند.

تاکید وارن بر آموزش، به نقش آن به‌عنوان شیوه‌ای برای هم‌زمان توانمندسازی و تغییر توجه داشت. این باور جدیدی نیست، همان‌طور که هوراس مان112، از اصلاح‌طلبان آموزش اهل آمریکا، در سال ۱۸۴۸ اظهار کرده بود: «آموزش فراتر از همه تقسیم‌بندی‌های مرتبط با منشا انسانی، عامل تساوی‌بخش مهمی برای شرایط «مردان» است - چرخ تعادل ماشین اجتماعی». اما نکته اینجاست - مهم است که چگونه این تساوی‌بخشی را انجام می‌دهیم و این برابری را برای خدمت به چه کسی تصور می‌کنیم. مان در عبارت خود به‌طور مشخص به «مردان» اشاره می‌کند: آموزش باید یک عامل تساوی‌بخش برای مردان باشد، اما فقط مردان خاص (بخوانید: سفیدان، انگلیسی، مسیحی) و صراحتا نه زنان113. از سوی دیگر، وارن مطرح می‌کند که دسترسی به آموزش - و به طور خاص آموزش علوم داده - باید گسترش پیدا کند تا به نیروی تساوی‌بخشی خود دست یابد.

متأسفانه، دیدگاه متحول‌کننده وارن هنوز وارد کلاس‌های درس علوم داده نشده است. همچون دوره مان، همچنان مردان رهبری را برعهده دارند. زنان کمتر از یک سوم اعضای هیئت‌علمی دانشکده‌های علوم کامپیوتر و آمار را تشکیل می‌دهند، و بیشتر از ۸۰٪ اساتید هوش‌مصنوعی مرد هستند114. این عدم‌تعادل جنسیتی، و تنگ‌نظری ناشی از آن، با این واقعیت که اغلب علم داده به‌عنوان یک کار «انتزاعی و فنی» در نظر گرفته می‌شود، ترکیب می‌شود. مراحلی مانند تمیز و آماده کردن داده صرفا به‌عنوان مسائل فنی در نظر گرفته می‌شوند، و بحث کمتری در مورد زمینه اجتماعی، اخلاقی، ارزش‌ها یا سیاست‌های داده صورت می‌گیرد115. این باعث تقویت این تصور می‌شود که علم داده در مورد اخترفیزیک همانند علم داده در مورد عدالت کیفری و همچون علم داده در مورد گازهای گلخانه‌ای است. این مساله امکان تغییر را محدود می‌کند. در نهایت، از آن‌جا که هدف یادگیری علم داده به‌عنوان یک «تخصص فردی مفاهیم و مهارت‌های فنی» در نظر گرفته می‌شود، اجتماعات درگیر نمی‌شوند و گفتگوها محدود می‌شوند. در عوض، معلمان این دانش فنی را به‌شکل سخنرانی ارائه می‌کنند و دانشجویان تکالیف و آزمون‌ها را به‌شکل فردی انجام می‌دهند. ما می‌توانیم این مدل آموزشی را «مدل کارخانه هوراس مان برای علم داده»116 بنامیم، زیرا نمایان‌گر دیدگاه انحصاری است که مان مطرح کرد. اما اجازه دهید آن را به اختصار «کارخانه مان»117 بنامیم.

«کارخانه مان» در تولید مردان، عمدتا مردان سفید نخبه همچون کسانی که تاکنون کلاس‌ها را هدایت می‌کرده‌اند، واقعا خوب است. اما به‌همان اندازه در تولید دانشمندان داده زن، یا دانشمندان داده غیردودویی، یا دانشمندان داده رنگین‌پوست خوب عمل نمی‌کند. برای سال‌ها، محققان و سازمان‌های مدافع، متوجه مشکلات این «خط تولید» رشته‌های فنی شده بودند. با این حال، این تحقیق پیرامون سوالاتی مانند «چرا تعداد دانشمندان کامپیوتر زن کم است؟» و «چرا زنان رشته کامپیوتر را ترک می‌کنند؟» بوده است118. توجه داشته باشید که طرح سؤالات به این شکل، دلالت بر این دارد که این زنان هستند که مشکل دارند و ناخواسته روایتی تقلیل‌گرایانه را تداوم می‌بخشند. عجیب نیست محققان فمینیستی که درباره این موضوع تحقیق می‌کنند، سوالات بسیار متفاوتی می‌پرسند، مانند «مردانی که کارخانه مان را اداره می‌کنند چگونه می‌توانند قدرت خود را به اشتراک بگذارند؟» و «چگونه همراه هم می‌توانیم آموزش STEM119 را تغییر ساختاری دهیم؟»120

لائورا روبل121، معلم ریاضی پروژه لوکال لوتو122، یکی از افرادی است که پاسخی برای این سوالات صورت‌بندی کرده است. اگر در پنج سال گذشته در خیابان‌های شهر بروکلین یا برانکس بوده باشید، ممکن است بدون آن‌که متوجه شده باشید با یکی از کلاس‌های علوم داده او برخورد کرده باشید. احتمالا متوجه این موضوع نشده باشید، چرا که آن کلاس‌ها هیچ شباهتی به یک کلاس درس سنتی نداشتند (شکل ۲.۴). نوجوانان محله در گروه‌های کوچک در اطراف پرسه می‌زدند و تبلت، خودکار و کاغذ، دوربین و نقشه همراه داشتند. آن‌ها به‌طور دوره‌ای در خیابان‌ها عکس می‌گرفتند، به مغازه‌های کوچک سر می‌زدند، با رهگذران به زبان اسپانیایی یا انگلیسی صحبت می‌کردند و اطلاعات را در تبلت‌های خود ثبت می‌کردند.

روبل حوزه‌ای به نام رشته ریاضیات برای عدالت فضایی را هدایت می‌کند که هدف آن این است که نشان دهد چگونه می‌توان مفاهیم ریاضی را به نحوی آموزش داد که با مسائل عدالتی که از زندگی روزمره دانش‌آموزان برمی‌آید، مرتبط باشد و چگونه دانش‌آموزان می‌توانند این کار را با گفتگو با اهالی محله‌ها و اجتماعات خود انجام دهند. هدف لوکال لوتو ایجاد روشی مختص هر محله برای آموزش مفاهیم مرتبط با داده و آمار بر اساس ملاحظات عدالت‌جویانه است123. به‌طور مشخص، روبل و سایر سازمان‌دهندگان لوکال لوتو از دانشجویان جوان می‌خواستند که پاسخی داده‌محور به این سؤال دهند: «آیا بخت‌آزمایی برای محله شما خوب است یا بد؟»

در نیویورک، مانند سایر ایالت‌های ایالات‌متحده که در آنها بخت‌آزمایی انجام می‌شود، گاهی‌اوقات، اما نه همیشه، پولِ فروش بلیت‌های بخت‌آزمایی برای تامین بودجه برنامه‌های آموزشی به بودجه ایالتی باز می‌گردد124. اما بلیت‌های بخت‌آزمایی در همه گروه‌های درآمدی یا همه محله‌ها به یک اندازه خریداری نمی‌شوند. کارگران با دستمزد پایین نسبت به همتایان پردرآمد خود بلیط بیشتری می‌خرند. علاوه‌بر این، درآمد حاصل از خرید بلیط‌ها به آن کارگران یا محل‌هایی که آن‌ها در آنجا زندگی می‌کنند تخصیص داده نمی‌شود. به همین دلیل، محققان استدلال می‌کنند که سیستم بخت‌آزمایی نوعی «مالیات نزولی»125 است - اساسا یک «مالیات فقر»126 - که به موجب آن محله‌های کم‌درآمد «مالیات» بیشتری می‌پردازند چون بیشتر بازی می‌کنند، اما سهم متناسبی از سود را دریافت نمی‌کنند127.

برنامه درسی لوکال لوتو به‌شکلی طراحی شده است که دانش‌آموزان دبیرستانی را در معرض این نمونه از نابرابری اجتماعی قرار می‌دهد. آن‌ها با انجام بازی‌های مبتنی بر شانس شروع به صحبت در مورد بخت‌آزمایی و ایده احتمالات می‌کنند. آن‌ها سپس بازی‌های جک‌پات، مانند بخت‌آزمایی Sweet Millions که توسط ایالت نیویورک به‌عنوان «بهترین شانس شما از بخت‌آزمایی نیویورک برای برنده‌شدن یک‌میلیون، تنها با یک دلار» تبلیغ شده بود را مطرح می‌کنند. با این‌حال، بهترین شانس برای برنده شدن یک‌میلیون، تقریبا یک در چهارمیلیون است. کل یک جلسه کلاس به بحث درباره موارد دیگری از «چهارمیلیون» که بیشتر به زندگی دانش‌آموزان مربوط می‌شود اختصاص پیدا می‌کند128. سپس دانش‌آموزان برای جمع‌آوری داده‌هایی در مورد تجربه دیگران از بخت‌آزمایی، کلاس را ترک می‌کنند و به محله‌هایشان برمی‌گردند. آن‌ها نقشه فروشگاه‌هایی را که بلیط‌های بخت‌آزمایی می‌فروشند، تهیه می‌کنند. مصاحبه‌های خود با مغازه‌داران و خریداران بلیط را در تبلت‌های خود ذخیره و محل آن‌ها را روی نقشه علامت‌گذاری می‌کنند. آن‌ها از تبلیغات بخت‌آزمایی عکس می‌گیرند. سپس، دانشجویان نتایج خود را تحلیل کرده و به کلاس ارائه می‌کنند. آن‌ها نقشه‌های کوروپلت129 سطوح درآمد را بررسی می‌کنند، جداول نسبت می‌سازند، و ارتباط هزینه‌های ایالتی سود بخت‌آزمایی را با درآمد متوسط خانواده پیدا می‌کنند. (جای تعجب نیست: هیچ ارتباطی وجود ندارد.) در نهایت، آن‌ها استدلالی داده‌محور ارائه می‌کنند: ایده‌ای مبتنی بر شواهدی از تحلیل‌های آماری، مکانی، و همچنین کار میدانی (شکل‌های ۲.۵ و ۲.۶).

شکل ۲.۴

یک کلاس درس علوم داده. پروژه لوکال لوتو، ۲۰۱۲-۲۰۱۵، به دانش‌آموزان دبیرستانی آمار و تحلیل داده را که ریشه در مسائل محله و عدالت دارد، آموزش می‌دهد. با تشکر از تیم پروژه سیتی دیجیتس، از جمله کالج بروکلین، آزمایشگاه طراحی داده مدنی در MIT و مرکز آموزش شهری. این کار توسط بنیاد ملی علوم تحت Grant No. DRL-1222430 پشتیبانی شده است.

شکل ۲.۵

«حالا تو می‌دانی.» پوستر اینفوگرافیک دانش‌آموزی در پاسخ به پیام تبلیغاتی بخت‌آزمایی نیویورک، «هی، تو هرگز نمی‌دانی...»، که احتمال برنده شدن هر چیزی را بررسی می‌کند - از یک‌میلیون دلار تا بلیط دیگر. با تشکر از تیم پروژه سیتی دیجیتس. این کار توسط بنیاد ملی علوم تحت Grant No. DRL-1222430 پشتیبانی شده است.

شکل ۲.۶

نظر نهایی مشترک در مورد این نکته که بخت‌آزمایی برای محله دانش‌آموزان مفید نیست و ارائه شواهدی که برای تأیید ادعای خود جمع‌آوری کرده‌اند. اسلایدهای چندرسانه‌ای را در http://citydigits.mit.edu/locallotto#tours-tab ببینید. با تشکر از امانولا، آنجل، رابرت، و جانوا. این کار توسط بنیاد ملی علوم تحت گرنت شماره DRL-1222430 پشتیبانی شده است.

ارزیابی‌ها نشان می‌دهد که شیوه لوکال لوتو عملکرد خوبی داشته است: قبل از اجرای لوکال لوتو در یک مدرسه، تنها دو نفر از ۴۷ دانشجو قادر به تعیین تعداد صحیح ترکیب‌های ممکن در یک مثال بخت‌آزمایی بودند. بعدا، تقریبا نیمی (۲۱ از ۴۷) توانستند با موفقیت تعداد ترکیب‌ها را محاسبه کنند. اما شاید مهمتر از آن، رویکرد لوکال لوتو، ریاضیات و آمار را به زندگی دانشجویان مرتبط کرد. یکی از دانشجویان آن‌چه را که آموخته بود این‌گونه به اشتراک گذاشت «چیز جدیدی بود که می‌توانست در محیط اطرافم، در واقع در خانه‌ام، به من کمک کند»، و بعد از اتمام درس، او سعی کرد مادرش را با «نشان دادن کتاب ریاضی خود و تمام کارها به او» قانع کند که پول کمتری برای بخت‌آزمایی بپردازد. زنان اسپانیایی‌زبانِ کلاس که اغلب در بحث‌های درس شرکت نمی‌کردند، در طول دوره‌های نقشه‌برداری مشارکتی، به‌عنوان مترجم حضورشان ضروری بود. در ادامه، چند دانش‌آموز به معلمان دیگری در مورد برنامه درسی، چه در سطح محلی و چه در سطح ملی، آموزش دادند130.

تفاوت رویکرد لوکال لوتو و کارخانه مان در آموزش تحلیل داده و مفاهیم آماری چیست؟ چگونه لوکال لوتو قدرت را در داخل و خارج از کلاس درس به چالش کشید؟ اول، این پروژه تحت رهبری زنان بود: این پروژه به رهبری سه زن و به نمایندگی از سه نهاد پایه‌گذاری شد131. درست مانند نقشه و مدرسه DGEI، به رهبری گوندولین وارن، هویت سازندگان مهم است. دوم، به‌جای اینکه علم داده را به شکل انتزاعی و فنی صورت‌بندی کند، لوکال لوتو علم داده را بر پایه حل سوالات اخلاقی درباره نابرابری اجتماعی مدل کرد که ارتباط مستقیمی با زندگی روزمره دانشجویان داشت: آیا بخت‌آزمایی برای محله شما خوب است یا بد؟ این پروژه برای تجربه زیسته ارزش قائل بود: دانشجویان به‌عنوان «متخصصان حوزه» در محله‌های خود وارد شدند. و برای داده‌های کیفی و کمی ارزش قائل شد: دانشجویان با ساکنان محله صحبت کردند و باورها، نگرش‌ها و نگرانی‌هایشان را به محاسبات احتمالات پیوند زدند. دانشجویان از صدای اعضای اجتماع به‌عنوان مدرک در پروژه‌های نهایی خود استفاده کردند. سوم، به جای ارزیابی تسلط فردی بر مهارت‌های فنی به‌عنوان استاندارد طلایی، دانشجویان در هر مرحله از پروژه با یکدیگر همکاری می‌کردند. آن‌ها از روش‌های هنری و طراحی (مانند ایجاد اینفوگرافیک و نمایش اسلاید دیجیتال) استفاده کردند تا ارتباط با داده را تمرین کنند.

اگرچه ما از این انتخاب‌های آموزشی آگاهانه خوشحالیم، اما همانطور که سازمان‌دهندگان لوکال لوتو در مقاله‌ای در سال ۲۰۱۶ در مجله «شناخت و آموزش»132 اشاره کردند، پروژه لوکال لوتو همچنان کاستی‌هایی داشت133 (۷۲). بسیاری از این‌ها از یک واقعیت پایه‌ای سرچشمه می‌گرفت: معلمان و طراحان دوره‌های درس پروژه، سفیدپوست و آسیایی بودند، در حالی‌که جوانان کلاس‌ها، عمدتا لاتین‌تبار و سیاه بودند. این موضوع منجربه مشکلات متعددی شد. به‌عنوان مثال، طراحان برنامه‌درسی قصد داشتند تمرکز خود را بر تفاوت درآمدی قرار دهند، اما متوجه شدند که «دانشجویان دائما مسئله نژاد را مطرح می‌کنند». از آن‌جایی که نژاد و قومیت در جزوه‌های آموزشی نیامده بود، معلمان احساس کردند که تجربه یا پیش‌زمینه کافی برای بحث صریح در مورد آن‌ها را ندارند و این گفتگوها را کنار گذاشتند. همان‌طور که در مقاله آمده است «جوانان، و در این مورد جوانان رنگین‌پوست، درک متفاوتی درباره مرزهای نژادی دارند؛ درک آن‌ها از این مساله، ظریف‌تر و وسیع‌تر ازدیدگاه‌های افراد توان‌گر، سفیدپوست، یا بزرگ‌سال است». امروزه، سازمان‌دهندگان، اقداماتی را برای صریحا یکپارچه‌کردن بحث‌های مربوط به نژاد در برنامه‌درسی و همچنین گنجاندن داده‌های نژاد، قومیت، و سن در پروژه‌های درسی انجام داده‌اند134 (۷۳).

طراحان درس همچنین با «نمونه‌های محدود اما مکرر مقاومت دانشجویان» در مقابل پروژه‌هایی با محوریت نابرابری درآمدها مواجه شدند. آن‌ها این مقاومت را به این مساله نسبت دادند که این درس توسط افراد خارجی طراحی و تدریس شده بود و می‌توانست به‌عنوان قضاوتی درباره مردم محله‌هایشان تلقی شود: از آن‌جا که معلمان از اهالی آن اجتماع نبودند، روایت تقلیل‌گرایانه‌ای در مورد افراد کم‌درآمد ثبت می‌کردند. این پاسخی هوشیارانه و کاملا منصفانه از سمت دانشجویان جوان بود. اکثر مردم، صرف‌نظر از ثروت یا سطح تحصیلات‌شان، می‌دانند که هرگز در بخت‌آزمایی برنده نمی‌شوند. در خرید بلیط عنصری خیال‌پردازانه وجود دارد. شعار کمپین، «هی، تو هرگز نمی‌دانی...» همان‌قدر که به‌واقعیت‌پیوستنش جذاب است، تصورش هم جذاب است، و این تصور هم دارای ارزش است. با تأمل در مورد حس قضاوت ناخواسته تجربه‌شده دانشجویان، طراحان درس تصمیم گرفتند که در تکرار بعدی درس، تلاش کنند تا دانشجویان را با افراد فعالی که برای رسیدگی به مسائل نابرابری درآمد در اجتماع تلاش می‌کنند مرتبط کنند.

در موفقیت‌ها و شکست‌های خود، و همچنین در تعهد به تکرار و تلاش دوباره، لوکال لوتو نشان داد که به چالش‌کشیدن قدرت و امتیاز، و کار برای عدالت به چه معناست. عدالت یک سفر است. آن دشواری که همراه این سفر به وجود می‌آید بخشی از سفر است. چیزی به نام تسلط بر فمینیسم وجود ندارد، زیرا کسانی که دارای موقعیت‌های ممتاز هستند - مانند کسانی که در علم داده هستند، مانند طراحان دوره‌های لوکال لوتو، و مانند ما، نویسندگان این کتاب - دائماً در حال یادگیری هستند که چگونه در عین تفاوت‌ها متحدان و هم‌دستان بهتری باشند. مساله مهم در این فرآیند، همانطور که دونا هاراوی135، فیلسوف فمینیست، می‌گوید این است که «با مشکل بمانیم»136 (۷۴). ماندن با مشکل به‌معنای پافشاری در کار خود است، به‌خصوص زمانی که مشکل آزاردهنده، نامشخص یا کاملا آشفته‌کننده باشد. یکی از بزرگترین نقاط قوت پروژه لوکال لوتو، شجاعت سازندگان آن است که به‌صورت علنی، شفاف و انعطاف‌پذیر، خود و فرآیند خود را مورد بازجویی قرار داده، مشکلات خود را به تفصیل تشریح کرده، و تعهد خود را بهبود در آینده شرح داده‌اند.

قدرت را به چالش بکشید

پس از بررسی قدرت، مرحله بعدی به چالش‌کشیدن آن است - نقشه به نقشه، حساب به حساب‌، اجتماع به اجتماع، و کلاس به کلاس. جمع‌آوری ضدداده‌ها برای اندازه‌گیری و به تصویر کشیدن سلطه و ستم ساختاری، همان‌طور که گوندولین وارن و DGEI با استفاده از نقشه خود انجام دادند، به کسانی که در موقعیت‌های قدرت قرار دارند کمک می‌کند تا دامنه، وسعت، و ماهیت مشکلاتی را که در غیر این صورت قادر به تصور آن نبودند، درک کنند. تحلیل الگوریتم‌های سوگیرانه، همان‌طور که جولیا آنگوین و پروپابلیکا انجام دادند، می‌تواند آسیب‌های واقعی و مادی سیستم‌های خودکار را نشان دهد، و همچنین پایه‌ای از شواهد را برای تغییرات سیاسی یا نهادی ایجاد کند. در عین‌حال، یادآوری این نکته مهم است که افراد و گروه‌های اقلیت‌شده نباید دائما در حال اثبات واقعی‌بودن تجربیات خود از سرکوب باشند. و داده‌ها به تنهایی همیشه منجربه تغییر نمی‌شوند - مخصوصا زمانی‌که آن تغییر نیازمند آن باشد که گروه‌های مسلط منابع و قدرت خود را به اشتراک بگذارند.

کسانی از ما که در کار از داده‌ها استفاده می‌کنیم باید برخی از پایه‌ای‌ترین فرضیات خود را تغییر دهیم و نقاط شروع جدیدی را تصور کنیم. تغییر چارچوب از مفاهیمی که امنیت قدرت را حفظ می‌کنند، مانند انصاف و پاسخ‌گویی، به مفاهیمی که قدرت را به چالش می‌کشند، مانند عدالت و رهایی‌مشترک، می‌تواند اطمینان حاصل کند که دانشمندان‌داده، طراحان، و پژوهش‌گران، سلطه و نابرابری را به‌عنوان فرضیه اساسی خود در ایجاد محصولات و سیستم‌های محاسباتی در نظر گیرند. ما باید از اجتماعاتی که به دنبال حمایت از آن‌ها هستیم بیاموزیم و با آن‌ها طراحی کنیم. تعهد به عدالت داده با اذعان به این واقعیت آغاز می‌شود که سلطه و ستم، واقعی، تاریخی، و جاری است و باید برچیده شود. و اگر می‌خواهیم مسیر خود را به سوی عدالت گسترش دهیم، این تعهدی است بر دوش ما که نسل بعدی دانشمندان‌ داده و شهروندان‌ داده را در اجتماعات و کلاس‌های درس آموزش دهیم.

Connections
1 of 1
Comments
0
comment
No comments here
Why not start the discussion?