Skip to main content
SearchLoginLogin or Signup

۱. فصل قدرت

ترجمه توسط امیرحسین پی‌براه

Published onMar 07, 2024
۱. فصل قدرت
·

اصل: بررسی قدرت

فمینیسم داده با تحلیل نحوه عملکرد قدرت در جهان آغاز می‌شود.

وقتی سرنا ویلیامز1، ستاره تنیس، اوایل سپتامبر ۲۰۱۷ از اینستاگرام ناپدید شد، شش میلیون دنبال‌کننده او فکر می‌کردند می‌دانند چه اتفاقی افتاده است. چند ماه قبل از آن، در ماه مارس همان سال، ویلیامز به شکل غافلگیرکننده‌ای یک عکس سلفی از خود با لباس شنا گذاشت و با زیرنویسی که به سختی می‌شد آن را اشتباه تفسیر کرد بارداری خود را به دنیا اعلام کرد: «هفته ۲۰». حالا همه فکر می‌کردند که بچه او بالاخره به دنیا آمده است.

دنبال‌کنندگان، بی‌صبرانه منتظر اعلام این خبر ماندند. اما دو هفته طول کشید تا بالاخره ویلیامز دوباره ظاهر شد و از تولد دخترش خبر داد و از دنبال‌کنندگانش دعوت کرد تا ویدیوی خیرمقدم الکسیس المپیا اوهانیان جونیور2 به دنیا را تماشا کنند3. این ویدیو ترکیبی بود از عکس‌های دوران بارداری با کلیپ‌هایی از ویلیامز در حال بازی تنیس در هنگام بارداری، گفتگوهای صمیمانه‌اش با همسرش، الکسیس اوهانیان4 - یکی از بنیان‌گذاران ردیت5 - و سرآخر، عکسی که طرفدارانش منتظر آن بودند: اولین ویدیو از المپیای نورسیده. ویلیامز در فیلم می‌گوید: «ما بالاخره بیمارستان را ترک می‌کنیم»، و توضیح می‌دهد «خیلی طول کشید. مشکلات و پیچیدگی‌های زیادی داشتیم. اما ببینید چه کسی را به دست آوردیم!»، صحنه به رنگ سفید محو می‌شود و ویدیو با مجموعه‌ای از آمار به پایان می‌رسد: تاریخ تولد المپیا، وزن هنگام تولد، و تعداد عناوین گرند اسلم: یک (معلوم شد ویلیامز در هفته هشتم بارداری بوده که برنده مسابقات اوپن استرالیا در اوایل آن سال شد).

بیشتر دنبال‌کنندگان اینستاگرام ویلیامز مسحور این پیغام شده بودند. اما خیلی زود، تبریک‌های مشتاقانه، جای خود را به گفتگوهایی بسیار متفاوت دادند. تعدادی از دنبال‌کنندگان او - که بسیاری از آن‌ها مانند ویلیامز زنی سیاه بودند - به پست او هنگامی که با دخترش از بیمارستان به خانه می‌رفت، اشاره کردند. آن «مشکلات و پیچیدگی‌هایی» که ویلیامز تجربه کرده بود را آن‌ها نیز تجربه کرده بودند. آن مشکلات، جان ویلیامز را تهدید کرده بود و کوتاه نیامدن و پیگیری‌های شخصی‌اش در بیمارستان نقش مهمی در زنده ماندنش داشت.

در فید اینستاگرام ویلیامز، ده‌ها زن شروع کردند به گذاشتن پست در مورد تجربیاتی از زایمان خود که به طرز وحشتناکی بد پیش رفته بود. چند ماه بعد، ویلیامز برای ادامه گفتگو به شبکه اجتماعی فیسبوک بازگشت (شکل ۱.۱). ویلیامز با استناد به بیانیه سال ۲۰۱۷ مرکز کنترل و پیشگیری بیماری‌های ایالات‌متحده6 (CDC) نوشت: «زنان سیاه بیش از سه‌برابر بیشتر از زنان سفید با مرگ ناشی از مشکلات مرتبط با بارداری یا زایمان مواجه هستند»7.

این نابرابری‌ها، پیش از این برای گروه‌های عدالتِ باروری تحت رهبری زنان سیاه مانند «سیسترسانگ»8، ائتلاف «جانِ مادرانِ سیاه مهم است»9 و گروه «حمایت از خواهران‌مان در هر جایی»10 شناخته شده بود. برخی از این گروه‌ها دهه‌ها روی بحران سلامت مادران کار کرده بودند. ویلیامز کمک کرد تا بار دیگر این مساله در کانون توجه ملی قرار گیرد. هم‌زمان، رسانه‌های جریان اصلی نیز توجه بیشتری به این بحران کردند. چند ماه قبل از آن، نینا مارتین11 از گروه روزنامه‌نگاری تحقیقی پروپابلیکا12، با رنه مونتانی13 از NPR، در مورد همین پدیده، گزارشی ارائه کرده بودند14. در این عنوان آمده بود: «هیچ چیز از زنان سیاه در برابر مرگ هنگام بارداری و زایمان محافظت نمی‌کند». علاوه بر مطالعه‌ای که ویلیامز به آن اشاره کرد، مارتین و مونتان به مطالعه دیگری در سال ۲۰۱۶ اشاره کردند که نشان می‌داد تحصیلات و سطح درآمد تاثیری روی سرنوشت زنان سیاهی که زایمان می‌کردند نداشته است. معمولا تحصیلات و درآمد برای توضیح نتایج پزشکی که نژاد در آن‌ها نقش تعیین‌کننده‌ای داشته مورد استفاده قرار می‌گرفت15. اما این داده‌ها، برعکس، نشان می‌دادند زنان سیاهی که مدرک دانشگاهی داشتند نسبت به زنان سفید بدون دیپلم دبیرستان از مشکلات بارداری و زایمان بیشتری رنج می‌برند.

شکل ۱.۱

پست فیسبوکی سرنا ویلیامز در پاسخ به دنبال‌کننده‌های اینستاگرامش که داستان بارداری و مشکلات مربوط به زایمان را با او به اشتراک گذاشته بودند. تصویر از سرنا ویلیامز، ۱۵ ژانویه ۲۰۱۸. (ترجمه پست فیسبوک:‌ انتظار نداشتم که مطرح کردن داستان تولد المپیا و پیچیدگی‌های بعد از زایمان باعث شروع این سیل عظیم از بحث‌ها شود، به‌خصوص از سوی زنان سیاه‌ که با مشکلات مشابهی روبرو بودند و آن دسته زنانی که مشکلات‌شان هیچ وقت پاسخ داده نشده است. این‌ها فقط قصه نیستند. بر اساس آمار سازمان پیشگیری از بیماری‌ها، زنان سیاه سه‌برابر بیشتر از زنان سفید در معرض مرگ ناشی از بارداری یا مشکلات مربوط به زایمان هستند. این نشان می‌دهد که ما به‌عنوان یک ملت برای حل این مساله و مشکل خیلی جای کار داریم و من امیدوارم که داستان من شروع صحبت‌هایی باشد که منجر به رفع این مشکل گردد. بگذارید واضح بگویم هر مادری، مستقل از نژاد یا ‌سابقه، حق یک بارداری و زایمان سالم را دارد. من به شخصه می‌خواهم که همه زنان از هر رنگ و نژادی بهترین تجربه را داشته باشند. تجربه شخصی من خوب نبود اما تجربه من بود و من خوشحالم که این اتفاق برایم افتاد. این اتفاق مرا قوی‌تر کرد و باعث شد که بیشتر قدر زنان را بدانم، چه بچه داشته باشند و چه نداشته باشند. ما قدرتمندیم. من می‌خواهم از همه شما که با شجاعت داستان‌های خود را از طریق کامنت یا پلتفرم‌های دیگر به اشتراک گذاشتید تشکر کنم. امیدوارم که این راه ادامه پیدا کند. چون گفتن این داستان‌ها کمک می‌کند. ما باید به هم کمک کنیم. صدای ما قدرت ماست.)

https://www.facebook.com/SerenaWilliams/videos/10156086135726834/

اما این مشکلات دقیقا چه بودند؟ و چند زن به خاطر این مساله جان خود را از دست داده‌ بودند؟ کسی تعداد آن‌ها را نشمرده است. گزارش سازمان ملل‌متحد در سال ۲۰۱۴، که با همراهی سیسترسانگ تهیه شده بود، وضعیت جمع‌آوری داده در مورد مرگ مادران در ایالات‌متحده را «اسفناک» توصیف کرده بود16. در سال ۲۰۱۷، زمانی که پروپابلیکا گزارش‌ خود را شروع کرد، شرایط هنوز بهتر نشده بود. در سال ۲۰۱۸، «USA Today» به بررسی این نابرابری‌های نژادی پرداخت و متوجه مشکل اساسی‌تری شد: هیچ سیستم ملی برای ردیابی مشکلات ناشی از بارداری و زایمان وجود نداشت، در حالی‌که سیستم‌های مشابهی برای دنبال‌کردن مشکلات سلامتیِ دیگری مانند باراداری نوجوانان، تعویض مفصل ران، یا حملات قلبی مدت‌ها بود که به وجود آمده بود17. آن‌ها همچنین متوجه شدند که هیچ شیوه گزارش‌دهی برای اطمینان از این‌که بیمارستان‌ها استانداردهای ایمنی ملی را دنبال می‌کنند، مانند آن‌چه که برای جراحی لگن و مراقبت های قلبی لازم است،‌ وجود ندارد. استیسی گلر18، استاد زنان و زایمان در دانشگاه ایلینویز، در پاسخ به سوالی در این رابطه گفت: «داده‌های مربوط به مشکلات مادری ما شرم‌آور است». ویلیام کالاگان19، رئیس شعبه سلامت مادران و نوزادان CDC، اهمیت این داده‌های «شرم‌آور» را واضح‌تر بیان کرد: «آن چیزی که ما برای اندازه‌گیری و بررسی انتخاب می‌کنیم نشان‌ می‌دهد که چه چیزی در بحث سلامت برای ما ارزشمند است»20. ما می‌توانیم این گزاره را به این شکل بسط دهیم که این معیار همچنین نشان می‌دهد ما به سلامتی چه کسانی اهمیت می‌دهیم21.

چرا تنها زمانی که مشکلی مانند تهدید جانیِ یک ستاره بین‌المللی ورزش به وجود آمد، رسانه‌ها به موضوعی توجه کردند که زنان سیاهِ کمتر شناخته‌شده دهه‌هاست با آن مواجه بوده‌اند؟ چرا تنها زمانی که یک رسانه تحت سیطره سفیدان برای شهرها و ایالت‌های مختلف گزارش تهیه کرد، جمع‌آوری داده در مورد آن موضوع شروع شد؟22 چرا آن داده‌ها به اندازه کافیْ بزرگ، از نظر آماریْ قابل‌توجه، و به اندازه کافیْ باکیفیت نبودند تا اقدام عملی برای آن شهرها و ایالات و سایر موسسات عمومی را توجیه کنند؟ و چرا آن موسسات در وهله اول believeblackwomen# را باور نکردند؟23

پاسخ به این سؤالات مستقیما به مسائل بزرگ‌ترِ قدرت و امتیاز مرتبط است. ویلیامز با تایید این مساله در مصاحبه‌اش با مجله «گلامر»24 گفت که او باید از تیم پزشکی‌اش آزمایش‌های بیشتر درخواست می‌کرد تا علت مشکلات پس از زایمانش را تشخیص بدهند - و چون او سرنا ویلیامز، قهرمان ۲۳ دوره گرند اسلم بود، آن‌ها پذیرفتند25. او با اشاره به این واقعیت که امتیازی که او به‌عنوان یک ستاره تنیس داشته در مواجه با ظلمی که به‌عنوان یک زن سیاه تجربه کرده بود، باعث شد که او یکی از قربانیان نشود. او به «گلامر» گفت: «اگر من آن چیزی که هستم نبودم [ستاره تنیس]، می‌توانستم یکی از قربانیان باشم». همان‌طور که ویلیامز اظهار کرد، «این عادلانه نیست»26.

نیازی به گفتن نیست که حق با ویلیامز است. به‌هیچ عنوان عادلانه نیست. اما چگونه باید این بی‌عدالتی را کم کنیم؟ ما با بررسی سیستم‌های قدرت و نحوه تلاقی آن‌ها شروع می‌کنیم - برای مثال این‌که چگونه تبعیض‌نژادی، تبعیض‌جنسی، و سلبریتی‌گری با هم ترکیب شدند تا ویلیامز را اول به شرایط بحرانی پزشکی برسانند و سپس، با بخت‌یاری، او را زنده نگه دارند. به دلیل پیچیدگی این تلاقی‌ها، «بررسی قدرت»، که موضوع محوری این فصل است، به‌عنوان اولین اصل فمینیسم داده در نظر گرفته شده است. بررسی قدرت به معنای برشمردن و توصیف نیروهای سرکوب‌گر است که چنان در زندگی روزمره ما - و در مجموعه‌داده‌ها، پایگاه‌های‌داده و الگوریتم‌های ما - نهادینه شده‌اند که اغلب آن‌ها را نمی‌بینیم. دیدن سلطه و ستم، مخصوصا برای افرادی که صاحب امتیاز و در مسند قدرت هستند، سخت است. اما هنگامی‌که این نیروها را شناسایی کنیم و چگونگی اعمال نیروی قدرت آن‌ها را درک کنیم، بسیاری از اصول دیگر فمینیسم داده مانند به چالش‌کشیدن قدرت (فصل ۲)، توجه به احساسات (فصل ۳)، و آشکار ساختن کار (فصل ۷)، را راحت‌تر متوجه می‌شویم.

قدرت و ماتریس سلطه

اما قبل از هر چیز، منظور ما از «قدرت» چیست؟ ما از اصطلاح قدرت برای توصیف وضعیت کنونی سلطه و امتیاز ساختاری استفاده می‌کنیم که در آن برخی گروه‌ها بدون آنکه استحقاقش را داشته باشند صاحب امتیازاتی هستند - به این دلیل که سیستم‌های گوناگونی توسط افرادی همانند آن‌ها طراحی شده‌اند و در خدمت آن‌ها قرار گرفته است - و گروه‌های دیگر دچار ستم نظام‌مند شده‌اند - به این دلیل که آن سیستم‌ها توسط آن‌ها یا با در نظرگرفتن افرادی مانند آن‌ها طراحی نشده‌اند. این ساختارها پیچیده هستند و به تعبیر پاتریشیا هیل‌کالینز27، جامعه‌شناس برجسته، «قربانیان محض یا ستمگران محض اندک هستند». کالینز در مقاله مهم خود، «اندیشه فمینیستیِ سیاه»28، که اولین بار در سال ۱۹۹۰ منتشر شد، مفهوم «ماتریس سلطه»29 را معرفی کرد تا توضیح دهد که چگونه سیستم‌های قدرت شکل می‌گیرند و تجربه می‌شوند30. ماتریس سلطه از چهار حوزه تشکیل شده است: ساختاری، انضباطی، هژمونیک، و بین‌فردی. تاکید او بر تلاقی جنسیت و نژاد است اما توضیح می‌دهد که سایر ابعاد هویتی (جنسی، جغرافیایی، توانایی جسمی و ذهنی، و غیره) نیز منجربه ستم ناعادلانه یا امتیاز بدون‌استحقاق می‌شوند که در همان چهار حوزه آشکار می‌شوند.

«حوزه ساختاری»، عرصه قوانین و سیاست‌‌ها، همراه با سازمان‌ها و نهادهایی می‌باشد که آن‌ها را اجرا می‌کنند. این حوزه، نظامِ سلطه و ستم را سازماندهی و مدون می‌کند. به‌عنوان نمونه، تاریخچه حق رای در ایالات‌متحده را در نظر بگیرید. قانون‌اساسی ایالات‌متحده در ابتدا در مورد افرادی که مجاز به رای‌دادن بودند چیزی مشخص نکرده بود، در نتیجه ایالت‌های مختلف سیاست‌های متفاوتی را اعمال می‌کردند که نمایان‌گر سیاست‌های محلی آن‌ها بود. بیشتر این سیاست‌ها به مالکیت ملک مرتبط بودند که فقط مردان توانایی آن را داشتند. اما تصویب اصلاحیه چهاردهم در سال ۱۸۶۸، که حقوق شهروندی ایالات‌متحده را به بردگان اعطا می‌کرد، باعث شد که ماهیت این حقوق - از جمله حق رای - برای اولین بار در سطح ملی مطرح شود. به‌طور مشخص، رای‌دادن به‌عنوان حقی برای «شهروندان مرد» تعریف شد. این مصداقِ بارز ستمی مدون در حوزه ساختاری است.

جدول ۱.۱
چهار حوزه ماتریس سلطه

براساس مفاهیم معرفی‌شده توسط پاتریشیا هیل‌کولینز در کتاب «اندیشه فمینیستیِ سیاه: دانش، آگاهی و سیاست توانمندسازی»

حوزه انظباطی
مدیریت و اجرای سلطه و ستم را برعهده دارد. قوانین و سیاست‌ها را پیاده‌سازی و اجرا می‌کند.

حوزه ساختاری
سلطه و ستم را سازماندهی می‌کند: قوانین و سیاست‌ها.

حوزه بین‌فردی
تجربیات فردی از سلطه و ستم

حوزه هژمونیک
افکار سلطه‌گرایانه را ترویج می‌دهد: فرهنگ و رسانه‌ها.

دادن حق رای به اکثر زنان (نه همه آن‌ها) تا تصویب اصلاحیه نوزدهم در سال ۱۹۲۰ عقب افتاد31. با این‌حال، بسیاری از قوانینِ رای‌گیری ایالتی همچنان شرایطی مانند داشتن سواد، اقامت و چیزهای دیگری را به‌عنوان پیش‌نیاز در نظر گرفتند تا به‌صورت غیرمستقیم هر کسی غیر از مردان سفید صاحب دارایی را از رای‌دادن کنار بگذارند. این محدودیت‌ها امروزه به شکل دیگری اعمال می‌شوند، مانند حذف اسامی از فهرست رای‌دهندگان، نیاز به داشتن کارت شناسایی عکس‌دار، و محدودیت‌هایی برای رای‌گیری زودهنگام، که بار آن بیشتر بر دوش افراد کم‌درآمد، رنگین‌پوستان، و دیگرانی است که وقت کافی یا امکان رفع این موانع اداری را ندارند32. این‌ها نمونه‌هایی از «حوزه انضباطی» هستند که کالینز به آن‌ها اشاره می‌کند: حوزه‌ای که سلطه و ستم به‌جای آن‌که صراحتا از طریق قوانین تبعیض‌آمیز و بر اساس هویت افراد صورت گیرد، از طریق بوروکراسی و ساختار سلسله‌مراتبی اعمال و مدیریت می‌شود33.

هیچ یک از این حوزه‌ها بدون «حوزه هژمونیک» که به حیطه فرهنگ، رسانه و اندیشه می‌پردازد امکان‌پذیر نخواهد بود. سیاست‌ها و شیوه‌های تبعیض‌آمیز رای‌گیری تنها در جهانی می‌تواند رخ دهد که ایده‌های ظالمانه‌ای، همچون این‌که چه کسی شهروند حساب می‌شود، در آن وجود داشته باشد. در یک بروشور تبلیغاتی ضد حق رای در دهه ۱۹۱۰ آمده است «شما که کارتان تمیز کردن شیر ظرف‌شویی است چه نیازی به رای‌دادن دارید»34. این چنین بروشورهایی که مشخصا برای دست‌به‌دست شدن بین افراد طراحی می‌شدند، دیدگاه‌های اجتماعی موجود در مورد جایگاه زنان در جامعه را تقویت می‌کردند. امروز، ما به جای اسناد کاغذی، تصاویر متحرک GIF داریم، اما کارکرد هژمونیک هر دو یکی است: تقویت این ایده که چه کسی حق اعمال قدرت دارد و چه کسی ندارد.

آخرین بخش ماتریس سلطه، «حوزه بین‌فردی» است که بر تجربه روزانه افراد در جهان تأثیر می‌گذارد. برای مثال، چه حسی می‌داشتید اگر به‌عنوان یک زن آن بروشور تبلیغاتی را می‌خواندید؟ آیا تأثیر آن بیشتر یا کمتر می‌شد اگر یک عضو مرد خانواده آن را به شما می‌داد؟ یا، به‌عنوان یک نمونه جدیدتر، چه حسی می‌داشتید اگر از کار ساعتی خود مرخصی گرفته بودید تا بروید و رای دهید، و وقتی به آنجا می‌رسیدید متوجه می‌شدید که نام شما از فهرست رای‌دهندگان حذف شده است یا این‌که صف آن‌قدر طولانی بود که نیمی از روز را از دست می‌دادید، یا لازم بود تا ساعت‌ها در سرما بایستید، یا ... این لیست می‌تواند ادامه داشته باشد. این‌ها نمونه‌هایی از احساسی هستند که به فرد دست می‌دهد وقتی‌که می‌فهمد سیستم‌های قدرت نه تنها از شما حمایت نمی‌کنند، بلکه دنبال آن هستند که آن قدرت ناچیزی را هم که دارید از شما بگیرند35.

سازوکار ماتریس سلطه حفظ امتیازات بی‌مورد گروه‌های «مسلط» و همزمان سرکوب ناروای گروه‌های «اقلیت‌شده» است. معنی این حرف چیست؟ از آغاز این فصل و در ادامه کتاب، ما از اصطلاح «اقلیت‌‌شده»36 برای توصیف گروه‌هایی از مردم استفاده می‌کنیم که در مقابل یک گروه اجتماعی قدرتمندتر قرار دارند. در حالی که اصطلاح «اقلیت» به یک گروه اجتماعی با جمعیت کم اشاره می‌کند، اصطلاح «اقلیت‌شده» وصف یک گروه اجتماعی است که توسط گروه مسلط دیگری که قدرت اقتصادی، اجتماعی و سیاسی بیشتری در اختیار دارد، فعالانه تحقیر شده و تحت ستم قرار گرفته است. برای مثال، در رابطه با جنسیت، مردان، گروه مسلط هستند، در حالی که سایر جنسیت‌ها، گروه‌های اقلیت‌شده را تشکیل می‌دهند. این مساله حتی با وجود این‌که زنان اکثریت جمعیت جهان را تشکیل می‌دهند، صادق است. تبعیض‌جنسی اصطلاحی است که این شکل از سلطه را نشان می‌دهد. در رابطه با نژاد، سفیدان، گروه غالب را تشکیل می‌دهد (تبعیض‌نژادی)، در رابطه با طبقه، ثروتمندان و افراد تحصیل‌کرده، گروه غالب را تشکیل می‌دهند (طبقه‌گرایی)، و به همین‌ترتیب بقیه موارد37.

با استفاده از مفهوم ماتریس سلطه و تمایز بین گروه‌های مسلط و اقلیت‌شده، می‌توانیم به بررسی این نکته بپردازیم که چگونه قدرت در بطن داده‌‌ها و اطراف آن نمود پیدا می‌کند. این مساله اغلب با طرح سوالات ناخوشایندی همراه است: چه کسی کار علم داده را انجام می‌دهد (و چه کسی انجام نمی‌دهد)؟ اهداف چه کسانی در علم داده اولویت دارد (و اهداف چه کسانی اولویت ندارد)؟ و چه کسی از علم داده سود می‌برد (و چه کسی نادیده گرفته می‌شود یا فعالانه آسیب می‌بیند)؟38 این سوالات ناخوشایند هستند زیرا این واقعیتِ آزاردهنده را آشکار می‌کنند که گروه‌هایی از مردم به‌طور نامتناسبی از علم داده سود می‌برند و گروه‌هایی آسیب می‌بینند. پرسیدن این سوالاتِ «چه کسی»، به ما، به‌عنوان دانشمندان داده، این امکان را می‌دهد تا ببینیم که چگونه امتیازات در کارهای مرتبط با داده و محصولات آن نقش بازی می‌کند39.

علم داده توسط چه کسی؟

مهم است که به مشکل اساسی و نادیده گرفته‌شده توجه کنیم: ترکیب جمعیتی افراد شاغل در علم داده (و مشاغل مرتبط مانند مهندسی نرم‌افزار و هوش‌مصنوعی) کل مردم را بازنمایی نمی‌کند. بر اساس جدیدترین داده‌های اداره آمار کار ایالات‌متحده که در سال ۲۰۱۸ منتشر شد، تنها ۲۶٪ از کسانی که در «مشاغل مرتبط با کامپیوتر و ریاضی» فعالیت می‌کنند، زن هستند40. و در میان این زنان، تنها ۱۲٪ درصد زنان سیاه یا لاتین‌تبار می‌باشند، در حالی که زنان سیاه و لاتین‌تبار ۲۲/۵٪ جمعیت ایالات‌متحده را تشکیل می‌دهند41. گزارشی از گروه تحقیقاتی AI Now در مورد بحران تنوع و گوناگونی در هوش‌مصنوعی نشان می‌دهد که زنان تنها ۱۵٪ از کارکنان بخش تحقیقات هوش‌مصنوعی در فیسبوک و ۱۰٪ در گوگل را تشکیل می‌دهند42. احتمالا این اعداد تعجب‌آور نیستند، اما مساله عجیب‌تر این است که این آمار نه تنها در حال بهترشدن نیستند که در حال بدترشدن هستند. بر اساس یک گزارش تحقیقاتی منتشر شده توسط انجمن آمریکایی زنان دانشگاهی43 در سال ۲۰۱۵، زنان فارغ‌التحصیل علوم کامپیوتر در ایالات‌متحده در اواسط دهه ۱۹۸۰ با ۳۷٪ در اوج خود بود و طی این سال‌ها شاهد کاهش مداوم این آمار تا رسیدن به ۲۶٪ بوده‌ایم (شکل ۱.۲)44. از آن‌جا که عنوانِ «تحلیل‌گر داده» (جویندگان اعداد و ارقام با منزلت پایین) به «دانشمند داده» (پژوهشگرانی با منزلت بالا) تغییر نام داده است، زنان از کار بیرون رانده شده‌اند تا فضای بیشتری برای مردان که ارزش بالاتری دارند و حقوق بیشتری دریافت می‌کنند، ایجاد شود45.

شکل ۱.۲

علوم کامپیوتر همیشه تحت سیطره مردان بوده و وضعیت در حال بدترشدن است (در حالی که بسیاری دیگر از رشته‌های علمی و فنی قدم‌های مهمی در جهت برابری جنسیتی برداشته‌اند). زنانی در اواسط دهه ۱۹۸۰ در ایالات‌متحده در رشته علوم کامپیوتر مدرک لیسانس گرفته بودند، حدود ۳۷٪ بودند، اما در سال‌های بعد از آن، ما شاهد افزایش ثابت نسبت مردان به زنان بوده‌ایم. این گزارش، تنها جنسیت دودویی را در نظر گرفته است، در نتیجه داده‌ای در مورد افراد غیردودویی وجود ندارد. این نمودار اثر کاترین دیگنازیو و داده‌ها از مرکز ملی آمار آموزش‌و‌پرورش است.

نابرابری‌ جنسیتی، تنها شکلِ نابرابری در سطوح بالای آموزشی نیست. در همین گزارش به حضور کم‌رنگ زنان بومی آمریکا، زنان چندنژادی، زنان سفید، سیاهان، و لاتین‌تبارها اشاره شده است. بنابراین آیا واقعا جای تعجب دارد اگر هر روز نمونه جدیدی از استفاده از علم داده برای گرفتن قدرت و سرکوب گروه‌های اقلیت‌شده عیان شود؟ در سال ۲۰۱۸ فاش شد که آمازون الگوریتمی برای انتخاب متقاضیان کار در دور اول مصاحبه ساخته است. اما از آن‌جایی که این مدل با رزومه‌ متقاضیان پیشین، که عمدتا مرد بودند، آموزش داده شده بود، به متقاضیان مرد اولویت بالاتری می‌داد. این الگوریتم به رزومه‌‌ زنان و فارغ‌التحصیلان از کالج‌های زنان اولویت کمتری می‌داد. در نهایت آمازون مجبور شد این پروژه را لغو کند46. این مثال تاییدی بر کار سفیا اومایا نوبل47 است، که در کتابش «الگوریتم‌های سلطه»48، نشان داد که چگونه سوءگیری‌های جنسیتی و نژادی در بطن برخی از فراگیرترین سیستم‌های داده‌محور نهفته است - از جمله در جستجوهای گوگل، که هر روز بیش از پنج‌میلیارد جست‌وجو در فضای وب انجام می‌دهد. نوبل توضیح می‌دهد که چگونه در سال ۲۰۱۶، جستجوهای مشابه برای عبارت «سه نوجوان سیاه» و «سه نوجوان سفید» به نتایج بسیار متفاوتی از آن نوجوانان انجامید. جستجوی اول، تصاویر چهره‌های مجرمانه را برگرداند، در حالی‌که جستجوی دوم تصاویر شسته‌رفته و مرتب را نشان داد49.

مشکلات سوءگیری‌های جنسیتی و نژادی در سیستم‌های اطلاعاتی پیچیده هستند، اما برخی از دلایل اصلی آن‌ها مثل روز روشن است: داده‌های مورد استفاده و مدل‌هایی که برای استفاده از آن داده‌ها طراحی شده‌اند توسط گروه‌های کوچکی از افراد تهیه گردیده‌اند و سپس برای کاربران در سراسر جهان مورد استفاده قرار می‌گیرند. اما آن گروه‌های کوچک نه تنها نماینده درستی از کل جمعیت جهان نیستند که حتی یک شهر کوچک در ایالات‌متحده را نیز نمایندگی نمی‌کنند. وقتی اعضای تیم‌های داده عمدتا از افراد گروه‌های مسلط تشکیل شده باشد، دیدگاه‌های آن‌ها به صورت غیرمتناسبی بر تصمیماتی که اتخاذ می‌شوند تأثیر می‌گذارند و دیدگاه‌ها و هویت‌های دیگر را نادیده می‌گیرند. این معمولا تعمدی نیست و عمدتا از ناآگاهی از وضعیت برتری ناشی می‌شود. ما به این نقصان «خطر امتیاز»50 می‌گوییم.

چگونه این اتفاق می‌افتد؟ بیایید یک دقیقه تصور کنیم که زندگی فردی که نماد گروه مسلط در علم داده است چگونه است: مردی دگرجنس‌گرا، سفید، هم‌سوجنس51 با دانش فنی که در ایالات‌متحده زندگی می‌کند. وقتی‌که او دنبال خانه می‌گردد یا تقاضای کارت اعتباری می‌کند، مردم مشتاقِ معامله با او هستند. مردم وقتی او را دست در دست دوست‌دخترش در منظر عمومی می‌بینند، به او لبخند می‌زنند. بدن او به دلیل زایمان یا شیردهی تغییر نمی‌کند، بنابراین نیازی ندارد نگران امکانات موجود محیط کار باشد. او شماره ملی خود را در کارها به صورت فرمالیته ارائه می‌کند، اما این شماره هرگز باعث توجه بیش‌ازحد یا ایجاد مانع در رسیدگی به درخواست او نمی‌شود. او متوجه سهولت انجام کارهایش نیست، چرا که دنیای اطراف او برای افرادی مانند او طراحی شده است. او به این فکر نمی‌کند که زندگی چقدر ممکن است برای دیگران متفاوت باشد. در واقع تصور این مساله برای او دشوار است.

این «خطر امتیاز» است: پدیده‌ای که باعث می‌شود کسانی که در موقعیت‌های ممتاز قرار دارند - افرادی که دارای تحصیلات خوب، مدارک معتبر، و افتخارات حرفه‌ای هستند - در دیدن مصادیق ستم در جهان ضعیف باشند52. آن‌ها فاقد چیزی هستند که آنیتا گورمورتی53، مدیر اجرایی «فناوری برای تغییر»54، آن را «درک مبتنی بر تجربه زیسته»55 می‌نامد56. و این فقدان تجربه زیسته، از این‌که «وضعیت واقعی چیزها چگونه است»، به شدت توانایی آن‌ها را برای پیش‌بینی و جلوگیری از آسیب‌ها، شناسایی مشکلات جهان، و تصور راه حل‌های ممکن محدود می‌کند.

خطر امتیاز در سطح فردی - در حوزه بین‌فردی ماتریس سلطه - ظهور می‌کند، اما به علت این‌که به حوزه‌های هژمونیک، انضباطی و ساختاری نیز نفوذ می‌کند، در مقیاس کلی، آسیب بیشتری ایجاد می‌کند. بنابراین،‌ این امر اهمیت زیادی دارد که علم داده و هوش‌مصنوعی تحت حاکمیت مردان سفید نخبه قرار دارند؛ زیرا این به‌معنای وجود یک خطر امتیاز گروهی بزرگ است و جای تعجب خواهد بود اگر این افراد بتوانند نمونه‌هایی از سوگیری را قبل از انتشار، شناسایی کنند. کیت کرافورد57، دانشمند علوم‌اجتماعی، معتقد است که بزرگ‌ترین تهدید سیستم‌های هوش‌مصنوعی این نیست که از انسان‌ها باهوش‌تر شوند، بلکه این است که آن‌ها تبعیض‌جنسی، تبعیض‌نژادی و سایر اشکال تبعیض را در زیرساخت‌های دیجیتالی جوامع ما نهادینه کنند58.

علاوه بر این، همان مردان سفید سیس‌جندر و دگرجنس‌گرا (cis het) که مسئول طراحی این سیستم‌ها هستند، ناتوانند که آسیب‌ها و سوگیری‌های سیستم‌های خود را پس از انتشار تشخیص دهند59. برای مثال، در مورد جستجوی «سه نوجوان» در گوگل، یک نوجوان سیاه به مشکل اشاره کرد و یک محقق سیاه در مورد آن مشکل نوشت. بار مساله همیشه بر دوش افرادی می‌افتد که از نزدیک با خطر امتیاز - در علم داده و زندگی - آشنا هستند تا سازندگان آن سیستم‌ها را از محدودیت‌هایشان مطلع کنند.

برای مثال جوی بولاموینی60، دانشجوی غنائی-آمریکایی در MIT، برای یک پروژه درسی، از نرم‌افزار تحلیل‌چهره استفاده می‌کرد61. اما مشکلی وجود داشت، این‌که نرم‌افزار نمی‌توانست پوست تیره صورت بولاموینی را «ببیند» («دیدن» به معنی تشخیص چهره است، مانند زمانی که دوربین تلفن، مربعی اطراف صورت یک فرد در کادر رسم می‌کند). آن نرم‌افزار مشکلی برای دیدن همکاران او که پوستی روشن‌تر داشتند نداشت. او تصویر چهره‌ای را در دست گرفت و جلوی دوربین قرار داد. نرم‌افزار آن را تشخیص داد. در نهایت، بولاموینی ماسک سفیدی به صورت زد تا سفید به نظر آید (شکل ۱.۳)62. نرم‌افزار به خوبی ویژگی‌های صورت ماسک را تشخیص داد.

بولاموینی با بررسی دقیق‌تر کد و ارزیابی داده‌های استفاده شده در این سیستم متوجه شد که داده‌ای که بسیاری از الگوریتم‌های تشخیص‌چهره بر اساس آنها طراحی شده‌اند شامل ۷۸٪ چهره‌ مردان و ۸۴٪ چهره‌ سفیدان است. هنگامی‌که او یک تحلیل تقاطعی روی مجموعه‌داده آزمایشی دیگری انجام داد - که جنسیت و رنگ پوست را با هم بررسی می‌کرد - متوجه شد که تنها ۴٪ از چهره‌های آن مجموعه‌داده، زنان با پوست تیره هستند. بولاموینی و تیمنیت گبرو63، پژوهشگر کامپیوتر، با ارزیابی سه سیستم تجاری نشان دادند که زنان با پوست تیره‌تر تا ۴۴ برابر بیشتر از مردان با پوست روشن‌تر، به صورت اشتباه دسته‌بندی می‌شوند64. جای تعجب نیست که آن نرم‌افزار نتوانست چهره بولاموینی را تشخیص دهد: هم در داده‌های آموزشی و هم در داده‌های سنجش، زنان رنگین‌پوست تنها بخش کوچکی از کل داده‌ها را تشکیل می‌دادند65.

شکل ۱.۳

جوی بولاموینی متوجه شد که برای «دیده شدن» صورتش توسط برنامه تشخیص‌چهره باید ماسک سفیدی به صورت بزند. بولاموینی اکنون بنیانگذار «اتحادیه عدالت الگوریتمی» است. با تشکر از از جوی بولاموینی.

این نمونه عملیِ خطر امتیاز است - که برنامه‌نویس، آزمایش‌کننده نرم‌افزار، یا کاربر آن هیچ‌کدام تاکنون چنین مشکلی را شناسایی نکرده یا حتی به ذهنش نرسیده بود. کار بولاموینی به شکلی وسیع توسط رسانه‌های ملی (مانند «نیویورک‌تایمز»، سی‌ان‌ان، «اکونومیست»، «بلومبرگ بیزینس‌ویک» و دیگر نشریات) و مقالاتی که حاوی نکات تکان‌دهنده‌ای هستند، پوشش داده شد66. این نمونه، به اهمیت اجتماعی، سیاسی و فنی کار اذعان می‌کند، و همچنین نشان می‌دهد که چگونه افرادی که در موقعیت‌های قدرت هستند - نه فقط در زمینه علم داده، بلکه در رسانه‌های جریان اصلی، در دولت برگزیده، و در راس شرکت‌ها - اغلب وقتی متوجه می‌شوند که «فناوری‌های هوشمندِ» آن‌ها چندان هم هوشمند نیستند، متعجب می‌شوند. (آن‌ها باید کتاب «ناهوشمندی مصنوعی»67 مردیت بروسارد68، روزنامه‌نگار داده، را بخوانند)69. به‌عنوان مثالی دیگر، به مقدمه این کتاب برگردید، جایی که ما به نقل‌ از گزارش شترلی، اشاره کردیم که چگونه مدیرِ مردِ سفید کریستین داردن از دیدن تفاوت بین میزان ترفیع مردان و زنان شگفت‌زده شد. ما می‌توانیم حدس بزنیم که داردن خودش از این مساله شگفت‌زده نشده بود، همان‌طور که احتمالا بولاموینی و گبرو نیز از دیدن نتیجه مطالعه خود شگفت‌زده نشدند. زمانی که تبعیض‌جنسی، تبعیض‌نژادی و دیگر اشکال سلطه به‌صورت علنی آشکار شوند، کسانی که آن‌ها را تجربه کرده‌اند تقریبا هیچ‌گاه شگفت‌زده نمی‌شوند.

برای افرادی که در موقعیت‌های قدرت و امتیاز هستند، مسائلی مانند نژاد، جنسیت، طبقه، توانایی جسمی و ذهنی - برای نمونه - مشکل دیگران است. رابین دی‌آنجلو70، نویسنده و مدرس ضدتبعیض‌نژادی، نمونه‌هایی مانند «شگفت‌زده‌شدنِ» رئیس داردن یا شگفتی در پوشش رسانه‌ای پروژه‌های گوناگون بولاموینی را نشانه‌ای از «برائت نژادی»71 سفیدان می‌داند72. به عبارت دیگر، کسانی که دارای موقعیت‌های ممتاز در جامعه هستند، می‌توانند خود را از آن امتیاز مبراء بدانند، چرا که نژاد چیزی است که فقط رنگین‌پوستان با آن مواجه هستند، جنسیت چیزی است که فقط زنان و افراد غیرباینری درگیر آن هستند، هویت جنسی مساله همه افراد جز افراد دگرجنس‌گرا است، و به‌همین ترتیب موارد دیگر. یک حکایت شخصی ممکن است به توضیح این نکته کمک کند. وقتی ما اولین پیش‌نویس این کتاب را به صورت آنلاین منتشر کردیم، کاترین در مورد آن با یکی از همکاران مردش صحبت کرد. او مشتاقانه پاسخ داد: «چه عالی! من آن را به دانشجویان دخترم نشان خواهم داد!» که کاترین به آن اضافه کرد «شاید بخواهید آن را به بقیه دانشجویان هم نشان دهید».

اگر اوضاع متفاوت بود و آن ۷۹٪ از مهندسان مرد در گوگل، قبل از ساختن سیستم‌های داده‌شان به‌طور مشخص در مورد سلطه و ستم ساختاری آموزش دیده بودند (همان‌طور که مددکاران اجتماعی قبل از‌ انجام کار اجتماعی آموزش می‌بینند)، احتمالا حضور پررنگ آن‌ها مشکل کمتری ایجاد می‌کرد73. اما در این بین، مسئولیت بر دوش افرادی می‌افتد که تاثیرات نامطلوب نظام‌های قدرت را احساس کرده‌اند تا پیوسته اثبات کنند که تبعیض‌نژادی و تبعیض‌جنسی در همه جا، از جمله در داده‌ها، در سیستم‌های داده، و در علم داده وجود دارد.

بولاموینی و گبرو متوجه شدند که چهره‌های مردانه و سفید بیش از حد در داده‌های آموزشی تشخیص‌چهره وجود دارند. آیا می‌توانیم این مشکل را تنها با تنوع بخشیدن به مجموعه داده‌ها برطرف کنیم؟ به نظر می‌رسد یک راه‌حل سرراست برای حل این مشکل، ساختن مجموعه‌‌داده‌هایی برای آموزش و آزمایش مدل‌های تشخیص چهره باشد که بازنمایی بهتری از تنوع نمونه‌ها را در برگیرد. در واقع، شرکت‌های فناوری دقیقا همین کار را کردند. در ژانویه ۲۰۱۹، IBM یک پایگاه‌داده از یک میلیون چهره به نام «تنوع در چهره‌ها»74 (DiF) منتشر کرد75. در مثالی دیگر، امی هاوکینز (Amy Hawkins)، روزنامه‌نگار، جزییاتی در مورد CloudWalk فاش کرد، استارت‌آپی در چین که در راستای تامین تصاویر زیادی از چهره افراد آفریقایی‌تبار، قراردادی با دولت زیمبابوه امضا کرده بود76. با اشتراک‌گذاری این داده‌ها،‌ زیمباوه یک پایگاه‌داده ملی از چهره‌ها و زیرساخت نظارت «هوشمند» به دست آورد که می‌توانست از آن در فرودگاه‌ها، راه‌آهن‌ها، و ایستگاه‌های اتوبوس استفاده کند.

ممکن است که این یک مبادله پایاپای به نظر برسد، اما زیمبابوه سابقه بدی در زمینه حقوق‌بشر دارد. اوضاع زمانی بدتر می‌شود که می‌بینیم CloudWalk فناوری‌های تشخیص‌چهره را در اختیار پلیس چین قرار داده است. تضاد منافع آن‌قدر زیاد است که دیده‌بان حقوق‌بشر جهانی در مورد این معامله ابراز نگرانی کرده است77. گردآوری تصاویر چهره‌ها در ایالات‌متحده نیز انجام می‌شود. محققین اوس کیز78، نیکی استیونس79 و ژاکلین ورنیمونت80 نشان دادند که مهاجران، کودکان آزاردیده و افراد فوت‌شده، برخی از گروه‌هایی هستند که بدون رضایت، از چهره آن‌ها برای آموزش نرم‌افزار استفاده می‌شود81. پس آیا واقعا یک پایگاه‌داده از چهره‌های متنوع ایده خوبی است؟ در پاسخ به اعلام تحقیقِ بولاموینی و گبرو در توییتر در سال ۲۰۱۸، یک کهنه‌سرباز بومی تفنگ‌داران دریایی نگرانی خود را این‌طور اعلام کرد: «امیدوارم نرم‌افزار تشخیص‌چهره در شناسایی چهره من نیز مشکل داشته باشد. این کار پلیس را راحت می‌کند که با ماشین تشخیص‌چهره خود اطراف تظاهرات‌های مسالمت‌آمیز مخالفان بچرخد و مخالفان را برای «ایمنی و امنیت» شناسایی کند»82.

تشخیصِ بهتر چهره‌های رنگین‌پوستان به خودی‌خود چیز بدی نیست. اما غالبا به منظور افزایش سلطه، نظارت بیشتر، و خشونت هدفمند مورد استفاده قرار می‌گیرد. بولاموینی که متوجه این آسیب‌های بالقوه بود، روشی را برای پرداختن به مسائل زیربنایی قدرت که در فناوری تحلیل‌چهره وجود داشت ایجاد کرد که در هر چهار حوزه ماتریس سلطه کار می‌کرد. بولاموینی و گبرو ابتدا با یک بررسی فنی در حوزه انضباطی ماتریس سلطه، نابرابری‌های موجود در مجموعه‌داده را اندازه‌گیری کردند. سپس، بولاموینی «لیگ عدالت الگوریتمی»83 (AJL) را راه‌اندازی کرد، که هدف آن نمایان‌کردن و مداخله در موارد تبعیض الگوریتمی است. به نمایندگی از AJL، بولاموینی پروژه‌های شعری با بازتاب گسترده تولید کرده و سخنرانی‌هایی در TED ارائه داده است. این اقدامات در حوزه هژمونیک و در قلمرو فرهنگ و ایده‌ها قرار دارند. او توصیه‌هایی برای قوانین و استانداردهای حرفه‌ای در زمینه بینایی‌ماشین ارائه کرد و خواستار توقف تحلیل‌چهره توسط پلیس در رسانه‌ملی و کنگره شد84. این‌ها اقداماتی در حوزه ساختاری ماتریس سلطه و در قلمرو قانون و سیاست هستند. از طریق این کارها، AJL با دانشجویان و محققان همکاری کرد تا بتوانند کار خود را شکل دهند و پیش ببرند - حوزه بین‌فردی. روی هم رفته، ابتکارات گوناگون بولاموینی نشان داد که هر «راه‌حل» برای رفع تبعیض در الگوریتم‌ها و مجموعه‌داده‌ها باید چیزی بیش از محدودیت‌های فنی را برطرف کند. علاوه بر این، آن‌ها یک مدل جذاب برای دانشمندان‌داده، به‌عنوان روشن‌فکرانی در عرصه عمومی، ارائه دادند - آن‌هایی که علاوه‌بر کار روی ممیزی‌های فنی و اصلاحات، روی مسائل فرهنگی، قانونی و سیاسی نیز کار می‌کنند.

اگرچه نمایندگی عادلانه - در مجموعه‌داده‌ها و نیروی کار علم داده—اهمیت دارد، اما بدون تحول بنیادین در نهادهایی که این نتایج تبعیض‌آمیز را تولید و بازتولید می‌کنند، این تلاش‌ها صرفا در حد ظاهرسازی باقی می‌ماند. همان‌طور که آریانا پلانی85، دانشجوی دکترای بهداشت، به نقل از رابرت ام. یانگ86، می‌گوید: «یک جامعه نژادپرست به شما علم نژادپرستانه می‌دهد»87. ما نمی‌توانیم پیامدهای تبعیض‌جنسی و تبعیض‌نژادی را بدون پرداختن به علت اصلی آن‌ها از بین ببریم.

علم داده برای چه کسی؟

یکی از پیامدهای خطر امتیاز - خطراتی که به واسطه تولید محصولات داده توسط گروه‌های مسلط به وجود می‌آید - نه تنها سوءگیری داده‌ها و نمایندگی نکردن همه نمونه‌ها است، بلکه این است که بعضی داده‌ها اصلا هرگز جمع‌آوری نمی‌شوند. میمی اونوها88 - هنرمند، طراح و مدرس - مدت‌هاست که سوال‌هایی را در رابطه با علم داده مطرح می‌کند که با «چه کسی» شروع می‌شود. پروژه او، «کتابخانه داده‌های گمشده»89 (شکل ۱.۴)، شامل فهرستی از مجموعه‌داده‌هایی است که انتظار می‌رود وجود داشته باشند، زیرا می‌توانند به مسائل اجتماعی مهم پاسخ دهند، اما در عمل هرگز ایجاد نشده‌اند. این پروژه در قالب یک وب‌سایت و اثر هنری ارائه شده است. این اثر هنری شامل یک کشوی پرونده، پر از پوشه‌هایی است با عناوینی مانند: «افراد محروم از مسکن عمومی به دلیل سوابق کیفری»، «جابجایی افراد مسن دارای ناتوانی جسمی یا اختلالات شناختی»، و «تعداد کل ادارات پلیس محلی و ایالتی که از ردیاب‌های تلفن استین‌گری90 استفاده می‌کنند». بازدیدکنندگان می‌توانند در بین پوشه‌ها بگردند و پوشه مورد علاقه را باز کنند تا خالی بودن آن آشکار شود. همه آن‌ها خالی هستند. مجموعه‌داده‌هایی که باید وجود داشته باشند «وجود ندارند».

شکل ۱.۴

کتابخانه داده‌های گمشده، توسط میمی اونوها (۲۰۱۶)، فهرستی از مجموعه‌داده‌هایی است که به دلیل سوگیری، فقدان اراده اجتماعی و سیاسی، و بی‌توجهی ساختاری جمع‌آوری نشده‌اند. با تشکر از میمی انوها. عکس از براندون شولمن.

اوناها با گردآوری فهرستی از مجموعه‌‌داده‌هایی که در دنیای «تقریبا اشباع‌شده از داده» ما وجود ندارد، به این نکته اشاره می‌کند که «ما نشانه‌های فرهنگی و عامیانه این‌که چه چیزی مهم تلقی می‌شود و چه چیزی مهم نیست را پیدا می‌کنیم». او ادامه می‌دهد: «فضاهایی که خالی گذاشتیم، سوءگیری‌ها، و بی‌تفاوتی‌های پنهان اجتماعی ما را آشکار می‌کند». او همچنین با اشاره به مجموعه‌داده‌های «گم‌شده»، توجه ما را به این موضوع جلب می‌کند که چگونه ماتریس سلطه این «سوءگیری‌ها و بی‌تفاوتی‌های اجتماعی» را در تمام سطوح جامعه نهادینه کرده است91. در همین راستا، بنیادهایی مانند Data2X و کتاب‌هایی نظیر «زنان نامرئی»92 ایده وجود یک «شکاف داده‌ جنسیتی»93 نظام‌مند را مطرح کرده‌اند، زیرا اکثر داده‌های تحقیقاتی در مطالعات علمی بر اساس بدن مردان جمع‌آوری شده است. پیامدهای شکاف داده‌ جنسیتی می‌تواند از آزاردادن - برای مثال، از کمی بزرگ بودن تلفن‌های همراه برای دست زنان - تا اثرات کشنده، گسترده شود. تا همین اواخر، آدمک‌های آزمایش تصادف به اندازه و شکل بدن مردان طراحی می‌شدند، غفلتی که بر اثر آن زنان ۴۷٪ بیشتر از مردان احتمال آسیب‌دیدگی در تصادف خودرو داشتند94.

مصداق سوال در مورد «چه کسی» در اینجا این است: چه کسی از علم داده سود می‌برد و چه کسی نادیده گرفته می‌شود؟ بررسی این شکاف‌ها گاهی می‌تواند به معنی اشاره به مجموعه‌داده‌های گمشده باشد، کاری که اونوها انجام داد؛ یا توصیف آن‌ها باشد، همان‌طور که «زنان نامرئی» انجام داد؛ یا تلاشی برای پر کردن خلاها باشد، همان‌طور که Data2X انجام داد. در برخی موارد، این می‌تواند به معنای جمع‌آوری داده‌های گم‌شده توسط خودتان باشد. برای مثال، به دلیلِ نبودِ اطلاعات جامع در مورد زنانی که در هنگام زایمان می‌میرند، پروپابلیکا تصمیم گرفت تا با مشارکت شهروندان نام ۷۰۰ تا ۹۰۰ زن آمریکایی که در سال ۲۰۱۶ جان خود را از دست داده‌ بودند را جمع‌آوری کند95. تا سال ۲۰۱۹، آن‌ها فقط ۱۴۰ مورد را شناسایی کردند. یا مثالی دیگر: در سال ۱۹۹۸، جوانان ساکن راکسبری96 - محله‌ای که به‌عنوان «قلب فرهنگ سیاهان بوستون» شناخته می‌شود97 - از استنشاق هوای آلوده، بیمار و خسته شده بودند. آن‌ها یک راهپیمایی برای درخواست هوای پاک و جمع‌آوری بهتر داده ترتیب دادند که منجر به ایجاد پروژه نظارت بر اجتماع AirBeat شد98.

محققین نام‌های مختلفی را برای این نمونه‌های جمع‌آوری داده‌های پایه پیشنهاد کرده‌اند، از جمله «ضدداده‌»99 یا جمع‌آوری «داده‌های جنجالی»، «کنش‌گری داده»، «کنش‌گری آماری» (استاتیویسم)100، و «علم شهروندی» (زمانی که در خدمت عدالت زیست‌محیطی باشند)101. هر چه نامیده شود، مدت‌هاست که این حرکت شکل گرفته است. در سال ۱۸۹۵، ایدا بی. ولز102، فعال حقوق‌مدنی و روزنامه‌نگار پیشگام داده، مجموعه‌ آماری در مورد همه‌گیری مجازات خودسرانه103 که در ایالات‌متحده فراگیر شده بود، جمع‌آوری کرد104. او این داده‌ها را با گزارشی دقیق همراه کرد که ادعاهای نادرست افراد سفید را افشا می‌کرد - ادعاهایی که معمولا مبنی بر وقوع تجاوز، سرقت یا نوعی حمله مطرح می‌شد (که در بیشتر موارد حقیقت نداشت) و مجازات خودسرانه را به‌عنوان پاسخی موجه جلوه می‌دادند. امروزه، سازمانی به نام ولز105 - انجمن گزارش تحقیقی آیدا بی. ولز - با آموزش نسل جدیدی از روزنامه‌نگاران رنگین‌پوست در مهارت‌های جمع‌آوری و تحلیل داده راه او را ادامه می‌دهد106.

یک ابتکار ضدداده، بر اساس رویکرد ولز در جنوب مرز ایالات‌متحده، در مکزیک، شکل گرفته است، جایی که زنی مجموعه‌داده‌ جامعی در مورد زن‌کشی و قتل‌های جنسیتی زنان و دختران، جمع‌آوری کرده است107. ماریا سالگوئرو108، که با نام پرینسسا109 نیز شناخته می‌شود، بیش از پنج‌هزار پرونده زن‌کشی را از سال ۲۰۱۶ ثبت کرد110. کار او بهترین منبع در دسترس مرتبط با این موضوع را برای روزنامه‌نگاران، فعالان و خانواده‌های قربانیان که دنبال دادگری هستند، فراهم کرده است.

موضوع زن‌کشی در مکزیک، با پوشش گسترده رسانه‌ایِ مرگ زنان فقیر و طبقه کارگر در سیوداد خوارز111، در اواسط دهه ۲۰۰۰، در دید جهانیان قرار گرفت. شهر مرزی خوارز محل بیش از ۳۰۰ «ماکیلادورا»112 است: کارخانه‌هایی که زنان را اغلب با دستمزد پایین و شرایط کاری نامناسب برای مونتاژ کالاها و لوازم الکترونیکی استخدام می‌کنند. بین سال‌های ۱۹۹۳ و ۲۰۰۵، نزدیک به ۴۰۰ نفر از این زنان به قتل رسیدند که در حدود یک سوم از آن‌ها نشانه‌هایی از خشونت وحشیانه یا خشونت جنسی دیده می‌شد. تنها در سه مورد از این مرگ‌ها محکومیت صادر شد. در پاسخ، تعدادی گروه‌ کنش‌گر، مانند «نه یکی دیگر»113 و «دختران‌مان را به خانه بازگردانید»114 تشکیل شد که عمدتا توسط مادرانی که دنبال دادگری برای دخترانشان بودند و خطر این کار را پذیرفته بودند، شکل گرفته بودند115.

این گروه‌ها موفق شدند توجه دولت مکزیک را جلب کنند تا کمیسیون ویژه‌ای برای زن‌کشی ایجاد کند. اما علی‌رغم این کمیسیون و ۱۴ جلد اطلاعاتی که در مورد زن‌کشی توسط آن‌ها ارائه شد، و علی‌رغم حکمی که در سال ۲۰۰۹ علیه دولت مکزیک توسط دادگاه حقوق بشر اینتر-آمریکن116 صادر شد، و علی‌رغم سمپوزیوم سازمان ملل در مورد زن‌کشی117 در سال ۲۰۱۲، و علی‌رغم این‌که ۱۶ کشور آمریکای لاتین قوانینی را در تعریف زن‌کشی تصویب کرده‌اند - همچنان مرگ‌و‌میر در خوارز رو به افزایش است118. در سال ۲۰۰۹ گزارشی به این نکته اشاره کرد که یکی از دلایل عدم توجه کافی به این موضوع، کمبود داده بود119. نیازی به گفتن نیست که مشکل همچنان پابرجاست.

چگونه می‌توانیم داده‌های گمشده زن‌کشی را در نسبت با چهار حوزه قدرت تشکیل‌دهنده ماتریس سلطه کالینز توضیح دهیم؟ همان‌طور که در بسیاری از موارد داده‌های جمع‌آوری‌شده (یا جمع‌آوری نشده) درباره زنان و سایر گروه‌های اقلیت‌شده صادق است، محیط جمع‌آوری داده به‌واسطه عدم توازن قدرت لطمه دیده است.

شدیدترین و جدی‌ترین تجلی ماتریس سلطه در حوزه بین‌فردی نمایان است،‌ جایی که در آن زنان هم‌سوجنس (سیس‌جندر) و ترنس قربانی خشونت و قتل توسط مردان می‌شوند. اگرچه قانون و سیاست (حوزه ساختاری) جرم زن‌کشی را به رسمیت شناخته است، اما هیچ سیاست خاصی، چه از طرف آژانس‌های فدرال یا مقامات محلی، برای اطمینان از جمع‌آوری اطلاعات کافی پیاده نشده است. در نتیجه، حوزه انضباطی، که در آن قانون و سیاست وضع می‌شود، با تعویق مسئولیت، عدم تحقیق، و سرزنش قربانی مشخص می‌شود. از آن‌جا که این وضعیت تبعاتی در حوزه ساختاری ندارد، به‌نوعی به شکل بازگشتی ادامه پیدا می‌کند. برای مثال، تعریف کمیسیون ویژه از زن‌کشی به‌عنوان «جرم دولتی» نشان می‌دهد که چگونه دولت مکزیک عمیقا به‌واسطه بی‌توجهی و بی‌تفاوتی هم‌دست این واقعه است120. البته این انفعال، بدون کمک حوزه هژمونیک - قلمرو رسانه و فرهنگ - ممکن نیست که در آن مردان به‌عنوان شخصیت‌های قوی و زنان به‌عنوان افرادی تابع، مردان به‌عنوان چهره فضای عمومی و زنان به‌عنوان بخشی از فضای خصوصی، افراد ترنس به‌عنوان انحراف از هنجارهای «ذاتی»، و افراد غیرباینری به‌عنوان افردی که اصلا به حساب آورده نمی‌شوند، نمایش داده می‌شوند. در واقع، سازمان‌های دولتی از بسترهای عمومی خود برای سرزنش قربانیان استفاده می‌کنند. به دنبال کشته‌شدن لزوی اوسوریو121 ، دختر دانشجوی ۲۲ ساله مکزیکی در سال ۲۰۱۷، محققی به نام ماریا رودریگز-دومینگز122 نشان داد که چگونه دفتر دادستان عمومی مکزیکوسیتی با گذاشتن پستی در رسانه‌های اجتماعی، فرد قربانی را مصرف‌کننده الکل و مواد مخدر معرفی کرده است که خارج از خانه با دوست‌پسرش زندگی می‌کرده123. این مساله، منجربه واکنش عمومی و ایجاد هشتگ SiMeMatan# (اگر مرا بکشند) شد، و توییت‌های طعنه‌آمیزی مانند «SiMeMatan# اگر مرا بکشند به این دلیل است که دوست داشتم شب‌ بیرون بروم و آبجو زیادی بنوشم» زده شد124.

در این محیطِ جمع‌آوری داده، که در آن روابطِ به‌شدت نامتوازن قدرت عیان بود، ماریا سالگوئرو125 نقشه زن‌کشی خود را تهیه کرد. سالگوئرو برای هر جنایت زن‌کشی که از طریق گزارش‌های رسانه‌ای یا مشارکت مردم به‌دست آورده بود، نقطه‌ای را روی نقشه مشخص کرده بود (شکل ۱.۵‌الف). یکی از اهداف او این بود که «نشان دهد که این قربانیان، صاحب نام و زندگی بودند» و به همین‌منظور سالگوئرو تا آن‌جا که می‌توانست جزئیات هر مرگ را ثبت کرد، از جمله نام، سن، رابطه با مرتکب جرم، نحوه و محل مرگ، آیا قربانی ترنس بوده یا خیر، و همچنین محتوای کامل گزارش خبری که منبع آن واقعه بوده است. شکل ۱.۵ب نمای دقیق گزارشی از قتل ناشناس زنی ترنس همراه با تاریخ، زمان، مکان و خبر آن قتل در رسانه را نشان می‌دهد. انجام این کارِ بدون دستمزد، روزانه سه تا چهار ساعت از سالگوئرو وقت می‌گرفت. او هر از گاهی برای حفظ سلامت روانش کار را متوقف می‌کرد و معمولا به اندازه یک ماه گزارش زن‌کشی برای اضافه کردن به نقشه در صف انتظار داشت.

اگرچه گزارش رسانه‌ها و مشارکت مردم بهترین راه جمع‌آوری داده‌ نیستند، اما این نقشه که توسط یک فرد به تنهایی ایجاد و حفظ شده، خلاء کاری دولت را پر کرده است. این نقشه برای کمک به یافتن زنان گمشده استفاده شده و خود سالگوئرو در کنگره مکزیک در مورد دامنه این مشکل شهادت داده است. سالگوئرو عضو هیچ گروه‌ کنش‌گری نبوده، اما اطلاعات خود را برای فعالیت‌های کنش‌گران در اختیار آن‌ها قرار داده است. والدین قربانیان با او تماس می‌گرفتند تا از او به خاطر کمک به دیده‌شدن دختران‌شان تشکر کنند، و سالگوئرو نیز این کارکرد را تأیید کرد: «این نقشه تلاش می‌کند تا مکان‌هایی که ما را در آن‌جاها می‌کشند قابل‌مشاهده کند، الگوها را پیدا کند، دلایل مشکل را برجسته کند، موقعیت‌یابی کمک‌ها را بالا ببرد، و پیشگیری و تلاش برای جلوگیری از زن‌کشی را ترویج دهد».

شکل ۱.۵

نقشه زن‌کشی ماریا سالگوئرو در مکزیک (۲۰۱۶–اکنون) را می‌توان در https://feminicidiosmx .crowdmap.com/ مشاهده کرد (الف) نقشه‌ای که کل کشور را نشان می‌دهد. (ب) نمایی دقیق از سیوداد خوارز با تمرکز بر یک گزارش از یک قتل ناشناس. سالگوئرو بر اساس گزارش‌های مطبوعات و گزارش‌هایی که شهروندان به او داده‌اند، نقاطی را روی نقشه مشخص کرده است. با تشکراز ماریا سالگوئرو.

(الف) منبع: https://feminicidiosmx.crowdmap.com/، (ب) منبع: https://www.google.com/maps/d/u/0/viewer?mid=174IjBzP-fl_6wpRHg5pkGSj2egE&ll=21.347609098250942%2C-102.05467709375&z=5. اعتبار: ماریا سالگوئرو.

توجه به این مساله حائز اهمیت است که مثال داده‌های گم‌شده زن‌کشی در مکزیک، چه از نظر موضوع یا موقعیت جغرافیایی، یک مورد مجزا و استثنایی نیست. پدیده داده‌های گم‌شده یک پیامد تکرارشونده و مورد انتظار در همه جوامعی است که در آن روابط نامتوازن قدرت وجود دارد. جوامعی که در آن یک نظم جنسیتی و نژادی توسط بی‌توجهی عامدانه، تعویق مسئولیت‌ها، و نادیده‌گرفتن سازمان‌یافته داده‌‌ها و آمارهای افراد بی‌قدرت حفظ می‌شود. به همین ترتیب، در ایالات‌متحده و در سراسر جهان افراد و گروه‌هایی وجود دارند که از راهبردهایی مانند سالگوئرو استفاده می‌کنند تا شکاف‌های این داده‌های گمشده را پر کنند126. همان‌طور که جاناتان استری127، روزنامه‌نگار حوزه داده، مطرح می‌کند، اگر بپذیریم که «کمی‌سازی نوعی از بازنمایی است»، می‌توان از آن برای پاسخگو نگه‌داشتن صاحبان قدرت استفاده کرد. جمع‌آوری ضدداده‌ها نشان می‌دهد که چگونه علم‌داده می‌تواند به نمایندگی از افراد و گروهایی که به پشتیبانی بیشتری نیاز دارند، مورد استفاده قرار گیرد128.

علم داده بر اساس علاقه و هدف چه کسانی؟

در اغلب موارد، مشکل، عدم وجود داده‌های گروه‌های اقلیت‌شده نیست، بلکه برعکس است: پایگاه‌های‌داده و سیستم‌های اطلاعاتی نهادهای قدرت براساس نظارت بیش‌ازحد بر گروه‌های اقلیت‌شده ساخته شده‌اند. این مساله باعث می‌شود که زنان، رنگین‌پوستان، فقرا، و دیگر گروه‌های اقلیت‌شده، بیش‌ازحد در داده‌هایی که این سیستم‌ها بر اساس آن‌ها بنا شده‌اند، حضور داشته باشند. برای مثال، ویرجینیا یوبانکس129 در «خودکارسازی نابرابری»130 داستان اداره کودکان، جوانان و خانواده‌های شهرستان آلگنی131 در غرب پنسیلوانیا را روایت می‌کند که از الگوریتمی برای پیش‌بینی خطر کودک‌آزاری در خانه‌ها استفاده می‌کند132. هدف این مدل، گرفتن کودکان از خانواده‌های بالقوه بدسرپرست، قبل از وقوع رخدادی بود. این هدف، به نظر خیلی ارزشمند است. با این‌حال، همان‌طور که یوبانکس نشان می‌دهد، این کار به ایجاد نابرابری انجامید. از والدین ثروتمندتر که راحت‌تر به خدمات بهداشتی خصوصی و سلامت روان دسترسی دارند، داده زیادی برای استفاده در این مدل وجود ندارد. اما این سیستم از والدین فقیر، که اغلب به خدمات‌عمومی متکی هستند، سوابق خدمات رفاهی کودکان، برنامه‌های درمان مواد مخدر و الکل، خدمات سلامت روان، تاریخچه مدیک‌اید133 و موارد دیگر را جمع‌آوری می‌کند. از آن‌جایی که داده‌های بسیار بیشتری در مورد والدین فقیر وجود دارد، از آن‌ها بیش‌ازحد برای آموزش مدل نمونه‌گیری می‌شود، و در نتیجه این‌طور استنباط می‌شود که فرزندان آن‌ها بیشتر در معرض خطر کودک‌آزاری قرار دارند - خطری که منجربه گرفته‌شدن کودکان از خانه و خانواده‌شان می‌شود. یوبانکس استدلال می‌کند که این مدل، «والدگری در حین فقر را با والدگری ضعیف اشتباه می‌گیرد».

این مدل، مانند بسیاری دیگر از مدل‌ها، با در نظرگرفتن دو فرض نادرست طراحی شده است: (۱) داده‌های بیشتر همیشه بهتر است و (۲) داده‌ها ورودی‌هایی خنثی و بی‌طرف هستند. اما در عمل، واقعیت کاملا متفاوت است. هرچه نسبت والدین فقیر در پایگاه‌داده بیشتر باشد و اطلاعات کامل‌تری از آن‌ها وجود داشته باشد، مدل با احتمال بیشتری در مورد والدین فقیر خطا پیدا می‌کند. و داده‌ها هرگز خنثی و بی‌طرف نیستند. آن‌ها همیشه خروجی جهت‌داری از شرایط اجتماعی، تاریخی، و اقتصادی نابرابر هستند: در این‌جا مجددا ماتریس سلطه حاکم است134. دولت‌ها می‌توانند و در واقع از داده‌های جهت‌داراستفاده کنند تا قدرت ماتریس سلطه را به‌گونه‌ای به کار گیرند که تأثیرات آن را بر کم‌توان‌ترین افراد جامعه تشدید شود. در این حالت، مدل به‌عنوان راهی برای اداره و مدیریت طبقاتی در حوزه انضباطی تبدیل می‌شود - که نتیجه‌اش این می‌شود که وقتی تلاش والدین فقیر برای دسترسی به منابع و بهبود زندگی‌شان، به‌عنوان داده جمع‌آوری شوند، به همان داده‌هایی تبدیل می‌شوند که به واسطه آن‌ها مراقبت فرزندان از آن‌ها گرفته می‌شود.

این مساله، سوال بعدیِ «چه کسی» را پیش می‌کشد: اهداف چه کسانی در علم داده اولویت دارند (و چه کسانی در اولویت نیستند)؟ در این مورد، ایالت پنسیلوانیا هدف خود، کارآمدی اداری، را در اولویت قرار داد، دلیلی که اغلب از آن به‌عنوان راه‌حل معضلات اجتماعی و سیاسی یاد می‌شود. از نظر دولت، نیروی کافی برای رسیدگی به همه موارد بالقوه کودک‌آزاری وجود نداشت، در نتیجه لازم بود تا سازوکار کارآمدی تعبیه شود که با توجه به تعداد محدود کارمند عمل کند - یا این‌طور استدلال می‌شد. این همان چیزی است که یوبانکس به آن «سوءگیری کمبود»135 می‌گوید: این ایده که منابع کافی برای همه وجود ندارد، بنابراین باید در مقیاس کوچک فکر کنیم و به فناوری اجازه دهیم تا خلاء را پر کند. چنین تفکری و «راه‌حل‌های» مبتنی بر فناوریِ حاصل از آن، اغلب پاسخ‌گوی اهداف سازندگان‌شان می‌باشد، در این مورد، دفتر کودکان، جوانان و خانواده‌های شهرستان آلگنی، نه اهداف کودکان و خانواده‌هایی را که ادعای خدمت به آن‌ها را دارند.

شرکت‌ها با اتکا به ثروت و قدرت بیش‌ازحدی که از محصولات‌شان به‌دست می‌آورند، اهداف خود را فراتر از مردمی قرار می‌دهند که آن محصولات را برای خدمت به آن‌ها تولید می‌کنند. به‌عنوان مثال، در سال ۲۰۱۲، «نیویورک‌تایمز» مقاله‌ای جنجالی از چارلز دوهیگ136 منتشر کرد با عنوان «شرکت‌ها چگونه اسرار شما را یاد می‌گیرند»137 که به سرعت زبان‌زد محافل داده و حریم‌خصوصی شد. دوهیگ شرح می‌دهد که افرادی از بخش بازاریابی با اندرو پل138 پژوهشگر داده‌ شاغل در تارگت139 تماس گرفتند و از او پرسیدند: «اگر بخواهیم بفهمیم که یک مشتری باردار است، حتی اگر او نخواهد ما بدانیم، می‌توانید این کار را انجام دهید؟»140 او به بررسی تاریخچه خرید مشتریان با توجه به جدول زمانی آن خریدها پرداخت تا به هر مشتری امتیازی برای پیش‌بینی بارداری دهد (شکل ۱.۶)141. بدیهی است که بارداری، بعد از رفتن به دانشگاه، دومین رویداد مهم زندگی است که تعیین می‌کند آیا یک خریدار معمولی، مشتری مادام‌العمر خواهد شد یا خیر.

تارگت از مدل تشخیص بارداری پل در یک سیستم خودکار استفاده کرد تا کوپن‌های تخفیف برای مشتریان احتمالی بارداری ارسال کند. این یک رابطه برد-برد برای دو طرف بود، یا شرکت این‌طور تصور می‌کرد، تا این‌که پدر یک دختر نوجوان در مینیاپولیس کوپن‌های لباس‌های کودک که دخترش از طریق پست دریافت می‌کرد را دید و به دفتر محلی تارگت رفت تا به مدیر آن اعتراض کند. چرا دخترش کوپن زنان باردار را می‌گیرد در حالی‌که هنوز نوجوان است؟!

مشخص شد که زن جوان واقعا باردار است. مدل پل قبل از این‌که نوجوان به خانواده‌اش اطلاع دهد به تارگت اطلاع داده بود. با تحلیل تاریخ خرید تقریبا ۲۵ محصول رایج، مانند لوسیون بدون‌عطر و کیسه‌های بزرگ توپ‌های پنبه‌ای، این مدل مجموعه‌ای از الگوهای خرید را پیدا کرده بود که با وضعیت بارداری و انتظار تاریخ زایمان ارتباط نزدیک داشتند. اما رابطه برد-برد به سرعت تبدیل به یک باخت-باخت شد، زیرا تارگت اعتماد مشتریان خود را در یک آبروریزی رسانه‌ای از دست داد و دختر نوجوان مینیاپولیس چیزی به مراتب بدتر از آن را از دست داد: کنترل بر اطلاعات مربوط به بدن و سلامت خود را.

شکل ‍۱.۶

تصویری از ویدئویی از ارائه اندرو پل، آمارگر، در «دنیای تحلیل پیشگویانه» درباره مدل تشخیص بارداری تارگت در اکتبر ۲۰۱۰، با عنوان «چگونه تارگت از داده‌های مهمان خود برای بهبود بازده سرمایه‌گذاری، بیشترین بهره بازاریابی را می‌برد». او مدل را در دقیقه ۴۷:۵۰ ویدیو شرح می‌دهد. تصویر توسط اندرو پل برای «دنیای تحلیل پیشگویانه».

این داستان بارها گفته شده است: اول توسط پل، آمارگر، سپس توسط دوهیگ، روزنامه‌نگار« نیویورک تایمز»، و سپس توسط بسیاری دیگر از مفسران حریم‌شخصی و نفوذ بیش‌ازحد شرکت‌ها. اما این فقط یک داستان در مورد حریم شخصی نیست، بلکه همچنین داستانی در مورد بی‌عدالتی جنسیتی است - این‌که چطور شرکت‌ها به داده‌های مربوط به بدن و زندگی زنان دست پیدا می‌کنند، و این‌که چطور شرکت‌ها به داده‌های جمعیت‌های اقلیت‌شده به‌طور کلی دست می‌یابند. در این حالت، اهداف چه کسانی در اولویت قرار دارد؟ البته اهداف شرکت‌ها. برای تارگت، هدف اصلی افزایش حداکثری سود بود و گزارش‌های مالی فصلی به هیئت مدیره به‌عنوان معیار موفقیت در نظر گرفته می‌شد. اهداف چه کسانی در اولویت قرار «نمی‌گیرد»؟ نوجوانان و هر زن باردار دیگری که بیرون از آن بود.

ما چگونه به نقطه‌ای رسیدیم که علم داده تقریبا به‌طور انحصاری در خدمت سود (برای عده‌ای محدود)، نظارت (بر اقلیت‌شده‌ها) و کارایی (در میان کمبودها) قرار گرفته است؟ لازم است که قدمی به عقب برداریم و دوباره به سازماندهی اقتصاد داده نگاه کنیم: داده‌، گران است و به منابع زیادی نیاز دارد، در نتیجه تنها مؤسسات قدرتمند - شرکت‌ها، دولت‌ها و دانشگاه‌های تحقیقاتی تراز اول - امکانات کار با آن‌ها را در مقیاس بالا دارند. این نیاز به منابع، منجربه علم داده‌ای شده است که در خدمت اهداف اصلی مؤسسات عمل می‌کند. ما می‌توانیم این اهداف را در سه قالب درنظر بگیریم: علمی (برای دانشگاه‌ها)، نظارتی (برای دولت‌ها) و فروشی (برای شرکت‌ها). این یک قضاوت ارزشی نیست (مثلا این‌که «تمام علم بد است») بلکه مشاهده‌‌ای در مورد سازماندهی منابع است. اگر علم، نظارت، و فروش، اصلی‌ترین اهدافی هستند که داده‌‌ها در خدمت آن‌ها عمل می‌کنند، به این علت که پول دارند، پس چه اهداف و مقاصد دیگری در نظر گرفته نشده‌اند؟

بیایید «فضای ابری» را به‌عنوان نمونه در نظر بگیریم. از آن‌جایی که شبکه سرورها جای آرشیوهای کاغذی را گرفته‌اند، ذخیره داده به فضای فیزیکی بزرگی نیاز دارد. پروژه‌ای که توسط «مرکز تفسیر کاربری زمین»142 (CLUI) انجام شده است این مساله را واضح می‌کند (شکل ۱.۷). در سال ۲۰۱۴، CLUI تصمیم گرفت مراکز داده در سراسر ایالات متحده را نقشه‌برداری و عکاسی کند، اغلب در مناطق به‌ظاهر خالی که اکنون به آن‌ها مناطق «حومه‌ای جدید»143 می‌گوییم. انجام این کار، توجه‌ها را به «نوع جدیدی از معماری اطلاعات فیزیکی» جلب کرد که در سراسر ایالات‌متحده گسترده شده است: «جعبه‌های بدون پنجره، اغلب با ویژگی‌های طراحی خاص مانند گرافیک سطحی یا ظاهری خشن، که توسط سیستم‌های خنک‌کننده احاطه شده‌اند». اثرات زیست‌محیطی فضای ابری - در قالب برق و تهویه هوا - بسیار زیاد است. گزارش گرین‌پیس144 در سال ۲۰۱۷ تخمین زده که بخش جهانی فناوری‌اطلاعات، که عمدتا در ایالات‌متحده مستقر است، حدود ۷٪ از مصرف انرژی جهان را به خود اختصاص داده است. این بیشتر از برخی از بزرگترین کشورهای جهان از جمله روسیه، برزیل و ژاپن است145. فضای ابری تأثیرِ پرشتاب قابل‌توجهی بر تغییرات آب‌وهوایی جهانی دارد، مگر این‌که انرژی از طریف منابع تجدیدپذیر تامین شود (که گزارش گرین‌پیس نشان می‌دهد چنین نیست).

فضای ابری مثل ابر، سبک نیست و هوا هم نیست. و همچنین فضای ابری ارزان هم نیست. انتظار می‌رود که هزینه ساخت جدیدترین مرکز داده فیسبوک در لوس لوناس146، نیومکزیکو، به یک میلیارد دلار برسد147. هزینه برق آن مرکز به تنهایی ۳۱ میلیون دلار در سال برآورد شده است148. این اعداد ما را به سوال در مورد منابع مالی باز می‌گرداند: چه کسی پول آن را دارد تا در مراکزی مانند این سرمایه‌گذاری کند؟ تنها شرکت‌های قدرتمندی مانند فیسبوک و تارگت، همراه با دولت‌های ثروتمند و دانشگاه‌های تراز اول، منابعی برای جمع‌آوری، ذخیره، نگهداری، تحلیل، و جابجا کردن حجم زیاد داده‌ را دارند. و در ادامه، چه کسی مسئول موسساتی با چنان منابع زیاد است؟ به‌طور نامتوازنی مردان، حتی به‌طور نامتوازن‌تری مردان سفید، و حتی بیشتر از آن و نامتوازن‌تر، مردان سفید پول‌دار. مدرک می‌خواهید؟ ۸۲٪ از اعضای هیئت‌مدیره گوگل مردان سفید هستند. هیئت‌مدیره فیسبوک ۷۸٪ مرد و ۸۹٪ درصد سفید هستند. ۷۹٪ کنگره ایالات‌متحده در سال ۲۰۱۸ مرد بودند - در واقع درصد بهتری از سال‌های گذشته - و دارای متوسط ​​دارایی خالص پنج برابر بیشتر از متوسط ​​​​خانوارهای آمریکایی149. این‌ها افرادی هستند که بیشترین امتیاز را در ماتریس سلطه دارند و بیشترین بهره را از وضعیت موجود می‌برند150.

شکل ۱.۷.

عکس ها از «شبکه ملی»: چشم‌انداز اینترنت در آمریکا، نمایشگاهی توسط مرکز تفسیر کاربری زمین که در سال ۲۰۱۳ برگزار شد. عکس‌ها، چهار مرکز داده، واقع در شمال برگن (نیوجرسی)، دالس (ارگان)، اشبرن (ویرجینیا) و لک‌پورت (نیویورک) را نشان می‌دهند (در خلاف جهت عقربه‌های ساعت از بالا سمت راست). آنها نشان می‌دهند که چگونه «فضای ابری» در مکان‌های دورافتاده و پارک‌های اداری در سراسر کشور قرار گرفته است. تصاویر توسط مرکز تفسیر کاربری اراضی.

حدودا در دهه گذشته، بسیاری از این مردانِ در راس قدرت، از داده به‌عنوان «نفت جدید» یاد کردند151. این استعاره‌ به‌شکل خیلی خوبی این مساله را بازتاب می‌دهد - حتی بیشتر از آن‌که احتمالا قصدش را داشتند. تشبیه داده‌ به نوعی منبع طبیعیِ بکر، به‌وضوح به پتانسیل داده‌ برای قدرت و سود پس از پردازش و پالایش اشاره می‌کند، اما به برجسته‌کردن ابعاد استثماری استخراج داده‌ از منبع آن‌ها - افراد - و همچنین هزینه‌های زیست‌محیطی آن نیز کمک می‌کند. همان‌طور که متمولین‌های نفتیِ اولیه توانستند با استفاده از ثروت خود، قدرت بیش‌ازحدی در جهان به دست آورند (جان دی. راکفلر152، جی. پل گتی153، یا اخیراً برادران کخ154 را در نظر بگیرید)، تارگت‌های جهان نیز از سود شرکت برای تثبیت کنترل بر مشتریان خود استفاده می‌کنند. اما برخلاف نفت خام که از زمین استخراج می‌شود و سپس به مردم فروخته می‌شود، داده‌ها هم از مردم استخراج می‌شود و هم به آن‌ها فروخته می‌شود - به شکل کوپن‌هایی مانند کوپن‌هایی که نوجوان مینیاپولیس از طریق پست دریافت کرد، یا حتی بسیار بدتر از آن155.

این سیستم استخراجی یک ناسازگاری عمیقی بین افرادی که داده‌ها را جمع‌آوری، ذخیره، و تحلیل می‌کنند و کسانی که داده‌های آن‌ها جمع‌آوری، ذخیره، و تحلیل می‌شود، ایجاد می‌کند156. اهدافی که این فرآیند را هدایت می‌کنند، اهداف شرکت‌ها، دولت‌ها و دانشگاه‌های غنی هستند که تحت تسلط مردان سفید نخبه قرار دارند. و این اهداف نه بی‌طرف هستند و نه دموکراتیک، به این معنا که طی فرآیندی مشارکتی و عمومی شکل نگرفته‌اند. برعکس، تمرکز بر «سه هدف» پیشتر یاد شده - علم، نظارت و فروش - و در نظر نگرفتن سایر اهدافِ ممکن، منجر به نادیده‌گرفتن مسائل مهم با پیامدهای تاثیرگذار بر زندگی شده است. مثال تارگت را به‌عنوان طرف دیگر داده‌های گمشده در مورد پیامدهای سلامت مادر در نظر بگیرید. به بیان نادقیق، هیچ سودی برای جمع‌آوری داده در مورد زنانی که در هنگام زایمان جان خود را از دست می‌دهند، وجود ندارد، اما در دانستن این‌که آیا زنان باردار هستند یا خیر، سود قابل توجهی وجود دارد.

چگونه می‌توانیم اهداف گوناگون و افراد مختلف را در علم‌داده اولویت‌بندی کنیم؟ چگونه ممکن است دانشمندان داده مفهوم قدرت را تحلیل فمینیستی کنند تا با سوءگیری در ریشه آن مقابله کنند؟ کیمبرلی سیلز آلرز157، مدافع عدالت در زایمان و نویسنده، در تلاش است تا دقیقا همین کار را در رابطه با مراقبت‌های مادران و نوزادان در ایالات‌متحده انجام دهد. او داستان سرنا ویلیامز را با علاقه فراوان دنبال کرد و شاهد بود که کنگره، قانون پیشگیری از مرگ مادران را در سال ۲۰۱۸ تصویب کرد. این لایحه، بودجه ایجاد کمیته‌های بررسی سلامت مادران را در هر ایالت تامین کرد و برای اولین بار جمع‌آوری اطلاعات یک‌پارچه و جامع را در سطح فدرال فراهم ساخت. اما حتی با شروع جمع‌آوری داده‌های بیشتر درباره مرگ‌ومیر مادران، سیلز آلرز همچنان از گفتگوی عمومی ناخشنود بود: «آمارهایی که به‌درستی آگاهی درباره بحران مرگ‌ومیر مادران سیاه را افزایش می‌دهند، هم‌زمان ترویج‌دهنده روایتِ ناراحتی و نگرانی از این موضوع هستند. افراد سفید می‌پرسند: «چگونه می‌توانیم زنان سیاه را نجات دهیم؟» و این راه‌حلی نیست که ما انتظار داریم تا داده‌ها تولید کنند»158.

شکل ۱.۸

Irth یک برنامه تلفن‌همراه و پلتفرم وب است که بر حذف سوءگیری از بدو تولد (از جمله مراقبت‌های بهداشتی قبل از تولد، زایمان، و پس از زایمان) تمرکز دارد. کاربران در آن نظرات‌شون را در مورد تلاقی مراقبت‌هایی که از هر پرستار و پزشک دریافت کرده‌اند، و همچنین کل درمان‌ و بیمارستان‌ را پست می‌کنند. هنگامی‌که والدین بالقوه در جستجوی سرویس‌دهندگان هستند، می‌توانند از Irth مشاوره بگیرند تا ببینند افرادی مانند آنها چه نوع مراقبت‌هایی را از مراقبان خاص دریافت کرده‌اند. نمایی از صفحات از اولین نمونه Irth در اینجا نشان داده شده است. تصاویر توسط کیمبرلی سیلز آلرز و تیم Irth در ۲۰۱۹.

سیل آلرز - و پسر ۱۵ ساله‌اش، مایکل - روی یک برنامه داده‌محور برای گفتگو در زمینه سلامت مادر و نوزاد کار کردند: یک پلتفرم و برنامه به نام Irth - «از بدو تولد» (birth)، اما با حذف b برای اشاره به «سوگیری» (bias) (شکل ۱.۸). یکی از عوامل مهمی که به نتایج نامطلوب در زمینه تولد، و همچنین مرگ‌ومیر مادران و نوزادان منجر می‌شود، مراقبت‌های جانبدارانه است. بیمارستان‌ها، کلینیک‌ها، و مراقبان به‌طور معمول ابراز درد و خواسته‌های درمانی زنان سیاه را نادیده می‌گیرند159. همان‌طور که دیدیم، داستان سرنا ویلیامز، با وجود این‌که او یک ستاره بین‌المللی تنیس بود، تقریبا به همین شکل پیش رفت. برای مقابله با این مساله، Irth مانند یک Yelp تقاطعی برای تجربیات تولد عمل می‌کند. کاربران، رتبه‌ و نظرات خود را در مورد تجربیات قبل از زایمان، پس از زایمان، و تولد در بیمارستان‌ها و توسط مراقبان خاص ارسال می‌کنند. نظرات آن‌ها شامل جزئیات مهمی مانند نژاد، مذهب، جنسیت، هویت جنسیتی، و همچنین احساس آن‌ها در مورد این‌که آیا این هویت‌ها در مراقبت‌هایی که دریافت کرده‌اند مورد احترام قرار گرفته است یا نه، می‌باشد. این برنامه همچنین طبقه‌بندی سوءگیری را در نظر می‌گیرد و از کاربران می‌خواهد که گزینه‌هایی را علامت بزنند تا نشان دهند که آیا و چگونه انواع مختلف سوءگیری را تجربه کرده‌اند. Irth به والدینی که به دنبال مراقبت هستند این امکان را می‌دهد که نظرات افرادی با شرایط مشابه آن‌ها را - از منظر نژادی، قومیتی، اجتماعی-اقتصادی، و/یا جنسیتی- جستجو کنند تا چگونگی تجربه آن‌ها از یک پزشک یا بیمارستان خاص را متوجه شوند.

چشم‌انداز سیلز آلرز این است که Irth به‌عنوان یک پلتفرم اطلاعات‌عمومی برای افراد برای یافتن سرویس‌های مراقبتیِ بهتر عمل کند و همچنین ابزاری باشد برای مسئول نگه‌داشتن بیمارستان‌ها و ارائه‌دهندگان خدمات در قبال سوءگیری‌های نظام‌مند. در نهایت، او می‌خواهد داستان‌ها و تحلیل‌های داده جمع‌شده از این پلتفرم را به شبکه‌های بیمارستانی ارائه دهد تا تغییراتی بر اساس تجربیات زندگی زنان و والدین ایجاد کند. او می‌گوید: «ما مدام داستان مرگ‌ومیر مادرانی که در گور خوابیده‌اند را می‌گوییم. ما باید با به اشتراک‌گذاشتن داستان‌های افرادی که واقعا زندگی کرده‌اند، از این مرگ‌و‌میرها جلوگیری کنیم»160.

Irth این واقعیت را نشان داد که «انجام کار خیر با داده‌» نیازمند هماهنگی عمیقی با چیزهایی است که خارج از مجموعه‌داده‌ قرار دارند - و به‌طور مشخص این‌که چگونه داده‌ و علم داده‌‌ای که آن‌ها می‌سازند، اغلب نمایان‌گر ساختارهای قدرت‌جهانی هستند که از آن‌ها نشات می‌گیرند. در دنیایی که روابط نابرابر قدرت، هنجارها، و قوانین‌اجتماعی، نحوه استفاده از داده‌‌ها و به‌کارگیری علم داده را شکل می‌دهند، بررسی این نکته ضروری است که چه کسی قدرت انجام «کار خوب» را دارد و در مقابل چه کسی از این «کار خوب» تاثیر می‌پذیرد.

بررسی قدرت

فمینیسم داده با بررسی نحوه عملکرد قدرت در جهان امروز آغاز می‌شود. این امر شامل پرسیدن سوال‌های «چه کسی» در مورد علم داده است: چه کسی کار را انجام می‌دهد (و چه کسی به بیرون رانده می‌شود)؟ چه کسی سود می‌برد (و چه کسی مورد غفلت یا آسیب قرار می‌گیرد)؟ اولویت‌های چه کسانی به محصول تبدیل می‌شوند (و چه کسانی نادیده گرفته می‌شوند)؟ این سوالات در سطح افراد و سازمان‌ها مطرح می‌شود و طرح آنها در سطح جامعه کاملا ضروری است. پاسخ فعلی برای بیشتر این سوالات «افرادی از گروه‌های مسلط» است که «خطر امتیاز» قابل‌توجهی را ایجاد کرده و تقریبا هر روز باعث فاش‌شدن مشکلات جنسیتی یا نژادی در مورد محصولات داده‌ای یا الگوریتم‌های دیگر می‌شود. «ماتریس سلطه» به ما کمک می‌کند تا بفهمیم که چگونه خطر امتیاز - نتیجه توزیع نابرابر قدرت - در حوزه‌های مختلف رخ می‌دهد. در نهایت، هدف از بررسی قدرت تنها درک آن نیست، بلکه به چالش کشیدن و تغییر آن است. در فصل بعد، چندین رویکرد برای به چالش کشیدن قدرت با علم داده را بررسی می‌کنیم.

Connections
1 of 1
Another Translation of 1. The Power Chapter
1 : : El Capítulo del Poder
1 : : El Capítulo del Poder
Description

DataGénero (Coordinación: Mailén García. Traductoras: Ivana Feldfeber,Sofía García, Gina Ballaben, Giselle Arena y Mariángela Petrizzo. Revisión: Helena Suárez Val.Con la ayuda de Diana Duarte Salinas, Ana Amelia Letelier, y Patricia Maria Garcia Iruegas)

Comments
1