المرأة والذكاء الاصطناعي: ثورة مزدوجة بين التمكين و الخوارزميات المتحيزة

في ظل الذكاء الاصطناعي: كيف تصوغ المرأة مستقبلها وتواجه تحديات الهوية والخصوصية؟

المرأة في عصر الذكاء الاصطناعي: بين الفرصة والتهديد المزدوج

كتب باهر رجب

مقدمة: ثورة مزدوجة

لا يمثل الذكاء الاصطناعي مجرد تطور تقني عابر، بل هو تحول مجتمعي عميق يعيد تشكيل جوهر العمل، والعلاقات، وحتى الهوية الإنسانية. في قلب هذا التحول تكمن العلاقة المعقدة بين المرأة وهذه الثورة التكنولوجية. فالذكاء الاصطناعي يفتح آفاقا غير مسبوقة للتمكين الاقتصادي والاجتماعي، ولكنه في الوقت نفسه، يفاقم من التحديات القائمة ويخلق أشكالا جديدة من المعاناة. هذا التناقض هو ما يجعل العلاقة بين المرأة والذكاء الاصطناعي ثنائية متناقضة، حيث يعمل الأخير كمرآة تعكس تحيزاتنا المتجذرة في التاريخ، وفي نفس الوقت، كأداة قادرة على صياغة واقع جديد. التحدي الحقيقي يكمن في كيفية توجيه هذه الأداة لكسر هذه التحيزات بدلاً من تكريسها. هذا التحول من “مجرد تقنية” إلى “شريك في تشكيل المستقبل” هو ما يجعل هذه القضية ذات أبعاد وجودية تتجاوز نطاق التكنولوجيا إلى صميم القيم الإنسانية.

المحور الأول: المعادلة الاقتصادية الجديدة

١. التمكين المهني وريادة الأعمال: جسر نحو الاستقلالية

يقدم الذكاء الاصطناعي سبع طرق رئيسية لتمكين رائدات الأعمال، مما يمهد لهن الطريق نحو استقلالية اقتصادية أكبر.

أولا

تعمل أدوات الذكاء الاصطناعي على أتمتة المهام الإدارية الروتينية، مثل جدولة المواعيد وإدارة رسائل البريد الإلكتروني، مما يوفر “وقتا ثمينا” يتيح لرائدات الأعمال التركيز على القرارات الاستراتيجية ونمو أعمالهن. هذه الأتمتة لا تقتصر على المهام المكتبية فحسب، بل يمكن أن تخفف أيضا من عبء العمل المنزلي، مما يحرر وقتا إضافيا للمرأة للمشاركة في العمل مدفوع الأجر، وهو ما يعيد تشكيل مفهوم “العمل المنتج” للمرأة في المجتمع.

ثانيا

يسهل الذكاء الاصطناعي اتخاذ القرارات القائمة على البيانات، حيث يمكن لأدوات التحليل أن تعالج كميات هائلة من المعلومات حول سلوك المستهلك واتجاهات السوق في وقت قياسي. هذا التحول من القرارات العاطفية أو الحدسية إلى القرارات المعتمدة على الحقائق يمنح رائدات الأعمال ميزة تنافسية كبيرة. كما يساعد الذكاء الاصطناعي في بناء علاقات شخصية مع العملاء من خلال تحليل بياناتهم وتخصيص تجربتهم، مما يعزز الرضا والولاء. هذه الأدوات تمثل مساعدا بحثيا شخصيا يقدم استراتيجيات مصممة خصيصا لكل عميل، بدلا من الأساليب التقليدية العامة.

إن هذا التمكين لا يقتصر على تحسين الكفاءة فحسب، بل يمثل سلسلة سببية متكاملة تؤدي إلى تعزيز مكانة المرأة. فأتمتة المهام الروتينية (سواء المنزلية أو الإدارية) تؤدي إلى تحرير الوقت والطاقة، مما يتيح لهن تركيز جهودهن على الأنشطة المولدة للدخل والنمو الاستراتيجي. هذا التركيز يؤدي بدوره إلى زيادة الإنتاجية وتحقيق الاستقلالية المالية، مما يعزز دور المرأة كقائدة اقتصادية ومبتكرة، ويساهم في تقليص الفجوة الاقتصادية بين الجنسين على المدى الطويل.

٢. شبح الأتمتة: تهديد لوظائف “الرعاية والخدمات”

في المقابل، يمثل الذكاء الاصطناعي تهديدا كبيرا لوظائف النساء، خاصة في القطاعات التي تهيمن عليها الإناث مثل الإدارة، والخدمات، والتجزئة. وفقا لتقرير “برايس ووترهاوس كوبرز”، فإن وظائف النساء معرضة للخسارة بشكل أكبر من وظائف الرجال بسبب الأتمتة. يشير صندوق النقد الدولي إلى أن حوالي ١١٪ من الوظائف التي تشغلها النساء معرضة لخطر الأتمتة ، وتؤكد الأبحاث أن النساء أكثر عرضة بنحو مرة ونصف للتحول إلى مهن جديدة بسبب الذكاء الاصطناعي.

المفارقة هنا هي أن النساء يواجهن ضغطا أكبر من الأتمتة، ولكنهن في الوقت نفسه أقل استعدادا لتبني أدوات الذكاء الاصطناعي التي يمكن أن تعزز إنتاجيتهن و مرونتهن المهنية. هذه الفجوة في التبني تعود لأسباب متعددة، منها مخاوف أخلاقية و شعورهن بأن استخدام هذه الأدوات “غش” ، بالإضافة إلى انعدام الثقة في أن مزودي الذكاء الاصطناعي سيحافظون على أمان بياناتهم. هذه الديناميكية تخلق “مفارقة التمكين”، حيث يتيح الذكاء الاصطناعي فرصا للنخبة من النساء في ريادة الأعمال، بينما يفاقم من تحديات الطبقات العاملة. هذه الفجوة في التبني ليست مجرد مشكلة سلوكية؛ إنها السبب الجذري لفجوة إنتاجية محتملة يمكن أن تؤدي إلى اتساع الفجوة في الأجور وفرص العمل، مما يظهر كيف أن العوامل النفسية والاجتماعية لها آثار اقتصادية مباشرة وخطيرة.

المحور الثاني: هويتها وقيمتها ومكانتها في العصر الرقمي

١. مرآة متحيزة: الذكاء الاصطناعي وتكريس الصور النمطية

لا يبتكر الذكاء الاصطناعي تحيزا جديدا، بل يعمل على “أتمتة” و”تشفير” التحيزات المجتمعية المتأصلة، مما يجعل المشكلة أكثر خطورة و شمولا. يحدث التحيز الخوارزمي عندما يتم تدريب أنظمة الذكاء الاصطناعي على بيانات تاريخية تعكس التمييز الموجود في الواقع. يمكن رؤية هذا بوضوح في عدة أمثلة ملموسة.

التوظيف:

في عام 2018، اضطرت شركة أمازون إلى إيقاف أداة توظيف تعتمد على الذكاء الاصطناعي بعد أن تبين أنها متحيزة ضد المتقدمات الإناث، حيث فضلت الأداة السير الذاتية للمتقدمين الذكور. هذا التحيز كان نتيجة لتدريب الأداة على بيانات توظيف تاريخية كانت في معظمها لرجال.

المساعدات الصوتية:

يعزز اختيار أصوات نسائية لطيفة وناعمة للمساعدات الافتراضية مثل “سيري” و”أليكسا” و”كورتانا” الصور النمطية التي تربط النساء بالأدوار الخدمية و الخاضعة. هذه الأصوات، المستوحاة من أفلام هوليوود القديمة، تخلق توقعات بأن التكنولوجيا يجب أن تكون وديعة و مطيعة، وهو ما يعزز النظرة المجتمعية السائدة تجاه النساء.

إنشاء المحتوى:

كشفت دراسة لليونسكو أن نماذج الذكاء الاصطناعي التوليدي تميل إلى حصر النساء في أدوار تقليدية مثل “الخادمة” و”الطاهية”، بينما تصف الرجال في وظائف أكثر تنوعا ورفعة كـ”مهندسين” و”أطباء”. هذه النماذج استخدمت كلمات مثل “حديقة” و”حب” لوصف النساء، بينما استخدمت كلمات مثل “مغامرة” و”قرر” لوصف الرجال، مما يعكس ويعزز الصور النمطية الرجعية.

تعد هذه الأمثلة امتداداً لمفهوم “فجوة البيانات الجندرية” الذي قدمته الكاتبة كارولين كريادو بيريز. فقد أظهرت أبحاثها أن تجاهل أجسام النساء في التجارب الطبية و دمى اختبارات سلامة السيارات أدى إلى زيادة احتمالية تعرض النساء لإصابات خطيرة في حوادث السيارات بنسبة ٤٧٪. هذه المشاكل التاريخية يتم تكرارها و تشفيرها في أنظمة الذكاء الاصطناعي الحديثة، مما يجعل المشكلة تنتقل من التحيز الفردي إلى التحيز النظامي غير الشفاف.

٢. تحدي فجوة الثقة والتبني

تظهر الإحصائيات أن النساء في الولايات المتحدة أقل استخداما للذكاء الاصطناعي التوليدي مقارنة بالرجال، وأنهن أقل ثقة في أن مزوديه سيحافظون على أمان بياناتهن. هذه الفجوة في الثقة و التبني لا تقتصر على المخاوف التقنية فقط، بل لها أبعاد نفسية واجتماعية عميقة. فالتردد في استخدام الأدوات ينبع من الشعور بأنها “غش” ، أو الخوف من الحكم من الآخرين.

هذه الفجوة ليست مجرد مشكلة في الاستخدام، بل إنها تؤثر بشكل مباشر على القدرة التنافسية المهنية. فإذا كانت النساء أقل استخداماً للتكنولوجيا التي تزيد من الإنتاجية، فإنهن يخاطرن بالتخلف عن نظرائهن من الرجال، مما قد يوسع الفجوة في الأجور والفرص. هذا الارتباط بين العوامل النفسية مثل الثقة والأمن، والنتائج الاقتصادية مثل الأجور والفرص، يكشف أن فجوة الثقة ليست شعورا عابرا، بل هي نتيجة منطقية للتهديدات الوجودية التي يفرضها الذكاء الاصطناعي على النساء، مثل التزييف العميق. عندما تستخدم التكنولوجيا نفسها لتهديد الخصوصية والأمان، فمن الطبيعي أن تكون هناك فجوة في التبني.

المحور الثالث: الحقوق والمعاناة في الفضاء الافتراضي

١. الجرائم السيبرانية المدفوعة بالذكاء الاصطناعي: أشكال جديدة من الاستهداف

يولد الذكاء الاصطناعي أشكالا جديدة من العنف الرقمي الذي يستهدف النساء بشكل خاص. من أبرز هذه الأشكال هو “التزييف العميق” (Deepfakes)، الذي أصبح أداة رئيسية لتشويه سمعة النساء و ابتزازهن. وقد أظهرت الأبحاث أن هذا التهديد ليس نظريا، حيث تعرضت النجمة العالمية تايلور سويفت في عام 2024 لانتشار صور إباحية مفبركة باستخدام الذكاء الاصطناعي. وفي واقعة مشابهة في ليبيا، كشفت عائشة القذافي أنها تعرضت لمحاولة ابتزاز بمقاطع فيديو تم التلاعب بها باستخدام الذكاء الاصطناعي. هذه الحوادث توضح أن العنف يستهدف بشكل خاص الشخصيات العامة و الناشطات بهدف “إسكاتهن وإضعاف حضورهن في المجالين العام والمهني”.

التزييف

لا يقتصر التزييف العميق على كونه شكلا من أشكال التحرش، بل إنه يمثل سلاحا و جوديا يهدد الهوية والقيمة الذاتية للمرأة، حيث يمحو الحدود بين الواقع والخيال ويجعل من الصعب الدفاع عن النفس. هذه الجرائم تبرز أن الذكاء الاصطناعي يمثل تهديدا ليس فقط على الحقوق الرقمية، بل على الحقوق الإنسانية الأساسية في الأمان والكرامة. بالإضافة إلى ذلك، فإن هذا العنف الرقمي يمكن أن يؤدي إلى آثار نفسية سلبية خطيرة على الضحايا، مثل الشعور بالغضب، والتعرض للإحراج، وحتى المعاناة من مشاكل جسدية مثل الصداع والأرق.

٢. تهديدات الخصوصية والمراقبة: فقدان السيطرة على الهوية

تساهم تقنيات الذكاء الاصطناعي في زيادة مخاطر المراقبة وفقدان الخصوصية، مما يفرض تحديات كبيرة على أمن المرأة. من الأمثلة الصارخة على ذلك، استخدام “شرطة الأخلاق” في إيران للتعرف على الوجه لتتبع النساء اللواتي لا يلتزمن بارتداء الحجاب بشكل صحيح، وهو ما أدى إلى إرسال رسائل تهديد بمصادرة سياراتهن. كما يتم استخدام تطبيقات مثل “OopsBusted” التي تعتمد على التعرف على الوجه لمراقبة الشركاء، مما يسهل الملاحقة الإلكترونية والعنف. تظهر الأبحاث أن هذه التقنيات تكون أقل دقة في التعرف على النساء ذوات البشرة الداكنة، مما يضيف طبقة أخرى من التحيز.

إن استخدام الذكاء الاصطناعي للمراقبة لا يقتصر تأثيره على العقوبات الجسدية؛. بل يفرض حالة من “البارانويا الدائمة” تجعل النساء يمارسن رقابة ذاتية على سلوكهن في كل مكان،. سواء في الفضاء العام أو الخاص. هذا التهديد يؤثر على حرياتهن الأساسية في التعبير والتجول، ويحول الفضاء العام إلى مكان غير آمن. إنه يثير تساؤلات حول كيفية الحفاظ على الهوية والخصوصية في عالم يتم فيه تتبع كل حركة رقمية وجسدية للمرأة.

المحور الرابع: إعادة بناء الجسر بين البشرية والآلة

١. التنوع والشمول: المفتاح لذكاء اصطناعي عادل

لضمان مستقبل يخدم فيه الذكاء الاصطناعي الجميع، يجب معالجة فجوة التمثيل الجندري في هذا القطاع. تشير الإحصائيات إلى أن النساء يشكلن أقل من ٢٢٪ من المواهب العالمية في الذكاء الاصطناعي ،. وأن تمثيلهن في القوى العاملة التقنية لا يزال منخفضا. غياب النساء في فرق التطوير يؤدي مباشرة إلى تحيز الخوارزميات التي تتجاهل وجهات نظر وخبرات نصف سكان العالم. إن إشراك النساء في تصميم وتطوير حلول الذكاء الاصطناعي ليس مجرد هدف أخلاقي،. بل هو ضرورة عملية لضمان أن تكون النماذج شاملة وغير متحيزة. فالذكاء الاصطناعي الذي لا يخدم الجميع هو ذكاء اصطناعي “ناقص” وغير فعال.

توجد بالفعل مبادرات تهدف إلى تقليص هذه الفجوة. فقد أطلقت “القمة العالمية لدور المرأة في التكنولوجيا والتحول الرقمي” مبادرة “هي تقود التكنولوجيا” لتمكين النساء في هذا القطاع. كما أن برامج الإرشاد التي تقدمها مؤسسات مثل “Girls Who Code” و”AI4ALL”. تلهم الشابات وتزودهن بالمهارات التقنية والعقلية الأخلاقية اللازمة للنجاح. يجب على الشركات أن تلتزم بتوظيف النساء في أدوار الذكاء الاصطناعي وتقديم برامج تدريبية مستدامة لتمكينهن،. مما يعود بالنفع على المجتمع والاقتصاد ككل.

٢. دور المؤسسات والمنظمات: أطر عمل من أجل مستقبل أخلاقي

يتطلب الانتقال من الوعي بالمشكلة إلى فرض حلول هيكلية دوراً فعالاً من المنظمات الدولية والحكومات. تعمل هذه المؤسسات على وضع أطر أخلاقية وقانونية لضمان أن يخدم الذكاء الاصطناعي الإنسانية بدلا من إخضاعها. من أبرز هذه الجهود “توصية اليونسكو الخاصة بأخلاقيات الذكاء الاصطناعي”،. التي تعد أول إطار عالمي شامل لوضع الأسس اللازمة لتسخير نظم الذكاء الاصطناعي لصالح البشرية. كما أن قانون الاتحاد الأوروبي للذكاء الاصطناعي يتبنى نهجا قائما على المخاطر،. ويصنف الأنظمة حسب مستوى الخطر الذي قد تسببه، مما يضع قواعد صارمة لتطوير ونشر الأنظمة عالية المخاطر.

تستهدف هذه الأطر القانونية والأخلاقية مكافحة التحيزات في البيانات عبر أدوات وتقنيات مثل “FairLens” و”Skater” ،. التي تساعد على اكتشاف التحيز وقياس الإنصاف في البيانات بشكل تلقائي. بالإضافة إلى ذلك، تعمل منظمات مثل “الألكسو” على وضع مبادئ توجيهية لضمان التنوع الثقافي. و الشمول الاجتماعي في استخدام الذكاء الاصطناعي في العالم العربي. هذه الأطر القانونية والأخلاقية تمثل بمثابة “بنية تحتية” تضمن أن الذكاء الاصطناعي يخدم القيم الإنسانية،. وتضع مسارا واضحا للشركات والحكومات لتطوير تقنيات مسؤولة ومستدامة.

خاتمة: نحو مستقبل ذكاء اصطناعي صديق للمرأة

لا يمكن تجنب الذكاء الاصطناعي، فالطريق ليس في رفضه، بل في فهمه وتوجيهه بوعي ومسؤولية. إن العلاقة بين المرأة والذكاء الاصطناعي ليست مجرد تفاعل مع تقنية؛. بل هي معركة من أجل العدالة والمساواة والكرامة في العصر الرقمي. إن الذكاء الاصطناعي لديه القدرة على أن يكون أعظم أداة لتحقيق المساواة التي لم تعرفها البشرية من قبل،. لكن ذلك لن يحدث بمفرده.

لتحقيق هذا المستقبل، يتطلب الأمر جهدا مشتركا من جميع الأطراف.

1- على الحكومات أن تفرض قوانين صارمة تحمي حقوق الأفراد وتضمن مساءلة المطورين.

2- على الشركات أن تتبنى فرقا متنوعة وتطور أدوات شفافة وعادلة من البداية.

3- على المؤسسات التعليمية أن تعد الجيل القادم من المبتكرات، وأن توفر لهن المهارات اللازمة للمشاركة في صياغة هذا المستقبل.

وأخيرا، على الأفراد أن يكونوا مستخدمين واعين و مناصرين لحقوقهم الرقمية، وأن يطالبوا بتكنولوجيات تحترم قيمهم و خصوصيتهم. يجب أن نضمن أن أصوات النساء و خبراتهن هي في صميم تصميم هذا المستقبل،. لكي يكون الذكاء الاصطناعي قوة للخير للجميع.

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.