قال الله تعالى

 {  إِنَّ اللَّــهَ لا يُغَيِّــرُ مَـا بِقَــوْمٍ حَتَّــى يُـغَيِّـــرُوا مَــا بِــأَنْــفُسِــــهِـمْ  }

سورة  الرعد  .  الآيـة   :   11

ahlaa

" ليست المشكلة أن نعلم المسلم عقيدة هو يملكها، و إنما المهم أن نرد إلي هذه العقيدة فاعليتها و قوتها الإيجابية و تأثيرها الإجتماعي و في كلمة واحدة : إن مشكلتنا ليست في أن نبرهن للمسلم علي وجود الله بقدر ما هي في أن نشعره بوجوده و نملأ به نفسه، بإعتباره مصدرا للطاقة. "
-  المفكر الجزائري المسلم الراحل الأستاذ مالك بن نبي رحمه الله  -

image-home

لنكتب أحرفا من النور،quot لنستخرج كنوزا من المعرفة و الإبداع و العلم و الأفكار

الأديبــــة عفــــاف عنيبـــة

السيـــرة الذاتيـــةالسيـــرة الذاتيـــة

أخبـــار ونشـــاطـــاتأخبـــار ونشـــاطـــات 

اصــــدارات الكـــــاتبــةاصــــدارات الكـــــاتبــة

تـــواصـــل معنــــــاتـــواصـــل معنــــــا


تابعنا على شبـكات التواصـل الاجتماعيـة

 twitterlinkedinflickrfacebook   googleplus  


إبحـث في الموقـع ...

  1. أحدث التعليــقات
  2. الأكثــر تعليقا

ألبــــوم الصــــور

e12988e3c24d1d14f82d448fcde4aff2 

مواقــع مفيـــدة

rasoulallahbinbadisassalacerhso  wefaqdev iktab
السبت, 25 كانون1/ديسمبر 2021 09:18

سياسات فيسبوك و تويتر و مؤسسات المجتمع المدني: محاولات للاختراق

كتبه  الأستاذة ريم المصري
قيم الموضوع
(0 أصوات)

خلال الهبة الفلسطينية الأخيرة، قطعت شركات التواصل الاجتماعي الشك باليقين، و أثبتت تحيُّز سياساتها للطرف الأكبر نفوذًا و سلطة في ذروة الصراعات السياسية، حتى لو كان سلطة احتلال. لم تكن هذه الأحداث الأولى، و لن تكون الأخيرة، التي تتبع فيها هذه الشركات نمطًا من إدارة محتوى متحيزًا سياسيًا. ظهر هذا في ترك فيسبوك محتوى ترامب المحرّض ضد المسلمين، و في ترك خطاب كراهية مُحرّض للمستوطنين ضد الفلسطينيين، و في حذف تويتر لمئات حسابات النشطاء السياسيين في مصر، و حذف يوتيوب لآلاف الفيديوهات المؤرشفة للثورة السورية، و كان آخرها تغاضي فيسبوك عن ثغرة استغلها مرشحو الرئاسة في بلدان عدة للتلاعب بوصول محتواهم الانتخابي. 

على مدى السنوات الماضية، طورت شركات التواصل الاجتماعي مئات القواعد لإدارة المحتوى، منها ما هو مُعلن على صفحات المعايير المُجتمعية، و منها ما هو مخفي يظهر فقط عبر تسريبه للإعلام. و في 2017، نشرت مجلة «بروببليكا» وثائق إرشادية داخلية لفريق إدارة المحتوى في فيسبوك تمنع «التحريض على استخدام العنف لمقاومة احتلال دولة معترف بها عالميًا». لاحقًا، صرّح فيسبوك بأنه توقف عن العمل بها. و في 2019، نشرت مجلة «نيويورك تايمز» وثائق داخلية لفيسبوك تصنف كلمة «شهيد» على أنها محتوى إرهابي. و قبل أيّام، نشرت مجلة «ذا إنترسيبت» تقريرًا عن سياسة داخلية للتعامل مع كلمة «الصهيونية»، و هي سياسة تساوي بين «الصهاينة» و«اليهود»، و أعطت السياسة تعليمات بحذف مواد تحتوي انتقادات أو شتائم للصهيونية. تُوّج انحياز شركة فيسبوك لطرف الاحتلال باختيار إيمي بالمور، المديرة العامّة السابقة لوزارة القضاء الإسرائيليّة، و التي أنشأت وحدة خاصة لتشديد الرقابة على المنشورات الفلسطينية، إلى مجلس الإشراف الذي أسسته فيسبوك في 2019. 

انطلقت حملات عديدة ضد سياسات مواقع التواصل الاجتماعي المُقيدة للمحتوى الفلسطيني خلال السنوات الماضية، منها ما بدأ محليًا مثل حملة #فيسبوك_يحجب_فلسطين التي أطلقها صحفيون و نشطاء في 2019 اعتراضًا على إغلاق 500 حساب و صفحة فلسطينية. و منها عالمية كحملة FBWeNeedToTalk# اعتراضًا على السياسة التي ساوت بين «الصهيونية» و «اليهودية»، أو ما يسمى بسياسة الصهيونية. و شاركت في الحملة عشرات المؤسسات الفلسطينية و الدولية. 

إن البيانات و العرائض من وسائل الضغط التي تستخدمها مؤسسات المجتمع المدني العربية و الدولية المعنية بالحقوق الرقمية، كما تقول مروة فطافطة، مديرة سياسات الشرق الأوسط في منظمة «آكسس ناو» الدولية لحبر. بحسب مروة فإن علاقة فيسبوك بمؤسسات المجتمع المدني العربية و الدولية مُعقدة، فمن ناحية، ينظر فيسبوك للعديد من هذه المؤسسات على أنها شريك موثوق، و هو ما يساهم في تسريع عملية استعادة نشطاء سياسيين و مؤسسات مجتمع مدني لحساباتها على الموقع عند حذفها أو تقييدها دون سبب واضح أو لخطأ تقني، إذ تتواصل هذه الجهات مع فيسبوك طالبة ذلك. و من ناحية أخرى تشارك هذه المنظمات بحملات و بيانات و اجتماعات منتقِدة للانتهاكات الحقوقية لسياسات فيسبوك. و ينظم فيسبوك اجتماعات دورية مع هذه المؤسسات ضمن برنامجه «إدماج الشركاء» (stakeholder community engagement) لأخذ استشارتهم ببعض سياساته الداخلية أو لجعل تطوير المعايير المجتمعية «جامعة أكثر» كما يدّعي فيسبوك.

في هذه المقابلة مع مروة فطافطة نحاول تفكيك علاقة شركات التواصل الاجتماعي مع مؤسسات المجتمع المدني المعنية بالحقوق الرقمية سواء المحلية أو الدولية، و تقييم مدى فاعلية أدوات الضغط التي تستخدمها هذه المؤسسات على هذه الشركات، و كيف تغيرت هذه الأدوات بعد أحداث الشيخ جراح. 

حبر: ما الجديد في سياسة إدارة المحتوى الفلسطيني منذ أحداث حي الشيخ جراح، و كيف تفسرين التضامن العالمي مع القضية رغم هذا التقييد؟

فطافطة: المختلف هذه المرة هو حجم الرقابة والتقييد. كان من الواضح تجيير البنية التحتية للمنصة لطمس المحتوى الفلسطيني. هُدّد المستخدمون بحذف منشوراتهم و إغلاق حساباتهم، و خُسف انتشار المنشورات المتضامنة الصادرة من الحسابات المؤثرة كحسابات المشاهير و الممثلين و السياسيين بالمقارنة مع معدّل وصول منشوراتهم الأخرى. هذا السلوك يسمّى بالحجب الخفي (Shadow banning).

كانت التقييدات تدريجية غير مباشرة. أحيانًا قد يحذف المحتوى و يأتي للمستخدم تنبيه بأنه مخالف للمعايير المجتمعية، لكن أحيانًا أخرى، يعطل فيسبوك خاصية «اللايك» أو التعليق أو البث المباشر إن كان للمحتوى علاقة بالقضية الفلسطينية. كما لاحظنا أمورًا غريبة، مثل أن يقترح انستغرام متابعة حسابات معينة، على سبيل المثال، مؤسسة فلسطينية، و بمجرّد المتابعة يصل تنبيهٌ عن تقييد انستغرام لهذا الحساب لمخالفته المعايير المجتمعية.

زخم المحتوى و حجمه الهائل هو ما جعله ينتشر رغم التقييدات، لأن الشركات لو قرّرت حذف كل هذا المحتوى فإنها كانت ستؤذي نفسها.

بعد حذفهما لمحتوى حول طرد المستوطنين للفلسطينيين من بيوتهم، أرجع تويتر و انستغرام هذا الحذف لخلل تقني لم يؤثر فقط على فلسطين و إنما على المحتوى المرتبط بالمظاهرات في كولوميبا و كندا و البرازيل، السؤال هو هل اختلف شكل إدارة المحتوى في الفترة اللاحقة لهذه البيانات؟ 

في البداية صرّح انستغرام بالقول «نواجه مشكلة تقنية بالمنصة» ليس لها علاقة بموضوع معين بل هي عالمية. و عندما تعالت الضجة حول حذف المحتوى، نشر فيسبوك و تويتر تصريحًا موسعًا عن تحديثٍ بالنظام الخاص بهم، كان نتيجته حذف محتوى متعلّق بالشيخ جراح و كولومبيا و التجمعات في كندا. و ذكروا بالنص المجموعات اللي تضررت. 

لم يكن هذا التصريح كافيًا لتفسير ما حدث، خاصةً أن الخلل أثر فقط على محتوى خاص بالحراكات السياسية في قمة ذروتها، و لم يتضرر كل مستخدمي انستغرام، لذا طالبنا في منظمة «أكسس ناو» مع مجموعة من مؤسسات المجتمع المدني العربية فيسبوك بفتح تحقيق يفسر حذف المحتوى و نشر نتائجه بشفافية. هذا التساؤل لم يجب عليه فيسبوك، و لن يجيب. 

و في 10 أيار، عندما اقتحمت قوات الاحتلال الأقصى، قيد فيسبوك هاشتاغ الأقصى، و عاد ليقول إنه خطأ تقني. كشف صحفي من موقع بازفيد الأمريكي أن فيسبوك وضع «الأقصى» ضمن قائمة الأفراد و المنظمات الخطرة، أي أنه خلط بين المسجد الأقصى و كتائب شهداء الأقصى. عذر أقبح من ذنب. و كأنهم يقولون إن موظفي فيسبوك لا يملكون المعرفة العامة بأن «الأقصى» ثالث أقدس مكان في العالم لملياري مسلم، و كأنك تدرجين الفاتيكان أو نوتردام أو مكة كمنظمة إرهابية. 

ما هي أبرز السياسات المكتوبة عند فيسبوك و تويتر تجاه المحتوى الفلسطيني؟

في السنة الأخيرة، تواصل فيسبوك معنا كـ«أكسس ناو» لإدارة اجتماعات استشارات خاصة حول سياستين، الأولى سياسة الصهيونية و الثانية سياسة التعامل مع كلمة شهيد، مما يؤكد أن عندهم سياسات موجودة هدفها مراقبة و تقييد المحتوى الفلسطيني بالدرجة الأولى. المشكلة الأساسية بهذه السياسات أنها غير مُعلنة و لا منشورة على صفحة فيسبوك كما المعايير المجتمعية لإدارة المحتوى التي تدعي بأنها تنطبق على جميع المستخدمين بشكل متساوٍ. من الواضح أن هذه السياسات تستهدف الخطاب الفلسطيني و المحتوى الفلسطيني عن غيره. نعرف هذه السياسات عبر التجربة. إن تحدثتِ لأي صحفي فلسطيني أو ناشط، سيخبرك عن حذف المنشورات التي تحتوي على كلمة «شهيد» أو «حماس» أو صورة شخص ملثم. 

لم يجب فيسبوك على سؤالنا عن الأسباب الموجبة لهذه السياسات. 

يعدّ فيسبوك كلمة «شهيد» دلالة تفخيم «للإرهابيين». بالتالي إن استخدمت كلمة «شهيد» لوصف أي اسم في القائمة التي وضعتها فيسبوك «للأفراد و المنظمات الخطرة» -التي هي قائمة غير مُعلن عنها- اعتبرها تمجيدًا للإرهاب. تقوم سياسة قائمة الأفراد و المنظمات الخطرة، بحسب فيسبوك، على منع أي ضرر على أرض الواقع. سألت فيسبوك، هل لديكم دراسة عن موقف أو حادثة، استخدمت فيه كلمة شهيد و أدت لعنف على أرض الواقع؟ فكانت الإجابة أنهم بصدد إجراء هذه الدراسة، و تم الالتفاف على الإجابة. سألتهم أيضًا عن مدى صحة ادعاء فيسبوك توفيرهم منصة لمن ليس لديه صوت، رغم إدراكهم أن فلسطين هي منطقة نزاع بحسب القانون الدولي و هنالك معايير قوى غير متساوية على الأرض، ما الذي تقومون به لتمكنوا و تصونوا و تحترموا الحقوق الأساسية لشعبٍ تحت الاحتلال، و خاصة أن الحكومة المُحتلّة عندها موارد و نفوذ سياسي و اقتصادي، أجابوني بأن تواصلهم معنا كمؤسسات مجتمع مدني هدفه فهم السياق. 

الانطباع العام لدي من خلال تواصلي مع تويتر أنه أخف ّحدّة و تقييدًا من فيسبوك. حتى الآن ليس لدي علم بأي سياسات من جهة تويتر خاصة بالمحتوى الفلسطيني أو العربي، بالمقابل في فيسبوك هناك عدد من هذه السياسات. 

ما أشكال التواصل مع شركة فيسبوك التي تقوم بها مؤسسات المجتمع المدني، و هل أسهم هذا التواصل بتعديل سياسات إدارة المحتوى؟

نتواصل في مؤسسات المجتمع المدني مع فيسبوك، و نصدر بيانات صحفية و مواقف و عرائض. في بعض الأحيان تكون هذه الأدوات فعالة، و في أحيان أخرى لا. و صرنا نشعر أن فيسبوك، ربما يكون منيعًا ضد خطر التأثير على سمعته. طلبنا عقد اجتماعات مع قيادات تويتر و فيسبوك، لأن المكاتب الإقليمية «ما بتحل و لا بتربط»، استجاب تويتر، و لا زلنا ننتظر رد فيسبوك. 

يتواصل فيسبوك معنا أحيانًا عند تطوير أو تعديل سياسة ما، لكن بشكل انتقائي و عشوائي. تفاجئنا بعد عام من تواصل فيسبوك معنا في 2020 لإقرار سياسة الصهيونية بأن هذه السياسة مُفعلة منذ 2019. أمّا بالنسبة لسياسة الشهيد، فتواصل معنا فيسبوك حتى يفهم البعد الإقليمي لهذه السياسة بسبب عدد الشكاوى الهائل التي تلقاها. و لكن بعد التواصل و إرسال جميع الملاحظات، يختفي موظفو فيسبوك و لا يتم إعلامنا كيف انعكس تواصلهم معنا على هذه السياسة، لأنها بالأساس غير معلنة. يستجيب فيسبوك عندما نرفع له كمؤسسة مجتمع مدني حالات لحسابات كان هناك خطأ في التعامل معها أو توقيفها، لكنه لا يستجيب عند طلب مؤسسات المجتمع المدني المشاركة بحل خلل بنيوي سواء في وضع سياسة إدارة المحتوى، أو تطبيقها.

يتعامل فيسبوك مع المجتمع المدني و وسائل الإعلام و قاعدة مستخدميه في أمريكا و أوروبا بشكل مختلف، فيدلي بتصريحات و يعقد مؤتمرات صحفية ردًا على الفضائح الإعلامية بشكل أساسي. فمثلًا، في موضوع الأقصى، لو لم تكن هناك تغطية إعلامية غربية و صحفيون استجوبوا فيسبوك، لم نكن لنسمع منه أي إجابات على إدارة محتوى الهبة. لا يتعلم فيسبوك من أخطائه، و يتبع سياسة إخماد النيران في التعامل مع الفضائح، أما استجابتهم بتغيير داخلي، سواء بتغيير سياساتهم أو هيكليتهم، فتكون بحسب القيمة السوقية للدول التي يعمل فيها، و بسبب الخوف من التقنين و القوانين المُقيدة. أكبر دليل على هذا هو المقارنة بين سلوك فيسبوك تجاه الانتخابات الأمريكية، و تأهبه لها و اتخاذه إجراءات احترازية للتعامل معها، فيما تجاهل فعل الأمر نفسه في الانتخابات التونسية 2019. حاولنا كـ«آكسس ناو» و عدد من مؤسسات المجتمع المدني التونسية تنبيه فيسبوك قبل الانتخابات بوضع آليات تمنع التأثير على نتائج الانتخابات التونسية عبر الإعلانات الممولة، حتى لا يتكرر سيناريو كامبريدج أناليتيكا في تونس، و لم يستجيبوا لنا. 

هل سبق أن نجحت مؤسسات المجتمع المدني بتغيير سياسة ما في فيسبوك بعد التواصل معه؟ 

على مستوى المنطقة، ربما نجحنا في مرّة واحدة فقط. في فيسبوك قسم وظيفته اكتشاف الشبكات الوهمية على المنصة، و هي شبكات تنشئ حسابات و صفحات للتلاعب بالرأي العام و التأثير على نتائج الانتخابات. في العام الماضي، حذف فيسبوك مئات الحسابات في تونس، و وجد العديدون فجأة أنهم غير قادرين على استخدام المنصة دون توضيح الأسباب.

بعد التحقيق بهذه التقارير، اكتشفت عملية قرطاج التي كشفت عن شركة الإعلام الرقمي (UReputation) التي يمتلكها رجل أعمال تونسي، و هدفها التلاعب بنتائج الانتخابات في تونس عام 2019 و في انتخابات أكثر من عشر دول أفريقية. حذف فيسبوك مئات الحسابات لأشخاص ليس لهم علاقة بهذه العملية، تواصلنا معهم و عملنا ضجة لاستعادة هذه الحسابات. 

بعد هذه الحادثة، صار فيسبوك يتواصل معنا قبل نشر تقاريره المتعلقة بالشبكات الوهمية في المنطقة، لتجنب تكرار حادثة تونس. الطريقة التي عملوا بها على تصحيح هذا الخطأ كانت فوضوية جدًا. كنا كمؤسسات مجتمع مدني نوثق الحسابات المتضررة و نرفعها لفيسبوك، فنكتشف أن فيسبوك أعادها دون تفسير لنا أو للمستخدم. 

هل يمكن شرح هيكلية أقسام إدارة المحتوى العربي في فيسبوك، من هي الدوائر المسؤولة عن وضع هذه السياسات أو تطبيقها؟

واحدة من النقاط المهمة في موضوع هيكلية فيسبوك أنها غير معروفة. و لذا، في أحيان كثيرة، لا تعرفين مع من تتواصلين من الشركة، عدا أنهم يتغيرون بشكل دوري. لفيسبوك فريق إقليمي في الإمارات، و فريق إدارة المحتوى، و هو المسؤول عن تطوير سياسات الإدارة و المعايير المجتمعية لكل اللغات، موزّع في أنحاء العالم، لكن لا نعرف مدى التداخل بين الفريقين. عادة يتواصل معنا فريق إدارة المحتوى لمراجعة سياسات معينة، و يكون الشخص المسؤول عن المنطقة العربية موجودًا في الإيميل، فهنالك بعض من التنسيق. أمّا المكتب الإقليمي فيتواصل معنا لترتيب اجتماعات مؤسسات المجتمع المدني لكن ليس هنالك شفافية توضح دورة حياة تطوير السياسات من بداية الفكرة للتطبيق، من أي فريق تبدأ هذه السياسة، و من يستشيرون، و متى يتدخل الفريق العربي. 

تتفاجئين أحيانًا بوجود أشخاص لم نسمع بهم من قبل. مثلًا، نتعامل كمؤسسات مجتمع مدني مع شخص مسؤول عن سياسات حقوق الإنسان لمنطقة الشرق الأوسط في فيسبوك، و يكون أغلبية التواصل عن طريقه. لدى فيسبوك أيضًا فريق حقوق إنسان موزع على مكاتب إقليمية، و لكن حجم التأثير و النفوذ و القدرة على اتخاذ القرارات لهذا الفريق، داخليًا، ضعيف جدًا. 

في 2018 ذكرت تسريبات نشرتها صحيفة «نيويورك تايمز» أن فيسبوك تعتمد على موظفين في الشركة و متعاقدين خارجها لإدارة المحتوى. متى تكون إدارة المحتوى آلية معتمدة على خوارزميات الذكاء الاصطناعي و متى تكون معتمدة على حكم أفراد؟

لا يصرّح فيسبوك بهذه المعلومات، و لكن يمكن الوصول إلى استنتاجات بناءً على سلوكيات الحذف المختلفة. عندما تُحذف الستوريز القديمة و الجديدة من مئات الحسابات على انستغرام يمكن استنتاج أن هذا فعل خوارزمية معينة، إذ من المستحيل أن يقوم شخص بتقييم كل هذه الستوريز و حذف القديم و الجديد منها يدويًا. أذكر أن ناشطًا نشر كلمات عشوائية لتكوين جملة لا معنى لها لاختبار الخوارزميات، مثل «جهاد حماس الأقصى» و حُذف منشوره. الاحتمال الأكبر أن الخوارزمية حكمت على منشوره، فلا يمكن لشخص أن يحاجج بأن هذه الجملة «خطاب كراهية». 

من المفترض أن تُصمم الخوارزمية بطريقة تُعالج مشكلة مُعينة بالمحتوى. لا نعلم من يحدد المشكلة، و لا طبيعة البيانات الأولية التي يتم تغذية الخوارزمية بها لتتعلم إصدار أحكام على محتوى جديد. تطالب مؤسسات المجتمع المدني حول العالم شركات التواصل الاجتماعي بنشر بياناتٍ دقيقة عن طبيعة المحتوى التي تُزيله. ليس لدينا أي معلومات عن فعالية هذه الخوارزميات، أو نسبة الخطأ في حكمها. استطاع المستخدمون فك شيفرة بعض الخوارزميات عبر التجربة والخطأ. فلجؤوا لطرق مثل إزالة النقاط من النص العربي. 

ما الذي تعلمته مؤسسات المجتمع المدني المعنية بالدفاع عن الحقوق الرقمية عن فاعلية أدوات الضغط على شركات التواصل الاجتماعي، من خلال تعاملها مع أحداث الهبة الشعبية الفلسطينية؟ 

هنالك ائتلاف غير رسمي في المنطقة العربية تأسس بداية هذا العام، مكوّن من عدد من المؤسسات العربية من لبنان و مصر و فلسطين و الأردن و تونس، و من مؤسسات حقوقية دولية تعمل على الحقوق الرقمية من ضمنها «أكسس ناو». ننسق بشكل مستمر بين هذه المؤسسات لفهم طبيعة الحذف و التقييد و نقل دور مؤسسات المجتمع المدني من رفع حالات و قضايا فردية إلى التأثير على السياسات البنيوية.

ينتشر الآن خطاب بين مؤسسات المجتمع المدني التي تعنى بالحقوق الرقمية يرفض أن يكون دورها تجميليًا فيما يتعلق بالاستشارات، أو تمرينًا لفيسبوك لوضع علامة صح بجانب التفاعل مع مؤسسات المدني. و يطالب أن تضع هذه المؤسسات شروطًا للنقاشات، و أن يكون هنالك التزام بالشفافية و شرط بمعرفة أثر استشارتنا على السياسة ذاتها حتى تكتمل الحلقة. هناك نقاش حول مقاطعة استشارتهم و التواصل معهم وفرض شروط على هذه الاستشارات بحيث لا يتم استغلالنا كمؤسسات مجتمع مدني و أخذ قضايانا على محمل الجد. 

بالنسبة للشأن الفلسطيني، وضعنا مطالب أكثر تفصيلًا، مثل الإفصاح عن السياسات الداخلية المستخدمة لإدارة المحتوى في فلسطين و«إسرائيل»، و الإفصاح عن بيانات لها علاقة بطلبات وحدة الجرائم الإلكترونية الإسرائيلية لفيسبوك، و التي تقدم آلاف الطلبات لإزالة المحتوى وتقييده على المنصة، و التي استجاب فيسبوك لحوالي 81% منها. 

أمّا فيما يتعلق بالضغط الشعبي، فاتضح أن الحملة التي نادت بتنزيل تقييم تطبيقات التواصل الاجتماعي على متاجر التطبيقات نبّهت فيسبوك، و صُنّفت هذه الحملة كثاني أعلى التهديدات التي تواجه المنصة بعد تهديد توقف عمل المنصة، لدرجة أن فيسبوك طلب من أبل و جوجل إزالة هذه التقييمات، و رفضوا ذلك. كانت هذه طريقة للمستخدمين لمقاومة فيسبوك و تويتر و انستغرام.

الرابط : https://www.7iber.com/technology/%d8%b3%d9%8a%d8%a7%d8%b3%d8%a7%d8%aa-%d9%81%d9%8a%d8%b3%d8%a8%d9%88%d9%83-%d9%88%d8%aa%d9%88%d9%8a%d8%aa%d8%b1-%d9%88%d8%a7%d9%84%d9%85%d8%ac%d8%aa%d9%85%d8%b9-%d8%a7%d9%84%d9%85%d8%af%d9%86%d9%8a/

قراءة 644 مرات آخر تعديل على الأربعاء, 29 كانون1/ديسمبر 2021 09:53

أضف تعليق


كود امني
تحديث