الإحالة إلى معايير مجتمع فيسبوك, معايير مجتمع فيسبوك, المحتوى المرفوض, خطاب الكراهية, معايير مجتمع إنستغرام, خطاب الكراهية والتنمر والإساءة
قضية مجلس الإشراف على ميتا لتغيير دلالة كلمات عربية ازدرائية إلى كلمات مقبولة
دولية
قضية مُنتهية الحكم ذو نتيجة مُتباينة
حرية التعبير العالمية هي مبادرة أكاديمية، ولذلك، نشجعك على مشاركة وإعادة نشر مقتطفات من محتوانا طالما لا يتم استخدامها لأغراض تجارية وتحترم السياسة التالية:
• يجب عليك الإشارة إلى مبادرة جامعة كولومبيا لحرية التعبير العالمية كمصدر.
• يجب عليك وضع رابط إلى العنوان الأصلي للتحليل القضائي أو المنشور أو التحديث أو المدونة أو الصفحة المرجعية للمحتوى القابل للتنزيل الذي تشير إليه.
معلومات الإسناد وحقوق النشر والترخيص لوسائل الإعلام المستخدمة من قبل مبادرة حرية التعبير العالمية متاحة على صفحة الإسناد الخاصة بنا.
هذه القضية متاحة بلغات إضافية: استعرضها بلغة أخرى: English
في ١ أغسطس ٢٠٢٣، ألغى مجلس الإشراف قرار ميتا الأصلي بترك صورة على فيسبوك تُظهر ناشطة سورية يمكن التعرف عليها وهي مصابة بجروح ظاهرة، وكان النص المرفق بالصورة يسخر من العنف القائم على النوع الاجتماعي ويوحي بأن النساء اللاتي يتعرضن للإيذاء هن من يستحققن ذلك. قام مستخدم على المنصة بالإبلاغ عن المنشور ثلاث مرات. مع ذلك، تم غلق البلاغات دون مراجعة بشرية. بعد أن استأنف المستخدم القرار إلى المجلس، قامت ميتا بحذف المنشور معتبرةً أنه ينتهك سياسة التنمر والمضايقة. وجدت المجلس أن قرار ميتا الأصلي كان غير متوافق مع سياسة ميتا ضد المضايقة والإساءة، حيث تحظر هذه السياسة أي محتوى يسخر من الإصابات الجسدية أو الحالات الطبية. بالإضافة إلى ذلك، أعرب المجلس عن قلقها من سياسات ميتا الحالية عند التعامل مع المحتوى الذي يطبع العنف القائم على النوع الاجتماعي.
*مجلس الاشراف هو كيان منفصل عن ميتا يقدّم حكمه المستقل على الحالات الفردية ومسائل السياسة. يتم تمويل مجلس الاشراف وإدارته عبر صندوق ائتماني مستقل. يتمتع مجلس الاشراف بسلطة أخذ القرار فيما يتعلّق بالسّماح لفيسبوك وانستغرام للحفاظ على المحتويات المنشورة أو سحبها وهي قرارات ملزمة ما لم يشكّل تنفيذها خرقا للقانون. يستطيع مجلس الاشراف أيضا إصدار توصيات بشأن سياسات الشركة فيما يتعلّق بالمحتوى.
في مايو ٢٠٢١، نشر مستخدم فيسبوك في العراق صورة لامرأة تحمل علامات واضحة لاعتداء جسدي. كانت التسمية التوضيحية مكتوبة بالعربية وأفادت بأن المرأة تعرضت للضرب من زوجها بعد أن كتبت له رسالة أساء فهمها بسبب خطأ إملائي. ووفقًا للمنشور، اعتقد الرجل أن زوجته طلبت منه “حمار” بينما كانت تقصد “خمار” (نظرًا لتشابه الكلمتين من حيث الشكل). أشارت التسمية التوضيحية إلى أن المرأة حصلت على ما تستحقه وسخرت من الموقف باستخدام رموز تعبيرية ضاحكة ومبتسمة.
وفقًا لعدة مصادر، فإن المرأة الظاهرة في الصورة هي ناشطة سورية كانت محتجزة لدى نظام بشار الأسد وتعرضت لاحقًا للضرب من قبل أفراد يُعتقد أنهم تابعون للنظام. [ص. ٤] لم تذكر التسمية التوضيحية اسمها، لكن وجهها كان واضحًا. كما تضمن المنشور وسمًا يستخدمه، وفقًا للخبراء الذين استشارهم المجلس٬ صفحات ومجموعات سورية لدعم النساء. حصل المنشور على حوالي ٢٠ ألف مشاهدة وأقل من ألف تفاعل.
في فبراير ٢٠٢٣، أبلغ أحد مستخدمي فيسبوك عن المحتوى ثلاث مرات مدعيًا أنه ينتهك سياسة العنف والتحريض. أُغلقت البلاغات دون مراجعة بشرية وظل المحتوى موجودًا على المنصة. وفقًا لشركة ميتا، فإن الشركة “تأخذ سلسلة من الإشارات بعين الاعتبار لتحديد كيفية أولوية المحتوى للمراجعة البشرية، بما في ذلك انتشار المحتوى وشدة نوع الانتهاك الذي تعتبره الشركة. إذا لم يتم مراجعة المحتوى خلال ٤٨ ساعة، يُغلق البلاغ تلقائيًا.” [ص. ٥] في هذه الحالة، لم تتم مراجعة البلاغ خلال ٤٨ ساعة وبالتالي أُغلق دون مراجعة بشرية.
في العراق—حيث نُشر المحتوى—يواجه أكثر من ١.٣٢ مليون شخص، معظمهم من النساء والفتيات، خطر التعرض لأشكال مختلفة من العنف القائم على النوع الاجتماعي وفقًا لمنظمة الصحة العالمية. لا يوجد في البلاد تشريع لمكافحة العنف الأسري، كما يسمح قانون العقوبات الحالي للزوج بمعاقبة زوجته.
علاوة على ذلك، في سوريا—موطن الناشطة الظاهرة في المحتوى—يحتاج أكثر من ٧.٣ مليون شخص، معظمهم من النساء والفتيات، إلى خدمات تتعلق بالحماية من العنف القائم على النوع الاجتماعي. ووفقًا للأمم المتحدة، “استهدف النظام السوري النساء المرتبطات بالمعارضة وأخضعهن للتعذيب والاعتداء الجنسي” [ص. ٥] منذ بداية النزاع في سوريا. كما أشارت الأمم المتحدة إلى وجود مناخ واسع من الإفلات من العقاب فيما يتعلق بالعنف القائم على النوع الاجتماعي في البلاد.
المستخدم الذي أبلغ عن المحتوى استأنف قرار إبقاء المنشور على فيسبوك إلى مجلس الإشراف. وبعد اختيار القضية من قبل المجلس، حذفت شركة “ميتا” المنشور لأنها اعتبرت أنه ينتهك سياسة المضايقة والإساءة.
قام مجلس الإشراف بتحليل ما إذا كان قرار ميتا الأصلي بالإبقاء على صورة على فيسبوك لناشطة سورية معروفة تحمل علامات واضحة لاعتداء جسدي، مع تعليق يسخر من العنف القائم على النوع الاجتماعي، يتماشى مع سياسات “ميتا” والتزاماتها بموجب القانون الدولي لحقوق الإنسان.
رغم إخطار المستخدم الذي نشر الصورة والمستخدم الذي أبلغ عنها بقرار المجلس بمراجعة القضية، لم يقدم أي منهما بيانًا.
من جهتها، أوضحت ميتا أن المحتوى كان يجب إزالته لأنه انتهك سياسة المضايقة والإساءة. ووفقًا لفريق ميتا الإقليمي، فإن المرأة الظاهرة في الصورة هي “ناشطة سورية معروفة تم سجنها بسبب نشاطها.” [ص. ٨] وذكرت الشركة أن الصورة في المنشور تظهر الناشطة بعد أن تعرضت “للضرب من قبل أفراد مرتبطين بنظام بشار الأسد.” [ص. ٨] واعتبرت ميتا أن المحتوى انتهك السياسة المذكورة لأنه سخر من الإصابات التي تعرضت لها المرأة وأوحى بأنها تستحق تلك الإصابات والإساءة. كما وجدت أن القصة المفبركة في التعليق أوحت بأن المرأة تفتقر للذكاء.
أوضحت ميتا أنها قامت بتحديث سياسة المضايقة والإساءة بعد تحميل المحتوى. ومع ذلك، أكدت الشركة أن التحديث كان فقط لتبسيط السياسة “ولم يغير نطاق الحماية الممنوحة للشخصيات العامة ذات النطاق المحدود، مثل المرأة المذكورة في محتوى القضية.” [ص. ٨] وأوضحت ميتا كذلك أن “[البند] الذي أزيل بموجبه هذا المحتوى كان في الأصل ضمن المستوى ٤ من السياسة، ولكنه أصبح نتيجة للتحديث ضمن المستوى ١.” [ص. ٩]
الامتثال لسياسات محتوى ميتا
١. قواعد المحتوى
رأى المجلس أن المنشور انتهك سياسة المضايقة والإساءة الخاصة بميتا—سواء قبل التحديث أو بعده—لأنه سخر من الإصابات الخطيرة التي تعرضت لها المرأة في الصورة. وأشار المجلس إلى أن ميتا عرفت “السخرية” في إرشاداتها الداخلية للمراجعين بأنها “محاولة لصنع نكتة أو الضحك على شخص أو شيء أو التقليل من شأنه.” اعتبر المجلس أن المحتوى يحقق هذا التعريف حيث أن التعليق، بصيغة النكتة، أوحى بأنها تستحق الهجوم بسبب خطأ كتابي.
أشار المجلس كذلك إلى أن المنشور يحمل عدة تفسيرات، فقد تكون المرأة تعرضت للاعتداء بسبب نشاطها أو كضحية للعنف أو بسبب الأمرين معًا. مع ذلك، فإن الطبيعة النوعية للسخرية دفعت المجلس إلى الاستنتاج بأن المنشور انتهك سياسة المضايقة والإساءة، مع الأخذ في الاعتبار أن “الشخص الظاهر في الصورة يمكن التعرف عليه.” [ص. ١٠]
٢. إجراءات الإنفاذ
أكد المجلس وجود عدة مخاوف تتعلق بتطبيق سياسات ميتا. أولًا، لاحظ المجلس أن المحتوى المتنازع عليه لم يتم تحليله من قبل مراجع بشري رغم الإبلاغ عنه عدة مرات. واعتبر المجلس أن هذا قد يشير إلى أن انتهاكات سياسة المضايقة والإساءة ليست أولوية للمراجعة. ثانيًا، أبرز المجلس التحديات المرتبطة بمراقبة المحتوى باللغة العربية. ووفقًا لما أوضحه المجلس—في قضية حزام وامبوم—”تعتمد ميتا على مزيج من المراجعين البشريين وأدوات التعلم الآلي التي تُعرف باسم المصنفات لتطبيق معايير المجتمع. وفي هذه الحالة، أبلغت ميتا المجلس أن لديها مصنفًا يستهدف المضايقة والإساءة للغة العربية العامة.” [ص. ١٠]
أشار المجلس في هذه النقطة إلى تقرير مستقل عن العناية الواجبة بحقوق الإنسان أعدته BSR بناءً على توصيات المجلس في القضية السابقة المتعلقة بمنشور الجزيرة. ووفقًا للتقرير، ذكر المجلس أن مشكلات تطبيق ميتا باللغة العربية قد تكون ناجمة عن عدم كفاية الحساسية تجاه لهجاتها المختلفة. كما أعرب المجلس عن قلقه إزاء “الافتقار إلى الشفافية بشأن تدقيق المصنفات التي تطبق هذه السياسة.” [ص. ١١]
الامتثال لمسؤوليات ميتا المتعلقة بحقوق الإنسان
قام المجلس بتحليل القرار الأصلي لميتا من خلال منظور اختبار النقاط الثلاث المنصوص عليه في المادة ١٩ من العهد الدولي الخاص بالحقوق المدنية والسياسية. وفقًا لهذا الاختبار، يجب أن تكون القيود المفروضة على حرية التعبير منصوصًا عليها بموجب القانون (الشرعية)، وتسعى لتحقيق هدف مشروع، وأن تكون ضرورية ومتناسبة.
١. الشرعية
رأى المجلس أن القيود على حرية التعبير “يجب أن تكون واضحة النطاق والمعنى والأثر، بحيث توفر إرشادات للمستخدمين ولمراجعي المحتوى حول ما هو مسموح وغير مسموح به على المنصة.” [ص. ١١] وأشار المجلس إلى أن القصور في هذا الجانب قد يؤدي إلى إنفاذ تعسفي وغير متسق للقواعد، كما وصفته التعليق العام رقم ٣٤ وتقرير الأمم المتحدة.
في هذا السياق، أشاد المجلس بالتغييرات التي أجرتها ميتا على سياسة المضايقة والإساءة، حيث قامت بتوحيد المصطلحات المستخدمة في السياسة والإرشادات الداخلية. قبل التحديث، كانت السياسة تمنع المحتوى الذي يسخر من “الإصابة الجسدية الخطيرة”، بينما منعت الإرشادات الداخلية السخرية من “الحالة الطبية”. ووفقًا لـميتا، فإن مصطلح “الحالة الطبية” أكثر شمولًا. [ص. ١٢] مع ذلك، أعرب المجلس عن قلقه من أن المستخدمين قد لا يدركون أن “الحالة الطبية” تشمل “الإصابة الجسدية الخطيرة” وأوصى بأن توضح ميتا ذلك للمستخدمين. [ص. ١٢]
٢. الهدف المشروع
اعتبر المجلس أن سياسة التنمر والمضايقة الخاصة بميتا تهدف إلى تحقيق هدف مشروع، كما هو معترف به في العهد الدولي الخاص بالحقوق المدنية والسياسية. في هذه الحالة، كانت السياسة “تستهدف تحقيق هدف مشروع يتمثل في احترام حقوق الآخرين، بما في ذلك الحق في المساواة وعدم التمييز، وحرية التعبير.” [ص. ١٢] وفقًا للمجلس، تسعى السياسة إلى منع الأضرار الناتجة عن التنمر والمضايقة والتمييز القائم على الجنس، وتعزيز وصول المستهدفين إلى منصات ميتا. أشار المجلس إلى أن هذه الأهداف، كما ورد في إعلان مشترك حول حرية التعبير والعدالة الجنسانية، تسعى إلى تعزيز مساحات آمنة عبر الإنترنت لجميع النساء بدون تمييز أو عنف أو كراهية أو معلومات مضللة.
٣. الضرورة والتناسب
أكد المجلس أن مبدأي الضرورة والتناسب يتطلبان أن تكون القيود على حرية التعبير مناسبة لتحقيق وظيفتها الحمائية وأقل تدخلًا لتحقيق هذا الهدف. وبعد تحليل الحالة، وجد المجلس أن إزالة المحتوى كان إجراءً ضروريًا ومتناسبًا لحماية المستخدمين من التنمر والمضايقة عبر الإنترنت. ووفقًا للمجلس، فإن سياسة المضايقة والإساءة تحمي المدافعات عن حقوق الإنسان من العنف عبر الإنترنت، الذي غالبًا ما يدفعهن إلى ترك المساحات العامة عبر الإنترنت أو التخلي عن مهنتهن، وهو ما أشارت إليه تقارير أممية عديدة. كما يمكن أن يتجلى هذا النوع من العنف في اعتداءات جسدية على أرض الواقع. وأشار المجلس إلى دراسة أجرتها هيئة الأمم المتحدة للمرأة تفيد بأن ٧٠٪ من النساء الناشطات في الدول العربية يشعرن بعدم الأمان بسبب العنف عبر الإنترنت.
اعتبر المجلس أن المنشور المتنازع عليه سخر من المرأة الظاهرة في الصورة عبر مزحة تتعلق بنوعها الاجتماعي، حيث أوحى بأنها تستحق التعرض للاعتداء. وبالتالي، رأى المجلس أن الإزالة كانت ضرورية “لأن وسائل أقل تقييدًا لن تمنع نشر صورتها مع تعليق يهدف إلى الانتقاص منها.” [ص. ١٣] كما رأى المجلس أن المحتوى طبع العنف القائم على النوع الاجتماعي، وأظهر الوسم المستخدم فيه أن المستخدم قصد الوصول إلى مجموعة واسعة من النساء.
أكد المجلس أيضًا على مخاوفه بشأن سياسات ميتا الحالية، مشيرًا إلى أنها ليست فعالة بشكل كافٍ لمراقبة المحتوى الذي يطبع العنف القائم على النوع الاجتماعي من خلال الإشادة به أو تبريره أو الاحتفال به أو السخرية منه. ووفقًا للمجلس، فإن سياسة المضايقة والإساءة لا يمكن دائمًا استخدامها للحد من الأضرار الناتجة عن هذا العنف، على سبيل المثال، في الحالات التي لا تكون فيها المرأة الظاهرة قابلة للتعريف أو إذا صاحب نفس التعليق صورة لشخصية خيالية.
أوضح المجلس أن محتوى القضية لم ينتهك سياسة خطاب الكراهية الخاصة بميتا لأنه لم يستهدف أي شخص بناءً على خصائص محمية. وفي هذا السياق، رأى المجلس أن السياسات الحالية وممارسات تنفيذها لا تغطي جميع المحتويات ذات الصلة، مما يترك فجوة تسمح ببقاء المحتوى التمييزي على المنصات. استشهد المجلس بتوصيات اللجنة المعنية بالقضاء على التمييز ضد المرأة في التعليق العام رقم ٣٥، مشيرًا إلى أن “شركات وسائل التواصل الاجتماعي بحاجة إلى تعزيز الآليات الذاتية التنظيم لمعالجة العنف القائم على النوع الاجتماعي ضد النساء الذي يحدث عبر خدماتها ومنصاتها.” [ص. ١٤]
كرر المجلس موقفه في قضايا تصوير زوارت بييت وكارتون كنين والإهانات في جنوب أفريقيا بأن “بعض المحتوى[…]الذي قد يكون تمييزيًا يمكن إزالته بسبب تأثيره التراكمي، دون الحاجة لإظهار أن كل قطعة من المحتوى يمكن أن تسبب ضررًا جسديًا مباشرًا وفوريًا.” [ص. 15] كما أكد المجلس أن تراكم مثل هذا المحتوى الضار يساعد في خلق بيئة سلبية تعزز التمييز وتزيد من احتمالية العنف. وفي هذا السياق، أبرز المجلس الدور الذي تلعبه منصات وسائل التواصل الاجتماعي في استمرار العنف القائم على النوع الاجتماعي، ومسؤولية ميتا في معالجة هذه القضايا بطريقة تعزز حرية التعبير للنساء وتلغي العنف.
ومن ثم، جادل المجلس بأن المحتوى في هذه القضية، إلى جانب المحتوى المماثل، “يُطبع العنف القائم على النوع الاجتماعي من خلال تقليل شأن النساء والتقليل من أهمية أو تبرير أو تشجيع كل من الاعتداءات العامة والعنف الأسري. وهذا، حسبما قال المجلس، يشجع أو يدافع عن “استخدام العنف، والضرر بحقوق النساء واستمرار بيئة الإفلات من العقاب [مما يساهم] في زيادة خطر العنف الواقعي، والرقابة الذاتية، وقمع مشاركة النساء في الحياة العامة.” [ص. 15]
بالنظر إلى هذه الحجج، ألغى المجلس قرار ميتا الأصلي بترك المحتوى على الإنترنت لأنه لم يتوافق مع سياسات ميتا وواجباتها تجاه حقوق الإنسان.
التوصيات
١. أوصى المجلس بأن توضح ميتا لمستخدميها، في معيار مجتمع التنمر والمضايقة، أن مصطلح “الحالة الطبية” يشمل “الإصابة الجسدية الخطيرة.”
٢. أوصى المجلس بأن تتبنى ميتا عملية تطوير سياسة تهدف إلى معالجة المحتوى الذي يطبع العنف القائم على النوع الاجتماعي من خلال الإشادة به أو تبريره أو الاحتفال به أو السخرية منه. [ص. ١٦]
يشير اتجاه الحكم إلى ما إذا كان الأخير يُوسع من مدي التعبير أم يُضيقه بناءً على تحليل للقضية.
بعد تحليل شامل للعنف المنهجي الذي تعاني منه النساء عبر الإنترنت، وبعد موازنة المصالح المتعارضة في هذه القضية، خلص المجلس إلى أن المحتوى الذي يطبع العنف القائم على النوع الاجتماعي يجب حذفه من منصات “ميتا”. قد يُنظر إلى هذا النهج، مسبقًا، على أنه يحد من حرية التعبير. ومع ذلك، فإنه يحمل أيضًا إمكانية تعزيز بيئة أكثر أمانًا للنساء عبر الإنترنت، اللواتي غالبًا ما تُقمع أصواتهن أو يضطررن إلى الرقابة الذاتية خوفًا من العنف. كما اعتبر المجلس أن تقييد حرية التعبير في هذه الحالة يهدف إلى حماية النساء من التمييز والعنف، وهي مصالح مشروعة تبرر هذه القيود.
يوضح المنظور العالمي كيف تأثر قرار المحكمة بمعايير سواء من منطقة واحدة أو عدة مناطق.
أشار المجلس إلى هذا القانون لتقييم مسؤوليات ميتا تجاه حقوق الإنسان من خلال عدسة حرية التعبير.
بينما استخدم المجلس الاختبار الثلاثي لتقييم ما إذا كان يجب إزالة المحتوى، أشارت إلى التعليق العام للحصول على إرشادات.
أشار المجلس إلى هذه الوثيقة لتسليط الضوء على مسؤوليات فيسبوك تجاه حقوق الإنسان.
أشار المجلس إلى هذه الوثيقة لتسليط الضوء على أن شركات وسائل التواصل الاجتماعي يجب أن تتعامل مع العنف القائم على النوع الاجتماعي ضد النساء في خدماتها ومنصاتها.
ذكر المجلس هذا التقرير لتأكيد أن القواعد التي تقيّد حرية التعبير يجب أن تكون قابلة للوصول وواضحة في النطاق والمعنى.
أشار المجلس إلى هذا التقرير لتسليط الضوء على أن النساء يتأثرن بشكل غير متناسب بالمضايقات والعنف عبر الإنترنت.
أشار المجلس إلى هذا التقرير للقول بأن المضايقات عبر الإنترنت تزيد من احتمالية العنف في الحياة الواقعية.
أشار المجلس إلى هذه القضية لتكرار موقفها بأن المحتوى الكراهي يمكن إزالته بسبب تأثيره التراكمي، دون الحاجة إلى إظهار أن كل قطعة من المحتوى يمكن أن تسبب ضررًا جسديًا مباشرًا ووشيكًا.
أشار المجلس إلى هذه القضية لتكرار موقفها بأن المحتوى الكراهي يمكن إزالته بسبب تأثيره التراكمي، دون الحاجة إلى إظهار أن كل قطعة من المحتوى يمكن أن تسبب ضررًا جسديًا مباشرًا ووشيكًا.
أشار المجلس إلى هذه القضية لتكرار موقفها بأن المحتوى الكراهي يمكن إزالته بسبب تأثيره التراكمي، دون الحاجة إلى إظهار أن كل قطعة من المحتوى يمكن أن تسبب ضررًا جسديًا مباشرًا ووشيكًا.
تُشير أهمية هذه القضية إلى مدى تأثيرها وكيفية تغير مدى أهميتها بمرور الوقت.
وفقًا للمادة ٢ من ميثاق مجلس الإشراف “لكل قرار، ستكون لأي من القرارات السابقة للمجلس قيمة سابقة ويجب النظر إليها على أنها ذات تأثير كبير عندما تكون الحقائق والسياسات المطبقة أو العوامل الأخرى متشابهة بشكل كبير.” بالإضافة إلى ذلك، تنص المادة ٤ من ميثاق مجلس الإشراف على أن “قرارات المجلس في كل حالة ستكون ملزمة وستقوم فيسبوك (الآن ميتا) بتنفيذها على الفور، ما لم يكن تنفيذ القرار يمكن أن ينتهك القانون. في الحالات التي تحدد فيها فيسبوك أن محتوى مماثلًا مع سياق موازٍ – والذي قد قرر المجلس بشأنه بالفعل – لا يزال موجودًا على فيسبوك (الآن ميتا)، ستتخذ إجراءات من خلال تحليل ما إذا كان من الممكن تقنيًا وتشغيليًا تطبيق قرار المجلس على ذلك المحتوى أيضًا. عندما يتضمن القرار توجيهات سياسية أو رأيًا استشاريًا سياسيًا، ستتخذ فيسبوك (الآن ميتا) إجراءات إضافية من خلال تحليل الإجراءات التشغيلية المطلوبة لتنفيذ التوجيهات، والنظر فيها في عملية تطوير السياسات الرسمية لفيسبوك (الآن ميتا)، والتواصل بشفافية حول الإجراءات المتخذة نتيجة لذلك.”