Jump to content

أدوات المشرف/المشرف الآلي

From mediawiki.org
This page is a translated version of the page Moderator Tools/Automoderator and the translation is 49% complete.
Outdated translations are marked like this.

Automoderator is an automated anti-vandalism tool under development by the Moderator Tools team. سيسمح للإداريين بتفعيل وإعداد التراجع التلقائي عن التعديلات السيئة بناءً على تقييم من نموذج للتعلّم الآلي. بعبارات أبسط، نحن نتطلع إلى إنشاء برنامج يؤدي وظيفة مشابهة لـ "بوتات مكافحة التخريب" مثل ClueBot NG وSeroBOT وDexbot، ولكن مع جعل هذا متاحًا لجميع المجتمعات اللغوية. Please see Extension:AutoModerator for technical details on the AutoModerator extension.

This work is currently being tracked as part of the WE1.3.1 WMF hypothesis: إذا تمكنا من إتاحة تخصيص إضافي لسلوك المشرف الآلي وإجراء تغييرات بناءً على تعليقات المشروع التجريبي في Q1، فإن المزيد من الإداريين سيكونوا راضين عن مجموعة الميزات والموثوقية، وسوف يختارون استخدامه في مشروعهم في ويكيميديا، مما يزيد من استعماله.

مجتمعات يمكنها التطوع بإضافة المشرف الآلي إلى مشروع ويكيبيديا الخاص بهم.

التحديثات

  • سبتمبر 2024 - Indonesian Wikipedia starts using Automoderator (Automoderator).
  • يونيو 2024 - بدأت ويكيبيديا التركية باستخدام المشرف الآلي (Otomoderatör).
  • فبراير 2024 - نُشرت تصميمات صفحات الإعدادات والتهيئة للإصدار الأولي. الأفكار والاقتراحات مُرحَّب بها!
  • فبراير 2024 - نشرنا النتائج الأولية لعملية الاختبار.
  • أكتوبر 2023 - نحن نبحث عن آراء وتعليقات حول خطة القياس، لتحديد البيانات التي يجب أن نستخدمها لتقييم نجاح هذا المشروع، وقمنا بجعل بيانات الاختبار متاحة لتجميع الآراء حول عملية صنع القرار لدى المشرف الآلي.
  • أغسطس 2023 - لقد قدمنا ​​مؤخرًا هذا المشروع وغيره من المشاريع التي تركز على الإداريين في ويكيمانيا. يمكنك العثور على تسجيل الجلسة هنا.

الدافع

عرض ويكيمانيا (13:50)

تجري تعديلات كثيرة على مشاريع ويكيميديا ​​والتي يجب التراجع عنها بشكل لا لبس فيه، مما يعيد الصفحة إلى حالتها السابقة. (التغييرات التخريبية) يتعين على المراجعين والإداريين قضاء الكثير من الوقت في مراجعة هذه التعديلات وإعادتها يدويًا، مما يساهم في الشعور في العديد من مواقع الويكي الأكبر حجمًا بأن هناك قدرًا هائلاً من العمل الذي يتطلب الاهتمام مقارنة بعدد المشرفين النشطين. نرغب في تقليل هذه الأعباء، وتحرير وقت المشرف للعمل على مهام أخرى.

نداء المجتمع في ويكيبيديا الإندونيسية (11:50)

توفر العديد من مواقع المجتمع عبر الإنترنت، بما في ذلك Reddit وTwitch وDiscord، وظيفة "الإشراف الآلي"، حيث يمكن لمشرفي المجتمع إعداد مزيج من إجراءات الإشراف الآلي المحددة والخوارزمية. في ويكيبيديا، يوفر "مُرشح الإساءة" وظائف محددة قائمة على القواعد، ولكن يمكن أن يكون محبطًا عندما يتعين على المشرفين، على سبيل المثال، تحديد تعبير عادي بعناية شديدة لكل اختلاف إملائي لكلمة بذيئة. كما أنها معقدة، ويسهل التغلب عليها، مما يجعل العديد من المجتمعات تتجنب استخدامها. تمتلك ما لا يقل عن اثني عشر مجتمعًا "بوتات" لمكافحة التخريب، ولكن يقوم المجتمع بتشغيلها وصيانتها، وتتطلب خبرة تقنية محلية وعادة ما تكون ذات تكوينات غير مرئية للجميع. تعتمد هذه البوتات أيضًا إلى حد كبير على نموذج ORES الضار، والذي لم يجري تدريبه منذ فترة طويلة ولديه دعم لغوي محدود.

الأهداف

  • تقليل تراكمات أعمال الإشراف عن طريق منع التعديلات السيئة من الدخول إلى قوائم انتظار المراجعة.
  • منح المشرفين الثقة في أن المشرف الآلي موثوق به ولا ينتج عنه نتائج إيجابية كاذبة كبيرة.
  • تمكين المحررين الذين يواجهون "نتيجة إيجابية كاذبة" بطرق واضحة للإبلاغ عن الخطأ / إعادة التعديل الخاص بهم.

أبحاث التصميم

To learn about the research and design process we went through to define Automoderator's behaviour and interfaces, see /Design .

نموذج

سيستفيد هذا المشروع من نماذج مخاطر التراجع الجديدة التي طورها فريق Wikimedia Foundation Research. هناك نسختان من هذا النموذج:

  1. نموذج متعدد اللغات، يدعم 47 لغة.
  2. نموذج حيادي اللغة.

يمكن لهذه النماذج حساب درجة (تقييم) لكل تعديل تشير إلى احتمالية التراجع عن ذلك التعديل. Each community can set their own threshold for this score, above which edits are reverted (see below).

تدعم النماذج حاليًا ويكيبيديا فقط، ولكن يمكن تدريبها على مشاريع ويكيميديا ​​الأخرى. بالإضافة إلى ذلك، فقد جرى حاليًا تدريبهم فقط على النطاق الرئيسي (نطاق المقالات). بمجرد نشره، يمكننا إعادة تدريب النموذج بشكل مستمر حيث يقوم المجتمع بالإبلاغ عن "نتائج إيجابية كاذبة". (T337501)

قبل المضي قدمًا في هذا المشروع، نود توفير فرص لاختبار النموذج على "أحدث التغييرات"، حتى يتمكن المشرفون من فهم مدى دقة النموذج وما إذا كانوا يشعرون بالثقة في استخدامه بالطريقة التي نقترحها. The details and results of this test can be found at /Testing.

How it works

رسم تخطيطي يوضح عملية اتخاذ القرار في برنامج المشرف الآلي

Automoderator scores every main namespace edit on a Wikimedia project, fetches a score for that edit based on how likely it is to be reverted, and reverts any edits which score above a threshold which can be configured by local administrators. The revert is carried out by a system account, so it looks and behaves like other accounts - it has a Contributions page, User page, shows up in page histories, etc.

To reduce false positives and other undesirable behaviour, Automoderator will never revert the following kinds of edits:

  • An editor reverting one of their own edits
  • Reverts of one of Automoderator's actions
  • Those made by administrators or bots
  • New page creations

Configuration

Automoderator's configuration page (September 2024)

Automoderator is configured via a إعدادات المجتمع form located at Special:CommunityConfiguration/AutoModerator, which edits the page MediaWiki:AutoModeratorConfig.json (the latter can be watchlisted so that updates show up in your Watchlist). After deployment, Automoderator will not begin running until a local administrator turns it on via the configuration page. In addition to turning Automoderator on or off, there are a range of configurations which can be customised to fit your community's needs, including the revert threshold, minor and bot edit flags, and whether Automoderator sends a talk page message after reverting (see below).

Certain configuration, such as Automoderator's username, can only be performed by MediaWiki developers. To request such a change, or to request other kinds of customisation, please file a task on Phabricator.

Localisation of Automoderator should primarily be carried out via TranslateWiki, but local overrides can also be made by editing the relevant system message (Automoderator's strings all begin with automoderator-).

Caution levels

One of the most important configurations to set is the 'Caution level' or 'threshold' - this determines the trade-off Automoderator will make between coverage (how many bad edits are reverted) and accuracy (how frequently it will make mistakes). The higher the caution level, the fewer edits will be reverted, but the higher the accuracy; the lower the caution level, the more edit will be reverted, but the lower the accuracy. We recommend starting at a high caution level and gradually decreasing over time as your community becomes comfortable with how Automoderator is behaving.

Talk page message

To ensure that reverted editors who were making a good faith change are well equipped to understand why they were reverted, and to report false positives, Automoderator has an optional feature to send every reverted user a talk page message. This message can be translated in TranslateWiki and customised locally via the Automoderator-wiki-revert-message system message. The default (English) text reads as follows:

Hello! I am AutoModerator, an automated system which uses a machine learning model to identify and revert potentially bad edits to ensure Wikipedia remains reliable and trustworthy. Unfortunately, I reverted one of your recent edits to Article title.

If the same user receives another revert soon after the first, they will be sent a shorter message under the same section heading. Default (English) text:

I also reverted one of your recent edits to Article title because it seemed unconstructive. Automoderator (talk) 01:23, 1 January 2024 (UTC)

الإبلاغ عن الحالات الإيجابية الكاذبة

Automoderator's 'report false positive' link.

Because no machine learning model is perfect, Automoderator will sometimes accidentally revert good edits. When this happens we want to reduce friction for the user who was reverted, and give them clear next steps. As such, an important step in configuring Automoderator is creating a false positive reporting page. This is a normal wiki page, which will be linked to by Automoderator in the talk page message, and in page histories and user contributions, as an additional possible action for an edit, alongside Undo and/or Thank.