الصين تسعى لريادة العالم في تنظيم الذكاء الاصطناعي – هل ستنجح خطتها؟ – ترجمة* محمد جواد آل السيد ناصر الخضراوي

China wants to lead the world on AI regulation — will the plan work?
(Elizabeth Gibney – بقلم: إليزابيث غيبني)

بعد وضع الذكاء الاصطناعي في صميم استراتيجيتها الاقتصادية، تبذل الصين جهودا لإنشاء نظام دولي يُنظّم استخدام هذه التكنولوجيا.

على الرغم من المخاطر التي تتراوح بين تفاقم عدم المساواة والتسبب في كارثة وجودية، لم يتفق العالم بعد على لوائح تُنظّم الذكاء الاصطناعي. ورغم وجود مجموعة مُتنوعة من اللوائح الوطنية والإقليمية، لا تزال العديد من الدول تُطوّر قواعد مُلزمة.

الرئيس الصيني شي جين بينغ يُلقي كلمةً في اجتماع منتدى التعاون الاقتصادي لآسيا والمحيط الهادئ لعام 2025 في غيونغو، كوريا الجنوبية. حقوق الصورة: يونهاب عبر أسوشيتد برس / ألامي

وفي أكتوبر[2025]، وخلال اجتماع منتدى التعاون الاقتصادي لآسيا والمحيط الهادئ، كرّر الرئيس الصيني شي جين بينغ اقتراح بلاده بإنشاء هيئة تُعرف باسم المنظمة العالمية للتعاون في مجال الذكاء الاصطناعي “وايكو” (World Artificial Intelligence Cooperation Organization – WAICO) ، والتي من شأنها أن تجمع الدول كخطوة نحو إنشاء نظام حوكمة عالمي للذكاء الاصطناعي.

ويُعدّ هذا الاقتراح جزءًا من حملة أوسع نطاقًا لتولي زمام جهود حوكمة الذكاء الاصطناعي، على عكس النهج الأمريكي الذي يُركّز على تحرير القيود. وفيما يتعلق بالشفافية وسياسات الذكاء الاصطناعي، قالت البروفيسور ويندي هول، عالمة الحاسوب في جامعة ساوثهامبتون بالمملكة المتحدة، للصحفيين في فعالية بلندن في أكتوبر[2025]: “الصين هي الخيار الأمثل حاليًا”.

وتكمن عقبات عديدة في طريق إبرام اتفاقية حكومية دولية ملزمة بشأن الذكاء الاصطناعي، لكن بعض المؤيدين يقولون إنه ممكن، مُقارنين هذه التقنية بمشاريع أخرى محفوفة بالمخاطر ولكنها مفيدة، والتي توجد لها اتفاقيات، مثل الطاقة النووية والطيران. وتُلقي مجلة “نيتشر” نظرة على نهج الصين، والشكل المُحتمل لهيئة حوكمة عالمية للذكاء الاصطناعي، وفرص نجاحها.

كيف يختلف نظام الذكاء الاصطناعي الصيني عن مثيلاته في الدول الأخرى؟

بتشجيع من الحكومة، تميل الشركات الصينية إلى إصدار نماذج مفتوحة المصدر، مما يعني إمكانية تنزيلها والبناء عليها. وبالمقارنة مع الدول الغربية، تُركز الصين بشكل أقل على صنع آلات قادرة على التفوق على البشر – وهو ما يُشار إليه غالبًا بالذكاء الاصطناعي العام (Artificial General Intelligence) – وتُركز بدلًا من ذلك على سباق استخدام الذكاء الاصطناعي لدفع النمو الاقتصادي.

ويتجلى ذلك في سياسة طُرحت في أغسطس [2025] تُسمى “أيه آي +” (AI+)، وفقًا لـ كوان يي نغ، التي تقود الحوكمة الدولية للذكاء الاصطناعي في “كونكورديا للذكاء الاصطناعي”[1] (Concordia AI)، وهي شركة استشارية مقرها بكين تُركز على سلامة الذكاء الاصطناعي.

كيف تقارب الصين تنظيم الذكاء الاصطناعي؟

كانت الصين من أوائل الدول التي وضعت لوائح خاصة بالذكاء الاصطناعي، بدءًا من عام 2022، ولديها قواعد واسعة النطاق بشأن المحتوى الضار والخصوصية وأمن البيانات، على سبيل المثال. وتقول نغ إنه يجب على مطوري الخدمات العامة المدعومة بالذكاء الاصطناعي السماح للجهات التنظيمية الصينية باختبار أنظمتهم قبل نشرها.

النتيجة هي أن نماذج مثل تلك التي طورتها شركة “ديب سيك” (DeepSeek) ومقرها مدينة هانغتشو [بالصين]، والتي اكتسبت شهرة عالمية بنموذجها “آر1” (R1) في وقت سابق من هذا العام [2025]، هي من بين “الأكثر تنظيمًا في العالم”، كما تقول البروفيسور جوانا برايسون، عالمة الكمبيوتر والباحثة في أخلاقيات الذكاء الاصطناعي في كلية هيرتي في برلين. وعلى الرغم من ذلك، غالبًا ما تتخذ السلطات نهجًا متساهلًا في تطبيق هذا التنظيم، كما تقول البروفيسور أنجيلا تشانغ، الباحثة القانونية والمتخصصة في تنظيم الذكاء الاصطناعي في جامعة جنوب كاليفورنيا في لوس أنجلوس.

وعلى النقيض من ذلك، لا يوجد لدى الولايات المتحدة تشريع شامل بشأن الذكاء الاصطناعي على المستوى الفيدرالي، وقد ألغى الرئيس [الأمريكي] دونالد ترامب، في يناير [2025]، أمرًا تنفيذيًا يهدف إلى ضمان سلامة الذكاء الاصطناعي. وقد وضع إدارته في موقف مؤيد للصناعة، واقترح الشهر الماضي [نوفمبر 2025] في منشور على وسائل التواصل الاجتماعي أنها ستضيف بندًا إلى مشروع قانون فيدرالي لمنع الولايات من تنظيم الذكاء الاصطناعي.

وكان نهج الاتحاد الأوروبي هو تصنيف أنظمة الذكاء الاصطناعي حسب مستوى المخاطر، مع قواعد مختلفة تتعلق بالشفافية والرقابة في كل مستوى، والتزامات دخلت حيز التنفيذ في أغسطس [2025]، تستهدف أقوى أنظمة الذكاء الاصطناعي. وفي الوقت نفسه، أرجأت الحكومة البريطانية خططها لتقديم تشريع شامل للذكاء الاصطناعي حتى العام المقبل [2026] على أقرب تقدير.

ما هي التشريعات الدولية الموجودة لتنظيم الذكاء الاصطناعي؟
نادرًا ما نجد تشريعات دولية ملزمة قانونًا. ويأتي التنظيم الدولي الوحيد الملزم قانونًا من مجلس أوروبا، وهو منظمة دولية للدول الأعضاء الأوروبية، منفصلة عن الاتحاد الأوروبي، والتي وضعت اتفاقيتها الإطارية بشأن الذكاء الاصطناعي في مايو 2024. وتُلزم المعاهدة أي دولة موقعة بتنفيذ التزاماتها العامة – مثل ضمان توافق أنشطة الذكاء الاصطناعي مع حقوق الإنسان – من خلال قوانينها الوطنية. ولكن لا توجد عقوبات أو هيئة إنفاذ فوق وطنية، كما تقول لوسيا فيلاسكو[2]، الخبيرة الاقتصادية والباحثة في مبادرة حوكمة الذكاء الاصطناعي بكلية أكسفورد مارتن، ومقرها نيويورك.

كما وقّعت الشركات والدول اتفاقيات غير ملزمة مختلفة، مثل توصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي، ومبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي، وإعلان بليتشلي، وهو اتفاقية دولية وقّعتها 28 دولة في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة عام 2023. وقد أصدرت العديد من مجموعات الخبراء وثائق تحدد المخاطر، ومن أبرزها تقرير سلامة الذكاء الاصطناعي الدولي. وتُدير الأمم المتحدة عملية “حوار” وقد أنشأت هيئة علمية لتوجيه الجهود التنظيمية للدول.

ما الذي اقترحته الصين؟
صرّح مسؤولون صينيون بأن منظمة “وايكو” ستكون وسيلةً تُمكّن الدول من تنسيق قواعد حوكمة الذكاء الاصطناعي مع “الاحترام الكامل للاختلافات في السياسات والممارسات الوطنية” وقائدة دول الجنوب العالمي. واقترحت الصين أن يكون مقرّ المنظمة في شنغهاي، لكن التفاصيل الأخرى لا تزال غير مؤكدة.

ويبدو من غير المرجح أن تُدير “وايكو” الذكاء الاصطناعي بشكل مباشر بأي طريقة قابلة للتنفيذ (وقد صرّحت الصين بدعمها لنهج الأمم المتحدة في حوكمة الذكاء الاصطناعي العالمي)، ولكنها قد تُمثّل طريقًا للدول للتوافق تدريجيًا حول إطار عمل.

وكانت دعوة [الرئيس الصيني] شي لإنشاء “وايكو” هي رابع دعوة من نوعها على الأقل من مسؤول صيني خلال أربعة أشهر، مما يُشير إلى أهمية الفكرة للحكومة، كما تقول نغ. وتقول البروفيسور تشانغ إن أحد الأسباب تجاري. وتضيف: “إن قدرة الصين على وضع المعايير تُساعد على انتشار منتجاتها في جميع أنحاء العالم”.

كما تُعطي هذه الخطوة الصين بعض المكانة الدبلوماسية. وتقول البروفيسور تشانغ: “تحاول الصين أن تكون مثل الأخ الأكبر لدول الجنوب العالمي، حيث تقول: ‘نحن بحاجة أيضًا إلى أن يكون لنا صوتنا في حوكمة الذكاء الاصطناعي وليس أن يُملى علينا’.

كيف سيبدو شكل الحوكمة العالمية؟
لا نعلم. وتقول نغ إن خبراء سلامة الذكاء الاصطناعي غالبًا ما يستشهدون بتنظيم الطاقة النووية وإنشاء الوكالة الدولية للطاقة الذرية كمثال. فالمعايير التي وضعتها الوكالة التابعة للأمم المتحدة غير ملزمة، ولكنها تُكملها معاهدات ملزمة قانونًا ساهمت في صياغتها، مثل اتفاقية السلامة النووية.

وتقول نغ إن من الأمور المُقنعة بشكل خاص استعارة فكرة التفتيش من قِبل طرف ثالث أو عمليات تفتيش متبادلة لتطوير الذكاء الاصطناعي من الطاقة النووية، لضمان الالتزام بأي تعهدات. ومن الأفكار الأخرى التي طُرحت إنشاء هيئة مماثلة للمنظمة الأوروبية للأبحاث النووية “سيرن”[3] (CERN)، مختبر فيزياء الجسيمات في أوروبا، حيث يُمكن للجميع توليد الذكاء الاصطناعي الأكثر تقدمًا، لصالح الجميع.

أما النموذج الثالث فهو ما يُشبه منظمة الطيران المدني الدولي التابعة للأمم المتحدة، التي تُطور المعايير الفنية للطيران، والتي تُدمجها الدول بعد ذلك في قوانينها الوطنية.
وفي كل هذه الأمثلة، كان للأمم المتحدة، أو إحدى وكالاتها، دورٌ أساسي في إنشائها. ومع ذلك، تقول فيلاسكو: “إن الذكاء الاصطناعي لا يتوافق تمامًا مع نماذج الحوكمة السابقة. فهو متعدد الأغراض، وسريع التطور، ويعتمد بشكل كبير على القطاع الخاص”.

وتضيف فيلاسكو إن الأمم المتحدة قد تكون المنصة التي ينبثق منها ترتيب حوكمة عالمي مستقبلي للذكاء الاصطناعي، لكن هذا يتطلب من دولة عضو المبادرة بذلك في الجمعية العامة للأمم المتحدة.

ما هي فرص تنظيم الذكاء الاصطناعي عالميًا قريبًا؟
إن ما يُنظر إليه على أنه سباق بين الولايات المتحدة والصين للسيطرة على الذكاء الاصطناعي العالمي يجعل إبرام أي اتفاقية دولية من شأنها وضع قيود على هذه التكنولوجيا “صعبًا للغاية”، كما تقول غريس غونزاليس، مستشارة السياسات في “كونترول ايه آي”[4] (ControlAI)، وهي منظمة غير ربحية مقرها لندن تعمل على الحد من مخاطر الذكاء الاصطناعي على البشرية.

ومنذ إعلان بليتشلي، تراجع التركيز على سلامة الذكاء الاصطناعي في الفعاليات اللاحقة في سيؤول [عاصمة كوريا الجنوبية] وباريس، وهناك “نقص عام في القنوات الحكومية القوية في الوقت الحالي” التي تشمل الدول الكبرى في مجال الذكاء الاصطناعي، كما تقول نغ. وعلى الرغم من أن الأمم المتحدة هي المنصة التي تجمع معظم الدول معًا، إلا أنها “تواجه مجموعة من التحديات”، مثل نقص التمويل وبطء وتيرة العمليات، كما يقول برايان تسي، مؤسس كونكورديا للذكاء الاصطناعي.

ومع ذلك، يمكن وضع معايير مشتركة دون اتفاقيات دولية ملزمة. وتقول نغ إن منظمة “وايكو” يمكن أن تؤدي “وظيفة حاسمة” إذا عززت الفهم المشترك لمخاطر الذكاء الاصطناعي وقدراته، أو ساعدت الدول على الاتفاق على عدم تجاوز حدود معينة في تطوير الذكاء الاصطناعي.

ويقول تسي إن اتفاقية السلامة النووية لعام 1994 ساعدت في تحسين سلامة المفاعلات، لكن هذا لم يحدث إلا بعد حادث تشيرنوبيل النووي عام 1986 في الاتحاد السوفيتي. ويضيف: “في مجال الذكاء الاصطناعي، مهمتنا هي التأكد من أننا نسبق المنحنى”، وتقليل فرصة حدوث أزمة “قبل وقوعها”.

*تمت الترجمة بتصرف
المصدر:

https://www.nature.com/articles/d41586-025-03902-y
الهوامش:
[1] مؤسسة اجتماعية مخصصة لتعزيز سلامة وحوكمة الذكاء الاصطناعي على مستوى العالم، ولديها مكاتب في بكين وسنغافورة.
[2] لوسيا فيلاسكو خبيرة اقتصادية وباحثة إسبانية-أرجنتينية. وهي حاليًا طالبة دكتوراه في كلية إدارة الأعمال والاقتصاد بجامعة ماستريخت، حيث يستكشف بحثها ديناميكيات القوة بين التكنولوجيا والاقتصاد والمجتمع في بيئات مختلفة. وهي أيضًا زميلة قائد سياسات في كلية فلورنسا للحوكمة العابرة للحدود الوطنية وزميلة في مؤسسة أسبن. إلى جانب مساعيها الأكاديمية، تدعم لوسيا الهيئة الاستشارية رفيعة المستوى للأمين العام للأمم المتحدة المعنية بالذكاء الاصطناعي، مع التركيز على حوكمة الذكاء الاصطناعي العالمية، وتشغل منصب الرئيس المشارك لمبادرة مستقبل العمل التابعة لمنظمة التعاون الاقتصادي والتنمية (OECD-GPAI).
[3] اختصار “سيرن” (CERN) في الأصل يُمثل الكلمات الفرنسية لـConseil Européen pour la Recherche Nucléaire ، وتعني المنظمة الأوروبية للأبحاث النووية التي تأسست في العام 1954 ومقرها ميرين، إحدى ضواحي جنيف الغربية، على الحدود الفرنسية السويسرية. ولمعرفة المزيد عن “سيرن”: راجع ويكيبيديا على الرابط: https://en.wikipedia.org/wiki/CERN
[4] منظمة غير ربحية تعمل في المملكة المتحدة والولايات المتحدة الأمريكية على الحد من مخاطر الذكاء الاصطناعي على البشرية، وتضع السياسات والتشريعات، وتقوم بالتغطية الإعلامية، وتنتج فيديوهات ورسومًا بيانية، وتصمم وتدير حملات رقمية وفعلية، وتنظم الفعاليات، وتؤثر على صانعي السياسات. وقد نالت حملاتها دعما شعبيا من سياسيين رفيعي المستوى، وقامت بصياغة مشاريع قوانين في المملكة المتحدة والولايات المتحدة الأمريكية، وأنتجت العديد من الفيديوهات التي لاقت انتشارًا واسعًا، كما قادت تحالفات دولية. المصدر: موقع المنظمة على الشبكة العنكبوتية https://controlai.com/about

المهندس محمد جواد آل السيد ناصر الخضراوي

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *