آخر الأخبار

القوانين الجديدة لتنظيم استخدام الذكاء الاصطناعي في European Union وتأثيرها على الدول العربية

في عصر ازدهار تقنيات الذكاء الاصطناعي (AI) — سواء في تحليل البيانات، التعلّم الآلي، أو النماذج التوليدية (Generative AI) — برزت الحاجة إلى إطار تنظيمي يُقاوم المخاطر المحتملة مثل التمييز، التلاعب، انتهاك الحقوق الأساسية، والاستخدام غير المسؤول للنماذج.

قانون الاتحاد الأوروبي للذكاء الاصطناعي, AI Act, تنظيم الذكاء الاصطناعي في أوروبا, تأثير القوانين الأوروبية على الدول العربية, تنظيم الذكاء الاصطناعي, تشريعات الذكاء الاصطناعي, الشركات العربية والذكاء الاصطناعي, الامتثال الأوروبي للذكاء الاصطناعي
القوانين_الجديدة_لتنظيم_استخدام_الذكاء_الاصطناعي_في_الاتحاد_الأوروبي_وتأثيرها_على_الدول_العربية

في يوليو 2024، اعتمد الاتحاد الأوروبي ما يُعرف بـ Artificial Intelligence Act (Regulation (EU) 2024/1689) باعتباره أول تشريع أفقي شامل ينظّم استخدامات الذكاء الاصطناعي داخل الأسواق الأوروبية، ويُتوقّع أن يُصبح مرجعية عالمية في التنظيم الرقمي. (European Parliament)

أما الدول العربية، فإنّ هذه التشريعات الأوروبية تُمثّل مِرآة تنظيمية وفرصة تنظيمية في آن واحد — فهي من جهة تحدد المعايير التي قد تُطبّق على الشركات العربية التي تستهدف السوق الأوروبي، ومن جهة أخرى تشكّل نموذجاً يمكن الاقتداء به في تحديث الأطر التنظيمية المحلية.

في هذا المقال، سنستعرض أبرز ما جاء في قانون الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي، ثم ننتقل إلى تحليل تأثيره على الدول العربية، ونختم بتوصيات عملية وجدول تفصيلي يفصّل النقاط التي يجب أخذها في الاعتبار.

أولاً: أبرز محتوى قانون الذكاء الاصطناعي الأوروبي

نطاق التطبيق والتعريف

ينص القانون على تعريف “نظام الذكاء الاصطناعي (AI system)” باعتباره “نظاماً قائماً على الآلة يُصمّم للعمل بمستوى معين من الاستقلالية، يُنجم عنه نتائج (تنبؤات، توصيات، قرارات) تؤثّر على البيئة المادية أو الافتراضية”. 
ويُميّز القانون بين «مقدّم النظام» (provider) و«مشغّله» (deployer) ويُدرج مفهوماً لنماذج الذكاء العام الأغراض (General‑Purpose AI – GPAI). 

منهج المخاطر وتصنيف الأنظمة

يُتبنّى القانون نهجاً يرتكز على تصنيف الأنظمة حسب مستوى المخاطر:

  • أنظمة “مخاطر غير مقبولة” (Unacceptable Risk): تستخدم تقنيات مثل التلاعب المعرفي، التقييم الاجتماعي، المراقبة البيومترية دون ضوابط، وتُمنَع كلياً. 

  • أنظمة عالية المخاطر (High‑Risk AI systems): تشمل التطبيقات في البنوك، الرعاية الصحية، التوظيف، البنى التحتية الحرجة، حيث تُفرض عليها التزامات صارمة مثل تقييم المخاطر، الشفافية، الإشراف البشري، وتوثيق البيانات التدريبية.

  • أنظمة ذات مخاطر محدودة أو شفافية فقط (Limited/Transparency Risk): مثل محادثات الذكاء الاصطناعي، مولّدات المحتوى التي لا تؤثّر بشكل مباشر على الحقوق الأساسية؛ تخضع فقط لواجبات الشفافية.

  • أنظمة ذات مخاطر دنيا (Minimal Risk): لا تخضع إلّا للمتطلبات القانونية العامة القائمة.

الجدول الزمني للتطبيق

قانون الذكاء الاصطناعي الأوروبي دخل حيّز النفاذ في 1 أغسطس 2024
لكن التنفيذ الكامل يُقسَّم إلى مراحل:

  • اعتباراً من 2 فبراير 2025: حُظر ممارسات «المخاطر غير المقبولة».

  • اعتباراً من 2 أغسطس 2025: دخول أحكام نماذج الذكاء العام (GPAI) وغيرها. 

  • اعتباراً من 2 أغسطس 2026: يستلزم التطبيق الكامل لكل الالتزامات. 

  • وأخيراً، للأنظمة عالية المخاطر فترة انتقال أطول تصل إلى 2 أغسطس 2027

الالتزامات والعقوبات

القانون يفرض التزامات واضحة على مقدّمي ومشغّلي الأنظمة: الشفافية، التوثيق، إدارة المخاطر، إشراف بشري، الإبلاغ عن الحوادث، تسجيل النماذج، والتدقيق بعد التسويق. 
أما في ما يتعلّق بالعقوبات، فهي كبيرة وتشمل:

  • غرامات تصل حتى 35 مليون يورو أو 7٪ من الإيرادات العالمية في حال ممارسات محظورة. 

  • في حوادث أقل خطورة أو عدم الامتثال للأنظمة العالية المخاطر: غرامات تصل 15 مليون يورو أو 3٪ من الإيرادات العالمية

الهيكل التنظيمي والحوكمة

القانون أسّس هيكل حوكمة جديد:

  • مكتب الذكاء الاصطناعي الأوروبي (European AI Office) داخل المفوضية. 

  • مجلس الذكاء الاصطناعي (AI Board) يضم ممثّلين من الدول الأعضاء.

  • هيئات إشراف وطنية في كل دولة عضو. 

ثانياً: تأثير القانون على الدول العربية

التأثير الخارجي (Extra‑territorial reach)

بما أن القانون الأوروبي يُطبَّق على الأنظمة الموجودة داخل السوق الأوروبي أو تلك التي تستهدف مستخدمين داخل الاتحاد أو تُنشَر هناك، فإن الشركات والمؤسسات في الدول العربية — حتى وإن كانت تركز على السوق المحلي — قد تخضع للامتثال إذا استعانت بخدمات أوروبية أو نُشِرت منتجاتها في الاتحاد. (Reddit)
هذا يفتح باب التأثير القانوني خارج حدود الاتحاد الأوروبي ويجعل من الامتثال الأوروبي معياراً عالمياً.

التأثير الخارجي (Extra‑territorial reach)
التأثير الخارجي (Extra‑territorial reach)

فرص التشريع المحلي والتحديث

الدول العربية التي تسعى إلى تنمية اقتصاد المعرفة والذكاء الاصطناعي— مثل دول الخليج — يمكنها استثمار التجربة الأوروبية:

  • تبنّي إطار تنظيمي بــ منهج قائم على المخاطر (risk‑based approach).

  • ربط أنظمة الذكاء الاصطناعي بحقوق الإنسان، الشفافية، والمسائلة، بما يتماشى مع المتطلبات الأوروبية.

  • تعزيز الشراكات مع الشركات الأوروبية وتقاسم معايير الامتثال.

التحديات المحلية

إلى جانب الفرص، تواجه الدول العربية عددًا من التحديات في ضوء هذا القانون:

  • تشريعات محلية غالباً ما تكون لينة أو مبدئية (soft regulation) ولا تحمل التزامات تنفيذية صارمة أو تنظيمًا تفصيليًا. (arXiv)

  • نقص المعايير الفنية والتقنية والإشراف المحتمل، ما يجعل التوافق مع المعايير الأوروبية عملية معقّدة.

  • الحاجة لتحديث قوانين حماية البيانات، السرية، حقوق المستخدم، وتعريف مكونات الذكاء الاصطناعي وضبطها بما يتماشى مع النموذج الأوروبي.

ثالثاً: جدول تفصيلي – أهم النقاط القانونية وتأثيرها على الدول العربية

البند ما جاء في قانون الاتحاد الأوروبي ما يعنيه للدول العربية ومزودي الـ AI
نطاق التطبيق ينطبق على أي نظام AI يُطرح في السوق الأوروبي أو يستهدف مستخدمين أوروبيين. (Consilium) الشركات العربية التي تُصدّر أو تستهدف مستخدمين في أوروبا تحتاج مراجعة الامتثال.
تصنيف المخاطر تقسيم إلى أربع فئات: غير مقبولة، عالية، شفافية، دنيا. (Al Act) يجب بناء تشريعات محلية تعكس هذا التصنيف لتحديد الضوابط المناسبة.
نماذج الذكاء العام (GPAI) تُخضع منذ 2 أغسطس 2025 لقواعد شفافية وتوثيق خاصة. (Digital Strategy) الدول العربية يجب أن تنظر إلى تضمين بنود مماثلة في الأطر الوطنية.
العقوبات غرامات حتى 7% من الإيرادات أو 35 مليون يورو. (Securiti) يمكن أن تؤثّر على الشراكات أو وقع التصدير، ما يستدعي التزاماً استباقياً.
الحوكمة والإشراف مكتب AI Office ومجالس وطنية. (European Data Protection Supervisor) إنشاء هيئات وطنية متخصصة للذكاء الاصطناعي في كل دولة عربية مهم لضمان التنفيذ.
اتفاقيات وتعاون دولي التنسيق داخل الاتحاد الأوروبي والشراكات الدولية. (Your Gate to Europe) فتح آفاق تعاون عربي‑أوروبي أو عربي‑دولي في تبنّي معايير الذكاء الاصطناعي.

رابعاً: توصيات للدول العربية ومزودي AI

  1. مراجعة التشريعات الوطنية للذكاء الاصطناعي لتحديثها وفق منظور المخاطر والالتزام بالشفافية والمساءلة.

  2. بناء أطر تنظيمية وطنية أو إقليمية تشمل هيئات إشراف، إشراك القطاع الخاص، وضمان تدريب وتوعية.

  3. اعتماد معايير امتثال دولية والتعاون مع جهات أوروبية لتبادل الخبرات والتوجيهات التقنية.

  4. تعزيز التعليم والتوعية القانونية والتقنية داخل الجامعات والمؤسسات لتأهيل الكوادر في مجال الامتثال للذكاء الاصطناعي.

  5. تهيئة الشركات العربية للعمل ضمن الأسواق الأوروبية: تحليل الأثر التنظيمي، تقييم الامتثال، وضع خطط لتعديل الأنظمة قبل التصدير.

  6. إقامة شراكات دولية في البحث والتطوير مع الاتحاد الأوروبي، مما يزيد من فرص التمويل والتصدير ضمن بيئة قانونية واضحة.

خامساً: المصادر والروابط الرسمية


في ختام الأمر، يُعد تنظيم الاتحاد الأوروبي للذكاء الاصطناعي علامة فارقة في المشهد القانوني الدولي — فهو لا يركّز فقط على ضمان سلامة وموثوقية الأنظمة بل أيضاً يسعى إلى حماية الحقوق الأساسية في عالم رقمي سريع التغيّر.

بالنسبة للدول العربية ومزودي الخدمات الرقمية فيها، فإن هذا التنظيم يُشكّل فرصة للاستباق وتنظيم السوق المحلي قبل أن يُفرض عليه عامل التصدير إلى أوروبا. كما أنه يحفّز تحديث التشريعات الوطنية والارتقاء بمعايير الحوكمة والامتثال.

إن الحقبة المقبلة لن تكون مجرد سباق تقني، بل سباق قانوني تنظيمي ومؤسّسي — ومن يسبق هناك، يعزز موقعه التنافسي ويصبح شريكًا موثوقًا في الاقتصاد الرقمي العالمي.

المقال السابق
No Comment
Add Comment
comment url