حظر 8 استخدامات للذكاء الاصطناعي لحماية الحقوق
القانون الأوروبي الجديد: حظر 8 استخدامات للذكاء الاصطناعي لحماية الحقوق الأساسية
يُعد الذكاء الاصطناعي (AI) القوة الدافعة وراء تحولات غير مسبوقة في جميع جوانب الحياة المعاصرة، من الاقتصاد إلى المجتمع. ومع تسارع وتيرة الابتكار في هذا المجال، تبرز الحاجة الملحة إلى إطار تنظيمي يضمن تسخير هذه التقنية لخدمة البشرية، لا الإضرار بها. في هذا السياق، يمثل قانون الذكاء الاصطناعي الأوروبي (EU AI Act) علامة فارقة عالمية، حيث يقدم أول إطار قانوني شامل وموحد للذكاء الاصطناعي.
![]() |
8 استخدامات محظورة للذكاء الاصطناعي لحماية الحقوق الأساسية |
فجر تنظيم الذكاء الاصطناعي في أوروبا
يُعتبر قانون الذكاء الاصطناعي الأوروبي، الذي اعتمده البرلمان الأوروبي رسميًا في 13 مارس 2024، أول إطار قانوني أفقي شامل للذكاء الاصطناعي في العالم.1 يهدف هذا التشريع الرائد إلى إنشاء إطار تنظيمي وقانوني موحد للذكاء الاصطناعي داخل الاتحاد الأوروبي.5 إنه ليس مجرد مجموعة من القواعد الفنية؛ بل يمثل تموضعاً استراتيجياً للاتحاد الأوروبي كقائد عالمي في حوكمة الذكاء الاصطناعي.
يسعى القانون إلى ضمان أن تكون أنظمة الذكاء الاصطناعي آمنة وشفافة، وأن لا تُعرّض المستهلكين في الاتحاد الأوروبي لمخاطر غير مقبولة.2 ويغطي جميع أنواع الذكاء الاصطناعي عبر مجموعة واسعة من القطاعات، مع استثناءات لأنظمة الذكاء الاصطناعي المستخدمة حصريًا لأغراض عسكرية أو أمن قومي أو بحثية أو غير مهنية.5
أهدافه الأساسية: السلامة، الحقوق الأساسية، والابتكار
تشمل الأهداف الأساسية للقانون حماية الحقوق الأساسية والديمقراطية وسيادة القانون والاستدامة البيئية من مخاطر الذكاء الاصطناعي عالية الخطورة، مع تعزيز الابتكار في الوقت نفسه.7 يسعى القانون إلى تحقيق توازن دقيق بين تشجيع الابتكار وضمان حماية الحقوق.8 هذا التوازن يعكس التزام الاتحاد الأوروبي بتطوير الذكاء الاصطناعي الذي يركز على الإنسان، ويستند إلى المبادئ السبعة للذكاء الاصطناعي الجدير بالثقة: الإشراف البشري، المتانة التقنية والسلامة، الخصوصية وحوكمة البيانات، الشفافية، التنوع وعدم التمييز والإنصاف، الرفاه الاجتماعي والبيئي، والمساءلة.9
تُعد أهمية هذا القانون غالبًا ما تُقارن باللائحة العامة لحماية البيانات (GDPR)، حيث يهدف الاتحاد الأوروبي إلى تحقيق "تأثير بروكسل" مماثل.3 هذا الطموح يشير إلى أن الاتحاد الأوروبي يسعى لأن يكون المرجع العالمي للذكاء الاصطناعي الأخلاقي والمتمحور حول الإنسان، مستفيدًا من قوته السوقية لتصدير فلسفته التنظيمية عالميًا. وهذا يعني أن الشركات في جميع أنحاء العالم، بغض النظر عن موقعها، ستحتاج على الأرجح إلى التوافق مع معايير الاتحاد الأوروبي إذا رغبت في العمل أو خدمة العملاء في الاتحاد الأوروبي، مما يخلق معيارًا عالميًا بحكم الأمر الواقع. هذا الموقف الاستباقي، على الرغم من الانتقادات التي تشير إلى احتمال خنق الابتكار 12، يوحي بالتزام قوي بقيمه، مستفيدًا من قوته السوقية لتصدير فلسفته التنظيمية عالميًا.
أهمية فئة "المخاطر غير المقبولة"
يعتمد القانون نهجًا قائمًا على المخاطر، ويصنف أنظمة الذكاء الاصطناعي إلى فئات: مخاطر غير مقبولة (محظورة)، مخاطر عالية (تخضع لحوكمة صارمة)، مخاطر محدودة (تتطلب الشفافية)، ومخاطر دنيا (تُشجع فيها أفضل الممارسات الطوعية).4
تُعد فئة "المخاطر غير المقبولة" ذات أهمية قصوى، حيث تحدد تطبيقات الذكاء الاصطناعي التي تشكل تهديدات خطيرة للحقوق الأساسية، مما يؤدي إلى حظرها بشكل كامل.5 هذه المحظورات غير قابلة للتفاوض وتطبق على جميع المنظمات العاملة داخل سوق الاتحاد الأوروبي.16 إن هذه المحظورات ليست قيودًا تقنية تعسفية، بل هي متجذرة بعمق في القيم التأسيسية للاتحاد الأوروبي فيما يتعلق بالكرامة الإنسانية والاستقلالية وعدم التمييز. وبالتالي، فإن الإطار القانوني هو امتداد مباشر للاعتبارات الأخلاقية، ويهدف إلى منع الذكاء الاصطناعي من تقويض المبادئ المجتمعية الأساسية. هذا يرفع قانون الذكاء الاصطناعي إلى ما هو أبعد من مجرد الامتثال التقني إلى مسألة حوكمة أخلاقية، وهو اتجاه مهم في تنظيم التكنولوجيا الحديثة.
فهم قانون الذكاء الاصطناعي الأوروبي: إطار عمل شامل
يُعد فهم نطاق قانون الذكاء الاصطناعي الأوروبي أمرًا بالغ الأهمية لأي كيان يتعامل مع أنظمة الذكاء الاصطناعي. يبدأ هذا الفهم بالتعريف الدقيق لما يشكل "نظام ذكاء اصطناعي" بموجب هذا القانون، ثم يتوسع ليشمل النهج القائم على المخاطر الذي يتبناه القانون، وأخيرًا، الجداول الزمنية المحددة لتطبيقه وإنفاذه.
تعريف "نظام الذكاء الاصطناعي" بموجب القانون
يُعرف قانون الذكاء الاصطناعي الأوروبي "نظام الذكاء الاصطناعي" بأنه نظام قائم على الآلة مصمم للعمل بمستويات متفاوتة من الاستقلالية، وقد يُظهر قدرة على التكيف بعد النشر، والذي يستنتج، لأهداف صريحة أو ضمنية، من المدخلات التي يتلقاها كيفية توليد مخرجات مثل التنبؤات أو المحتوى أو التوصيات أو القرارات التي يمكن أن تؤثر على البيئات المادية أو الافتراضية.1
تشمل المكونات الرئيسية لهذا التعريف، والتي تم توضيحها من قبل المفوضية الأوروبية، سبعة عناصر حاسمة :
قائم على الآلة: يشير هذا إلى أن أنظمة الذكاء الاصطناعي يتم تطويرها وتشغيلها على الآلات، وتدمج مكونات الأجهزة والبرامج التي تمكنها من العمل.
الاستقلالية: تعمل الأنظمة بدرجة معينة من الاستقلالية عن التدخل البشري. هذا يعني أن النظام يمكنه العمل دون تدخل بشري مباشر أو يدوي كامل. الأنظمة التي تتطلب تدخلًا بشريًا يدويًا كاملاً تقع خارج نطاق التعريف.17
القدرة على التكيف: يشير هذا إلى قدرة النظام على التعلم الذاتي وتغيير السلوك أثناء الاستخدام. ومع ذلك، من المهم ملاحظة أن القدرة على التكيف ليست شرطًا إلزاميًا لتصنيف النظام كذكاء اصطناعي بموجب القانون.17
الأهداف: يجب أن يكون للنظام أهداف، سواء كانت محددة بوضوح (صريحة) أو مستنتجة ضمنيًا من سلوك النظام وافتراضاته الأساسية.17
الاستنتاج: تُعد القدرة على الاستنتاج من المدخلات كيفية توليد المخرجات "شرطًا أساسيًا لا غنى عنه" لأنظمة الذكاء الاصطناعي.17 يشير هذا إلى عملية استخلاص النماذج أو الخوارزميات من المدخلات أو البيانات لتوليد المخرجات.1 تشمل التقنيات المستخدمة تعلم الآلة، والأساليب القائمة على المنطق والمعرفة.1
المخرجات: تشمل المخرجات أربع فئات واسعة: التنبؤات (تقديرات حول قيمة غير معروفة)، المحتوى (المواد التي تم إنشاؤها حديثًا مثل النصوص أو الصور)، التوصيات (اقتراحات لإجراءات أو منتجات أو خدمات محددة)، والقرارات (الاستنتاجات أو الخيارات التي يتخذها نظام الذكاء الاصطناعي).17
التفاعل مع البيئة: يعني أن نظام الذكاء الاصطناعي ليس سلبيًا، بل يؤثر بنشاط على البيئة التي يتم نشره فيها، سواء كانت مادية أو افتراضية.17
يستثني التعريف أنظمة البرمجيات التقليدية الأبسط أو أساليب البرمجة التي تعتمد فقط على القواعد التي يحددها الأشخاص الطبيعيون.1 وقد أصدرت المفوضية الأوروبية إرشادات لتوضيح هذا التعريف، مؤكدة على التقييم الشامل لكل حالة على حدة.19 إن هذا التعريف المفصل والتركيز على "الاستنتاج" كـ "شرط أساسي لا غنى عنه" أمر بالغ الأهمية. إن إرشادات المفوضية التي تتطلب "تقييمًا شاملاً لكل حالة على حدة" 19 والذكر الصريح لمخاوف "غسل الذكاء الاصطناعي" 19 تسلط الضوء على تحدٍ عملي كبير. قد تقوم الشركات بتصنيف أنظمة غير ذكاء اصطناعي على أنها ذكاء اصطناعي لأغراض التسويق، أو على العكس، تفشل في التعرف على أنظمتها كذكاء اصطناعي بموجب القانون، مما يؤدي إلى عدم الامتثال. يخلق هذا الغموض عدم يقين قانوني 19 ويتطلب عمليات تصنيف داخلية قوية وخبرة قانونية.14 يعني ذلك أن مجرد تسمية شيء ما "ذكاء اصطناعي" لا يجعله كذلك بموجب القانون، ويتطلب فهمًا تقنيًا وقانونيًا عميقًا لتحديد النطاق.
![]() |
قانون الذكاء الاصطناعي الأوروبي – حظر استخدامات تهدد حقوق الإنسان. |
النهج القائم على المخاطر في القانون
يعتمد القانون نهجًا متدرجًا قائمًا على المخاطر لتنظيم الذكاء الاصطناعي، مقسمًا الأنظمة إلى أربع فئات رئيسية تحدد مستوى الالتزامات التنظيمية 4:
مخاطر غير مقبولة: تطبيقات الذكاء الاصطناعي المحظورة تمامًا بسبب تشكيلها تهديدات خطيرة للحقوق الأساسية. هذه هي محور هذا التقرير.4
مخاطر عالية: أنظمة الذكاء الاصطناعي التي يُتوقع أن تشكل تهديدات كبيرة للصحة أو السلامة أو الحقوق الأساسية.4 تشمل الأمثلة الذكاء الاصطناعي في البنية التحتية الحيوية، والرعاية الصحية، والتعليم، والتوظيف، وإنفاذ القانون، والعدالة.7 تخضع هذه الأنظمة لمتطلبات صارمة مثل إدارة المخاطر، وحوكمة البيانات، والإشراف البشري، والشفافية، والدقة، وتقييمات المطابقة.4
مخاطر محدودة: أنظمة الذكاء الاصطناعي ذات التزامات الشفافية المحددة، مثل روبوتات الدردشة أو التزييف العميق، والتي تتطلب إبلاغ المستخدمين بأنهم يتفاعلون مع الذكاء الاصطناعي.4
مخاطر دنيا: أنظمة الذكاء الاصطناعي التي لا توجد عليها التزامات محددة، ولكن يُشجع فيها على اتباع أفضل الممارسات الطوعية.4 تشمل الأمثلة مرشحات البريد العشوائي أو ألعاب الفيديو البسيطة.23
تُعد نماذج الذكاء الاصطناعي للأغراض العامة (GPAI)، مثل ChatGPT، فئة مميزة، وتخضع لمتطلبات الشفافية وتقييمات إضافية إذا كانت تشكل مخاطر نظامية.4
الجداول الزمنية الرئيسية للتطبيق والإنفاذ
تم نشر قانون الذكاء الاصطناعي في الجريدة الرسمية في 12 يوليو 2024، ودخل حيز التنفيذ في 2 أغسطس 2024.2 ومع ذلك، فإن تطبيقه وإنفاذه يتم على مراحل، مما يعكس تعقيد القانون والحاجة إلى فترات انتقالية للشركات للتكيف.
الجدول 1: أبرز المحطات الزمنية وتواريخ تطبيق قانون الذكاء الاصطناعي الأوروبي
إن الجدول الزمني المتقطع للتطبيق ليس مجرد إجراء إداري؛ إنه تصميم تنظيمي استراتيجي. تدخل المحظورات المتعلقة بالمخاطر غير المقبولة حيز التنفيذ في وقت مبكر (فبراير 2025)، مما يعكس أولوية الاتحاد الأوروبي في حماية الحقوق الأساسية. تتمتع الأنظمة عالية المخاطر بفترة انتقالية أطول (أغسطس 2026/2027)، اعترافًا بعمليات إعادة التصميم الكبيرة وجهود الامتثال المطلوبة.1 يوفر هذا النهج المرحلي للشركات نافذة للتكيف، ولكنه يخلق أيضًا عبئًا مستمرًا للامتثال.14 يعني تاريخ السريان المبكر للمحظورات أن هناك حاجة إلى إجراءات فورية لبعض استخدامات الذكاء الاصطناعي، بينما تتطلب استخدامات أخرى استراتيجية امتثال مستدامة وطويلة الأجل. هذا يشير إلى أن "الامتثال بالتصميم" 14 ليس مجرد أفضل الممارسات، بل هو ضرورة لتجنب العقوبات المستقبلية والاضطرابات التشغيلية.
الاستخدامات الثمانية المحظورة للذكاء الاصطناعي: حماية الحقوق الأساسية
يسرد قانون الذكاء الاصطناعي الأوروبي صراحة ممارسات معينة للذكاء الاصطناعي التي تعتبر تشكل "مستوى غير مقبول من المخاطر" على الحقوق الأساسية وبالتالي تُحظر تمامًا.4 هذه المحظورات غير قابلة للتفاوض وتطبق على جميع المنظمات العاملة داخل سوق الاتحاد الأوروبي.16 ينطبق الحظر على كل من الشركات التي تقدم وتستخدم أنظمة الذكاء الاصطناعي هذه.15 العقوبات على انتهاك هذه المحظورات شديدة، تصل إلى 40 مليون يورو أو 7% من إجمالي حجم الأعمال السنوي العالمي، أيهما أعلى.4 دخلت الأحكام التي تحظر هذه الممارسات حيز التنفيذ في 2 فبراير 2025.2
إن الإشارة إلى "المرآة السوداء" 16 في سياق التقييم الاجتماعي هي مؤشر قوي على نهج الاتحاد الأوروبي الاستباقي، الذي يكاد يكون تأمليًا، لتنظيم الذكاء الاصطناعي. فبدلاً من انتظار حدوث ضرر واسع النطاق، يسعى القانون إلى منع السيناريوهات البائسة المصورة في الثقافة الشعبية من أن تصبح حقيقة واقعة. هذا يشير إلى فلسفة تنظيمية ليست مجرد رد فعل على الأضرار القائمة، بل تحاول توقع المخاطر المجتمعية المستقبلية التي تشكلها التقنيات الناشئة. هذه البصيرة، على الرغم من أنها جديرة بالثناء، يمكن أن تسهم أيضًا في "التعقيد والغموض" 19 حيث تحاول تنظيم تقنيات لا تزال قدراتها الكاملة وتأثيراتها المجتمعية تتطور.
![]() |
eu-ai-act-prohibited-ai-practices |
فيما يلي تفصيل للاستخدامات الثمانية المحظورة:
1. أنظمة التقييم الاجتماعي (Social Scoring Systems)
الوصف: يحظر القانون أنظمة الذكاء الاصطناعي التي تقوم بتقييم أو تصنيف الأفراد بناءً على سلوكهم الاجتماعي أو خصائصهم الشخصية، مما يؤدي إلى معاملة ضارة أو غير مواتية في سياقات اجتماعية غير ذات صلة بالظروف التي تم فيها جمع البيانات.5 يشمل ذلك الأنظمة التي تخصص درجات أو تصنيفات للأفراد أو المجموعات.26
التبرير الأخلاقي والاجتماعي: يهدف هذا الحظر إلى منع إنشاء "أنظمة طبقات رقمية" وحماية كرامة الفرد وخصوصيته من التقييمات التعسفية.26 يضمن القانون أن القرارات المتعلقة بالأفراد تظل ذات صلة وعادلة، ويمنع النتائج التمييزية وغير العادلة التي قد تنشأ عن تقييمات غير مبررة للسلوك الاجتماعي.16
أمثلة: لا يمكن لبنك استخدام نظام ذكاء اصطناعي يرفض القروض للأفراد بناءً على سلوكهم على وسائل التواصل الاجتماعي أو آرائهم السياسية أو ارتباطاتهم الشخصية التي لا علاقة لها مباشرة بالجدارة الائتمانية.16
2. أنظمة استغلال نقاط الضعف (Exploitative Systems Targeting Vulnerabilities)
الوصف: يحظر القانون أنظمة الذكاء الاصطناعي التي تستغل نقاط ضعف مجموعات معينة من الأشخاص بسبب العمر أو الإعاقة أو الأوضاع الاجتماعية أو الاقتصادية الخاصة، بهدف أو تأثير تشويه سلوكهم بشكل مادي.7
التبرير الأخلاقي والاجتماعي: يهدف هذا الحظر إلى حماية الفئات الضعيفة، مثل الأطفال من ألعاب الذكاء الاصطناعي التلاعبية أو الألعاب التي تشجع السلوكيات الخطرة، وكبار السن من العروض المخصصة الخادعة أو التكتيكات القسرية التي تستغل القدرات المعرفية.26 يضمن القانون عدم تعرض الأفراد لضرر مالي أو نفسي نتيجة للتلاعب.26
أمثلة: لا يمكن لتطبيق استثمار استخدام الذكاء الاصطناعي لتحديد العملاء المسنين الذين يعانون من تدهور إدراكي والتوصية تلقائيًا بمنتجات مالية معقدة ليست في مصلحتهم.16 ومع ذلك، يُسمح بأنظمة الذكاء الاصطناعي التي توفر أدوات تعليمية للأطفال أو روبوتات مساعدة لكبار السن أو الأشخاص ذوي الإعاقة، حيث إنها ذات تأثيرات مفيدة.26
3. أنظمة التصنيف البيومتري القائمة على الخصائص الحساسة (Biometric Categorisation Systems Based on Sensitive Characteristics)
الوصف: يحظر القانون أنظمة الذكاء الاصطناعي التي تصنف الأفراد بناءً على بياناتهم البيومترية لاستنتاج خصائص حساسة مثل العرق أو الآراء السياسية أو المعتقدات الدينية أو التوجه الجنسي.7
التبرير الأخلاقي والاجتماعي: يهدف هذا الحظر إلى منع التمييز وحماية الخصوصية والكرامة الإنسانية، وضمان عدم استخدام البيانات البيومترية لإنشاء تصنيفات تمييزية أو لتقديم مستويات خدمة مختلفة بناءً على هذه الخصائص.16
أمثلة: لا يمكن لمؤسسة مالية نشر نظام ذكاء اصطناعي يستخدم التعرف على الوجه عند مداخل الفروع لتصنيف العملاء حسب العرق أو الوضع الاجتماعي والاقتصادي المفترض، ثم تقديم مستويات خدمة مختلفة بناءً على هذه التصنيفات.16 ومع ذلك، يُسمح بتصنيف صور المرضى حسب لون البشرة لتشخيص السرطان، حيث يكون الغرض طبيًا ومفيدًا.26
4. تحديد الهوية البيومترية عن بعد في الوقت الفعلي في الأماكن العامة (Real-time Remote Biometric Identification in Public Spaces)
الوصف: يحظر القانون استخدام أنظمة تحديد الهوية البيومترية عن بعد في الوقت الفعلي (مثل أنظمة الذكاء الاصطناعي التي تجمع صور الوجه) في الأماكن العامة، لأغراض إنفاذ القانون، مع استثناءات محدودة ومحددة بدقة.5 تتطلب الاستثناءات ضمانات صارمة، مثل تحديد الوقت والنطاق الجغرافي، وموافقة قضائية أو إدارية مسبقة محددة.7
التبرير الأخلاقي والاجتماعي: يهدف هذا الحظر إلى حماية حرية الأفراد واستقلاليتهم من المراقبة غير القانونية والجماعية، مع السماح بالاستخدامات الضرورية للغاية في حالات الطوارئ القصوى.26 بينما يحظر القانون بشكل عام المخاطر غير المقبولة على الحقوق الأساسية، فإنه يستثني صراحة أغراض "الأمن القومي والدفاع أو الأغراض العسكرية" 5 وبعض استخدامات إنفاذ القانون.7 يكشف هذا عن توتر متأصل في الفلسفة التنظيمية: يولي الاتحاد الأوروبي أولوية للحقوق الإنسانية ولكنه يقر بضرورة الذكاء الاصطناعي القوي لوظائف الدولة. تُظهر الضمانات المفصلة للاستخدامات المسموح بها لتحديد الهوية البيومترية عن بعد من قبل جهات إنفاذ القانون 7 محاولة للموازنة بين هذه المصالح المتنافسة، ولكن قد يجادل النقاد بأن هذه الثغرات يمكن أن تقوض أهداف القانون الوقائية.28 هذا يسلط الضوء على أنه حتى في تنظيم يركز على الإنسان، يمكن أن تخلق الاعتبارات البراغماتية لسلطة الدولة والأمن مجالات تسوية أو ضعف محتمل للحقوق الفردية.
أمثلة على الاستثناءات المحدودة: البحث المستهدف عن شخص مفقود، منع هجوم إرهابي، أو تحديد المشتبه بهم في جرائم جنائية خطيرة.7 استخدام هذه الأنظمة بعد وقوع الحدث ("تحديد الهوية البيومترية عن بعد بعد الحدث") يعتبر حالة استخدام عالية المخاطر ويتطلب موافقة قضائية مرتبطة بجريمة جنائية.7
![]() |
قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي 2025 |
5. التعرف على العواطف في مكان العمل والمؤسسات التعليمية (Emotion Recognition in the Workplace and Educational Institutions)
الوصف: يحظر القانون أنظمة الذكاء الاصطناعي المصممة للكشف عن عواطف الأفراد وتفسيرها في بيئات العمل والمدارس، ما لم تكن لأسباب طبية أو تتعلق بالسلامة.7 لا يعتبر مجرد الكشف عن التعبيرات الجسدية أو الحركات تعرّفًا على العواطف ما لم يتم استخدامه لاستنتاج العواطف بناءً على بيانات بيومترية.26
التبرير الأخلاقي والاجتماعي: يهدف هذا الحظر إلى حماية خصوصية الموظفين والطلاب وكرامتهم، ومنع المراقبة الغازية في مكان العمل التي يمكن أن تخلق بيئات سامة وتؤثر سلبًا على الرفاه النفسي.16
أمثلة: لا يمكن لشركة مالية استخدام الذكاء الاصطناعي لمراقبة تعابير وجه الموظفين أثناء مكالمات العملاء لتقييم أدائهم أو حالتهم العاطفية.16 ومع ذلك، قد يُسمح بأنظمة الذكاء الاصطناعي التي تكتشف علامات التعب لدى المتداولين الذين يتخذون قرارات مالية حرجة لأسباب تتعلق بالسلامة، حيث يخدم هذا غرضًا مشروعًا ووقائيًا.16
6. الشرطة التنبؤية القائمة على التنميط (Predictive Policing Based on Profiling)
الوصف: يحظر القانون أنظمة الذكاء الاصطناعي التي تتنبأ باحتمالية ارتكاب شخص طبيعي لجرائم بناءً على التنميط أو تقييم السمات الشخصية فقط.7
التبرير الأخلاقي والاجتماعي: يهدف هذا الحظر إلى ضمان عدم تقييم الأفراد بناءً على سلوك تنبؤي للذكاء الاصطناعي، ومنع تعزيز التحيز المحتمل في أنظمة التنبؤ بالجريمة التي تستخدم البيانات التاريخية، مما قد يقوض الثقة العامة ويؤدي إلى التمييز.26
أمثلة: لا يغطي القانون الجرائم البسيطة أو المخالفات الإدارية، ولا التنبؤات القائمة على الموقع، ولا تقييم الكيانات القانونية، ولا أنظمة الذكاء الاصطناعي التي تدعم التقييم البشري بناءً على حقائق موضوعية حول النشاط الإجرامي.26
7. أنظمة الذكاء الاصطناعي التي تتلاعب بالسلوك البشري (AI Systems That Manipulate Human Behaviour)
الوصف: يحظر القانون أنظمة الذكاء الاصطناعي التي تنشر تقنيات لاواعية تتجاوز وعي الشخص أو تقنيات تلاعبية أو خادعة متعمدة، بهدف أو تأثير تشويه سلوك شخص أو مجموعة من الأشخاص بشكل مادي عن طريق إضعاف قدرتهم على اتخاذ قرارات مستنيرة.6 تشمل هذه التقنيات الرسائل اللاشعورية (مرئية، سمعية، لمسية)، والتلميحات تحت البصرية والسمعية، والصور المضمنة، والتضليل، والتلاعب الزمني.26
التبرير الأخلاقي والاجتماعي: تثير هذه التقنيات مخاوف أخلاقية عميقة تجاه استقلالية الإنسان وحرية الاختيار.26 يهدف الحظر إلى حماية الحرية المعرفية، الحق الأساسي في الفكر المستقل، وضمان أن الأفراد يتخذون قراراتهم بناءً على وعي كامل.21
أمثلة: لا يمكن لشركة استشارات مالية استخدام الذكاء الاصطناعي لتحليل نفسية العملاء ونشر تقنيات تلاعبية مخصصة تستغل التحيزات المعرفية لبيع منتجات استثمارية غير مناسبة.16
8. الكشط غير المستهدف لصور الوجه من الإنترنت أو لقطات كاميرات المراقبة (Untargeted Scraping of Facial Images from the Internet or CCTV Footage)
الوصف: يحظر القانون الجمع العشوائي وغير المستهدف لصور الوجه من المصادر العامة مثل الإنترنت أو لقطات كاميرات المراقبة لإنشاء قواعد بيانات للتعرف على الوجه.7
التبرير الأخلاقي والاجتماعي: يهدف هذا الحظر إلى حماية خصوصية الأفراد ومنع بناء قواعد بيانات واسعة للتعرف على الوجه دون موافقة، والتي يمكن أن تُستخدم للمراقبة الجماعية أو التنميط غير المشروع.26
أمثلة: يُحظر على شركات مثل Clearview AI جمع صور من الإنترنت لإنشاء قواعد بيانات لتحديد الهوية.26 ومع ذلك، توجد استثناءات لـ "الكشط المستهدف" (التركيز على مجموعات محددة) أو الصور التي يتم جمعها بموافقة صريحة، ولا يتم تسويقها، وتُستخدم فقط لأغراض البحث.26
الجدول 2: ملخص الاستخدامات الثمانية المحظورة للذكاء الاصطناعي بموجب قانون الاتحاد الأوروبي للذكاء الاصطناعي
يوفر هذا الجدول ملخصًا سريعًا وسهل الفهم للموضوع الأساسي. بالنسبة للجمهور المهني، يعد نقطة مرجعية ممتازة، مما يسمح لهم بتحديد وفهم كل استخدام محظور بسرعة، والأساس الأخلاقي الكامن وراءه، ومثال عملي. هذا يبسط فهم الأحكام القانونية المعقدة ويساعد الشركات على تقييم أنظمة الذكاء الاصطناعي الخاصة بها بسرعة مقابل القائمة المحظورة.
الاستثناءات العامة من نطاق القانون
لضمان عدم تقييد الابتكارات الأساسية والمفيدة، ينص القانون على بعض الاستثناءات من نطاقه 26:
أنظمة الذكاء الاصطناعي المطورة والمستخدمة حصريًا لأغراض الأمن القومي أو الدفاع أو الأغراض العسكرية.5
أنظمة الذكاء الاصطناعي المستخدمة في التعاون القضائي وإنفاذ القانون مع الدول الأعضاء، مع ضمانات مناسبة.26
الممارسات التي تعد جزءًا من أنشطة البحث والتطوير، مثل اختبار أنظمة الذكاء الاصطناعي قبل طرحها في السوق.26
أنظمة الذكاء الاصطناعي المستخدمة في الأنشطة غير المهنية.5
أنظمة الذكاء الاصطناعي مفتوحة المصدر والمجانية، ما لم تقع تحت أي حظر محدد في القانون.26
الآثار الأوسع والتحديات التي تواجه أصحاب المصلحة
يمثل قانون الذكاء الاصطناعي الأوروبي تحولًا كبيرًا في المشهد التنظيمي العالمي للذكاء الاصطناعي، مما يفرض آثارًا وتحديات واسعة النطاق على مختلف أصحاب المصلحة، سواء داخل الاتحاد الأوروبي أو خارجه.
التأثير على الشركات (داخل وخارج الاتحاد الأوروبي)، المطورين، والمبتكرين
نطاق التطبيق الواسع: يمتد نطاق تطبيق قانون الذكاء الاصطناعي الأوروبي ليشمل المطورين (المقدمين)، والمستخدمين (المشغلين)، والأفراد المتأثرين، والمستوردين، والموزعين، بغض النظر عما إذا كانوا مقيمين في الاتحاد الأوروبي أو خارجه.2 هذا يعني أنه إذا تم استخدام الذكاء الاصطناعي الخاص بهم أو مخرجاته في الاتحاد الأوروبي، فإنهم يخضعون للقانون.6 هذا النطاق الواسع يفرض على الشركات العالمية إعادة تقييم ممارساتها في مجال الذكاء الاصطناعي.
تكاليف الامتثال والتغييرات التشغيلية: تواجه الشركات الأمريكية والكيانات الأخرى غير التابعة للاتحاد الأوروبي تكاليف امتثال كبيرة وتغييرات تشغيلية.23 يشمل ذلك تنفيذ نظام مستمر لإدارة المخاطر لمراقبة الذكاء الاصطناعي طوال دورة حياته، وممارسات حوكمة بيانات صارمة لضمان جودة بيانات التدريب والتحقق والاختبار، وتوثيق تقني شامل يوضح تصميم النظام وقدراته وقيوده، ومراقبة ما بعد السوق لتقييم الأداء المستمر والامتثال.4 هذه المتطلبات تتطلب استثمارًا كبيرًا في الموارد والخبرة.
التأثير على الابتكار: يجادل النقاد بأن موقف الاتحاد الأوروبي التنظيمي، على الرغم من كونه جديرًا بالثناء من الناحية الأخلاقية، قد يؤدي إلى تعميق نقاط الضعف الصناعية، وردع الاستثمار، وعرقلة نمو الشركات الناشئة في مجال الذكاء الاصطناعي.12 يكمن القلق في إنشاء "نظام بيئي تطويري من مستويين" حيث يحدث الابتكار المتطور خارج الاتحاد الأوروبي، بينما يتطور الذكاء الاصطناعي المنظم بشكل أبطأ داخل حدوده.13 ومع ذلك، يجادل المؤيدون بأن تحديد فئات مخاطر الذكاء الاصطناعي يوفر إرشادات منظمة يمكن أن تسرع الابتكار عن طريق تقليل عدم اليقين وتعزيز تطوير الذكاء الاصطناعي المسؤول.13 إن الوضوح التنظيمي يمكن أن يكون في الواقع حافزًا للابتكار المسؤول، حيث تعرف الشركات حدود اللعبة.
الشركات الصغيرة والمتوسطة والشركات الناشئة: قد تشعر الشركات الناشئة، التي غالبًا ما تكون مقيدة بالموارد وتعمل تحت ضغط السرعة، بعبء الامتثال بشكل أكبر بسبب الأعباء الإدارية العالية ومحدودية الوصول إلى الخبرة التنظيمية.13 قد تؤدي تكاليف الامتثال والموافقات المعقدة إلى إعاقة النماذج الأولية السريعة والنشر العالمي لحلول الذكاء الاصطناعي.13 ومع ذلك، يتضمن القانون تدابير لدعم الابتكار، مثل صناديق الاختبار التنظيمية والاختبارات في العالم الحقيقي، والتي يمكن للشركات الصغيرة والمتوسطة والشركات الناشئة الوصول إليها لتطوير واختبار أنظمة الذكاء الاصطناعي المبتكرة في بيئات خاضعة للرقابة قبل طرحها في السوق.7
![]() |
لماذا حظرت أوروبا بعض تطبيقات الذكاء الاصطناعي؟ |
تحديات التنفيذ والامتثال (مثل الغموض التعريفي، قيود الموارد)
عدم اليقين القانوني والغموض: يؤدي تعقيد القانون (أكثر من 450 صفحة، 68 تعريفًا جديدًا، ما يقرب من 200 تمهيد) والغموض في تصنيف المخاطر 19 إلى عدم اليقين الذي قد يعيق تبني الذكاء الاصطناعي والاستثمار فيه.24 يترك الغموض التعريفي، مثل ما يشكل "نظام ذكاء اصطناعي" 19 أو "إشرافًا بشريًا كافيًا"، مجالًا لتفسيرات متباينة عبر الدول الأعضاء والصناعات.22 هذا يتطلب من الشركات استثمارًا مستمرًا في الخبرة القانونية والتفسير الدقيق.
نقص القدرة المؤسسية: تواجه العديد من الدول الأعضاء في الاتحاد الأوروبي نقصًا في التمويل ونقصًا في الموظفين الخبراء اللازمين لإنفاذ قانون الذكاء الاصطناعي بفعالية.10 هناك خطر فقدان مواهب الذكاء الاصطناعي لصالح الشركات التي يمكنها دفع رواتب أعلى.10 إن هذا "الجمع بين نقص التمويل ونقص المواهب سيكون أحد التحديات الرئيسية في إنفاذ قانون الذكاء الاصطناعي".10 وهذا يعني أن القدرة على الإنفاذ الفعلي قد تتفاوت بين الدول الأعضاء، مما قد يؤدي إلى تباين في مستويات الامتثال.
التحديات التقنية: يجب على الشركات تكييف العمليات الداخلية على المستويات التنظيمية والتقنية والحوكمة.14 يشمل ذلك التقييم الدقيق وتصنيف أنظمة الذكاء الاصطناعي حسب مستوى المخاطر، وإعداد وثائق تقنية مفصلة، وتنفيذ ضوابط أمنية، ودمج الإشراف البشري، وإطلاق برامج تدريب إلزامية للموظفين المعنيين لضمان الوعي بالجوانب الأخلاقية والقانونية.14 الامتثال هو عملية مستمرة، وليست جهدًا لمرة واحدة، تتطلب إدارة مستمرة، ومراجعات، وتحديثات.14 يجب أن تتبنى الشركات نهج "الامتثال بالتصميم" لضمان دمج المبادئ التنظيمية في دورة حياة تطوير النظام منذ المراحل الأولى.14
التنافر بين التنظيم والممارسة: هناك صراع للتوفيق بين التفويضات الأخلاقية الواسعة للقانون والممارسات التقنية الملموسة، مما يخلق احتكاكًا عند تقاطع القانون والسياسة والابتكار.22 على سبيل المثال، ضمان "بيانات تدريب ذات صلة وممثلة وخالية من الأخطاء وكاملة" 22 يمثل تحديًا عندما تعتمد مجموعات البيانات للذكاء الاصطناعي على مجموعات عالمية متنوعة، مما قد يؤدي إلى التحيز.
"تأثير بروكسل": تأثير الاتحاد الأوروبي العالمي على تنظيم الذكاء الاصطناعي
يهدف الاتحاد الأوروبي صراحة إلى أن يكون لقانون الذكاء الاصطناعي "تأثير بروكسل"، مما يضع معيارًا عالميًا للاستخدام المسؤول للذكاء الاصطناعي.3 هذا يعني أن الشركات غير التابعة للاتحاد الأوروبي التي تخدم عملاء في الاتحاد الأوروبي ستحتاج إلى تلبية معايير صارمة للشفافية والتوثيق والإشراف البشري.23 هذا التوجه يمكن أن يؤدي إلى توحيد المعايير العالمية بحكم الأمر الواقع، حيث تجد الشركات أنه من الأكثر فعالية من حيث التكلفة تبني أعلى معايير الامتثال (معايير الاتحاد الأوروبي) لمنتجاتها وخدماتها العالمية بدلاً من تطوير إصدارات مختلفة لكل منطقة.23
ومع ذلك، هناك أيضًا انتقادات لهذا "التأثير"، حيث يرى البعض أنه قد يؤدي إلى تصدير "ذكاء اصطناعي خطير" إلى دول الجنوب العالمي من خلال الثغرات أو الاستثناءات في القانون.29 كما أن هناك مخاوف من أن تركيز الاتحاد الأوروبي على التنظيم قد يعيق الابتكار المحلي، مما يؤدي إلى اعتماد أكبر على التقنيات الخارجية من الولايات المتحدة والصين.12 على الرغم من هذه المخاوف، فإن قانون الذكاء الاصطناعي الأوروبي يمثل خطوة جريئة نحو حماية المواطنين في عالم مدفوع بالذكاء الاصطناعي، وقد يصبح نموذجًا صارمًا لبقية العالم.23
الخلاصة
يمثل قانون الذكاء الاصطناعي الأوروبي تشريعًا رائدًا يهدف إلى إرساء معايير عالمية لتطوير ونشر الذكاء الاصطناعي بشكل أخلاقي ومسؤول. من خلال نهجه القائم على المخاطر، يضع القانون محظورات صارمة على ثمانية استخدامات للذكاء الاصطناعي تُعتبر تشكل تهديدًا غير مقبول للحقوق الأساسية والكرامة الإنسانية. هذه المحظورات، التي دخلت حيز التنفيذ في فبراير 2025، تعكس التزام الاتحاد الأوروبي بحماية الأفراد من التلاعب، والاستغلال، والتمييز، والمراقبة الجماعية غير المبررة.
إن التعريف الدقيق لـ "نظام الذكاء الاصطناعي" والجدول الزمني المرحلي لتطبيق القانون يؤكدان على التعقيد والتفكير الاستراتيجي وراء هذا التشريع. فالاتحاد الأوروبي لا يسعى فقط إلى تنظيم ما هو موجود، بل يسعى أيضًا إلى توقع المخاطر المستقبلية التي قد تنشأ عن التقنيات الناشئة. ومع ذلك، فإن هذا الطموح لا يخلو من التحديات. تواجه الشركات، سواء داخل الاتحاد الأوروبي أو خارجه، أعباء امتثال كبيرة وتكاليف تشغيلية، مما يتطلب إعادة تقييم شاملة لممارساتها في مجال الذكاء الاصطناعي. كما أن هناك تحديات تتعلق بالغموض التعريفي، ونقص القدرة المؤسسية في الدول الأعضاء لإنفاذ القانون بفعالية، والتنافر بين المبادئ الأخلاقية الواسعة والمتطلبات التقنية الملموسة.
على الرغم من هذه التحديات، فإن قانون الذكاء الاصطناعي الأوروبي يمتلك القدرة على ممارسة "تأثير بروكسل" كبير، مما يدفع الشركات في جميع أنحاء العالم إلى تبني معايير أعلى للشفافية والمساءلة والإشراف البشري. هذا القانون ليس مجرد مجموعة من القواعد، بل هو بيان فلسفي حول كيفية دمج الذكاء الاصطناعي في مجتمعاتنا بطريقة تعزز الثقة والابتكار المسؤول مع حماية القيم الأساسية. يتطلب النجاح المستمر لهذا الإطار جهدًا تعاونيًا من المشرعين والشركات والمجتمع المدني للتكيف مع التطورات التكنولوجية مع الحفاظ على التزام لا يتزعزع بالحقوق الإنسانية.
📚 قائمة المصادر التي تم الاقتباس منها والمعتمدة (EU AI Act)
-
-
🔗 The Roadmap to the EU AI Act: A Detailed Guide – Alexander Thamm
-
🔗 EU Formally Adopts World's First AI Law – Data Matters Privacy Blog
-
-
-
-
🔗 Artificial Intelligence Act: MEPs Adopt Landmark Law – European Parliament
-
🔗 EU AI Act: Ethics, Innovation & Governance Explained – Parva Consulting
-
🔗 Legal and Ethical Implications of AI-Based Crowd Analysis – PMC
-
🔗 EU Member States Face Funding Shortages to Enforce AI Act – PYMNTS
-
🔗 The Geopolitics Of AI Regulation – Yale Review of International Studies
-
🔗 The EU's AI Power Play: Between Deregulation and Innovation – Carnegie
-
🔗 How the EU AI Act Will Reshape Global Innovation – Senior Executive
-
-
🔗 AI Governance: Navigating EU Compliance Standards – Moody's
-
🔗 AI Act Prohibited Practices (7 Simple Ways to Compliance) – Redcliffe Training
-
🔗 Guidelines on the Definition of an “AI System” – Global Policy Watch
-
-
🔗 The EU AI Act: Key Milestones & Compliance Challenges – Cooley
-
🔗 Navigating the Legislative Dilemma – Taylor & Francis Online
-
🔗 Cognitive Freedom and Legal Accountability – Cambridge Journal
-
-
-
-
🔗 Article 5: Prohibited AI Practices – ArtificialIntelligenceAct.eu
-
-
-
-
🔗 The Real Brussels Effect and Responsible AI Use – TechPolicy Press
-
🔗 European AI Act: Opportunities and Challenges – Roland Berger
-
🔗 The Roadmap to the EU AI Act: A Detailed Guide – Alexander Thamm
🔗 EU Formally Adopts World's First AI Law – Data Matters Privacy Blog
🔗 Artificial Intelligence Act: MEPs Adopt Landmark Law – European Parliament
🔗 EU AI Act: Ethics, Innovation & Governance Explained – Parva Consulting
🔗 Legal and Ethical Implications of AI-Based Crowd Analysis – PMC
🔗 EU Member States Face Funding Shortages to Enforce AI Act – PYMNTS
🔗 The Geopolitics Of AI Regulation – Yale Review of International Studies
🔗 The EU's AI Power Play: Between Deregulation and Innovation – Carnegie
🔗 How the EU AI Act Will Reshape Global Innovation – Senior Executive
🔗 AI Governance: Navigating EU Compliance Standards – Moody's
🔗 AI Act Prohibited Practices (7 Simple Ways to Compliance) – Redcliffe Training
🔗 Guidelines on the Definition of an “AI System” – Global Policy Watch
🔗 The EU AI Act: Key Milestones & Compliance Challenges – Cooley
🔗 Navigating the Legislative Dilemma – Taylor & Francis Online
🔗 Cognitive Freedom and Legal Accountability – Cambridge Journal
🔗 Article 5: Prohibited AI Practices – ArtificialIntelligenceAct.eu
🔗 The Real Brussels Effect and Responsible AI Use – TechPolicy Press
🔗 European AI Act: Opportunities and Challenges – Roland Berger