آخر الأخبار

حظر 8 استخدامات للذكاء الاصطناعي لحماية الحقوق


القانون الأوروبي الجديد: حظر 8 استخدامات للذكاء الاصطناعي لحماية الحقوق الأساسية


يُعد الذكاء الاصطناعي (AI) القوة الدافعة وراء تحولات غير مسبوقة في جميع جوانب الحياة المعاصرة، من الاقتصاد إلى المجتمع. ومع تسارع وتيرة الابتكار في هذا المجال، تبرز الحاجة الملحة إلى إطار تنظيمي يضمن تسخير هذه التقنية لخدمة البشرية، لا الإضرار بها. في هذا السياق، يمثل قانون الذكاء الاصطناعي الأوروبي (EU AI Act) علامة فارقة عالمية، حيث يقدم أول إطار قانوني شامل وموحد للذكاء الاصطناعي.

الاتحاد الأوروبي يحظر استخدامات خطيرة للذكاء الاصطناعي لحماية الحقوق الأساسية.
8 استخدامات محظورة للذكاء الاصطناعي لحماية الحقوق الأساسية

فجر تنظيم الذكاء الاصطناعي في أوروبا


يُعتبر قانون الذكاء الاصطناعي الأوروبي، الذي اعتمده البرلمان الأوروبي رسميًا في 13 مارس 2024، أول إطار قانوني أفقي شامل للذكاء الاصطناعي في العالم.1 يهدف هذا التشريع الرائد إلى إنشاء إطار تنظيمي وقانوني موحد للذكاء الاصطناعي داخل الاتحاد الأوروبي.5 إنه ليس مجرد مجموعة من القواعد الفنية؛ بل يمثل تموضعاً استراتيجياً للاتحاد الأوروبي كقائد عالمي في حوكمة الذكاء الاصطناعي.

يسعى القانون إلى ضمان أن تكون أنظمة الذكاء الاصطناعي آمنة وشفافة، وأن لا تُعرّض المستهلكين في الاتحاد الأوروبي لمخاطر غير مقبولة.2 ويغطي جميع أنواع الذكاء الاصطناعي عبر مجموعة واسعة من القطاعات، مع استثناءات لأنظمة الذكاء الاصطناعي المستخدمة حصريًا لأغراض عسكرية أو أمن قومي أو بحثية أو غير مهنية.5


أهدافه الأساسية: السلامة، الحقوق الأساسية، والابتكار


تشمل الأهداف الأساسية للقانون حماية الحقوق الأساسية والديمقراطية وسيادة القانون والاستدامة البيئية من مخاطر الذكاء الاصطناعي عالية الخطورة، مع تعزيز الابتكار في الوقت نفسه.7 يسعى القانون إلى تحقيق توازن دقيق بين تشجيع الابتكار وضمان حماية الحقوق.8 هذا التوازن يعكس التزام الاتحاد الأوروبي بتطوير الذكاء الاصطناعي الذي يركز على الإنسان، ويستند إلى المبادئ السبعة للذكاء الاصطناعي الجدير بالثقة: الإشراف البشري، المتانة التقنية والسلامة، الخصوصية وحوكمة البيانات، الشفافية، التنوع وعدم التمييز والإنصاف، الرفاه الاجتماعي والبيئي، والمساءلة.9

تُعد أهمية هذا القانون غالبًا ما تُقارن باللائحة العامة لحماية البيانات (GDPR)، حيث يهدف الاتحاد الأوروبي إلى تحقيق "تأثير بروكسل" مماثل.3 هذا الطموح يشير إلى أن الاتحاد الأوروبي يسعى لأن يكون المرجع العالمي للذكاء الاصطناعي الأخلاقي والمتمحور حول الإنسان، مستفيدًا من قوته السوقية لتصدير فلسفته التنظيمية عالميًا. وهذا يعني أن الشركات في جميع أنحاء العالم، بغض النظر عن موقعها، ستحتاج على الأرجح إلى التوافق مع معايير الاتحاد الأوروبي إذا رغبت في العمل أو خدمة العملاء في الاتحاد الأوروبي، مما يخلق معيارًا عالميًا بحكم الأمر الواقع. هذا الموقف الاستباقي، على الرغم من الانتقادات التي تشير إلى احتمال خنق الابتكار 12، يوحي بالتزام قوي بقيمه، مستفيدًا من قوته السوقية لتصدير فلسفته التنظيمية عالميًا.


أهمية فئة "المخاطر غير المقبولة"


يعتمد القانون نهجًا قائمًا على المخاطر، ويصنف أنظمة الذكاء الاصطناعي إلى فئات: مخاطر غير مقبولة (محظورة)، مخاطر عالية (تخضع لحوكمة صارمة)، مخاطر محدودة (تتطلب الشفافية)، ومخاطر دنيا (تُشجع فيها أفضل الممارسات الطوعية).4

تُعد فئة "المخاطر غير المقبولة" ذات أهمية قصوى، حيث تحدد تطبيقات الذكاء الاصطناعي التي تشكل تهديدات خطيرة للحقوق الأساسية، مما يؤدي إلى حظرها بشكل كامل.5 هذه المحظورات غير قابلة للتفاوض وتطبق على جميع المنظمات العاملة داخل سوق الاتحاد الأوروبي.16 إن هذه المحظورات ليست قيودًا تقنية تعسفية، بل هي متجذرة بعمق في القيم التأسيسية للاتحاد الأوروبي فيما يتعلق بالكرامة الإنسانية والاستقلالية وعدم التمييز. وبالتالي، فإن الإطار القانوني هو امتداد مباشر للاعتبارات الأخلاقية، ويهدف إلى منع الذكاء الاصطناعي من تقويض المبادئ المجتمعية الأساسية. هذا يرفع قانون الذكاء الاصطناعي إلى ما هو أبعد من مجرد الامتثال التقني إلى مسألة حوكمة أخلاقية، وهو اتجاه مهم في تنظيم التكنولوجيا الحديثة.


فهم قانون الذكاء الاصطناعي الأوروبي: إطار عمل شامل


يُعد فهم نطاق قانون الذكاء الاصطناعي الأوروبي أمرًا بالغ الأهمية لأي كيان يتعامل مع أنظمة الذكاء الاصطناعي. يبدأ هذا الفهم بالتعريف الدقيق لما يشكل "نظام ذكاء اصطناعي" بموجب هذا القانون، ثم يتوسع ليشمل النهج القائم على المخاطر الذي يتبناه القانون، وأخيرًا، الجداول الزمنية المحددة لتطبيقه وإنفاذه.


تعريف "نظام الذكاء الاصطناعي" بموجب القانون


يُعرف قانون الذكاء الاصطناعي الأوروبي "نظام الذكاء الاصطناعي" بأنه نظام قائم على الآلة مصمم للعمل بمستويات متفاوتة من الاستقلالية، وقد يُظهر قدرة على التكيف بعد النشر، والذي يستنتج، لأهداف صريحة أو ضمنية، من المدخلات التي يتلقاها كيفية توليد مخرجات مثل التنبؤات أو المحتوى أو التوصيات أو القرارات التي يمكن أن تؤثر على البيئات المادية أو الافتراضية.1

تشمل المكونات الرئيسية لهذا التعريف، والتي تم توضيحها من قبل المفوضية الأوروبية، سبعة عناصر حاسمة :

  • قائم على الآلة: يشير هذا إلى أن أنظمة الذكاء الاصطناعي يتم تطويرها وتشغيلها على الآلات، وتدمج مكونات الأجهزة والبرامج التي تمكنها من العمل.

  • الاستقلالية: تعمل الأنظمة بدرجة معينة من الاستقلالية عن التدخل البشري. هذا يعني أن النظام يمكنه العمل دون تدخل بشري مباشر أو يدوي كامل. الأنظمة التي تتطلب تدخلًا بشريًا يدويًا كاملاً تقع خارج نطاق التعريف.17

  • القدرة على التكيف: يشير هذا إلى قدرة النظام على التعلم الذاتي وتغيير السلوك أثناء الاستخدام. ومع ذلك، من المهم ملاحظة أن القدرة على التكيف ليست شرطًا إلزاميًا لتصنيف النظام كذكاء اصطناعي بموجب القانون.17

  • الأهداف: يجب أن يكون للنظام أهداف، سواء كانت محددة بوضوح (صريحة) أو مستنتجة ضمنيًا من سلوك النظام وافتراضاته الأساسية.17

  • الاستنتاج: تُعد القدرة على الاستنتاج من المدخلات كيفية توليد المخرجات "شرطًا أساسيًا لا غنى عنه" لأنظمة الذكاء الاصطناعي.17 يشير هذا إلى عملية استخلاص النماذج أو الخوارزميات من المدخلات أو البيانات لتوليد المخرجات.1 تشمل التقنيات المستخدمة تعلم الآلة، والأساليب القائمة على المنطق والمعرفة.1

  • المخرجات: تشمل المخرجات أربع فئات واسعة: التنبؤات (تقديرات حول قيمة غير معروفة)، المحتوى (المواد التي تم إنشاؤها حديثًا مثل النصوص أو الصور)، التوصيات (اقتراحات لإجراءات أو منتجات أو خدمات محددة)، والقرارات (الاستنتاجات أو الخيارات التي يتخذها نظام الذكاء الاصطناعي).17

  • التفاعل مع البيئة: يعني أن نظام الذكاء الاصطناعي ليس سلبيًا، بل يؤثر بنشاط على البيئة التي يتم نشره فيها، سواء كانت مادية أو افتراضية.17

يستثني التعريف أنظمة البرمجيات التقليدية الأبسط أو أساليب البرمجة التي تعتمد فقط على القواعد التي يحددها الأشخاص الطبيعيون.1 وقد أصدرت المفوضية الأوروبية إرشادات لتوضيح هذا التعريف، مؤكدة على التقييم الشامل لكل حالة على حدة.19 إن هذا التعريف المفصل والتركيز على "الاستنتاج" كـ "شرط أساسي لا غنى عنه" أمر بالغ الأهمية. إن إرشادات المفوضية التي تتطلب "تقييمًا شاملاً لكل حالة على حدة" 19 والذكر الصريح لمخاوف "غسل الذكاء الاصطناعي" 19 تسلط الضوء على تحدٍ عملي كبير. قد تقوم الشركات بتصنيف أنظمة غير ذكاء اصطناعي على أنها ذكاء اصطناعي لأغراض التسويق، أو على العكس، تفشل في التعرف على أنظمتها كذكاء اصطناعي بموجب القانون، مما يؤدي إلى عدم الامتثال. يخلق هذا الغموض عدم يقين قانوني 19 ويتطلب عمليات تصنيف داخلية قوية وخبرة قانونية.14 يعني ذلك أن مجرد تسمية شيء ما "ذكاء اصطناعي" لا يجعله كذلك بموجب القانون، ويتطلب فهمًا تقنيًا وقانونيًا عميقًا لتحديد النطاق.

أقرّ الاتحاد الأوروبي قانونًا جديدًا يُحظر فيه 8 استخدامات خطيرة لتقنيات الذكاء الاصطناعي، بهدف حماية الكرامة والخصوصية والحقوق الأساسية للأفراد في ظل الثورة الرقمية.
قانون الذكاء الاصطناعي الأوروبي – حظر استخدامات تهدد حقوق الإنسان.

النهج القائم على المخاطر في القانون


يعتمد القانون نهجًا متدرجًا قائمًا على المخاطر لتنظيم الذكاء الاصطناعي، مقسمًا الأنظمة إلى أربع فئات رئيسية تحدد مستوى الالتزامات التنظيمية 4:

  • مخاطر غير مقبولة: تطبيقات الذكاء الاصطناعي المحظورة تمامًا بسبب تشكيلها تهديدات خطيرة للحقوق الأساسية. هذه هي محور هذا التقرير.4

  • مخاطر عالية: أنظمة الذكاء الاصطناعي التي يُتوقع أن تشكل تهديدات كبيرة للصحة أو السلامة أو الحقوق الأساسية.4 تشمل الأمثلة الذكاء الاصطناعي في البنية التحتية الحيوية، والرعاية الصحية، والتعليم، والتوظيف، وإنفاذ القانون، والعدالة.7 تخضع هذه الأنظمة لمتطلبات صارمة مثل إدارة المخاطر، وحوكمة البيانات، والإشراف البشري، والشفافية، والدقة، وتقييمات المطابقة.4

  • مخاطر محدودة: أنظمة الذكاء الاصطناعي ذات التزامات الشفافية المحددة، مثل روبوتات الدردشة أو التزييف العميق، والتي تتطلب إبلاغ المستخدمين بأنهم يتفاعلون مع الذكاء الاصطناعي.4

  • مخاطر دنيا: أنظمة الذكاء الاصطناعي التي لا توجد عليها التزامات محددة، ولكن يُشجع فيها على اتباع أفضل الممارسات الطوعية.4 تشمل الأمثلة مرشحات البريد العشوائي أو ألعاب الفيديو البسيطة.23

تُعد نماذج الذكاء الاصطناعي للأغراض العامة (GPAI)، مثل ChatGPT، فئة مميزة، وتخضع لمتطلبات الشفافية وتقييمات إضافية إذا كانت تشكل مخاطر نظامية.4


الجداول الزمنية الرئيسية للتطبيق والإنفاذ


تم نشر قانون الذكاء الاصطناعي في الجريدة الرسمية في 12 يوليو 2024، ودخل حيز التنفيذ في 2 أغسطس 2024.2 ومع ذلك، فإن تطبيقه وإنفاذه يتم على مراحل، مما يعكس تعقيد القانون والحاجة إلى فترات انتقالية للشركات للتكيف.

الجدول 1: أبرز المحطات الزمنية وتواريخ تطبيق قانون الذكاء الاصطناعي الأوروبي

التاريخ

المعلم/الحكم

الوصف

13 مارس 2024

موافقة البرلمان الأوروبي

وافق البرلمان الأوروبي على مشروع قانون الذكاء الاصطناعي.2

12 يوليو 2024

النشر في الجريدة الرسمية

تم نشر القانون رسميًا في الجريدة الرسمية للاتحاد الأوروبي.2

2 أغسطس 2024

دخول قانون الذكاء الاصطناعي حيز التنفيذ

بدأ سريان القانون رسميًا.2

2 فبراير 2025

سريان حظر أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة ومتطلبات محو الأمية في الذكاء الاصطناعي

تدخل أحكام حظر أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة حيز التنفيذ (بعد 6 أشهر من الدخول حيز التنفيذ)، بالإضافة إلى متطلبات محو الأمية في الذكاء الاصطناعي.2

2 أغسطس 2025

سريان قواعد حوكمة نماذج الذكاء الاصطناعي للأغراض العامة (GPAI) والتزاماتها، والغرامات على انتهاكات المادة 5

تصبح قواعد الحوكمة والالتزامات الخاصة بمقدمي نماذج الذكاء الاصطناعي للأغراض العامة، بالإضافة إلى اللوائح المتعلقة بالإخطارات للسلطات والغرامات، سارية المفعول.2

2 أغسطس 2026

دخول التزامات أنظمة الذكاء الاصطناعي عالية المخاطر (المادة 6(2) والملحق الثالث) حيز التنفيذ

تصبح معظم متطلبات القانون، بما في ذلك الالتزامات الخاصة بأنظمة الذكاء الاصطناعي عالية الخطورة، قابلة للتنفيذ بالكامل (بعد 24 شهرًا من الدخول حيز التنفيذ).2

2 أغسطس 2027

دخول التزامات أنظمة الذكاء الاصطناعي عالية المخاطر كمكونات سلامة (المادة 6(1)) حيز التنفيذ؛ يسري القانون بالكامل

تدخل الالتزامات الخاصة بأنظمة الذكاء الاصطناعي عالية الخطورة كمكونات سلامة للمنتجات (مثل ألعاب الأطفال والأجهزة الطبية) حيز التنفيذ (بعد 36 شهرًا من الدخول حيز التنفيذ).2

ديسمبر 2030

الامتثال لأنظمة الذكاء الاصطناعي في أنظمة تكنولوجيا المعلومات واسعة النطاق بالملحق X

يجب أن تتوافق أنظمة الذكاء الاصطناعي التي تعد مكونات لأنظمة تكنولوجيا المعلومات واسعة النطاق المدرجة في الملحق X، والتي تم طرحها في السوق أو وضعها في الخدمة قبل 2 أغسطس 2027، مع القانون.4

إن الجدول الزمني المتقطع للتطبيق ليس مجرد إجراء إداري؛ إنه تصميم تنظيمي استراتيجي. تدخل المحظورات المتعلقة بالمخاطر غير المقبولة حيز التنفيذ في وقت مبكر (فبراير 2025)، مما يعكس أولوية الاتحاد الأوروبي في حماية الحقوق الأساسية. تتمتع الأنظمة عالية المخاطر بفترة انتقالية أطول (أغسطس 2026/2027)، اعترافًا بعمليات إعادة التصميم الكبيرة وجهود الامتثال المطلوبة.1 يوفر هذا النهج المرحلي للشركات نافذة للتكيف، ولكنه يخلق أيضًا عبئًا مستمرًا للامتثال.14 يعني تاريخ السريان المبكر للمحظورات أن هناك حاجة إلى إجراءات فورية لبعض استخدامات الذكاء الاصطناعي، بينما تتطلب استخدامات أخرى استراتيجية امتثال مستدامة وطويلة الأجل. هذا يشير إلى أن "الامتثال بالتصميم" 14 ليس مجرد أفضل الممارسات، بل هو ضرورة لتجنب العقوبات المستقبلية والاضطرابات التشغيلية.


الاستخدامات الثمانية المحظورة للذكاء الاصطناعي: حماية الحقوق الأساسية


يسرد قانون الذكاء الاصطناعي الأوروبي صراحة ممارسات معينة للذكاء الاصطناعي التي تعتبر تشكل "مستوى غير مقبول من المخاطر" على الحقوق الأساسية وبالتالي تُحظر تمامًا.4 هذه المحظورات غير قابلة للتفاوض وتطبق على جميع المنظمات العاملة داخل سوق الاتحاد الأوروبي.16 ينطبق الحظر على كل من الشركات التي تقدم وتستخدم أنظمة الذكاء الاصطناعي هذه.15 العقوبات على انتهاك هذه المحظورات شديدة، تصل إلى 40 مليون يورو أو 7% من إجمالي حجم الأعمال السنوي العالمي، أيهما أعلى.4 دخلت الأحكام التي تحظر هذه الممارسات حيز التنفيذ في 2 فبراير 2025.2

إن الإشارة إلى "المرآة السوداء" 16 في سياق التقييم الاجتماعي هي مؤشر قوي على نهج الاتحاد الأوروبي الاستباقي، الذي يكاد يكون تأمليًا، لتنظيم الذكاء الاصطناعي. فبدلاً من انتظار حدوث ضرر واسع النطاق، يسعى القانون إلى منع السيناريوهات البائسة المصورة في الثقافة الشعبية من أن تصبح حقيقة واقعة. هذا يشير إلى فلسفة تنظيمية ليست مجرد رد فعل على الأضرار القائمة، بل تحاول توقع المخاطر المجتمعية المستقبلية التي تشكلها التقنيات الناشئة. هذه البصيرة، على الرغم من أنها جديرة بالثناء، يمكن أن تسهم أيضًا في "التعقيد والغموض" 19 حيث تحاول تنظيم تقنيات لا تزال قدراتها الكاملة وتأثيراتها المجتمعية تتطور.

قانون الذكاء الاصطناعي الأوروبي – حظر استخدامات تهدد حقوق الإنسان.
eu-ai-act-prohibited-ai-practices

فيما يلي تفصيل للاستخدامات الثمانية المحظورة:

1. أنظمة التقييم الاجتماعي (Social Scoring Systems)


الوصف: يحظر القانون أنظمة الذكاء الاصطناعي التي تقوم بتقييم أو تصنيف الأفراد بناءً على سلوكهم الاجتماعي أو خصائصهم الشخصية، مما يؤدي إلى معاملة ضارة أو غير مواتية في سياقات اجتماعية غير ذات صلة بالظروف التي تم فيها جمع البيانات.5 يشمل ذلك الأنظمة التي تخصص درجات أو تصنيفات للأفراد أو المجموعات.26

التبرير الأخلاقي والاجتماعي: يهدف هذا الحظر إلى منع إنشاء "أنظمة طبقات رقمية" وحماية كرامة الفرد وخصوصيته من التقييمات التعسفية.26 يضمن القانون أن القرارات المتعلقة بالأفراد تظل ذات صلة وعادلة، ويمنع النتائج التمييزية وغير العادلة التي قد تنشأ عن تقييمات غير مبررة للسلوك الاجتماعي.16

أمثلة: لا يمكن لبنك استخدام نظام ذكاء اصطناعي يرفض القروض للأفراد بناءً على سلوكهم على وسائل التواصل الاجتماعي أو آرائهم السياسية أو ارتباطاتهم الشخصية التي لا علاقة لها مباشرة بالجدارة الائتمانية.16


2. أنظمة استغلال نقاط الضعف (Exploitative Systems Targeting Vulnerabilities)


الوصف: يحظر القانون أنظمة الذكاء الاصطناعي التي تستغل نقاط ضعف مجموعات معينة من الأشخاص بسبب العمر أو الإعاقة أو الأوضاع الاجتماعية أو الاقتصادية الخاصة، بهدف أو تأثير تشويه سلوكهم بشكل مادي.7

التبرير الأخلاقي والاجتماعي: يهدف هذا الحظر إلى حماية الفئات الضعيفة، مثل الأطفال من ألعاب الذكاء الاصطناعي التلاعبية أو الألعاب التي تشجع السلوكيات الخطرة، وكبار السن من العروض المخصصة الخادعة أو التكتيكات القسرية التي تستغل القدرات المعرفية.26 يضمن القانون عدم تعرض الأفراد لضرر مالي أو نفسي نتيجة للتلاعب.26

أمثلة: لا يمكن لتطبيق استثمار استخدام الذكاء الاصطناعي لتحديد العملاء المسنين الذين يعانون من تدهور إدراكي والتوصية تلقائيًا بمنتجات مالية معقدة ليست في مصلحتهم.16 ومع ذلك، يُسمح بأنظمة الذكاء الاصطناعي التي توفر أدوات تعليمية للأطفال أو روبوتات مساعدة لكبار السن أو الأشخاص ذوي الإعاقة، حيث إنها ذات تأثيرات مفيدة.26


3. أنظمة التصنيف البيومتري القائمة على الخصائص الحساسة (Biometric Categorisation Systems Based on Sensitive Characteristics)


الوصف: يحظر القانون أنظمة الذكاء الاصطناعي التي تصنف الأفراد بناءً على بياناتهم البيومترية لاستنتاج خصائص حساسة مثل العرق أو الآراء السياسية أو المعتقدات الدينية أو التوجه الجنسي.7

التبرير الأخلاقي والاجتماعي: يهدف هذا الحظر إلى منع التمييز وحماية الخصوصية والكرامة الإنسانية، وضمان عدم استخدام البيانات البيومترية لإنشاء تصنيفات تمييزية أو لتقديم مستويات خدمة مختلفة بناءً على هذه الخصائص.16

أمثلة: لا يمكن لمؤسسة مالية نشر نظام ذكاء اصطناعي يستخدم التعرف على الوجه عند مداخل الفروع لتصنيف العملاء حسب العرق أو الوضع الاجتماعي والاقتصادي المفترض، ثم تقديم مستويات خدمة مختلفة بناءً على هذه التصنيفات.16 ومع ذلك، يُسمح بتصنيف صور المرضى حسب لون البشرة لتشخيص السرطان، حيث يكون الغرض طبيًا ومفيدًا.26


4. تحديد الهوية البيومترية عن بعد في الوقت الفعلي في الأماكن العامة (Real-time Remote Biometric Identification in Public Spaces)


الوصف: يحظر القانون استخدام أنظمة تحديد الهوية البيومترية عن بعد في الوقت الفعلي (مثل أنظمة الذكاء الاصطناعي التي تجمع صور الوجه) في الأماكن العامة، لأغراض إنفاذ القانون، مع استثناءات محدودة ومحددة بدقة.5 تتطلب الاستثناءات ضمانات صارمة، مثل تحديد الوقت والنطاق الجغرافي، وموافقة قضائية أو إدارية مسبقة محددة.7

التبرير الأخلاقي والاجتماعي: يهدف هذا الحظر إلى حماية حرية الأفراد واستقلاليتهم من المراقبة غير القانونية والجماعية، مع السماح بالاستخدامات الضرورية للغاية في حالات الطوارئ القصوى.26 بينما يحظر القانون بشكل عام المخاطر غير المقبولة على الحقوق الأساسية، فإنه يستثني صراحة أغراض "الأمن القومي والدفاع أو الأغراض العسكرية" 5 وبعض استخدامات إنفاذ القانون.7 يكشف هذا عن توتر متأصل في الفلسفة التنظيمية: يولي الاتحاد الأوروبي أولوية للحقوق الإنسانية ولكنه يقر بضرورة الذكاء الاصطناعي القوي لوظائف الدولة. تُظهر الضمانات المفصلة للاستخدامات المسموح بها لتحديد الهوية البيومترية عن بعد من قبل جهات إنفاذ القانون 7 محاولة للموازنة بين هذه المصالح المتنافسة، ولكن قد يجادل النقاد بأن هذه الثغرات يمكن أن تقوض أهداف القانون الوقائية.28 هذا يسلط الضوء على أنه حتى في تنظيم يركز على الإنسان، يمكن أن تخلق الاعتبارات البراغماتية لسلطة الدولة والأمن مجالات تسوية أو ضعف محتمل للحقوق الفردية.

أمثلة على الاستثناءات المحدودة: البحث المستهدف عن شخص مفقود، منع هجوم إرهابي، أو تحديد المشتبه بهم في جرائم جنائية خطيرة.7 استخدام هذه الأنظمة بعد وقوع الحدث ("تحديد الهوية البيومترية عن بعد بعد الحدث") يعتبر حالة استخدام عالية المخاطر ويتطلب موافقة قضائية مرتبطة بجريمة جنائية.7


القانون الأوروبي للذكاء الاصطناعي  استخدامات محظورة للذكاء الاصطناعي  حماية الحقوق الأساسية  AI Act الاتحاد الأوروبي  تنظيم الذكاء الاصطناعي
قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي 2025

5. التعرف على العواطف في مكان العمل والمؤسسات التعليمية (Emotion Recognition in the Workplace and Educational Institutions)


الوصف: يحظر القانون أنظمة الذكاء الاصطناعي المصممة للكشف عن عواطف الأفراد وتفسيرها في بيئات العمل والمدارس، ما لم تكن لأسباب طبية أو تتعلق بالسلامة.7 لا يعتبر مجرد الكشف عن التعبيرات الجسدية أو الحركات تعرّفًا على العواطف ما لم يتم استخدامه لاستنتاج العواطف بناءً على بيانات بيومترية.26

التبرير الأخلاقي والاجتماعي: يهدف هذا الحظر إلى حماية خصوصية الموظفين والطلاب وكرامتهم، ومنع المراقبة الغازية في مكان العمل التي يمكن أن تخلق بيئات سامة وتؤثر سلبًا على الرفاه النفسي.16

أمثلة: لا يمكن لشركة مالية استخدام الذكاء الاصطناعي لمراقبة تعابير وجه الموظفين أثناء مكالمات العملاء لتقييم أدائهم أو حالتهم العاطفية.16 ومع ذلك، قد يُسمح بأنظمة الذكاء الاصطناعي التي تكتشف علامات التعب لدى المتداولين الذين يتخذون قرارات مالية حرجة لأسباب تتعلق بالسلامة، حيث يخدم هذا غرضًا مشروعًا ووقائيًا.16


6. الشرطة التنبؤية القائمة على التنميط (Predictive Policing Based on Profiling)


الوصف: يحظر القانون أنظمة الذكاء الاصطناعي التي تتنبأ باحتمالية ارتكاب شخص طبيعي لجرائم بناءً على التنميط أو تقييم السمات الشخصية فقط.7

التبرير الأخلاقي والاجتماعي: يهدف هذا الحظر إلى ضمان عدم تقييم الأفراد بناءً على سلوك تنبؤي للذكاء الاصطناعي، ومنع تعزيز التحيز المحتمل في أنظمة التنبؤ بالجريمة التي تستخدم البيانات التاريخية، مما قد يقوض الثقة العامة ويؤدي إلى التمييز.26

أمثلة: لا يغطي القانون الجرائم البسيطة أو المخالفات الإدارية، ولا التنبؤات القائمة على الموقع، ولا تقييم الكيانات القانونية، ولا أنظمة الذكاء الاصطناعي التي تدعم التقييم البشري بناءً على حقائق موضوعية حول النشاط الإجرامي.26


7. أنظمة الذكاء الاصطناعي التي تتلاعب بالسلوك البشري (AI Systems That Manipulate Human Behaviour)


الوصف: يحظر القانون أنظمة الذكاء الاصطناعي التي تنشر تقنيات لاواعية تتجاوز وعي الشخص أو تقنيات تلاعبية أو خادعة متعمدة، بهدف أو تأثير تشويه سلوك شخص أو مجموعة من الأشخاص بشكل مادي عن طريق إضعاف قدرتهم على اتخاذ قرارات مستنيرة.6 تشمل هذه التقنيات الرسائل اللاشعورية (مرئية، سمعية، لمسية)، والتلميحات تحت البصرية والسمعية، والصور المضمنة، والتضليل، والتلاعب الزمني.26

التبرير الأخلاقي والاجتماعي: تثير هذه التقنيات مخاوف أخلاقية عميقة تجاه استقلالية الإنسان وحرية الاختيار.26 يهدف الحظر إلى حماية الحرية المعرفية، الحق الأساسي في الفكر المستقل، وضمان أن الأفراد يتخذون قراراتهم بناءً على وعي كامل.21

أمثلة: لا يمكن لشركة استشارات مالية استخدام الذكاء الاصطناعي لتحليل نفسية العملاء ونشر تقنيات تلاعبية مخصصة تستغل التحيزات المعرفية لبيع منتجات استثمارية غير مناسبة.16


8. الكشط غير المستهدف لصور الوجه من الإنترنت أو لقطات كاميرات المراقبة (Untargeted Scraping of Facial Images from the Internet or CCTV Footage)


الوصف: يحظر القانون الجمع العشوائي وغير المستهدف لصور الوجه من المصادر العامة مثل الإنترنت أو لقطات كاميرات المراقبة لإنشاء قواعد بيانات للتعرف على الوجه.7

التبرير الأخلاقي والاجتماعي: يهدف هذا الحظر إلى حماية خصوصية الأفراد ومنع بناء قواعد بيانات واسعة للتعرف على الوجه دون موافقة، والتي يمكن أن تُستخدم للمراقبة الجماعية أو التنميط غير المشروع.26

أمثلة: يُحظر على شركات مثل Clearview AI جمع صور من الإنترنت لإنشاء قواعد بيانات لتحديد الهوية.26 ومع ذلك، توجد استثناءات لـ "الكشط المستهدف" (التركيز على مجموعات محددة) أو الصور التي يتم جمعها بموافقة صريحة، ولا يتم تسويقها، وتُستخدم فقط لأغراض البحث.26

الجدول 2: ملخص الاستخدامات الثمانية المحظورة للذكاء الاصطناعي بموجب قانون الاتحاد الأوروبي للذكاء الاصطناعي


رقم

الممارسة المحظورة

وصف موجز

التبرير الأخلاقي الرئيسي

مثال توضيحي

1

أنظمة التقييم الاجتماعي

تقييم الأفراد بناءً على السلوك الاجتماعي أو الخصائص الشخصية مما يؤدي إلى معاملة ضارة.

حماية الكرامة والخصوصية، منع التمييز، ضمان العدالة.

رفض قرض بناءً على نشاط وسائل التواصل الاجتماعي أو الآراء السياسية.

2

استغلال نقاط الضعف

استغلال العمر أو الإعاقة أو الوضع الاقتصادي أو الاجتماعي للأفراد لتشويه سلوكهم.

حماية الفئات الضعيفة من التلاعب والاستغلال، منع الضرر المالي والنفسي.

تطبيقات استثمار تستهدف كبار السن ذوي التدهور المعرفي لبيع منتجات غير مناسبة.

3

أنظمة التصنيف البيومتري القائمة على الخصائص الحساسة

تصنيف الأفراد بناءً على بيانات بيومترية لاستنتاج خصائص حساسة مثل العرق أو الدين.

منع التمييز، حماية الخصوصية والكرامة الإنسانية.

استخدام التعرف على الوجه لتصنيف العملاء حسب العرق أو الوضع الاجتماعي المفترض.

4

تحديد الهوية البيومترية عن بعد في الوقت الفعلي في الأماكن العامة

استخدام أنظمة تحديد الهوية البيومترية عن بعد في الوقت الفعلي في الأماكن العامة لأغراض إنفاذ القانون (مع استثناءات محدودة).

حماية الحرية والاستقلالية من المراقبة الجماعية غير القانونية.

المراقبة المستمرة بالتعرف على الوجه في الأماكن العامة لتحديد الأفراد بشكل عام.

5

التعرف على العواطف في مكان العمل والمؤسسات التعليمية

الكشف عن العواطف وتفسيرها في بيئات العمل والتعليم (ما لم تكن لأسباب طبية أو سلامة).

حماية خصوصية الموظفين والطلاب وكرامتهم، منع المراقبة الغازية.

مراقبة تعابير وجه الموظفين لتقييم الأداء أو حالتهم العاطفية.

6

الشرطة التنبؤية القائمة على التنميط

التنبؤ باحتمالية ارتكاب الجرائم بناءً على التنميط أو السمات الشخصية فقط.

ضمان عدم تقييم الأفراد بناءً على سلوك تنبؤي، ومنع تعزيز التحيز.

نظام يتنبأ بالجريمة بناءً على سمات شخصية أو تاريخ سلوكي دون أدلة ملموسة.

7

أنظمة الذكاء الاصطناعي التي تتلاعب بالسلوك البشري

استخدام تقنيات لاواعية أو تلاعبية لتشويه السلوك وإضعاف القدرة على اتخاذ قرارات مستنيرة.

حماية الاستقلالية وحرية الاختيار، ضمان اتخاذ قرارات واعية.

تحليل نفسية العملاء لبيع منتجات استثمارية غير مناسبة من خلال التلاعب بالتحيزات المعرفية.

8

الكشط غير المستهدف لصور الوجه من الإنترنت أو لقطات كاميرات المراقبة

جمع صور الوجه بشكل عشوائي وغير مستهدف من المصادر العامة لإنشاء قواعد بيانات للتعرف على الوجه.

حماية خصوصية الأفراد، منع المراقبة الجماعية غير المصرح بها.

جمع صور من الإنترنت لإنشاء قواعد بيانات لتحديد الهوية دون موافقة أو غرض محدد.

يوفر هذا الجدول ملخصًا سريعًا وسهل الفهم للموضوع الأساسي. بالنسبة للجمهور المهني، يعد نقطة مرجعية ممتازة، مما يسمح لهم بتحديد وفهم كل استخدام محظور بسرعة، والأساس الأخلاقي الكامن وراءه، ومثال عملي. هذا يبسط فهم الأحكام القانونية المعقدة ويساعد الشركات على تقييم أنظمة الذكاء الاصطناعي الخاصة بها بسرعة مقابل القائمة المحظورة.


الاستثناءات العامة من نطاق القانون


لضمان عدم تقييد الابتكارات الأساسية والمفيدة، ينص القانون على بعض الاستثناءات من نطاقه 26:

  • أنظمة الذكاء الاصطناعي المطورة والمستخدمة حصريًا لأغراض الأمن القومي أو الدفاع أو الأغراض العسكرية.5

  • أنظمة الذكاء الاصطناعي المستخدمة في التعاون القضائي وإنفاذ القانون مع الدول الأعضاء، مع ضمانات مناسبة.26

  • الممارسات التي تعد جزءًا من أنشطة البحث والتطوير، مثل اختبار أنظمة الذكاء الاصطناعي قبل طرحها في السوق.26

  • أنظمة الذكاء الاصطناعي المستخدمة في الأنشطة غير المهنية.5

  • أنظمة الذكاء الاصطناعي مفتوحة المصدر والمجانية، ما لم تقع تحت أي حظر محدد في القانون.26


الآثار الأوسع والتحديات التي تواجه أصحاب المصلحة


يمثل قانون الذكاء الاصطناعي الأوروبي تحولًا كبيرًا في المشهد التنظيمي العالمي للذكاء الاصطناعي، مما يفرض آثارًا وتحديات واسعة النطاق على مختلف أصحاب المصلحة، سواء داخل الاتحاد الأوروبي أو خارجه.


التأثير على الشركات (داخل وخارج الاتحاد الأوروبي)، المطورين، والمبتكرين


نطاق التطبيق الواسع: يمتد نطاق تطبيق قانون الذكاء الاصطناعي الأوروبي ليشمل المطورين (المقدمين)، والمستخدمين (المشغلين)، والأفراد المتأثرين، والمستوردين، والموزعين، بغض النظر عما إذا كانوا مقيمين في الاتحاد الأوروبي أو خارجه.2 هذا يعني أنه إذا تم استخدام الذكاء الاصطناعي الخاص بهم أو مخرجاته في الاتحاد الأوروبي، فإنهم يخضعون للقانون.6 هذا النطاق الواسع يفرض على الشركات العالمية إعادة تقييم ممارساتها في مجال الذكاء الاصطناعي.

تكاليف الامتثال والتغييرات التشغيلية: تواجه الشركات الأمريكية والكيانات الأخرى غير التابعة للاتحاد الأوروبي تكاليف امتثال كبيرة وتغييرات تشغيلية.23 يشمل ذلك تنفيذ نظام مستمر لإدارة المخاطر لمراقبة الذكاء الاصطناعي طوال دورة حياته، وممارسات حوكمة بيانات صارمة لضمان جودة بيانات التدريب والتحقق والاختبار، وتوثيق تقني شامل يوضح تصميم النظام وقدراته وقيوده، ومراقبة ما بعد السوق لتقييم الأداء المستمر والامتثال.4 هذه المتطلبات تتطلب استثمارًا كبيرًا في الموارد والخبرة.

التأثير على الابتكار: يجادل النقاد بأن موقف الاتحاد الأوروبي التنظيمي، على الرغم من كونه جديرًا بالثناء من الناحية الأخلاقية، قد يؤدي إلى تعميق نقاط الضعف الصناعية، وردع الاستثمار، وعرقلة نمو الشركات الناشئة في مجال الذكاء الاصطناعي.12 يكمن القلق في إنشاء "نظام بيئي تطويري من مستويين" حيث يحدث الابتكار المتطور خارج الاتحاد الأوروبي، بينما يتطور الذكاء الاصطناعي المنظم بشكل أبطأ داخل حدوده.13 ومع ذلك، يجادل المؤيدون بأن تحديد فئات مخاطر الذكاء الاصطناعي يوفر إرشادات منظمة يمكن أن تسرع الابتكار عن طريق تقليل عدم اليقين وتعزيز تطوير الذكاء الاصطناعي المسؤول.13 إن الوضوح التنظيمي يمكن أن يكون في الواقع حافزًا للابتكار المسؤول، حيث تعرف الشركات حدود اللعبة.

الشركات الصغيرة والمتوسطة والشركات الناشئة: قد تشعر الشركات الناشئة، التي غالبًا ما تكون مقيدة بالموارد وتعمل تحت ضغط السرعة، بعبء الامتثال بشكل أكبر بسبب الأعباء الإدارية العالية ومحدودية الوصول إلى الخبرة التنظيمية.13 قد تؤدي تكاليف الامتثال والموافقات المعقدة إلى إعاقة النماذج الأولية السريعة والنشر العالمي لحلول الذكاء الاصطناعي.13 ومع ذلك، يتضمن القانون تدابير لدعم الابتكار، مثل صناديق الاختبار التنظيمية والاختبارات في العالم الحقيقي، والتي يمكن للشركات الصغيرة والمتوسطة والشركات الناشئة الوصول إليها لتطوير واختبار أنظمة الذكاء الاصطناعي المبتكرة في بيئات خاضعة للرقابة قبل طرحها في السوق.7

قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي 2025  لماذا حظرت أوروبا بعض تطبيقات الذكاء الاصطناعي؟  حماية الخصوصية في زمن الذكاء الاصطناعي  استخدامات AI الممنوعة في الاتحاد الأوروبي
لماذا حظرت أوروبا بعض تطبيقات الذكاء الاصطناعي؟

تحديات التنفيذ والامتثال (مثل الغموض التعريفي، قيود الموارد)


عدم اليقين القانوني والغموض: يؤدي تعقيد القانون (أكثر من 450 صفحة، 68 تعريفًا جديدًا، ما يقرب من 200 تمهيد) والغموض في تصنيف المخاطر 19 إلى عدم اليقين الذي قد يعيق تبني الذكاء الاصطناعي والاستثمار فيه.24 يترك الغموض التعريفي، مثل ما يشكل "نظام ذكاء اصطناعي" 19 أو "إشرافًا بشريًا كافيًا"، مجالًا لتفسيرات متباينة عبر الدول الأعضاء والصناعات.22 هذا يتطلب من الشركات استثمارًا مستمرًا في الخبرة القانونية والتفسير الدقيق.

نقص القدرة المؤسسية: تواجه العديد من الدول الأعضاء في الاتحاد الأوروبي نقصًا في التمويل ونقصًا في الموظفين الخبراء اللازمين لإنفاذ قانون الذكاء الاصطناعي بفعالية.10 هناك خطر فقدان مواهب الذكاء الاصطناعي لصالح الشركات التي يمكنها دفع رواتب أعلى.10 إن هذا "الجمع بين نقص التمويل ونقص المواهب سيكون أحد التحديات الرئيسية في إنفاذ قانون الذكاء الاصطناعي".10 وهذا يعني أن القدرة على الإنفاذ الفعلي قد تتفاوت بين الدول الأعضاء، مما قد يؤدي إلى تباين في مستويات الامتثال.

التحديات التقنية: يجب على الشركات تكييف العمليات الداخلية على المستويات التنظيمية والتقنية والحوكمة.14 يشمل ذلك التقييم الدقيق وتصنيف أنظمة الذكاء الاصطناعي حسب مستوى المخاطر، وإعداد وثائق تقنية مفصلة، وتنفيذ ضوابط أمنية، ودمج الإشراف البشري، وإطلاق برامج تدريب إلزامية للموظفين المعنيين لضمان الوعي بالجوانب الأخلاقية والقانونية.14 الامتثال هو عملية مستمرة، وليست جهدًا لمرة واحدة، تتطلب إدارة مستمرة، ومراجعات، وتحديثات.14 يجب أن تتبنى الشركات نهج "الامتثال بالتصميم" لضمان دمج المبادئ التنظيمية في دورة حياة تطوير النظام منذ المراحل الأولى.14

التنافر بين التنظيم والممارسة: هناك صراع للتوفيق بين التفويضات الأخلاقية الواسعة للقانون والممارسات التقنية الملموسة، مما يخلق احتكاكًا عند تقاطع القانون والسياسة والابتكار.22 على سبيل المثال، ضمان "بيانات تدريب ذات صلة وممثلة وخالية من الأخطاء وكاملة" 22 يمثل تحديًا عندما تعتمد مجموعات البيانات للذكاء الاصطناعي على مجموعات عالمية متنوعة، مما قد يؤدي إلى التحيز.


"تأثير بروكسل": تأثير الاتحاد الأوروبي العالمي على تنظيم الذكاء الاصطناعي


يهدف الاتحاد الأوروبي صراحة إلى أن يكون لقانون الذكاء الاصطناعي "تأثير بروكسل"، مما يضع معيارًا عالميًا للاستخدام المسؤول للذكاء الاصطناعي.3 هذا يعني أن الشركات غير التابعة للاتحاد الأوروبي التي تخدم عملاء في الاتحاد الأوروبي ستحتاج إلى تلبية معايير صارمة للشفافية والتوثيق والإشراف البشري.23 هذا التوجه يمكن أن يؤدي إلى توحيد المعايير العالمية بحكم الأمر الواقع، حيث تجد الشركات أنه من الأكثر فعالية من حيث التكلفة تبني أعلى معايير الامتثال (معايير الاتحاد الأوروبي) لمنتجاتها وخدماتها العالمية بدلاً من تطوير إصدارات مختلفة لكل منطقة.23

ومع ذلك، هناك أيضًا انتقادات لهذا "التأثير"، حيث يرى البعض أنه قد يؤدي إلى تصدير "ذكاء اصطناعي خطير" إلى دول الجنوب العالمي من خلال الثغرات أو الاستثناءات في القانون.29 كما أن هناك مخاوف من أن تركيز الاتحاد الأوروبي على التنظيم قد يعيق الابتكار المحلي، مما يؤدي إلى اعتماد أكبر على التقنيات الخارجية من الولايات المتحدة والصين.12 على الرغم من هذه المخاوف، فإن قانون الذكاء الاصطناعي الأوروبي يمثل خطوة جريئة نحو حماية المواطنين في عالم مدفوع بالذكاء الاصطناعي، وقد يصبح نموذجًا صارمًا لبقية العالم.23


الخلاصة


يمثل قانون الذكاء الاصطناعي الأوروبي تشريعًا رائدًا يهدف إلى إرساء معايير عالمية لتطوير ونشر الذكاء الاصطناعي بشكل أخلاقي ومسؤول. من خلال نهجه القائم على المخاطر، يضع القانون محظورات صارمة على ثمانية استخدامات للذكاء الاصطناعي تُعتبر تشكل تهديدًا غير مقبول للحقوق الأساسية والكرامة الإنسانية. هذه المحظورات، التي دخلت حيز التنفيذ في فبراير 2025، تعكس التزام الاتحاد الأوروبي بحماية الأفراد من التلاعب، والاستغلال، والتمييز، والمراقبة الجماعية غير المبررة.

إن التعريف الدقيق لـ "نظام الذكاء الاصطناعي" والجدول الزمني المرحلي لتطبيق القانون يؤكدان على التعقيد والتفكير الاستراتيجي وراء هذا التشريع. فالاتحاد الأوروبي لا يسعى فقط إلى تنظيم ما هو موجود، بل يسعى أيضًا إلى توقع المخاطر المستقبلية التي قد تنشأ عن التقنيات الناشئة. ومع ذلك، فإن هذا الطموح لا يخلو من التحديات. تواجه الشركات، سواء داخل الاتحاد الأوروبي أو خارجه، أعباء امتثال كبيرة وتكاليف تشغيلية، مما يتطلب إعادة تقييم شاملة لممارساتها في مجال الذكاء الاصطناعي. كما أن هناك تحديات تتعلق بالغموض التعريفي، ونقص القدرة المؤسسية في الدول الأعضاء لإنفاذ القانون بفعالية، والتنافر بين المبادئ الأخلاقية الواسعة والمتطلبات التقنية الملموسة.

على الرغم من هذه التحديات، فإن قانون الذكاء الاصطناعي الأوروبي يمتلك القدرة على ممارسة "تأثير بروكسل" كبير، مما يدفع الشركات في جميع أنحاء العالم إلى تبني معايير أعلى للشفافية والمساءلة والإشراف البشري. هذا القانون ليس مجرد مجموعة من القواعد، بل هو بيان فلسفي حول كيفية دمج الذكاء الاصطناعي في مجتمعاتنا بطريقة تعزز الثقة والابتكار المسؤول مع حماية القيم الأساسية. يتطلب النجاح المستمر لهذا الإطار جهدًا تعاونيًا من المشرعين والشركات والمجتمع المدني للتكيف مع التطورات التكنولوجية مع الحفاظ على التزام لا يتزعزع بالحقوق الإنسانية.

📚 قائمة المصادر التي تم الاقتباس منها والمعتمدة (EU AI Act)

  1. 🔗 The European Parliament Adopts the AI Act – WilmerHale

  2. 🔗 The Roadmap to the EU AI Act: A Detailed Guide – Alexander Thamm

  3. 🔗 EU Formally Adopts World's First AI Law – Data Matters Privacy Blog

  4. 🔗 EU AI Act: Summary & Compliance Requirements – ModelOp

  5. 🔗 Artificial Intelligence Act – Wikipedia

  6. 🔗 What is the Artificial Intelligence Act of the EU? – IBM

  7. 🔗 Artificial Intelligence Act: MEPs Adopt Landmark Law – European Parliament

  8. 🔗 EU AI Act: Ethics, Innovation & Governance Explained – Parva Consulting

  9. 🔗 Legal and Ethical Implications of AI-Based Crowd Analysis – PMC

  10. 🔗 EU Member States Face Funding Shortages to Enforce AI Act – PYMNTS

  11. 🔗 The Geopolitics Of AI Regulation – Yale Review of International Studies

  12. 🔗 The EU's AI Power Play: Between Deregulation and Innovation – Carnegie

  13. 🔗 How the EU AI Act Will Reshape Global Innovation – Senior Executive

  14. 🔗 AI Act: Challenges and Opportunities – Mashfrog

  15. 🔗 AI Governance: Navigating EU Compliance Standards – Moody's

  16. 🔗 AI Act Prohibited Practices (7 Simple Ways to Compliance) – Redcliffe Training

  17. 🔗 Guidelines on the Definition of an “AI System” – Global Policy Watch

  18. 🔗 EU Commission Clarifies Definition of AI Systems – Orrick

  19. 🔗 The EU AI Act: Key Milestones & Compliance Challenges – Cooley

  20. 🔗 Navigating the Legislative Dilemma – Taylor & Francis Online

  21. 🔗 Cognitive Freedom and Legal Accountability – Cambridge Journal

  22. 🔗 Navigating Regulatory Landscapes – ResearchGate

  23. 🔗 What’s Inside the EU AI Act – Investopedia

  24. 🔗 White Paper: Trustworthy AI & EU AI Act – Trail-ML

  25. 🔗 Article 5: Prohibited AI Practices – ArtificialIntelligenceAct.eu

  26. 🔗 Guidelines on Prohibited AI Practices – Deloitte

  27. 🔗 Article 5 – Artificial Intelligence Act

  28. 🔗 Why the AI Act Fails to Protect Civic Space – ECNL

  29. 🔗 The Real Brussels Effect and Responsible AI Use – TechPolicy Press

  30. 🔗 European AI Act: Opportunities and Challenges – Roland Berger

  31. 🔗 Impact of EU AI Act – Senior Executive (SMEs Focus)


المقال التالي المقال السابق
No Comment
Add Comment
comment url