توخّى القانون نفسه حظر بعض أنواع وأنظمة الذكاء الاصطناعي، وخصوصًا التي تُشكّل مخاطِر عالية. واستهدف القانون تحديد التزامات مُشغّلي أنظمة الذكاء الاصطناعي، وصياغة قواعد الشفافية ووضع إطار عام للذكاء الاصطناعي يتناسب مع متطلّبات السوق؛ إضافةً إلى وضع قواعد لمراقبة السوق والحوْكمة وإنفاذها.
وتطرّق القانون أيضًا إلى نطاقه الذي يشمل المزوّدين وموزّعي الذكاء الاصطناعي والمستوردين ومصنّعي المنتجات والممثلين المعتمَدين والأشخاص المتضرّرين الموجودين في الاتحاد الأوروبي، ولا ينطبق القانون على مجالات الأمن القومي للدول، كما لا ينطبق "على أنظمة الذكاء الاصطناعي حيث تمّ طرحها في السوق أو وضعها في الخدمة أو استخدامها مع أو من دون تعديل لأغراض عسكرية أو دفاعية أو أمنية وطنية حصريًا، بغضّ النّظر عن نوع الكيان الذي يقوم بهذه الأنشطة".
تطرّق القانون إلى أنواع المخاطِر: غير مقبولة وعالية ومحدودة ثم الحدّ الأدنى من المخاطر غير المنظّمة
كما يؤكّد القانون على استثناء الدول والمنظمات الدولية التي تستعمل الذكاء الاصطناعي في إطار التعاون الدولي والقضائي، شرط تقديم ضمانات عدم المساس بالحقوق والحرّيات الأساسيّة للأفراد. ولا يُطبّق القانون على نماذج الذكاء الاصطناعي التي توضع لخدمة البحث والتطوير العِلمي فقط، إنما أشار القانون إلى مجالات أخرى، تُستثنى من تطبيق القانون الأوروبي للذكاء الاصطناعي.
تضمّنت المادة الثالثة، تعريفًا للذكاء الاصطناعي والمخاطِر والمزوّد و"المنتشر" و"الممثّل المفوّض" و"المستورد" و"الموزّع" ومفهوم "الطرح في السوق" و"الإتاحة في السوق" و"الوضع في الخدمة" و"الغرض المقصود" و"الاستخدام الخاطئ الذي يمكن توقّعه بشكل معقول" و"مُكوّن السلامة" و"تعليمات السلامة" و"سحب نظام الذكاء الاصطناعي" و"أداء نظام الذكاء الاصطناعي" و"السلطة المُخطرة" و"تقسيم المطابقة" و"هيئة تقسيم المطابقة" و"التعديل الجوهري"، والذي يعني "تغييرًا في نظام الذكاء الاصطناعي بعد طرحه في السوق أو وضعه في الخدمة والذي لم يكن متوقعًا أو مخطّطًا له في المطابقة الأولية".
ويبدو جليًّا أنّ تحديد تعريفات دقيقة لهذه المفاهيم والمصطلحات من شأنه رفع أي التباس في صياغة القواعد القانونية، وبالتالي تحديد الالتزامات والحقوق بشكلٍ واضح، ولهذا تطرّق القانون إلى أنواع المخاطِر، فهناك مخاطِر غير مقبولة (مثل أنظمة التسجيل الاجتماعي والذكاء الاصطناعي المتلاعب)، ومخاطِر عالية، وأنظمة ذكاء اصطناعي محدودة المخاطِر؛ ثم الحدّ الأدنى من المخاطر غير المنظّمة، ويتعلّق الأمر بتطبيق الذكاء الاصطناعي المُتاح في السّوق الأوروبية، مثل ألعاب الفيديو المدعومة بالذكاء الاصطناعي.
يحظر القانون أنظمة الذكاء الاصطناعي التي تقوم بالتقييم الاجتماعي وتجميع قواعد بيانات التعرّف إلى الوجه
وأشارت المادّة الخامسة من الفصل الثاني، إلى أنظمة الذّكاء الاصطناعي المحظورة وهي تقنيات لا شعورية أو تلاعبية وخادعة لتشويه السلوك، واستغلال نقاط الضعف المتعلقة بالعمر والإعاقة أو الظروف الاجتماعية والاقتصادية لتشويه السلوك، و"أنظمة التطبيق البيومترية التي تستنتج سمات خساسة (العِرق، أو الآراء السياسية أو عضوية النقابات العمّالية أو المعتقدات الدينية أو الفلسفية أو الحياة الجنسية أو الميول الجنسية)، باستثناء تضييق أو تصفية مجموعات البيانات البيومترية المُكتسبة بشكل قانوني أو عندما تصنّف جهات إنفاذ القانون البيانات البيومترية".
ويحظر القانون كذلك أنظمة الذكاء الاصطناعي التي تقوم بالتقييم الاجتماعي لما فيه من التمييز؛ وكذلك تقييم خطر ارتكاب الجرائم بناء على السّمات الشخصية. ويحظر كذلك "تجميع قواعد بيانات التعرّف إلى الوجه عن طريق الحذف غير المستهدف لصور الوجه من الإنترنت أو لقطات الدوائر التلفزيونية المُغلقة". كما يمنع ويحظر استنتاج المشاعر في أماكن العمل والمؤسّسات التعليمية.
وأشارت المادّة السادسة إلى أنظمة الذكاء الاصطناعي عالية المخاطِر، وإلزام مصمّمي الذكاء الاصطناعي بالتقيّد بمجموعة من قواعد السلامة وتنفيذ الرّقابة البشرية. وتضمّنت المادة 99، العقوبات وتدابير التنفيذ الأخرى، "ويجب أن تكون العقوبات الصادرة عن المفوّضية وفقًا للمادة 96، ويجب أن تكون فعّالة ومتناسبة ورادعة ويجب أن تأخذ في الاعتبار مصالح الشركات الصغيرة والمتوسطة الحجم بما في ذلك الشركات الناشئة وجدواها الاقتصادية". وقد تصل الغرامات إلى 35 مليون يورو، وإذا كان المخالِف مؤسّسة قد تصل إلى 7% من إجمالي منتجاتها السنوية العالمية للسنة المالية السابقة، أيّهما أعلى. وتتنوّع الغرامات حسب طبيعة النشاط وحجم الشركة ومدى الضرر ومستوى الخطورة.
سيواجه القانون تأثير جماعات الضغط التي لها مصالح في تصميم ذكاء اصطناعي غير قابل للمراقبة
ويمنح القانون محكمة العدل في الاتحاد الأوروبي سلطةً غير محدّدة لمراجعة قرارات المفوضيّة بتحديد غرامة ويجوز لها إلغاء الغرامة المفروضة أو تخفيضها أو زيادتها.
عمومًا، فإنّ القانون الأوروبي للذكاء الاصطناعي وعلى الرَّغم من أهميته فهو متضمّن لبعض الاستثناءات التي تتعلّق بالأمن القومي، الذي يطرح بقوّة إشكالية حماية حقوق الإنسان أثناء استعمال أنظمة الذكاء الاصطناعي من طرف الدول. وسيواجه القانون إشكالات متعدّدة في التنفيذ بالإضافة إلى تأثير جماعات الضغط المدافعة عن شركات التكنولوجيا التي لها مصالح في تصميم ذكاء اصطناعي غير قابلٍ للمراقبة. ومن المنتظر أن تساهم منظمات المجتمع المدني في وضع سلسلة من الإجراءات المستمرّة لمراقبة سلامة استخدام الذكاء الاصطناعي واشتراط تقديم شهادات تقنية حول ذلك من جهات مستقلة.
لقراءة الجزء الأول
(خاص "عروبة 22")