القانون الأوروبي للذّكاء الاصطناعي: رهان احتواء المخاطِر (1/2)

يُعتبر القانون الأوروبي للذّكاء الاصطناعي، أوّل مبادرة تشريعيّة في العالم تتوخّى وضع إطار قانوني لممارسة الذّكاء الاصطناعي واحتواء آثاره وتفادي مخاطِره. واعتُمِد القانون من طرف البرلمان الأوروبي في 13 مارس/آذار 2024، بأغلبية 523 صوتًا مقابل 46، وصودق عليه من طرف مجلس الاتحاد الأوروبي في 21 مايو/أيار 2024؛ كما نُشر في الجريدة الرسمية للاتحاد الأوروبي في 12 يوليو/تموز 2024؛ ودخل حيّز التنفيذ في 1 أغسطس/آب 2024.


القانون الأوروبي للذّكاء الاصطناعي: رهان احتواء المخاطِر (1/2)

في 21 مارس/آذار 2024، اعتمدت الجمعية العامّة للأمم المتحدة قرارًا مهمًّا، بمصادقة 193 دولة، حول حماية الخصوصية والوقاية من مخاطِر الذكاء الاصطناعي. ولقد سبق ذلك مناقشة مخاطِر الذكاء الاصطناعي في قمّة سلامة الذكاء الاصطناعي في بريطانيا في نوفمبر/تشرين الثاني 2023، كما شكّلت الأمم المتحدة هيئةً استشاريةً خاصّةً في مجال الذكاء الاصطناعي، من أجل وضع إطار للحماية من آفاته وصياغة قانون متوائم مع القانون الدولي في هذا المجال. ويُلاحظ الخبراء أنّ قرار الأمم المتحدة فيه ثغرات، لذا يظلّ قانون الاتحاد الأوروبي حول الذكاء الاصطناعي، أهم تشريع، يروم الوقاية من مختلف مخاطِر الذكاء الاصطناعي.

المنافسة الجيواقتصادية تجعل الشركات الكبرى غير مبالية بالنقاش الأخلاقي حول الذكاء الاصطناعي

وجّه فولكر تورك، مفوض الأمم المتحدة السامي لحقوق الإنسان، إلى مؤسّسات الاتحاد الأوروبي رسالةً مفتوحةً، حول قانون الاتحاد بشأن الذكاء الاصطناعي، قال فيها: "أثني على اقتراح الاتحاد الأوروبي الطَموح، الذي يمثّل فرصةً لتعزيز حماية حقوق الشعوب، ولن يؤثّر قانون الذكاء الاصطناعي في الاتحاد الأوروبي ودوله الأعضاء فحسب، بل سيؤثّر أيضًا في الأطر التنظيمية الأخرى للذكاء الاصطناعي في جميع انحاء العالم، باعتباره أحد المحاولات التنظيمية الجذرية في هذا المجال". ونبّه فولكر الاتحاد الأوروبي إلى قضية هامة، قائلًا: "تودّ المفوضية السامية لحقوق الانسان أن توجّه الانتباه إلى الدور المعقّد لمنظمات تحديد المعايير على النحو المتوخّى في مشروع القانون بشأن الذكاء الاصطناعي.

فوفقًا للمسودة، يجب أن تشكّل المعايير وسيلة يعتمدها مقدّمو الخدمات لإثبات الامتثال لمتطلبات القانون بشأن الذكاء الاصطناعي، بعبارة أخرى، تؤدّي المنظمات التي تحدّد المعايير وظيفة محورية آثارها بعيدة المدى على التمتّع بحقوق الإنسان". كانت هذه الرسالة المفتوحة، قبل المصادقة على القانون الأوروبي، أي في مرحلة إعداده وطرح مسودة القانون للمشاورة، ولذلك أكّدت المفوضية على استعدادها للمساهمة مع الاتحاد الأوروبي في وضع موجّهات يُسترْشَد بها في مراعاة حقوق الانسان في قانون الذكاء الاصطناعي.

لقد أعربت المفوضيّة عن قلقها من الاستثناءات المضمّنة في القانون الأوروبي للذكاء الاصطناعي، بحيث قال المفوض السياسي في رسالته المفتوحة إنّ "المفوضية الشامية لحقوق الانسان تعاينُ بقلق بالغ اقتراح المجلس إعفاءً شاملًا من قانون الذكاء الاصطناعي لأنظمة الذكاء الاصطناعي التي يتمّ تطويرها أو استخدامها لأغراض الأمن القومي. فضلًا عن استثناءات تطال إنفاذ القانون ومراقبة الحدود، ما من شأنه أن يعفي مجالات التطبيق التي تستخدم في الواقع الذكاء الاصطناعي على نطاق واسع، وحيث الحاجة إلى الضمانات ملحّة بشكل خاص، وحيث الأدلة على أنّ الاستخدام الحالي لأنظمة الذكاء الاصطناعي يستهدف الأفراد من المجتمعات المهمّشة أصلًا بشكلٍ غير مناسب". وبالفعل فإنّ مسألة الأمن القومي للبلدان ومراقبة الحدود والهجرة تعتبر دواعي لوضع إعفاءات قانون الذكاء الاصطناعي، وهي استثناءات من شأنها المساس بمنظومة حقوق الإنسان كما نبّهت المفوضية.

على العموم، فإنّ القانون الأوروبي للذكاء الاصطناعي، أثناء صياغته وبعد مصادقته، ساهم في إطلاق سلسلة من المطارحات القانونية السياسية.

النقاش محتدم حول مصير البشرية في ظلّ التطوّر السريع لتكنولوجيا الذكاء الاصطناعي

ولقد دعت "منظمة العفو الدولية" إلى حماية حقوق الانسان وحقوق النازحين واللاجئين، وإدراج هذه الحقوق في المنظومة الرقمية وقانون الذكاء الاصطناعي. كما طالبت بألّا تُمنح شركات التِّكنولوجيا الكبيرة سلطة التنظيم الذاتي، بحيث تحاول هذه الشركات ممارسة الضغط لتفادي تقييد أنشطتها من طرف قانون الذكاء الاصطناعي. ولقد سبق أن اعتبر مهير هاكوبيان، مستشار الدعوة الى المناصرة بشأن لوائح الذكاء الاصطناعي في منظمة العفو الدولية، أنّه "من المهم للغاية أن يتبنّى الاتحاد الأوروبي تشريعًا بشأن الذكاء الاصطناعي يحمي حقوق الانسان ويعزّزها، لأنّ منح شركات التكنولوجيا الكبيرة سُلطة التنظيم الذاتي يفرض على نحو خطير الأهداف الرئيسيّة لقانون الذكاء الاصطناعي، ومن ضمنها حماية الناس من انتهاكات حقوق الانسان. والحلّ هنا بسيط جدًا، يفيد بالعودة إلى الاقتراح الأصلي للمفوضية الأوروبية الذي ينصّ على قائمة واضحة للسيناريوات التي يعدّ فيها استخدام أداة الذكاء الاصطناعي عالي المخاطر" (موقع منظمة العفو الدولية).

إنّ سياق وضع القانون الأوروبي للذكاء الاصطناعي، هو سياقٌ عالميٌ يعرف نقاشًا محتدمًا حول مصير البشرية في ظلّ التطوّر السريع لتكنولوجيا الذكاء الاصطناعي وإصرار الشركات التكنولوجية الكبرى، على التهافت على تحقيق المصلحة المادية وعدم الاهتمام بحقوق الانسان والتداعيات الأخلاقية والجيوسياسية للذكاء الاصطناعي، ذلك أنّ المنافسة الجيواقتصادية حول الذكاء الاصطناعي تجعل هذه الشركات الكبرى غير مبالية بالنقاش الأخلاقي حول الذكاء الاصطناعي.

عمومًا، فإنّ القانون الأوروبي للذكاء الاصطناعي، هو محاولة لوضع آليات قانونية، تكبح جموح هذه الشركات وتضع قيودًا على ممارسة الذكاء الاصطناعي. وتضمَّن القانون 113 مادة، في 13 فصلًا؛ بحيث يضم الفصل الأوّل أحكامًا عامّة، أمّا الفصل الثاني فقد تناول ممارسة الذكاء الاصطناعي المحظورة، بينما تطرّق الفصل الثالث إلى أنظمة الذكاء الاصطناعي عالية المخاطِر، وتناول الفصل الرابع التزامات الشفافية لمقدّمي ونشر بعض أنظمة الذكاء الاصطناعي. أمّا الفصل الخامس فقد كان موضوعه نماذج الذكاء الاصطناعي للأغراض العامة، وتطرّق الفصل السادس إلى التدابير الداعمة للابتكار، وفي الفصل السابع كان محوره حوْل الحوكمة. أمّا الفصل الثامن فكان مخصّصًا لقاعدة بيانات الاتحاد الأوروبي للأنظمة عالية المخاطر، بينما تطرّق الفصل التاسع لقضايا ما بعد السوق وتبادل المعلومات ومراقبة السوق. وتطرّق الفصل العاشر إلى قواعد السلوك والمبادئ التوجيهية. أمّا الفصل الحادي عشر فكان حول تقويض السلطات وإجراءات اللجنة، وضمّ الفصل الثاني عشر لائحة العقوبات، وأخيرًا، الفصل الثالث عشر الذي تضمّن أحكامًا ختاميًة، إضافة إلى ملاحق تضمنها القانون الأوروبي الأوّل من نوعه.

(خاص "عروبة 22")

يتم التصفح الآن