في الوقت الذي تتعالى فيه الأصوات محذرة من مخاطر هذه الثورة الرقمية وتأثيرها على المنظومة الأخلاقية والبُنى الاجتماعية وكذلك إنتاج المعرفة، والتخوف من الانزلاق نحو عصر تتحكم فيه الآلة الذكية في مصير الإنسانية، يأتي تقرير وزارة التعلم الأميركية، للتأكيد على أهمية الاعتناء بتكنولوجيا التعليم، إذ تلتزم وزارة التعليم الأميركية تطوير تكنولوجيا التعلّم والنظر فيها بشكل جدي ومبتكر، "لتشمل كلًا من (أ) التقنيات المصممة خصيصًا للاستخدام التعليمي، وكذلك (ب) التقنيات العامة المستخدمة على نطاق واسع في البيئات التعليمية.
هناك ضرورة لإدماج الذكاء الاصطناعي في التعلّم مع تفادي المخاطر أو التقليل من عواقبها
تروم التوصيات الواردة في هذا التقرير إشراك المعلمين والقادة التربويين وصانعي السياسات الباحثين والمبتكرين ومقدمي تكنولوجيا التعليم أثناء عملهم على قضايا السياسة الملحة التي تنشأ مع استخدام الذكاء الاصطناعي في التعليم.
يُنبّه التقرير إلى رأي خبراء تكنولوجيا التعليم الذين يرون بأنّ هناك عدّة فرص في استخدام الذكاء الاصطناعي، حيث يمكن أن يساعد ذوي الإعاقة في تحسين عملية التعلّم والتعرف على الكلام، والمساعدة في الكتابة وغير ذلك، كما يُمَكّن الذكاء الاصطناعي كافة الطلبة من أدوات جديدة لتحسين أدائهم ودعم دروسهم بمواد تعليمية مهمة. لكن هناك مِن الخبراء مَن يحذر من مخاطر الذكاء الاصطناعي، التي لها صلة بخصوصية البيانات"، فهناك "مخرجات غير مناسبة وخاطئة".
ويتخوف الخبراء من استعمال الذكاء الاصطناعي في انتحال أعمال وسرقة بحوث وتشويه مضامين، ولهذا فإنّهم قلقون ممّا إذا كانت "التوصيات التي تفرضها الخوارزمية عادلة". لكن هناك ضرورة لإدماج الذكاء الاصطناعي في التعلّم مع تفادي المخاطر أو التقليل من عواقبها. ولقد بَيّن التقرير نفسه، والصادر عن معهد ستانفورد للذكاء الاصطناعي، أنّ هناك تناميًا ملحوظًا للاستثمار في الذكاء الاصطناعي، والاهتمام بأخلاقياته.
لقد تقدّمت حوالى 25 دولة بمقترحات تشريعية حول الذكاء الاصطناعي، ومن ذلك مخطط البيت الأبيض حول تشريع حقوق الذكاء الاصطناعي؛ كما أصدرت المفوضية الأوروبية إرشادات أخلاقية حول استخدام الذكاء الاصطناعي والبيانات في التعليم والتعلّم للمعلمين، ومن أجل بناء سياسات أخلاقية وعادلة للذكاء الاصطناعي، في مجال التعليم، ينطلق التقرير من أربعة أسُس:
الأساس الأول هو التركيز على الأشخاص وليس الآلات، بمعنى النظر إلى "وضع البشر مع الذكاء الاصطناعي في حلقة"، وهو مفهومٌ أو منظورٌ يُراد به العناية بدور الانسان في تقييم استخدام الذكاء الاصطناعي والمحافظة على كرامته، إذ "يحتاج المجتمع إلى سياسة ذكاء اصطناعي تركز على التعليم وتحمي الحقوق المدنية وتعزّز القيم الديموقراطية في بناء ونشر وحوكمة الأنظمة الآلية لاستخدامها عبر العديد من المستويات اللامركزية للنظام التعليمي الأميركي".
الذكاء الاصطناعي في مجال التعلّم من المفترض أن يساهم في تحقيق المساواة وتجاوز التمييز العرقي
أمّا الأساس الثاني، فيتعلّق بالعدالة وتقدمها، بحيث يرى البعض أنّه من شأن الذكاء الاصطناعي زيادة الفوارق أو تقليصها، اعتمادًا على ما تقوم به الآن، بمعنى أنّ الذكاء الاصطناعي في مجال التعلّم من المفترض أن يساهم في تحقيق المساواة وتجاوز التمييز العرقي، والمساواة الرقمية، وهي "الحالة التي يتمتع فيها الأفراد والمجتمعات بقدرة تكنولوجيا المعلومات اللازمة للمشاركة الكاملة في مجتمع واقتصاد الولايات المتحدة".
والأساس الثالث، هو ضمان السلامة والأخلاق والفعالية، أي تصميم نظام أمني للمعلومات والبيانات ومراعاة الخصوصية؛ كما أنّ تكنولوجيا التعليم المدعومة والمعبأة بالذكاء الاصطناعي هي مطالبة بتحقيق معايير الفعالية.
وأخيرًا، الأساس الرابع، مؤسّس على تعزيز الشفافية، حيث هناك حاجة إلى فهم وإدراك عمل نماذج الذكاء الاصطناعي لتفادي العراقيل والمشاكل والتقليص من المخاطر.
(خاص "عروبة 22")