نائب رئيس مجلس الدولة: الخصوصية وأمن البيانات أبرز التحديات القانونية لاستخدام الذكاء الاصطناعي في تعليم الطفولة المبكرة
نائب رئيس مجلس الدولة: الخصوصية وأمن البيانات أبرز التحديات القانونية لاستخدام الذكاء الاصطناعي في تعليم الطفولة المبكرة

قال المستشار الدكتور محمد عبدالوهاب خفاجي نائب رئيس مجلس الدولة إنه يمكن حصر الاعتبارات القانونية التي تواجه الذكاء الاصطناعي،
في مرحلة تعليم الطفولة المبكرة في ضمانة خصوصية وأمن البيانات لحماية الأطفال من الأذى المحتمل وسوء الاستخدام-
ضمانة أن تكون خوارزميات الذكاء الاصطناعي شفافة وعادلة وشاملة توفر فرص تعلم متساوية لجميع الأطفال،
بغض النظر عن خلفياتهم دون تحيز- وضمانة التعاون الدولى للوائح المنظمة للذكاء الاصطناعى مع تفعيل مبدأى المراقبة والمساءلة.
ويمكن إيجاز الاعتبارات القانونية المتعلقة بالذكاء الاصطناعي في تعليم الطفولة المبكرة في الضمانات التالية.
وعرض خفاجي أثناء المؤتمر العلمى الدولي الثالث عشر لكلية التربية للطفولة المبكرة- جامعة القاهرة بعنوان:
(اَفاق ورؤى مستقبلية في تعليم وتأهيل الأطفال ذوى الاحتياجات الخاصة في ضوء تطبيقات الذكاء الاصطناعى) المنعقد 16 أبريل 2025 بالكلية تحت رعاية
الأستاذ الدكتور محمد سامى عبدالصادق رئيس جامعة القاهرة، التحديات القانونية لاستخدام الذكاء الاصطناعى ،
في مجال التعلم بمرحلة الطفولة المبكرة الطفل العادى – الطفل غير العادى.
نائب رئيس مجلس الدولة يوضح فوائد الذكاء الاصطناعي في تعليم الطفولة المبكرة
وأوضح أنه في حين أن الفوائد المحتملة للذكاء الاصطناعي في تعليم الطفولة المبكرة كبيرة،
إلا أنه يجب التغلب على العديد من التحديات لضمان التنفيذ الناجح. أحد التحديات الأساسية هو الاعتبارات القانونية،
المتعلقة بخصوصية البيانات وأمنها. يتضمن استخدام الذكاء الاصطناعي في التعليم جمع وتحليل البيانات الحساسة ،
حول الأطفال الصغار. وتعد ضمانة خصوصية وأمن هذه البيانات أمرًًا بالغ الأهمية لحماية الأطفال من الأذى المحتمل وسوء الاستخدام.
ويضيف «تدور الاعتبارات القانونية المتعلقة بالذكاء الاصطناعي في تعليم الطفولة المبكرة في المقام الأول حول خصوصية البيانات وحمايتها.
فعلى سبيل المثال يحدد قانون حماية خصوصية الأطفال على الإنترنت (COPPA) في الولايات المتحدة معايير،
لجمع واستخدام المعلومات الشخصية من الأطفال منذ الطفولة المبكرة حتى دون سن 13 عامًا،
حيث يعد الخضوع لهذه اللوائح أمرًا ضروريًا لحماية خصوصية المتعلمين الصغار.
أما الضمانة القانونية الثانية فتتمثل في أن تكون خوارزميات الذكاء الاصطناعي شفافة وعادلة وشاملة توفر فرص تعلم متساوية لجميع الأطفال،
بغض النظر عن خلفياتهم دون تحيز، ويتمثل التحدي الآخر في خطر التحيز في خوارزميات الذكاء الاصطناعي،
إذ يمكن لأنظمة الذكاء الاصطناعي أن تديم التحيزات القائمة والتفاوتات التعليمية إذا لم يتم تصميمها واختبارها بشكل صحيح.
ومن الضروري ضمان أن تكون خوارزميات الذكاء الاصطناعي شفافة وعادلة وشاملة،وتوفر فرص تعلم متساوية ،
لجميع الأطفال بغض النظر عن أوضاعهم الاجتماعية.
التعاون الدولى للوائح المنظمة للذكاء الاصطناعى
كما أن التعاون الدولى للوائح المنظمة للذكاء الاصطناعى مع تفعيل مبدأى المراقبة والمساءلة.
إن التعاون الدولي أمر بالغ الأهمية في تطوير هذه الأطر التنظيمية، ومن خلال تبادل أفضل الممارسات ومواءمة المعايير على مستوى العالم،
يُمكن للدول أن تعمل معًا لمعالجة التحديات التي يفرضها الذكاء الاصطناعي في التعليم،
وذلك من أجل خلق نهج موحد لقانون طفل تكنولوجى – إن صح التعبير- على المستوى الدولى، في مجال الذكاء الاصطناعي،
والحوكمة بصفة عامة للوصول إلى أكبر قدر ممكن من الاستفادة للطفل في مرحلة الطفولة المبكرة .
وأشار نائب رئيس مجلس الدولة خلال المؤتمر إلى أنه يجب توافر الأطر الدولية،
مثل اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي،
إرشادات صارمة بشأن معالجة البيانات وحقوق الأفراد، بما في ذلك الأطفال، إذ تنص هذه اللوائح على أن البيانات التي يتم جمعها،
من خلال تطبيقات الذكاء الاصطناعي يجب التعامل معها بأقصى درجة من العناية، مما يضمن عدم إساءة استخدامها أو تعرضها للانتهاكات.
كما يجب تفعيل مبدأى المراقبة والمساءلة، فمن ناحية أولى، يجب ضع معايير لتطوير الذكاء الاصطناعي ونشره ،
ومراقبته في سبيل تطوير إطار تنظيمي شامل للذكاء الاصطناعي في تعليم الطفولة المبكرة،
حيث يجب وضع المعايير وأفضل الممارسات لتوجيه الاستخدام الآمن والفعال لتقنيات الذكاء الاصطناعي،
وتلعب المنظمات التكنولوجية دورًا كبيرًا في هذا الشأن،
ففى أمريكا مثلًا تقدم منظمات مثل الجمعية الدولية للتكنولوجيا في التعليم (ISTE) إرشادات للمساعدة في صياغة هذه المعايير.
مصدر الخبر | موقع المصري اليوم