سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
Randi Weingarten
بعد ظهور منصات الذكاء الاصطناعي المولدة مثل ChatGPT بشكل واسع في الفصول الدراسية الأميركية، قرَّر “جيفري إليس – لي”، مدرس مادة الحكومة المتقدمة (AP) في مدرسة ماكسين غرين الثانوية في مانهاتن، إجراء تجربة.
وضع “إليس – لي” مقالات من امتحانات الحكومة الـAP في السنوات السابقة في ChatGPT لمعرفة كيف سيؤدي. وكانت الإجابات المثالية المتحصل عليها محبطة له. ولذلك، قام بتكليف طلابه بمهمة تحسين إجابات ChatGPT بإعطائهم مقياس تقدير سبع نقاط لتصحيح امتحان الـAP، وتمكنوا من القيام بذلك.
“إليس – لي” هو واحد من الملايين من المعلمين في جميع أنحاء البلاد الذين يتعاملون مع نفس المشكلة :ماذا يجب عليهم فعله بالذكاء الاصطناعي المولد، مثل ChatGPT في الفصول الدراسية؟
هل يُمنع؟ لقد كان لا يسمح باستخدام الآلات الحاسبة في الثمانينيات، والبريد الإلكتروني في التسعينيات، وويكيبيديا في الألفية الجديدة. أمَّا في الوقت الحالي، فيسمح باستخدام الآلات الحاسبة في اختبارات الـ SATوالـACT، وأصبح البريد الإلكتروني وويكيبيديا أدوات تعليمية.
عندما حاولت المدارس العامة في مدينة نيويورك حظر ChatGPT وغيره من الذكاء الاصطناعي المولد، جلب الطلاب نقاط الاتصال غير القانونية لتجاوز إنترنت المدرسة والوصول إليها على أي حال .ومنذ ذلك الحين، تراجعت المدارس عن الحظر.
الإجابة، هي تبني هذه التقنية، والمطالبة بأن يلتزم مطورو الذكاء الاصطناعي بمجموعة من اللوائح الأخلاقية والمسؤولية المعتنى بها بعناية لاستخدام الذكاء الاصطناعي في مدارسنا.
يمكن للذكاء الاصطناعي أن يغير طريقة تعليم المعلمين وتعلم الأطفال، ولكن يجب أن يتم ذلك بمراقبة ومسؤولية كافيتين لتجنب المخاطر المحتملة، مثل انتهاكات خصوصية البيانات والتحيز المسبق المبرمج وعدم المساواة في الوصول. إذا لم نتعلم شيئًا من تأثير وسائل التواصل الاجتماعي على رفاهية أطفالنا، فإننا نخاطر بتكرار الأخطاء نفسها مع الذكاء الاصطناعي المولد. يجب علينا أن ندرك أن المخاطر المحتملة ليست فقط تلغي المزايا، ولكن أيضًا تضر الطلاب. ولذلك، يجب على الجهات المعنية تبني ممارسات فعالة وسياسات ملائمة للتأكد من أن استخدام الذكاء الاصطناعي في التعليم يتم بمسؤولية ويعود بالفائدة على الجميع.
ينبغي على صانعي السياسات أن يتحملوا المسؤولية ويتقدموا على المخاطر المحتملة المتعلقة باستخدام الذكاء الاصطناعي في التعليم وغيرها من المجالات. لا يمكن لهم الاعتماد على القوانين وحدها، لأن الذكاء الاصطناعي يمتلك تأثيرًا كبيرًا ومتعدد الجوانب. فالرؤساء التنفيذيون لشركات الذكاء الاصطناعي الرائدة في العالم يحذرون من أن الذكاء الاصطناعي قد يحل محل البشر تمامًا في المستقبل.
حاليًا، يواجه مبتكرو نماذج الذكاء الاصطناعي المولد صعوبة في توضيح بعض أكبر المخاطر المترتبة على هذه التكنولوجيا، مثل: لماذا تولد بعض البيانات الخاطئة أحيانًا، وكيف يمكن التمييز بين الفيديوهات المتلاعب بها والحقيقية. وقد ظهرت بالفعل تحيزات عنصرية وثقافية في خوارزميات الذكاء الاصطناعي، مما أدى إلى أمور مثل تطبيقات التعرف على الوجوه التي تتعرف فقط على الوجوه البيضاء، وتطبيقات التنبؤ بالجرائم التي تركز على الوجوه السوداء واللاتينية، والروبوتات التي تنظر إلى المرأة على أنها مربية في المنزل.
يتطلب الأمر من صانعي السياسات وضع قواعد تنظيمية وضمان مشاركة المعلمين في العملية. فبدون مشاركتهم، قد تؤدي البرامج المعتمدة على الذكاء الاصطناعي إلى تقليل وقت التفاعل بين المعلم والطالب، مما يؤدي إلى العزلة وتأخر النمو العاطفي. وقد لا يمتلك الأطفال في المناطق المحرومة معدات الحواسيب أو الوصول إلى الإنترنت للاستفادة من التكنولوجيا المولدة بالذكاء الاصطناعي، وقد لا يتوفر لهم وسيلة للتحقق من دقة المعلومات المستخدمة في البرامج.
وتمثل الخطوة التالية إنشاء ضمانات للحماية من التحيزات في تقنيات الذكاء الاصطناعي. ويجب تدريب جميع أنظمة الذكاء الاصطناعي واختبارها على بيانات تشمل الجميع وتعامل الجميع بالتساوي، ويجب على المستخدمين أن يتمكنوا من تقديم تعليقات حول أي تحيز يلاحظونه.
يجب حماية القيمة التعليمية للذكاء الاصطناعي وجعلها متاحة لكي يتمكن جميع الطلاب من استخدامها، بغض النظر عن قدراتهم أو خلفياتهم أو أسلوب تعلمهم. وبالمثل، يجب أن يشجع الذكاء الاصطناعي التعلم التعاوني، وعليه أن يتم تقييم تأثيره التعليمي بشكل موضوعي من قبل جهة خارجية.
بشكل عام، تشير كل المبادئ التوجيهية إلى شيء واحد :الإشراف البشري وصنع القرار. ويجب أن يعزز الذكاء الاصطناعي دور المعلمين البشر، وليس استبدالهم. ويجب تنظيمه من قبل البشر لضمان الدقة والمساواة والوصول.
الذكاء الاصطناعي أصبح جزءًا من حياتنا اليومية ويستخدمه أطفالنا في العديد من المجالات. ويمكن للمعلمين تعلم كيفية استخدامه بشكل فعال، وتعليم أطفالنا كيفية الاستفادة منه، على غرار “جيفري إليس – لي”. ويعتبر الذكاء الاصطناعي المولد “الشيء الكبير التالي” في فصولنا الدراسية، ولكن يجب على المطورين إنشاء ضوابط وتوازنات لتفادي التحوُّل إلى مشكلتنا الكبيرة التالية.
إعداد: وحدة الترجمات بمركز سمت للدراسات
المصدر: themessenger
سجل بريدك لتكن أول من يعلم عن تحديثاتنا!
تابعوا أحدث أخبارنا وخدماتنا عبر حسابنا بتويتر