


أرست الجامعات المصرية قواعد جديدة وحاسمة لاستخدام تقنيات الذكاء الاصطناعي في الأوساط الأكاديمية، تهدف في جوهرها إلى منع "فبركة المحتوى" ومكافحة "الانتحال الرقمي". هذه الضوابط تُلزم أعضاء هيئة التدريس والباحثين بالاستخدام المسؤول والواعي لهذه التقنيات، مع ضرورة الإفصاح عن دور الذكاء الاصطناعي في أي إنتاج علمي، لضمان بقاء "العقل البشري" هو المرجعية الأولى والأخيرة للشفافية والمصداقية.
وفقاً لـ دليل النزاهة الأكاديمية الصادر حديثاً، تلتزم مؤسسات التعليم العالي بإطار أخلاقي صارم يتضمن النقاط التالية:
مكافحة الانتحال: منع استخدام الذكاء الاصطناعي لتوليد نصوص ونسبتها للباحث دون وجه حق، واعتبار ذلك خرقاً للأمانة العلمية.
تحريم "الفبركة": يُحظر تماماً استخدام الأدوات التوليدية لاختلاق بيانات إحصائية أو نتائج تجارب وهمية لم تحدث في الواقع.
الشفافية والاعتراف: الالتزام بالإشارة بوضوح إلى الأدوات المستخدمة (مثل Chat GPT أو غيره) في منهجية البحث، مع تحديد الجزء الذي ساهمت فيه الأداة.
المسؤولية الكاملة: يتحمل الباحث وحده مسؤولية دقة المعلومات التي يولدها الذكاء الاصطناعي، وعليه مراجعتها وتدقيقها للتأكد من خلوها من الأخطاء أو الانحيازات.
هذا التحرك ليس مجرد "إجراء إداري" داخل أسوار الجامعات، بل هو صمام أمان للمجتمع ككل:
حماية جودة المعرفة: بالنسبة للمواطن، هذا القرار يضمن أن الأبحاث (سواء كانت طبية، هندسية، أو اجتماعية) مبنية على حقائق بشرية وليست "هلوسات رقمية"، مما يحمي المجتمع من استنتاجات خاطئة قد تكون كارثية.
قيمة الشهادة العلمية: يحافظ هذا القرار على هيبة الشهادات الجامعية المصرية عالمياً؛ فالتزام الباحثين بأخلاقيات الذكاء الاصطناعي يجعل الإنتاج الأكاديمي المصري معترفاً به وموثوقاً في المحافل الدولية.
العدالة التعليمية: يضمن القرار عدم تفوق "طالب" على آخر لمجرد قدرته على استخدام أدوات تقنية بشكل غير قانوني، بل يظل الجهد الذهني والإبداع الفردي هو معيار التقييم.
تاريخياً، خاضت الجامعات المصرية معارك طويلة ضد الانتحال؛ فمنذ عصر "المكتبات الورقية" مروراً بظهور الإنترنت وسهولة "القص واللصق" (Copy-Paste) في أوائل الألفية، كانت هناك دائماً برامج لمكافحة السرقات العلمية مثل (Turnitin). اليوم، يمثل الذكاء الاصطناعي التحدي الثالث والأخطر، لأن المحتوى المولد يكون "فريداً" ظاهرياً ويصعب كشفه بالوسائل التقليدية، مما استدعى إصدار هذا الدليل الأخلاقي لمواكبة التطور التقني السريع.
بصفتك متابعاً للتطور التكنولوجي:
هل ترى أن الذكاء الاصطناعي "مساعد ذكي" للباحث يجب دعمه؟
أم أنه "تهديد" قد يقتل ملكة التفكير النقدي لدى الأجيال القادمة؟
شاركنا برأيك: هل يجب منع هذه الأدوات تماماً في الأبحاث، أم تنظيمها كما فعلت الوزارة؟
نتوقع في المستقبل القريب أن تصبح مادة "أخلاقيات الذكاء الاصطناعي" متطلباً جامعياً إجبارياً لجميع التخصصات. كما ستتجه الجامعات لتطوير أنظمة كشف متقدمة تعمل بالذكاء الاصطناعي نفسه للتمييز بين الكتابة البشرية والآلية. السيناريو الأرجح هو حدوث "دمج متناغم" حيث يصبح الذكاء الاصطناعي (مساعداً تقنياً) وليس (مفكراً بديلاً)، مع بقاء السيادة الكاملة للنزاهة البشرية.











