جامعة الأمير سلطان — الاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي التوليدي (TL 0017)

جامعة الأمير سلطان

قالب السياسات

الاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي التوليدي (TL 0017)

بيانات السياسة
رمز سياسة جامعة الأمير سلطانTL 0017
تاريخ الاعتماد17/10/2025
عنوان السياسةالاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي التوليدي في البيئات الأكاديمية والبحثية
صاحب السياسةمركز التعليم والتعلم-عمادة الجودة
المكتب المسؤول/القسمنائب الرئيس للحياة الطلابية
جهة الاعتمادمجلس الجامعة
المراجعة الاخيرةNA
تاريخ النفاذ

بيان السياسة

تلتزم جامعة الأمير سلطان (PSU) بتعزيز الابتكار والتميز في التعليم والبحث العلمي من خلال الاستخدام الأخلاقي والمسؤول لأدوات الذكاء الاصطناعي التوليدي (Gen-AI) مثل ChatGPT وMidjourney وDALL·E.. وتشجع الجامعة جميع أفراد مجتمعها الأكاديمي — من طلاب، وأعضاء هيئة تدريس، وموظفين إداريين، وباحثين — على توظيف هذه الأدوات لدعم التعليم والتعلم والابتكار، شريطة أن يكون هذا الاستخدام:

  • مُفصح عنه ومُعترفًا به بوضوح
  • خاضع لمراجعة بشرية دقيقة وتم التحقق من صحته
  • متوافق تمامًا مع معايير جامعة الأمير سلطان للنزاهة الأكاديمية والسلوك الأخلاقي والمتطلبات القانونية.

ويُعدّ أي استخدام غير مصرّح به أو غير أخلاقي لأدوات الذكاء الاصطناعي التوليدي مخالفة أكاديمية، مما يعرّض مرتكبه للإجراءات التأديبية المناسبة وفقًا للوائح وأنظمة جامعة الأمير سلطان.

الخلفية والمبررات

يُشكّل ظهور الذكاء الاصطناعي التوليدي (Gen-AI) نقلةً نوعية في مسار الابتكار الرقمي، إذ يتيح قدراتٍ متقدمة تشمل إنتاج نصوصٍ تُحاكي الأسلوب البشري، وتصميم صورٍ واقعية، وتنفيذ محاكاةٍ معقدة. وقد أسهمت أدواتٌ مثل ChatGPT وGemini وDeepSeek وDALL·E وغيرها في إعادة صياغة أساليب التعليم والتعلّم والبحث العلمي، من خلال تمكين التعليم المخصّص، وتسريع الإنتاجية الأكاديمية، وتعزيز التعبير الإبداعي.

تتطلع جامعة الأمير سلطان (PSU) إلى توظيف الإمكانات الإيجابية للذكاء الاصطناعي التوليدي في إثراء التجربة الأكاديمية. ومع ذلك، تؤكد الجامعة على أهمية التعامل مع هذه الأدوات بحذر ومسؤولية أخلاقية عالية، إذ إن الاستخدام غير المدروس أو غير المنضبط للمحتوى المُولّد بواسطة الذكاء الاصطناعي قد يترتب عليه عواقب وخيمة، من أبرزها:

  • الانتحال الأكاديمي وانتهاك حقوق الملكية الفكرية
  • تراجع مهارات التفكير النقدي والتعلم الذاتي
  • الإخلال بقوانين الخصوصية وحماية البيانات
  • إدخال التحيزات الخوارزمية ونشر المعلومات المضللة

تؤكد جامعة الأمير سلطان التزامها بضمان الاستخدام المسؤول لتقنيات الذكاء الاصطناعي بما يتوافق مع مبادئ النزاهة الأكاديمية والمعايير الأخلاقية والقيم التعليمية التي تتبناها الجامعة. تنطبق هذه السياسة على جميع أفراد مجتمع الجامعة — من طلاب، وأعضاء هيئة تدريس، وباحثين، وموظفين إداريين — وتهدف إلى تنظيم استخدام أدوات الذكاء الاصطناعي التوليدي (Gen-AI) في البيئات الأكاديمية والبحثية، بما يعزز الشفافية والجودة والمسؤولية في توظيف هذه التقنيات.

مبادئ جامعة الأمير سلطان لاستخدام الذكاء الاصطناعي التوليدي

حرصًا على تحقيق تكامل يتسم بالمسؤولية والشفافية لتقنيات الذكاء الاصطناعي التوليدي (Gen-AI) في البيئة الأكاديمية والبحثية، تُجيز الجامعة استخدام هذه الأدوات في الحالات التي تلتزم بما يلي:

  • الإفصاح الصريح: يجب على المستخدمين الإقرار بوضوح باستخدام أدوات الذكاء الاصطناعي التوليدي، وتوثيق ذلك في جميع المخرجات الأكاديمية أو البحثية.
  • الإشراف البشري: يتعيّن على المستخدمين مراجعة المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، وتفسيره، والتحقق من دقته وجودته وملاءمته للسياق الأكاديمي.
  • الامتثال الأخلاقي والقانوني: يجب أن يتوافق الاستخدام مع قواعد السلوك المهني في جامعة الأمير سلطان، ومعايير النزاهة الأكاديمية، وقوانين حماية البيانات وحقوق الملكية الفكرية المعمول بها.

أهداف السياسة

  • حماية النزاهة الأكاديمية: الحفاظ على صحة وأصالة ومصداقية العمل الأكاديمي والبحثي.
  • تعزيز الابتكار الأخلاقي: تشجيع استخدام الذكاء الاصطناعي بطرق تُعزّز البصيرة والإبداع البشري بدلا من استبدالها.
  • دعم التطوير: تعزيز فهم معمّق لتقنيات الذكاء الاصطناعي ومهارات الاستخدام المسؤول بين أعضاء هيئة التدريس والموظفين والطلاب.
  • ضمان التوافق القانوني والمؤسسي: الامتثال للمعايير الأكاديمية والدولية ومعايير حوكمة البيانات.
  • الحفاظ على قيم الجامعة التعليمية وسمعتها: دعم ريادة جامعة الأمير سلطان في التميز الأكاديمي والتبني المسؤول للتكنولوجيا.

تلتزم جامعة الأمير سلطان بأن تكون رائدة إقليميًا في مجال التعليم المدمج بتقنيات الذكاء الاصطناعي... ويُعدّ أي انتهاك لأحكام هذه السياسة مخالفةً للوائح الجامعة، وقد يترتب عليه اتخاذ الإجراءات التأديبية المناسبة وفقًا للأنظمة الأكاديمية والإدارية المعمول بها.

النطاق والغرض

الغرض

تستند هذه السياسة إلى إطار عمل أخلاقي ومنهجي واضح لاستخدام تقنيات الذكاء الاصطناعي في جامعة الأمير سلطان، بما يعزز الممارسات المسؤولة في استخدام الذكاء الاصطناعي التوليدي (Gen-AI) في مختلف جوانب العمل الجامعي. تهدف السياسة أيضًا إلى تعزيز النزاهة الأكاديمية، وحماية حقوق الملكية الفكرية، وتوجيه الطلاب وأعضاء هيئة التدريس والباحثين والموظفين الإداريين نحو الاستخدام الأمثل والمنضبط لأدوات الذكاء الاصطناعي التوليدي في مجالات التعليم والتعلم والبحث والإدارة. كما تتوافق هذه السياسة مع المعايير الوطنية والدولية، وتعكس التزام جامعة الأمير سلطان بالتميز الأكاديمي والأمانة والابتكار المسؤول.

النطاق

تُطبَّق هذه السياسة على جميع أعضاء مجتمع جامعة الأمير سلطان، بمن فيهم طلاب البكالوريوس والدراسات العليا، وأعضاء هيئة التدريس، والمحاضرين، والباحثين، والموظفين الإداريين المشاركين في إنشاء أو تقديم أو تقييم أو دعم المحتوى الأكاديمي أو الإداري.

وتُنظّم هذه السياسة استخدام تقنيات الذكاء الاصطناعي التوليدي (Gen-AI) في جميع الأنشطة الأكاديمية والبحثية، بما في ذلك — على سبيل المثال لا الحصر — الرسائل الجامعية، وأوراق البحث، والمقترحات البحثية، والواجبات الدراسية، والامتحانات، والمواد التعليمية، والمحتوى الإبداعي الذي يتم إنتاجه داخل جامعة الأمير سلطان أو نيابةً عنها.

مبادئ السياسة

تُدرك جامعة الأمير سلطان الإمكانات التي تتيحها تقنيات الذكاء الاصطناعي التوليدي (Gen-AI)... وستقوم بما يلي:

  • تقديم دورات تدريبية وورش عمل منتظمة للطلاب وأعضاء هيئة التدريس والباحثين والموظفين، تغطي عدة جوانب مثل:
    • كيفية عمل أدوات الذكاء الاصطناعي.
    • الآثار الأخلاقية والقانونية والأكاديمية.
    • الاستشهاد بالمصادر والاعتراف بالمحتوى المُنتج من الذكاء الاصطناعي بشكل صحيح.
    • دراسات حالة توضح الاستخدامات المقبولة وغير المقبولة.
  • توفير فرص متساوية للوصول إلى أدوات الذكاء الاصطناعي من الجيل الجديد المعتمدة، مع إزالة العوائق المالية أو التقنية لضمان العدالة.
  • إجراء مراجعات دورية لأدوات الذكاء الاصطناعي من الجيل الجديد المعتمدة لتقييم توافقها الأخلاقي ودقتها وتحيزاتها المحتملة.
المبادئ التوجيهية لاستخدام الذكاء الاصطناعي (للمزيد من التفاصيل، يُرجى مراجعة إطار عمل الذكاء الاصطناعي في جامعة الأمير سلطان).
  1. النزاهة الأكاديمية: يجب ألا يحل الذكاء الاصطناعي محل التعلم التقليدي أو الجهد الفكري البشري. قد يدعم المهارات الأكاديمية والمعرفية الأساسية ولكن لا يحل محلها.
  2. الوصول العادل: يجب أن يتمتع جميع أصحاب المصلحة في جامعة الأمير سلطان بإمكانية الوصول إلى أدوات الذكاء الاصطناعي المعتمدة من الجامعة، بغض النظر عن الخلفية أو الموارد.
  3. الشفافية: يجب الإفصاح بوضوح عن أي استخدام للذكاء الاصطناعي، وشرح دوره في إنشاء المحتوى أو اتخاذ القرارات.
  4. المساءلة: يتحمل المستخدمون مسؤولية مراجعة المحتوى المُنشأ بواسطة الذكاء الاصطناعي والتحقق من صحته وتطبيقه أخلاقيًا. قد يؤدي سوء الاستخدام إلى عواقب أكاديمية أو تأديبية.
  5. الخصوصية والملكية الفكرية: يجب أن يتوافق استخدام الذكاء الاصطناعي مع قوانين حماية البيانات واحترام ملكية جميع المخرجات الأكاديمية والإبداعية.

الاستخدامات المسموحة

  • البحث الأكاديمي: للمساعدة في مراجعة الأدبيات، تلخيص المعلومات، استكشاف الفرضيات، توليد الشفرات البرمجية مع الالتزام بالاستشهاد بالمصادر، أو إنشاء التصورات البيانية والمخططات.
  • التعليم والتعلم: لإثراء مواد الدورات التعليمية، وتصميم أدوات التقييم، وتحسين إمكانية الوصول (مثل تحويل النص إلى كلام، والترجمات)، وكذلك لإنشاء محاكاة تفاعلية.
  • المساعدة في الكتابة: لدعم تدقيق القواعد اللغوية، وتحسين وضوح النص، وإعادة هيكلة المحتوى، مع التأكيد على عدم استخدام الأدوات لإنشاء محتوى كامل أو تطوير الحجج العلمية بشكل مستقل.
  • المشاريع الإبداعية: في مجالات التصميم الرقمي، والعصف الذهني، والنمذجة الأولية، شريطة الحفاظ على الإبداع البشري والمساهمة الأصلية، والاعتراف بها بشكل واضح.

الاستخدامات غير المسموحة

  • تقديم محتوى مُنشأ بواسطة الذكاء الاصطناعي على أنه عمل بشري أصلي بالكامل.
  • استخدام الذكاء الاصطناعي لتزييف البيانات أو نتائج البحث.
  • إعداد التقييمات، الأطروحات، أو الواجبات الدراسية بالكامل بواسطة الذكاء الاصطناعي دون الإفصاح الصريح.
  • إنشاء محتوى مضلل، منسوخ، أو ضار باستخدام الذكاء الاصطناعي.
  • انتهاك خصوصية البيانات أو حقوق الملكية الفكرية أو المعايير الأكاديمية المعمول بها.

مستويات الاستخدام المسموح به لأدوات الذكاء الاصطناعي التوليدي

  1. غير مسموح
    في سياقات تطوير المهارات الأساسية والتقييمات التأسيسية التي يتطلب فيها التفكير المستقل، لا يُسمح باستخدام الذكاء الاصطناعي التوليدي.
  2. مسموح مع الالتزام بالإسناد
    في الحالات التي يُمكن أن يدعم فيها الذكاء الاصطناعي مهارات التفكير الأعلى مستوى (مثل توليد الأفكار أو الصياغة)، يُسمح باستخدامه مع الإسناد الكامل والتحقق البشري لضمان دقة وموثوقية النتائج.
  3. مستحسن / موصى به
    في الأبحاث المتقدمة أو المشاريع الإبداعية، يوصى باستخدام الذكاء الاصطناعي التوليدي عندما يُساهم في تعزيز الأصالة أو الابتكار أو التحليل المعقّد، شرط توثيق دوره بشفافية في جميع المخرجات الأكاديمية.

يجب على أعضاء هيئة التدريس توضيح سياسات استخدام الذكاء الاصطناعي التوليدي في المناهج الدراسية وتقييم الطلاب، لمنع الاعتماد المفرط على هذه الأدوات على حساب تحقيق نتائج التعلم الأساسية.

التعاريف

  • المحتوى المُولَّد بالذكاء الاصطناعي: أي نص، صورة، أو وسائط متعددة يتم إنشاؤها باستخدام أدوات قائمة على الذكاء الاصطناعي دون تأليف بشري مباشر، بما في ذلك منصات مثل ChatGPT وDALL·E وMidjourney ونماذج اللغات الكبيرة المماثلة (LLMs).
  • العمل الأكاديمي: الواجبات الدراسية، والمقالات، والعروض التقديمية، ومقاطع الفيديو، ومشاريع البحث، والمقالات البحثية، وأي مواد تُقدَّم للاعتماد أو التقييم الأكاديمي.
  • النزاهة الأكاديمية: الالتزام بالسلوك النزيه والأخلاقي في العمل الأكاديمي، بما في ذلك الإسناد السليم والأصالة في جميع الأعمال الأكاديمية.
  • الاستخدام المسموح به للذكاء الاصطناعي: دمج أدوات الذكاء الاصطناعي التوليدي في العمليات الأكاديمية وفقًا لإرشادات واضحة، مع الإفصاح عن دور هذه الأدوات والتحقق البشري.
  • الاستخدام غير المسموح به للذكاء الاصطناعي: استخدام أدوات الذكاء الاصطناعي التوليدي بطريقة تنتهك النزاهة الأكاديمية، أو تنتج محتوى مضلّلًا، أو تُشوّه صورة التأليف البشري والأصالة.

المسؤوليات واستراتيجيات التنفيذ

  • أعضاء هيئة التدريس: ضمان الامتثال للسياسة في محتوى المقررات الدراسية، وأعمال الطلاب، ومشاريع البحث. الموافقة على استخدام أدوات الذكاء الاصطناعي التوليدي (Gen-AI) حيثما كان ذلك مناسبا.
  • الطلاب: استخدام أدوات Gen-AI بشفافية وضمن الحدود المسموح بها فقط. الإفصاح والإقرار عن أي استخدام لهذه الأدوات في جميع الأعمال الأكاديمية.
  • الباحثون: ضمان الاستخدام المسؤول لأدوات Gen-AI في معالجة البيانات، وإنشاء الأكواد البرمجية، وتفسير النتائج البحثية.
  • العمداء ورؤساء الأقسام: الإشراف على نشر السياسة، وتوفير التدريب، وضمان تطبيقها الفعّال داخل كلياتهم وأقسامهم الأكاديمية.
  • وحدات تكنولوجيا المعلومات والشؤون الأكاديمية: توفير وصول آمن ومنظم إلى أدوات Gen-AI ومراقبة الامتثال.
يجب على أي فرد يستخدم الذكاء الاصطناعي في العمل الأكاديمي إرفاق إقرار يوضح ما يلي:
  • اسم أداة الذكاء الاصطناعي.
  • المطالبة أو الاستفسار المستخدم
  • الغرض والقسم الذي استُخدم فيه الذكاء الاصطناعي.
  • بيانات المراجعة البشرية.

مثال على الإقرار (باللغة الإنجليزية): I acknowledge the use of [ChatGPT (https://chat.openai.com)] to assist in writing the methodology section of this paper. Prompts were submitted on [Date], and the generated content was edited and reviewed before inclusion.

مثال على الإقرار (باللغة العربية): أقر باستخدام تطبيق ChatGPT (https://chat.openai.com) للمساعدة في كتابة قسم المنهجية في هذا البحث. تم إدخال الأوامر بتاريخ [التاريخ]، وتمت مراجعة وتحرير المحتوى قبل إدراجه.

مسؤوليات الطلاب

  • الإسناد: عند استخدام أدوات الذكاء الاصطناعي التوليدي (GAI) في المقررات الدراسية أو الواجبات، يجب على الطلاب تقديم إسناد مناسب، موضحين الأداة المستخدمة وكيفية مساهمتها في العمل. سيقدم أعضاء هيئة التدريس إرشادات واضحة حول طريقة ومكان الإسناد، ويمكن للطلاب طلب المساعدة من موارد مركز التعلم والتطوير عند الحاجة.
  • التحقق: يجب على الطلاب التحقق بدقة من المحتوى المُولَّد بواسطة الذكاء الاصطناعي، وضمان ملاءمته ودقته وسياقه الأكاديمي قبل استخدامه في أي عمل أكاديمي.
  • النزاهة الأكاديمية: يُعدّ إساءة استخدام محتوى الذكاء الاصطناعي التوليدي لإكمال الواجبات أو التقييمات بطرق تتجاوز أهداف التعلم شكلاً من أشكال الانتحال الأكاديمي، ويخضع لسياسات النزاهة الأكاديمية في جامعة الأمير سلطان.
  • التأمل الأخلاقي: يجب على الطلاب التفكر في الآثار الأخلاقية للذكاء الاصطناعي في التعلم، لتعزيز التطور الشخصي والأخلاقي في استخدام هذه الأدوات.

مسؤوليات أعضاء هيئة التدريس

  • وضوح التوقعات: يجب على أعضاء هيئة التدريس تحديد الاستخدام المسموح به لمحتوى الذكاء الاصطناعي التوليدي (GAI) ضمن مناهج المقررات الدراسية والواجبات، مع تقديم أمثلة واضحة وتوضيح الممارسات المسموحة.
  • الدعم والتعليم: تشجيع أعضاء هيئة التدريس على إرشاد الطلاب حول الاستخدام المسؤول لمحتوى الذكاء الاصطناعي التوليدي (GAI)، مع التركيز على الاعتبارات الأخلاقية، والتحليل النقدي، والتحقق من صحة المحتوى المُولَّد.
  • نمذجة الإسناد: عند استخدام محتوى الذكاء الاصطناعي التوليدي لإنشاء مواد المقررات الدراسية، ينبغي على أعضاء هيئة التدريس أن يُظهروا الممارسات الأخلاقية من خلال الالتزام بمعايير الإسناد المتوقعة من الطلاب. يجب نسب جميع المحتوى المأخوذ من أي منصة بشكل صحيح، مع الالتزام باتفاقيات الترخيص لضمان الامتثال، لاسيما عند استخدام المحتوى المولَّد بالذكاء الاصطناعي أو التعديلات عليه.
  • التقييم باستخدام الذكاء الاصطناعي: يجب على أعضاء هيئة التدريس تجنب الاعتماد الكلي على الذكاء الاصطناعي في تقييم أعمال الطلاب، لضمان العدالة، والإشراف البشري، ودقة التقييم.

المسؤوليات المؤسسية

  • اقتناء التكنولوجيا: يُوصى بتحديد إجراءات شراء أخلاقية لتقنيات الذكاء الاصطناعي، لضمان ملاءمتها للاستخدام التعليمي والأكاديمي.
  • تكافؤ الفرص: تعمل الجامعة على توفير الوصول إلى أدوات محتوى الذكاء الاصطناعي التوليدي (GAI) المرخصة لجميع الطلاب وأعضاء هيئة التدريس، لضمان فرص متساوية وعادلة. يمكن التواصل مع مركز التعلم والتعلم للحصول على قائمة الأدوات المعتمدة.
  • تحديثات السياسة: يقوم مركز التعلم والتعلم بمراجعة هذه السياسة سنويًا، وتعديلها بما يتماشى مع تطورات تقنيات الذكاء الاصطناعي التوليدي (GAI).
  • التدريب والموارد: توفر الجامعة دورات تدريبية، وورش عمل، وموارد مستمرة لمساعدة المجتمع الأكاديمي على فهم الاستخدام الأخلاقي والعملي للذكاء الاصطناعي.

المشاركة المجتمعية: التواصل بانتظام مع المجتمع الخارجي لمناقشة سياسات الذكاء الاصطناعي وتحسينها، بما يعكس القيم المجتمعية والاعتبارات الأخلاقية. إن المشاركة المجتمعية في صياغة سياسات الذكاء الاصطناعي تضمن التوافق مع المعايير الثقافية والأخلاقية.

النسبة المئوية للمحتوى المقبول

يوضح الجدول التالي النسبة المئوية القصوى المسموح بها للمحتوى المُنشأ بواسطة الذكاء الاصطناعي (مع الإفصاح) في العمل الأكاديمي:

نوع العمل صاحب المصلحة محتوى الذكاء الاصطناعي الأقصى
منشورات المجلات العلميةعضو هيئة تدريس≤15%
أوراق المؤتمراتعضو هيئة تدريس≤20%
الكتب/الفصولعضو هيئة تدريس≤15%
مقترحات البحثعضو هيئة تدريس≤20%
مواد الدورةعضو هيئة تدريس≤25%
رسائل الماجستيرطلاب الدراسات العليا≤25%
أطروحات الدكتوراهطلاب الدراسات العليا≤20%
الأبحاثطلاب الدراسات العليا≤20%
الواجبات الدراسيةطلاب الدراسات العليا≤30%
مشاريع التخرجطلاب المرحلة الجامعية≤30%
أوراق بحثيةطلاب المرحلة الجامعية≤30%
تقارير مختبريةطلاب المرحلة الجامعية≤30%
مشاريع جماعيةطلاب المرحلة الجامعية≤30%
منشورات المجلات العلميةالباحث≤15%
أوراق المؤتمراتالباحث≤15%
الكتب/الفصولالباحث≤15%
مقترحات البحثالباحث≤15%
التقاريرالإداري≤25%
رسائل البريد الإلكترونيالإداري≤35%
مواد الدعايةالإداري≤25%
مقترحات الفعالياتالإداري≤35%
  • يُطلب من أعضاء هيئة التدريس و الطلاب والباحثين والموظفين الإفصاح عن استخدام منصات الذكاء الاصطناعي العامة (GAI) في أعمالهم الدراسية.
  • يجب التأكد من عدم تحميل البيانات الخاصة بجامعة الأمير سلطان على المنصات العامة لإنشاء التقارير.
  • يحتفظ مركز التعليم والتعلم بقائمة الأدوات المسموح بها، لذا يُرجى استشارة المركز قبل اختيار أي أداة.

إجراءات التعامل مع انتهاكات السياسات

يجب على جميع الجهات المعنية الالتزام بما يلي:

  • قوانين حماية البيانات الوطنية والدولية، مثل اللائحة العامة لحماية البيانات (GDPR).
  • لوائح حقوق الملكية الفكرية وحقوق النشر.
  • سياسات البحث الأخلاقي والنزاهة الأكاديمية على مستوى الجامعة.

يتم استخدام عمليات تدقيق منتظمة، وأدوات كشف الذكاء الاصطناعي، وعمليات المراقبة المستمرة من أعضاء هيئة التدريس لضمان الالتزام. قد تؤدي المخالفات إلى عقوبات أكاديمية أو إجراءات تأديبية وفقًا للوائح السلوك الأكاديمي.

سيتم استخدام عمليات تدقيق منتظمة، وأدوات كشف الذكاء الاصطناعي، وعمليات مراقبة من أعضاء هيئة التدريس لمراقبة الامتثال. قد تؤدي المخالفات إلى عقوبات أكاديمية أو إجراءات تأديبية. أي مخالفة لهذه السياسة قد تؤدي إلى إجراءات تأديبية وفقًا للوائح السلوك الأكاديمي في جامعة الأمير سلطان.

الخصوصية وحماية البيانات

يجب ألا تُنشئ أدوات الذكاء الاصطناعي العامة (GAI) أو تخزن أو تُعالج البيانات المحمية بلوائح الخصوصية إلا باستخدام أدوات معتمدة من جامعة الأمير سلطان تتوافق مع معايير الخصوصية. كما لا ينبغي إدخال البيانات الحساسة، مثل سجلات الطلاب والأبحاث غير المنشورة، في أنظمة الذكاء الاصطناعي العامة (GAI). لا يسمح بنشر بيانات متعلقة بجامعة الأمير سلطان على أدوات الذكاء الاصطناعي لأغراض التحليل أو الكتابة أو التخزين. لا يسمح باستخدام البيانات المُولّدة من الذكاء الاصطناعي لعرض الحقائق والأرقام لأي طلب رسمي أو مُقيّم.

حتى مع الأدوات المعتمدة، يجب ألا تُستخدم البيانات الشخصية إلا بموافقة صريحة، ويجب أن تتوافق جميع عمليات معالجة البيانات مع معايير الخصوصية الدولية مثل اللائحة العامة لحماية البيانات (GDPR).

التطبيقات المحظورة

يُحظر استخدام أدوات الذكاء الاصطناعي العامة التي تنتهك الخصوصية أو الملكية الفكرية أو المعايير الأخلاقية لجامعة الأمير سلطان. إضافة إلى ذلك، يجب على أعضاء هيئة التدريس والطلاب تجنب أنظمة الذكاء الاصطناعي العامة غير الموثوقة المعرضة لعدم الدقة أو التحيز. يحتفظ مركز التعليم والتعلم بقائمة الأدوات التي يجب استخدامها فقط، ولأي استفسارات، يمكنكم التواصل مع المركز.

  • يجب على أعضاء هيئة التدريس والطلاب توخي الحذر من التحيزات الكامنة في أدوات الذكاء الاصطناعي والعمل على منع انتشار المعلومات المضللة.
  • يُحظر تمامًا استخدام الذكاء الاصطناعي لتحديد هوية الطلاب أو أعضاء هيئة التدريس بطرق قد تؤدي إلى التمييز أو انتهاك الخصوصية.

التنفيذ

سيتم التعامل مع أي انتهاكات لهذه السياسة من قبل الطلاب أو أعضاء هيئة التدريس وفقًا لإجراءات السلوك الأكاديمي والمهني لجامعة الأمير سلطان. قد تؤدي الانتهاكات المتكررة أو الخطيرة إلى إجراءات تأديبية، بما يتماشى مع التزام جامعة الأمير سلطان بالحفاظ على النزاهة الأكاديمية.

  • سيقوم مركز التعليم والتعلّم بدعوة مجتمع الجامعة لتقديم ملاحظات منتظمة حول فعالية السياسة، وإجراء التعديلات اللازمة عند الحاجة.
  • تلتزم جامعة الأمير سلطان بتوضيح كيفية استخدام الذكاء الاصطناعي إداريًا، لضمان الشفافية والإنصاف في الطلبات غير الأكاديمية.

المراجع

  1. إرشادات جامعة ستانفورد بشأن سياسات الذكاء الاصطناعي التوليدي.
  2. سياسة النزاهة الأكاديمية في جامعة الأمير سلطان
  3. مدونة قواعد سلوك الطلاب في جامعة الأمير سلطان
  4. إطار عمل الذكاء الاصطناعي في جامعة الأمير سلطان
  5. سياسات أخلاقيات الذكاء الاصطناعي لمعهد مهندسي الكهرباء والإلكترونيات
  6. إرشادات اليونسكو
  7. جامعة هارفارد (https://huit.harvard.edu/ai/guidelines)
  8. جامعة كولومبيا (https://provost.columbia.edu/content/office-senior-vice-provost/ai-policy)
  9. جامعة شيكاغو
  10. جامعة ييل
  11. جامعة تورنتو
  12. جامعة ليستر
  13. جامعة ليفربول
  14. جامعة الملك عبد الله للعلوم والتقنية (KAUST)
  15. جامعة الملك فهد للبترول والمعادن (KFUPM)
  16. جامعة طوكيو
  17. جامعة بكين
  18. جامعة سنغافورة الوطنية
  19. جامعة تسينغهوا
  20. جامعة نانيانغ التكنولوجية
  21. الجامعة الوطنية الأسترالية (ANU)

السياسات ذات الصلة الوثائق

  • سياسة النزاهة الأكاديمية في جامعة الأمير سلطان
  • قواعد سلوك الطلاب في جامعة الأمير سلطان
  • قواعد سلوك أعضاء هيئة التدريس