مصدر الصورة: موقع forbes.com

ملخصات كتبت بواسطة علماء منصة “تشات جي بي تي” المخادعون – ترجمة* محمد جواد آل السيد ناصر الخضراوي

Abstracts written by ChatGPT fool scientists
(Holly Else – بقلم: هولي إلس)

ملخص المقالة:

يمكن لروبوت الدردشة كتابة ملخصات أوراق بحثية مزيفة مقنعة بحيث يتعذر على العلماء غالبًا اكتشافها، حيث ينشئ نصًا واقعيًا وذكيًا استجابةً لمطالبات المستخدم. إنه نظام يعتمد على الشبكات العصبية التي تتعلم أداء مهمة عن طريق هضم كميات هائلة من النصوص الموجودة التي تم إنشاؤها بواسطة الإنسان. وكان الباحثون يتصارعون منذ صدوره مع القضايا الأخلاقية المحيطة باستخدامه، لأن الكثير من مخرجاته قد يكون من الصعب تمييزها عن النص المكتوب من قبل الإنسان.

( المقالة )

لا يستطيع الباحثون التفريق دائمًا بين ملخصات أنشئت بواسطة الذكاء الاصطناعي والملخصات الأصلية.

يمكن لروبوت الدردشة الخاص بالذكاء الاصطناعي (AI) كتابة ملخصات أوراق بحثية مزيفة مقنعة بحيث يتعذر على العلماء غالبًا اكتشافها، وفقًا لطباعة أولية نُشرت على خادم “بايو ريكسيف” (bioRxiv) في أواخر ديسمبر 2022. والباحثون منقسمون حول الآثار المترتبة على مستقبل العلم.

علماء ومتخصصون في مجال النشر قلقون من أن التطور المتزايد لروبوتات الدردشة (chatbots)  يمكن أن يقوض نزاهة البحث ودقته. : مصدر الصورة: تيد هسو / ألامي

وتقول البروفيسور ساندرا واتشتر، التي تدرس التقنية والتنظيم في جامعة أكسفورد بالمملكة المتحدة، ولم تشارك في البحث: “أنا قلقة جدًا”. وتضيف: “إذا كنا الآن في موقف لا يتمكن فيه الخبراء من تحديد ما هو صحيح أم لا، فإننا نفقد الوسيط الذي نحتاج إليه بشدة لإرشادنا خلال مواضيع معقدة”.

وينشئ روبوت الدردشة، منصة “تشات جي بي تي” (ChatGPT)، نصًا واقعيًا وذكيًا استجابةً لمطالبات المستخدم. إنه “نموذج لغة كبير”، نظام يعتمد على الشبكات العصبية التي تتعلم أداء مهمة عن طريق هضم كميات هائلة من النصوص الموجودة التي تم إنشاؤها بواسطة الإنسان. وأصدرت شركة البرمجيات “اوبن أيه آي” (OpenAI)، ومقرها سان فرانسيسكو بولاية كاليفورنيا، الأداة في 30 نوفمبر 2022، وهي مجانية الاستخدام.

ومنذ صدوره (روبوت الدردشة)، كان الباحثون يتصارعون مع القضايا الأخلاقية المحيطة باستخدامه، لأن الكثير من مخرجاته قد يكون من الصعب تمييزها عن النص المكتوب من قبل الإنسان. وقد نشر العلماء نسخة أولية وافتتاحية كتبتها منصة “تشات جي بي تي”. الآن، استخدمت مجموعة بقيادة طالبة الدكتوراه كاثرين غاو في جامعة نورث وسترن في شيكاغو بولاية إلينوي، منصة “تشات جي بي تي” لتوليد ملخصات أوراق بحثية اصطناعية لاختبار ما إذا كان يمكن للعلماء اكتشافها.

وطلب الباحثون من روبوت دردشة كتابة 50 ملخصًا بحثيًا طبيًا بناءً على مجموعة مختارة منشورة في مجلة الجمعية الطبية الأمريكية  (JAMA) ومجلة نيو انغلند للطب (The New England Journal of Medicine) والمجلة الطبية البريطانية (The BMJ) ومجلة لانست (The Lancet) ومجلة طب الطبيعة (Nature Medicine). ثم قارنوا هذه مع الملخصات الأصلية عن طريق تشغيلها من خلال كاشف الانتحال وكاشف مخرجات الذكاء الاصطناعي، وطلبوا من مجموعة من الباحثين الطبيين تحديد الملخصات الملفقة.

تحت الرادار

أبحرت الملخصات التي تم إنشاؤها بواسطة منصة “تشات جي بي تي” عبر مدقق الانتحال: كانت درجة الأصالة المتوسطة 100٪، مما يشير إلى عدم اكتشاف سرقة أدبية. وقد اكتشف كاشف المخرجات بالذكاء الاصطناعي 66٪ من الخلاصات المتولدة. ولكن المراجعين البشريين لم يفعلوا أفضل بكثير: لقد تعرفوا بشكل صحيح على 68٪ فقط من الملخصات المنتجة و 86٪ من الملخصات الحقيقية. وتعرفوا بشكل غير صحيح على 32٪ من الملخصات التي تم إنتاجها على أنها حقيقية و 14٪ من الملخصات الأصلية تم إنتاجها.

وتقول غاو وزملاؤها في النسخة التمهيدية: (تكتب منصة “تشات جي بي تي” ملخصات علمية معقولة). وتضيف: “لا يزال يتعين تحديد حدود الاستخدام الأخلاقي والمقبول لنماذج اللغة الكبيرة للمساعدة في الكتابة العلمية”.

وتقول البروفيسور واتشتر إنه إذا لم يتمكن العلماء من تحديد ما إذا كان البحث صحيحًا، فقد تكون هناك “عواقب وخيمة”. بالإضافة إلى كونه يمثل مشكلة للباحثين، الذين يمكن إغوائهم في طرق التحقيق المعيبة، لأن البحث الذي يقرؤونه قد تم تلفيقه، فهناك “آثار على المجتمع ككل لأن البحث العلمي يلعب مثل هذا الدور الضخم في مجتمعنا”. فعلى سبيل المثال، قد يعني ذلك أن قرارات السياسة المستنيرة بالبحث غير صحيحة، كما تضيف البروفيسور واتشر.

لكن البروفيسور أرفيند نارايانان، عالم الكمبيوتر في جامعة برينستون في نيو جيرسي، يقول: “من غير المرجح أن يستخدم أي عالم جاد منصة “تشات جي بي تي” لإنشاء الملخصات”. ويضيف أن اكتشاف الملخصات التي تم إنشاؤها أمر “غير ذي صلة”. والسؤال هو ما إذا كانت الأداة يمكن أن تولد ملخصًا دقيقًا ومقنعًا. ولا يمكن ذلك، وبالتالي فإن الجانب الإيجابي لاستخدام منصة “تشات جي بي تي” ضئيل، والجانب السلبي مهم”، كما يقول.

ولدى آيرين سليمان، التي تبحث في التأثير الاجتماعي للذكاء الاصطناعي في شركة (Hugging Face)، (شركة ذكاء اصطناعي مقرها في نيويورك وباريس) مخاوف من أي اعتماد على نماذج لغوية كبيرة للتفكير العلمي. وتضيف: “يتم تدريب هذه النماذج على المعلومات السابقة، ويمكن أن يأتي التقدم الاجتماعي والعلمي غالبًا من التفكير، أو الانفتاح على التفكير، بشكل مختلف عن الماضي”.

ويقترح المؤلفون أن أولئك الذين يقومون بتقييم الاتصالات العلمية، مثل الأوراق البحثية ووقائع المؤتمرات، يجب أن يضعوا سياسات للقضاء على استخدام النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي. وإذا اختارت المؤسسات السماح باستخدام التكنولوجيا في حالات معينة، فيجب عليها وضع قواعد واضحة حول الكشف. وفي وقت سابق من هذا الشهر، أعلن المؤتمر الدولي الأربعون للتعلم الآلي، وهو مؤتمر كبير للذكاء الاصطناعي سيعقد في هونولولو بولاية هاواي، في يوليو 2023، أنه حظر الأوراق المكتوبة بواسطة منصة “تشات جي بي تي” وأدوات لغة الذكاء الاصطناعي الأخرى.

وتضيف سليمان أنه في المجالات التي يمكن أن تعرض فيها المعلومات المزيفة سلامة الأشخاص للخطر، مثل الطب، قد يتعين على المجلات اتباع نهج أكثر صرامة للتحقق من صحة المعلومات.

ويقول البروفيسور نارايانان إن الحلول لهذه المشكلات يجب ألا تركز على روبوت الدردشة نفسه، “بل بالأحرى الحوافز الضارة التي تؤدي إلى هذا السلوك، مثل قيام الجامعات بمراجعات التوظيف والترقية من خلال عد الأوراق دون اعتبار لجودتها أو تأثيرها”.

*تمت الترجمة بتصرف

References

  1. Gao, C. A. et al. Preprint at bioRxiv https://doi.org/10.1101/2022.12.23.521610 (2022).
  2. Blanco-Gonzalez, A. et al. Preprint at arXiv https://doi.org/10.48550/arXiv.2212.08104 (2022).
  3. O’Connor, S. & ChatGPT Nurse Educ. Pract. 66, 103537 (2023).

المراجع:

  1. سي ايه غاو وآخرون، طبعة ما قبل الطباعة في بيو ركسيف (bioRxiv)  https://doi.org/10.1101/2022.12.23.521610 (2022).
  2. ايه بلانكو-غونزاليز وآخرون، طبعة ما قبل الطباعة في ايه آركسيف (arXiv)  https://doi.org/10.48550/arXiv.2212.08104 (2022).
  3. اس اوكونور & تشات جي بي تي مجلة تعليم الممرضات في الممارسة، Nurse Educ. Pract. 66, 103537 (2023).

المصدر:

Abstracts written by ChatGPT fool scientists (nature.com)

الهوامش:

  1. روبوت الدردشة (Chatbot) هو برنامج كمبيوتر يحاكي ويعالج المحادثة البشرية (سواء كانت مكتوبة أو منطوقة)، مما يسمح للبشر بالتفاعل مع الأجهزة الرقمية كما لو كانوا يتواصلون مع شخص حقيقي. يمكن أن تكون روبوتات الدردشة بسيطة مثل البرامج البدائية التي تجيب على استعلام بسيط باستجابة من سطر واحد، أو معقدة مثل المساعدين الرقميين الذين يتعلمون ويتطورون لتقديم مستويات متزايدة من التخصيص أثناء قيامهم بجمع المعلومات ومعالجتها.
المهندس محمد جواد آل السيد ناصر الخضراوي

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *