تهرانی نیوز - پايگاه اطلاع رسانی تهرانی نيوز

[نسخه مخصوص چاپ ]

SHAHRDARINEWS.COM


هوش مصنوعی دانشمندان را فریب داد
تاريخ خبر: يکشنبه، 25 دی 1401 ساعت: 12:28

 ایرنا نوشت: یک «بات گفتگو» (chatbot) هوش مصنوعی می‌تواند چکیده مقالات علمی را با چنان اقناع کنندگی بنویسد که دانشمندان اغلب قادر به تشخیص آنها نیستند. محققان نظرات متفاوتی درباره تاثیر این مساله برای آینده علم دارند.

بات گفتگوی موسوم به «چت جی پی تی» (ChatGPT) در پاسخ به فرمان های کاربران، متن های واقعی نما و هوشمندانه ای تولید می کند. این یک «مدل زبانی بزرگ» است که سیستمی مبتنی بر شبکه های عصبی است که با وارد کردن و تجزیه و تحلیل حجم عظیمی از متون تولید شده توسط انسان، روش انجام یک وظیفه را یاد می گیرد. شرکت نرم افزاری (OpenAI) که مقر آن در سانفرانسیسکو کالیفرنیا است این ابزار را روز ۳۰ نوامبر در دسترس قرار داد و استفاده از این ابزار رایگان است.
 
از زمان در دسترس قرار گرفتن این ابزار، محققان درگیر مسائل اخلاقی مرتبط با استفاده از آن بوده اند زیرا بخش زیادی از خروجی این ابزار قابل تشخیص از متون تولیدی انسان نیست. اکنون گروهی به رهبری «کاترین گائو» از دانشگاه شمال غربی در شیکاگو از «چت جی پی تی» برای تولید چکیده های مقالات تحقیقاتی استفاده کرده اند تا ببینند آیا دانشمندان قادر به تشخیص آنها هستند.
 
این ابزار ۵۰ مقاله تحقیقاتی پزشکی تولید کرد و این مقالات از آزمایش بررسی سرقت ادبی هم با رتبه اصالت ۱۰۰ درصدی سربلند بیرون آمدند به این معنی که هیچ نوعی از سرقت ادبی مشخص نشد.
 
گائو و همکاران در گزارشی خاطرنشان کردند: چت جی بی تی چکیده های علمی قابل باوری را می نویسد و این در حالی است که هنوز مرزهای بین کاربرد اخلاقی و قابل قبول مدل های زبانی بزرگ برای کمک به نوشته های علمی مشخص نشده است.
 
از سوی دیگر، «ساندرا واچر» محقق حوزه فناوری و مقررات حرفه ای حوزه فناوری در دانشگاه آکسفورد می گوید: من بسیار نگران هستم؛ اگر ما الان در شرایطی هستیم که کارشناسان قادر به تشخیص این مساله نیستند که چه (مقاله ای) حقیقی یا غیرحقیقی است، افراد واسط برای راهنمایی از میان موضوعات پیچیده را از دست خواهیم داد.
 
واچر خاطرنشان کرد: اگر دانشمندان قادر به تعیین این نباشند که آیا یک تحقیق حقیقت دارد یا خیر، پیامدهایی برای جامعه وجود خواهد داشت زیرا تحقیقات علمی نقش بزرگی در جامعه ایفا می کند. مثلا ممکن است به این معنی باشد که تصمیمات سیاستی (policy decisions) ناشی از تحقیقات، ناصحیح هستند.
 
اما «آرویند نارایانان» دانشمند رایانه در دانشگاه «پرینستون» در نیوجرسی می گوید: نامحتمل است که دانشمندی از چت جی پی تی برای تولید چکیده مقاله استفاده کند. وی افزود: این مساله که آیا چکیده های تولیدی قابل شناسایی هستند یا نه مساله «بی ربطی» است. مساله این است که آیا این ابزار می تواند چکیده ای تولید کند که صحیح و متقاعدکننده باشد. در واقع نمی تواند و بنابراین جنبه مثبت استفاده از چت جی پی تی بسیار کم و جنبه منفی آن قابل ملاحظه است.