محمدمهدی خراسانی

توسعه‌دهنده Full-Stack

توسعه‌دهنده نرم‌افزار

توسعه‌دهنده بک‌اند

توسعه‌دهنده اپلیکیشن موبایل

طراح محصول

طراح تجربه کاربری (UX)

طراح رابط کاربری (UI)

طراح وب

طراح گرافیک

تحلیلگر داده

هوش مصنوعی

بینایی ماشین

یادگیری عمیق

یادگیری ماشین

پردازش زبان طبیعی (NLP)

مشاور توسعه سیستم‌های هوش مصنوعی

تحلیلگر تکنیکال بازارهای مالی

مدیر پروژه فناوری اطلاعات

توسعه‌دهنده بلاک‌چین

برنامه نویس میکروکنترلر

نوشته بلاگ

چالش‌های پژوهش با ابزارهای هوش مصنوعی مولد

آذر ۳, ۱۴۰۴ آموزش, تجربه, تخصصی
چالش‌های پژوهش با ابزارهای هوش مصنوعی مولد

فایل ارایه :

کاربردهای عملی هوش مصنوعی در فرآیند تحقیق- از ایده تا تولید محتوای معتبر

 

ابزارهای هوش مصنوعی مولد مانند ChatGPT در سال‌های اخیر با قابلیت‌های چشمگیر خود در خلاصه‌سازی متون، تولید محتوا و دستیاری در پژوهش، افق‌های تازه‌ای را پیش روی محققان گشوده‌اند. این ابزارها می‌توانند مراحل اولیه‌ی تحقیق را با سرعت و سهولت بی‌سابقه‌ای پیش ببرند و در ایده‌پردازی و جمع‌آوری اطلاعات خام کمک شایانی کنند. با این حال، ورود چنین فناوری‌هایی به عرصه تحقیق و پژوهش، چالش‌های اساسی نیز به همراه داشته است که نمی‌توان از آن‌ها چشم‌پوشی کرد. مهم‌ترین دغدغه در این میان، حفظ صحت و اعتبار علمی آثار پژوهشی در مواجهه با خروجی‌های بعضاً نامعتبر هوش مصنوعی است. پیش‌تر در مقاله ای دیگر تحت عنوان “اطلاعی ندارم!” درد داره؟! بررسی دقیق توهم مدل ها، با زبان خودمانی و طنز پدیده ی توهم را بررسی کردیم ، اما در این مقاله می خواهیم کاملا علمی و کاربردی به این موضوع بپردازیم که «جایگاه ابزارهای هوش مصنوعی در فرآیند تحقیق چیست و چگونه می‌توان ضمن بهره‌گیری از مزایای آن، با چالش‌های بنیادین (به‌ویژه پدیده‌ی توهم یا Hallucination) مقابله کرد؟»

فرصت‌ها و رویکردهای مختلف در بهره‌گیری از هوش مصنوعی پژوهشی

ورود هوش مصنوعی مولد به دنیای پژوهش، واکنش‌های متفاوتی را در جامعه علمی برانگیخته است. در یک سو، شیفتگان فناوری قرار دارند که این ابزارها را انقلابی در امر تحقیق دانسته و خواهان بهره‌گیری حداکثری از ظرفیت آن‌ها هستند. از نگاه این گروه، شتاب‌بخشی به گردآوری منابع و نگارش پیش‌نویس توسط AI یک مزیت بزرگ است و مشکلاتی نظیر خطاها یا توهم‌های مقطعی، نواقصی موقتی هستند که با پیشرفت مدل‌ها برطرف خواهند شد. در سوی دیگر، محافظه‌کاران ایستاده‌اند که با بدبینی به این فناوری می‌نگرند. آن‌ها به ریسک بالای تولید اطلاعات نادرست، عدم شفافیت در چگونگی استدلال مدل‌ها و حتی تهدید اصالت و خلاقیت پژوهش اشاره می‌کنند و معتقدند استفاده از این ابزارها در کارهای علمی باید بسیار محدود یا حتی ممنوع شود. اما میان این دو قطب، گروه سومی از واقع‌گرایان منتقد شکل گرفته است: پژوهشگرانی که نه هوش مصنوعی را عصای جادویی می‌دانند و نه خطری مطلق؛ بلکه آن را یک «دستیار» تلقی می‌کنند که حتماً نیازمند نظارت دقیق انسانی است. این رویکرد سوم می‌کوشد ضمن استفاده‌ی مسئولانه از توانایی‌های AI، اصول و راهبردهایی برای صحت‌سنجی و راستی‌آزمایی خروجی‌های آن تدوین کند تا اعتبار علمی پژوهش خدشه‌دار نشود. در ادامه‌ی این نوشتار، با تأکید بر این نگاه واقع‌گرایانه، ابتدا مهم‌ترین چالش فنی یعنی پدیده‌ی توهم در مدل‌های زبانی بزرگ را شرح داده و سپس کاربردهای عملی هوش مصنوعی در فرآیند تحقیق: از ایده تا تولید محتوای معتبر را بررسی می‌کنیم. همچنین راهکارهای فنی برای کاهش خطا (به‌ویژه در پژوهش‌های علوم انسانی و منابع دینی) ارائه خواهد شد.

پدیده «توهم» (Hallucination) و اهمیت صحت‌سنجی در پژوهش

یکی از چالش‌های بنیادی در به‌کارگیری مدل‌های زبانی بزرگ (LLMها) پدیده‌ی موسوم به «توهم» است. توهم به وضعیتی گفته می‌شود که در آن مدل هوش مصنوعی با اطمینان، اطلاعات یا منابعی را تولید می‌کند که نادرست یا کاملاً ساختگی هستند. به عبارتی خروجی AI ممکن است ظاهری بسیار موجه و علمی داشته باشد ولی در واقع فاقد پشتوانه‌ی واقعی است. این مشکل از آنجا ناشی می‌شود که مدل‌های زبانی به جای درک حقایق، بر پیش‌بینی آماری کلمات بعدی تکیه دارند. لذا اگر دانش قطعی در داده‌های آموزشی نداشته باشند، برای پر کردن خلأها، پاسخ‌های خیالی اما محتمل می‌سازند. در حوزه پژوهش علمی، اعتماد بی‌جا به چنین خروجی‌هایی می‌تواند فاجعه‌بار باشد. برای مثال، در حوزه حقوقی موردی مشهور رخ داد که وکلایی بدون صحت‌سنجی از ChatGPT برای یافتن سوابق پرونده استفاده کردند و ربات حقوقی آنها چند رأی دادگاه کاملاً ساختگی را با اطمینان ارائه داد. نتیجه آن شد که این وکلا به دلیل درج منابع جعلی در متن حقوقی توسط دادگاه جریمه و توبیخ شدند. قاضی تصریح کرد که استفاده از AI فی‌نفسه ممنوع نیست، اما طبق اصول حرفه‌ای، وکلا موظف به نقش دروازه‌بانی و راستی‌آزمایی منابع قبل از استناد در دادگاه هستند. این نمونه به‌خوبی نشان می‌دهد که اگر پژوهشگر صحت و منبع اطلاعات تولیدشده توسط هوش مصنوعی را بررسی نکند، چه عواقبی در انتظار او خواهد بود.

در عرصه‌ی دانشگاهی نیز مطالعات نشان داده‌اند که مدل‌هایی مانند GPT-4 در حوزه‌های پیچیده علمی ممکن است تا ۲۰–۳۰٪ مطالب نادرست یا غیرقابل‌اعتماد تولید کنند. این میزان خطا برای یک محقق به هیچ وجه قابل اغماض نیست. یک ادعای اشتباه یا یک منبع جعلی می‌تواند اعتبار کل مقاله را زیر سؤال ببرد و حتی به اتهام تخلف علمی یا رد شدن مقاله منجر شود. از این رو، صحت‌سنجی نظام‌مند تمامی اطلاعات، آمار و منابع ارائه‌شده توسط AI برای پژوهشگر امری حیاتی است. هر خروجی مدل باید صرفاً یک پیش‌نویس اولیه تلقی شود که حتماً نیاز به بررسی و تأیید توسط پژوهشگر دارد.

از سوی دیگر، یکپارچگی منابع و ارجاعات در کار علمی اهمیت ویژه‌ای دارد. مدل‌های زبانی گاهی منبع و مأخذهایی تولید می‌کنند که کاملاً جعلی هستند؛ مثلاً اسم مقاله و مجله معتبر به ظاهر وجود دارد ولی در واقعیت هیچ‌گاه منتشر نشده است. پژوهشگر باید نسبت به این ارجاعات خیالی بسیار هشیار باشد، زیرا نقل آن‌ها در یک اثر علمی به منزله‌ی معرفی منابع از سرزمین نارنیاست! بهترین راهکار این است که اگر AI منبعی را ذکر کرد، مستقل بودن آن منبع را شخصاً راستی‌آزمایی کنیم: وجود خارجی داشتن مقاله یا کتاب را در پایگاه‌های داده معتبر (Google Scholar، SID، کتابخانه‌ها و …) جست‌وجو کنیم. همچنین هر نقل‌قول یا آماری که مدل ارائه می‌دهد، باید با دست‌کم دو منبع معتبر دیگر تطبیق و تأیید شود. به‌ویژه در نگارش دانشگاهی که هر ادعا باید مستند باشد، پذیرش بی‌چون و چرای گفته‌های یک ربات می‌تواند منجر به گنجاندن منابع جعلی در فهرست مراجع یا اطلاعات نادرست در بدنه‌ی مقاله شود که اعتبار پژوهش را ساقط می‌کند. بنابراین اعتماد پیش‌فرض به خروجی AI جایز نیست و پژوهشگر باید نقش منتقد و راستی‌آزما را ایفا کند.

کاربردهای عملی هوش مصنوعی در فرآیند تحقیق: از ایده تا تولید محتوای معتبر

با وجود چالش‌های ذکرشده، نمی‌توان از کاربردهای مفید و عملی هوش مصنوعی در روند پژوهش چشم‌پوشی کرد. در واقع، اگر این ابزارها را درست و با احتیاط به‌کار بگیریم، می‌توانند مانند دستیارانی توانمند از مرحله شکل‌گیری ایده‌ی پژوهش تا نگارش نهایی در کنار پژوهشگر باشند. در ادامه، مراحل مختلف یک تحقیق علمی را در نظر گرفته و نقش‌های بالقوه AI به همراه بایدها و نبایدهای هر مرحله را بررسی می‌کنیم:

  1. ایده‌پردازی و انتخاب موضوع: در مراحل آغازین که محقق به دنبال ایده یا پرسش پژوهش است، هوش مصنوعی می‌تواند با دریافت توضیحاتی درباره علایق پژوهشگر و حوزه مدنظر، چندین ایده‌ی اولیه یا سوالات مرتبط پیشنهاد دهد. برای مثال، ChatGPT می‌تواند با گرفتن چند کلیدواژه، فهرستی از موضوعات ممکن یا زوایای کمترکاوش‌شده در آن حوزه تولید کند. این کار به طوفان فکری سرعت می‌بخشد. با این حال، دقت داریم که ایده‌های AI همیشه عملی یا بدیع نیستند؛ بنابراین پژوهشگر باید ایده‌های پیشنهادی را با خلاقیت و شناخت زمینه‌ی تخصصی خود بسنجد و احتمال تکراری بودن یا مبهم بودن آن‌ها را بررسی کند. در این مرحله، AI تنها جرقه‌زن تفکر است، اما تصمیم نهایی برای انتخاب موضوع با خود پژوهشگر خواهد بود.
  2. جست‌وجوی منابع و مرور ادبیات: یکی از وقت‌گیرترین بخش‌های هر تحقیق، یافتن منابع مرتبط (مقالات، کتاب‌ها، داده‌ها) و درک ادبیات موجود است. ابزارهای هوش مصنوعی می‌توانند در این مرحله چند کاربرد مفید داشته باشند:
    • مرور سریع متون: مدل‌های زبانی قادرند با دریافت چکیده یا بخش‌هایی از یک مقاله، آن را خلاصه کرده و نکات کلیدی‌اش را به زبان ساده‌تر بیان کنند. این برای پژوهشگری که می‌خواهد در زمان کوتاه حجم زیادی از مقالات را وارسی کند بسیار ارزشمند است. به عنوان مثال می‌توان چکیده ده‌ها مقاله را به کمک AI خلاصه و مقایسه کرد تا روندها و شکاف‌های پژوهشی مشخص شود.
    • یافتن منابع بر اساس توضیح متنی: برخی ابزارهای جدید (مانند افزونه‌های هوش مصنوعی متصل به اینترنت یا موتورهای جستجوی هوشمند) می‌توانند بر اساس یک توضیح متنی یا سوال تحقیق، منابع علمی مرتبط (با ذکر عنوان و نویسنده) پیشنهاد دهند. البته هشدار مهم این است که این منابع پیشنهادی حتماً باید بررسی شوند. متأسفانه مدل‌های معمول (بدون دسترسی مستقیم به پایگاه‌های واقعی) ممکن است ترکیبی از اطلاعات درست و نادرست ارائه کنند. بهترین روش در این مرحله آن است که خود پژوهشگر به پایگاه‌های داده معتبر (مانند پرتال‌های دانشگاهی، Google Scholar، SID و غیره) مراجعه کند و یا از ابزارهای هوشمندی استفاده کند که خروجی همراه با لینک و مدرک معتبر می‌دهند. هرگاه AI مقاله یا کتابی را معرفی می‌کند، ابتدا وجود و اعتبار آن را به شکل مستقل احراز کنید و سپس از آن بهره ببرید. به بیان دیگر، هوش مصنوعی می‌تواند نقطه شروع جست‌وجو باشد، اما ادامه کار (دریافت متن کامل مقالات و ارزیابی کیفیت آن‌ها) همچنان بر عهده محقق انسان است.
  3. یادداشت‌برداری و سازمان‌دهی اطلاعات: پس از گردآوری منابع، نوبت به مطالعه و استخراج نکات کلیدی می‌رسد. در این مرحله نیز AI می‌تواند یک دستیار سودمند باشد. شما می‌توانید نکات مهم یافته‌شده در مقالات یا کتب مختلف را به مدل بدهید و از آن بخواهید آن‌ها را دسته‌بندی یا در قالب جدول و فهرست مرتب کند. مثلا اگر ده منبع درباره یک موضوع دارید، می‌توانید از هوش مصنوعی بخواهید شباهت‌ها و تفاوت‌های آن‌ها را در چند محور مشخص فهرست کند. همچنین در صورت نیاز، ترجمه و تفسیر بخش‌هایی از منابع (به‌خصوص اگر به زبان‌های دیگر باشند) از عهده مدل برمی‌آید. فرض کنید پژوهشگری منابع عربی و انگلیسی را مطالعه می‌کند؛ می‌تواند از AI بخواهد بخش‌های پیچیده را برایش به فارسی ساده توضیح دهد یا معادل‌یابی اصطلاحات تخصصی را انجام دهد. به کمک این ابزارها، مدیریت یادداشت‌ها و سازمان‌دهی اطلاعات آسان‌تر می‌شود. نکته مهم در اینجا، کنترل کیفی خروجی است. مدل باید دقیقا مطابق داده‌های ورودی عمل کند؛ بنابراین بهتر است به‌جای پرسش‌های کلی، اطلاعات دقیق هر منبع را به AI بدهیم و سپس تلخیص یا مقایسه بخواهیم. این گونه خطر انحراف یا افزودن مطالب اضافی کاهش می‌یابد. در واقع اگر داده‌های ورودیِ صحیح و تأییدشده را به مدل بدهیم، احتمال تولید محتوای نادرست به مراتب کمتر می‌شود.
  4. نگارش پیش‌نویس اولیه: اکنون پژوهشگر پس از مطالعات کافی، آماده نگارش مقاله یا گزارش است. بسیاری از محققان از مدل‌های زبانی برای کمک در نوشتن بخش‌هایی از پیش‌نویس استفاده می‌کنند. کاربردهای ممکن عبارت‌اند از:
    • ایجاد طرح کلی و ساختار متن: می‌توانید از AI بخواهید بر اساس موضوع و اهداف تحقیق شما، یک Outline یا طرح کلی پیشنهاد دهد (شامل بخش‌بندی‌های اصلی و فرعی). این کار به دید بهتر نسبت به ساختار منطقی نوشتار کمک می‌کند. البته طرح ارائه‌شده باید با قضاوت پژوهشگر اصلاح و تکمیل گردد.
    • تولید متن اولیه: در برخی قسمت‌ها (مثلاً توضیح مفاهیم عمومی یا مرور کارهای پیشین) می‌توان نگارش اولیه را به مدل سپرد. مثلا به ChatGPT بگویید: «یک پاراگراف درباره اهمیت کلان‌داده در علوم اجتماعی بنویس.» مدل بر اساس دانش گسترده خود، پاراگrafی منسجم تولید می‌کند که می‌تواند نقطه شروع خوبی باشد. مزیت این کار، سریع‌تر پیش رفتن نگارش است؛ اما چند مخاطره دارد. اول اینکه متن تولیدشده ممکن است دقیقاً با لحن و سبک مدنظر شما تطابق نداشته باشد و نیاز به ویرایش داشته باشد. دوم و مهم‌تر اینکه باید تمام گزاره‌های مطرح‌شده را کنترل کنید. در این مرحله، پژوهشگر نباید صرفاً متن AI را کپی کرده و جلو برود، بلکه لازم است هر جمله‌ی حاوی واقعیت یا آمار را به منبع معتبر پیوند دهد یا در صورت عدم اطمینان، حذف کند. هیچ ادعایی را بدون تأیید رها نکنید؛ هر پاراگراف تولیدشده توسط هوش مصنوعی نیازمند بازبینی نقادانه است.
    • بازنویسی و بهبود بیان: گاهی پیش‌نویس اولیه توسط خود پژوهشگر نوشته می‌شود اما نیاز به روان‌سازی یا رفع ایهام دارد. مدل‌های زبانی می‌توانند متن را بازنویسی کنند تا سلیس‌تر شود یا لحن آن یکنواخت گردد. مثلا می‌توان یک پاراگراف را به AI داد و خواست «با لحنی رسمی‌تر و علمی بازنویسی کن». همچنین می‌توان از آن برای کوتاه کردن جملات طولانی یا تبدیل زبان محاوره به رسمی استفاده کرد. البته در این موارد هم باید دقت کرد که مدل در بازنویسی، مطالب اصلی را حذف یا اضافه نکند و صرفاً لحن و بیان را تغییر دهد. پس بعد از هر بازنویسی، تطبیق با متن اصلی ضروری است.
  5. صحت‌سنجی نهایی و ویرایش: پس از تکمیل پیش‌نویس، گام بسیار مهم بازبینی نهایی توسط انسان است. توصیه می‌شود پژوهشگر متن نوشته‌شده (چه توسط خودش و چه بخش‌هایی که AI کمک کرده) را یک بار با دقت بخواند و به دنبال خطاهای factual بگردد. در این مرحله حتی می‌توان مجدداً از هوش مصنوعی اما در نقش یک منتقد یا بازرس بهره گرفت. مثلا می‌توان از ChatGPT پرسید: «آیا گزاره‌های زیر در متن صحیح هستند و منبع معتبری برای آن‌ها وجود دارد؟» و سپس جمله یا پاراگراف مورد تردید را به او داد. یا می‌توان خواست: «برای ادعای X چند منبع علمی نام ببر». اگر مدل منبع مشخصی ذکر کرد، خودتان آن را در اینترنت یا پایگاه‌ها جستجو کنید تا واقعی بودنش تأیید شود. همچنین می‌توان از AI خواست متن را از نظر انطباق با ساختار موردنیاز (مثلاً فرمت یک مقاله استاندارد) بررسی کند تا چیزی از قلم نیفتاده باشد. ابزارهای تخصصی دیگری نیز برای این مرحله وجود دارند؛ مثلاً برنامه‌هایی که سرقت علمی (Plagiarism) را چک می‌کنند یا نرم‌افزارهای ویرایش نگارشی فارسی که ایرادات دستورزبان و املاء را می‌گیرند. در نهایت، این پژوهشگر است که باید با تکیه بر دانش و دقت خود، متن را پاک‌سازی کرده و یک محتوای کاملاً معتبر و مستند تحویل دهد.

در مجموع، هوش مصنوعی در تمام این مراحل می‌تواند نقش تقویت‌کننده و تسهیل‌گر داشته باشد، به شرط آن‌که کنترل کیفیت انسانی در تمامی گام‌ها اعمال شود. به تعبیر دیگر، AI مانند دستیار پژوهشی تازه‌کاری است که سرعت و حافظه بالایی دارد اما تجربه و درایت انسانی ندارد؛ شما می‌توانید کارهای وقت‌گیر را به او بسپارید ولی هر خروجی‌اش را وارسی و اعتبارسنجی کنید.

راهکارهای عملی برای جلوگیری از توهم و خطا در تحقیقات

حال که با کاربردهای AI آشنا شدیم، لازم است چند راهبرد عملی مهم را برای مهار پدیده توهم و به حداقل رساندن خطاهای مدل‌های زبانی مرور کنیم. رعایت این نکات به پژوهشگران کمک می‌کند تا ضمن استفاده از مزایای هوش مصنوعی، از گرفتارن شدن در دام اطلاعات ساختگی یا نادرست جلوگیری کنند:

  • تقسیم مسئله به بخش‌های کوچک و پرسش‌های مشخص: یکی از بهترین روش‌ها برای کاهش خطای AI آن است که به جای طرح درخواست‌های کلی و مبهم، پرسش‌ها یا وظایف جزئی و مرحله‌ای تعریف کنیم. مدل‌های زبانی وقتی گام‌به‌گام هدایت شوند عملکرد بهتری دارند. مثلا به‌جای اینکه از ChatGPT بخواهیم «یک فصل کامل درباره موضوع X بنویس»، ابتدا بخواهیم فهرستی از سرفصل‌های ممکن ارائه دهد. سپس هر سرفصل را جداگانه به شکل پرسش درآوریم و پاسخ بگیریم. این رویکرد موسوم به زنجیره تفکر (Chain-of-Thought) است و تحقیقات نشان داده که دقت نتایج را بالا می‌برد. همچنین می‌توان پس از دریافت هر بخش، از مدل خواست که استدلال خود را توضیح دهد یا منابعی برای گفته‌هایش معرفی کند. این شفاف‌سازی مرحله‌ای کمک می‌کند ایرادات را زودتر تشخیص دهیم.
  • ورودی‌های دقیق و داده‌های معتبر به مدل بدهید: ضرب‌المثل قدیمی دنیای رایانه که می‌گوید «آشغال وارد کنی، آشغال خارج می‌شود» در مورد هوش مصنوعی هم صادق است. اگر سوال یا دستور ما مبهم باشد، مدل هم احتمالاً پاسخی کلی و نادقیق خواهد داد. بنابراین پرسش دقیق و با جزئیات مطرح کنید. هر اطلاعات درستی که در اختیار دارید (اعداد، نقل‌قول، نام منبع) را در متن پرسش بگنجانید تا مدل بر اساس آن‌ها پاسخ دهد نه بر اساس حدسیات خودش. به عنوان مثال، اگر درباره مقایسه آماری دو کشور تحقیق می‌کنید، به جای پرسیدن «وضعیت اقتصادی ایران بهتر است یا ترکیه؟» که سؤال گسترده‌ای است، مشخص بپرسید: «رشد تولید ناخالص داخلی ایران و ترکیه در بازه ۲۰۱۰ تا ۲۰۲۰ چه‌قدر بوده است؟ در پاسخ ذکر کن که این اطلاعات از کدام گزارش یا آمار استخراج شده‌اند.» در این حالت، مدل مجبور است دقیق‌تر و مستندتر پاسخ دهد. همچنین اگر داده یا متنی مرجع در اختیار دارید (مثلاً نتایج یک نظرسنجی یا بخشی از گزارش علمی)، آن را عیناً به عنوان ورودی به مدل بدهید و تحلیل یا خلاصه‌اش را بخواهید. وقتی AI به منبع واقعی دسترسی داشته باشد، احتمال کمتری دارد که دچار توهم شود و چیزی را از خود بسازد.
  • استفاده از چند مدل یا چند بار تکرار: یکی از روش‌های شناسایی پاسخ‌های نادرست AI، مقایسه پاسخ‌های متعدد است. اگر به یک پرسش یکسان چند بار پاسخ‌های متفاوتی داد، این نشان‌دهنده عدم قطعیت و قابل اعتماد نبودن پاسخ‌هاست. می‌توانید پرسش خود را با تغییرات جزئی چند بار از همان مدل بپرسید و خروجی‌ها را کنار هم بگذارید. نقاط اختلاف و تناقض بین آن‌ها را علامت بزنید و به طور ویژه بررسی کنید. همچنین در صورت دسترسی، می‌توان از مدل‌های مختلف (مثلاً ChatGPT و یک مدل دیگر مانند Claude یا یک مدل فارسی) همان سؤال را پرسید. اگر همگی بر یک نکته توافق داشتند، تا حدی می‌توان به آن نکته اعتماد بیشتری کرد؛ ولی اگر پاسخ‌ها متفاوت بود، آنجا نیازمند تحقیق بیشتر انسانی است. این رویکرد شبیه نظرخواهی از چند کارشناس است؛ اجماع آن‌ها قوت قلب می‌دهد اما اختلاف نظرشان علامت هشدار است.
  • کنترل دمای خروجی (خلاقیت مدل): بسیاری از مدل‌های مولد امکان تنظیم پارامتر «دمای مدل» (temperature) یا میزان خلاقیت در تولید را دارند. هرچه دما بالاتر باشد، پاسخ‌ها متنوع‌تر و خلاقانه‌تر اما با ریسک خطای بیشتر تولید می‌شوند. در کار پژوهشی که دقت اطلاعات اولویت دارد، توصیه می‌شود تنظیمات مدل را روی حالت محافظه‌کارانه‌تری قرار دهید. مثلا اگر از API یا ابزارهای پیشرفته استفاده می‌کنید، دمای مدل را کاهش دهید تا تمایل کمتری به گمانه‌زنی داشته باشد. در نسخه‌های معمولی ChatGPT هرچند دسترسی مستقیم به این تنظیم نیست، ولی می‌توان با قید کردن لحن قطعی و دقیق در پرسش‌ها، به طور ضمنی مدل را به کاهش خیال‌پردازی تشویق کرد (مثلاً: «با قطعیت و تنها بر اساس اطلاعات تأییدشده پاسخ بده…»).
  • صحت‌سنجی مستقل هر ادعا و منبع: مهم‌ترین اصل، همان‌طور که پیش‌تر نیز تاکید شد، این است که هیچ بخش مهمی از خروجی AI را بدون بررسی نهایی رها نکنید. هر ادعای علمی یا آماری را گوگل کنید، در منابع کتابخانه‌ای جست‌وجو نمایید یا از یک متخصص بپرسید. اگر مدل رفرنس یا منبعی آورده، حتماً در پایگاه‌های داده به دنبال آن بگردید. حتی می‌توانید مستقیماً به سراغ خود متن منبع بروید. به عنوان مثال اگر AI می‌گوید «بر اساس گزارش بانک جهانی در سال ۲۰۱۹، رشد اقتصادی کشور X برابر Y بوده است»، می‌توان به سایت بانک جهانی مراجعه کرد و صحت عدد Y را راستی‌آزمایی نمود. این کار زمان‌بر است، اما برای حفظ سلامت علمی تحقیق ضروری به نظر می‌رسد. به یاد داشته باشید که وظیفه‌ی نهایی صحت‌سنجی بر دوش محقق است و ابزار هوش مصنوعی از این مسئولیت مبری نیست.
  • بهبود مهارت پرامپت‌نویسی و بهره‌گیری از ابزارهای تخصصی: هنر Prompt Engineering یا پرسش‌نویسی مناسب، نقش زیادی در کاهش خطای مدل دارد. هرچه پرسش ما شفاف‌تر، دارای جزئیات بیشتر و با درخواست خروجی مستندتر باشد، جواب AI به واقعیت نزدیک‌تر خواهد بود. از سوی دیگر، اگر به صورت عمومی از ChatGPT نتیجه مطلوبی نمی‌گیرید، شاید بهتر باشد از ابزارهای تخصصی‌تر استفاده کنید. اکنون پلتفرم‌هایی وجود دارند که به طور ویژه برای کاربردهای علمی توسعه یافته‌اند. به طور مثال، ابزارهایی هستند که در نقش یک همیار مرور ادبیات کار می‌کنند و به پایگاه‌های داده متصل‌اند؛ به کارگیری آنها می‌تواند خیال پژوهشگر را از بابت درستی منابع راحت‌تر کند. برخی دیگر از ابزارها امکان تلفیق جست‌وجوی زنده اینترنتی با مدل زبانی را فراهم کرده‌اند (نمونه‌اش بعضی افزونه‌های مرورگر یا موتور Bing جدید) که در این صورت مدل پاسخ خود را همراه با ارجاع به لینک‌های واقعی ارائه می‌دهد. هر چند باز هم راستی‌آزمایی لازم است، اما وجود لینک مستقیم به منبع می‌تواند فرآیند تأیید را سریع‌تر کند.
  • مستندسازی و گزارش روند کار: اگر در پژوهش خود از هوش مصنوعی به هر نحوی بهره گرفته‌اید، بهتر است برای شفافیت علمی، این موضوع را در مستندات پژوهش یا گزارش خود ذکر کنید. بسیاری از مجلات علمی اکنون از نویسندگان می‌خواهند که میزان استفاده از AI را افشا کنند. به جز جنبه اخلاقی، این کار یک فایده عملی هم دارد: وقتی مشخص کنید که مثلاً «مدل زبانی ChatGPT برای تلخیص ۵۰ صفحه متن استفاده شده و سپس صحت آن توسط نویسنده بررسی شده است»، خواننده یا داور با آگاهی بیشتری به ارزیابی اثر شما می‌پردازد. البته همواره تأکید کنید که تمامی مطالب نهایی توسط خودتان بازبینی و تأیید شده است و هیچ بخش تأییدنشده‌ای از AI در کار شما وجود ندارد. این شفافیت، اعتماد به کار شما را بالا می‌برد و از سوءتفاهم‌های احتمالی (مثل اتهام سرقت علمی یا اتکا به منابع جعلی) جلوگیری می‌کند.

با رعایت مجموعه‌ای از این اقدامات، پژوهشگر می‌تواند تا حد زیادی خطرات ناشی از اطلاعات غلط یا توهم‌آمیز AI را مهار کرده و از فواید آن به شکل ایمن بهره‌مند شود.

چالش‌ها و ملاحظات ویژه در پژوهش‌های دینی و حوزوی

پژوهش در حوزه‌های علوم اسلامی، الهیات و معارف دینی به دلیل حساسیت بالای منابع و اهمیت صحت مطلق در نقل آن‌ها، شرایط ویژه‌ای دارد. استفاده از هوش مصنوعی در این عرصه با چالش‌های مضاعفی روبه‌روست که توجه ویژه می‌طلبد. در سنت پژوهش دینی (چه در حوزه‌های علمیه شیعی و چه در دانشگاه‌های مرتبط با علوم اسلامی) دقت در نقل قول از متون مقدس و آرای علما، یک اصل غیرقابل اغماض است. برای یک محقق حوزوی، کوچک‌ترین خطا در نقل آیه، حدیث یا فتوای فقیه می‌تواند اعتبار کار او را به‌کلی زیر سؤال ببرد و حتی از نظر اخلاقی/شرعی گناه تلقی شود. در این راستا، ورود مدل‌های زبانی بزرگ به این حوزه چند نگرانی عمده ایجاد کرده است:

  • امکان جعل حدیث یا تحریف منابع: مدل زبانی ممکن است یک حدیث یا عبارت مذهبی را که هرگز وجود نداشته، عیناً به عنوان حدیث معتبر نقل کند. یا مثلاً سخنی را به یک مرجع دینی نسبت دهد که وی هرگز نگفته است. این دقیقاً همان توهم در لباس پژوهش دینی است. از آنجا که در سنت اسلامی نسبت دروغ به معصومین (ع) حرام دانسته شده و حتی جعل حدیث از گناهان بزرگ است، روشن است که خلق یک حدیث ساختگی توسط AI و استناد ناخواسته پژوهشگر به آن، تبعاتی بسیار جدی دارد. این کار هم از نظر علمی مصداق داده‌سازی جعلی است و هم از منظر مذهبی کاملاً مذموم. بر اساس گزارش‌ها، در یک مطالعه در سال ۲۰۲۳ مشاهده شد که مدل‌های زبانی وقتی از آن‌ها خواسته شد برای ادعاهای دینی منبع بیاورند، تا ۱۵٪ منابع ارائه‌شده ساختگی یا نادرست بودند. این رقم در حوزه‌ای که حتی ۱٪ خطا هم زیاد است، فاجعه‌بار به نظر می‌رسد.
  • ابهام در تفکیک دیدگاه‌های مذهبی: جهان اسلام دارای مذاهب، تفاسیر و دیدگاه‌های متنوعی است (شیعه، اهل‌سنت با مکاتب مختلف، و …). مدل‌های زبانی اگر آموزش کافی در این زمینه ندیده باشند، ممکن است مطالب را خلط کنند. برای مثال، هنگام پاسخ به یک سؤال فقهی شیعی، احتمالش هست که یک نظر اهل‌سنت را (که در داده‌های آموزشی‌اش دیده) به عنوان حکم شیعی ارائه دهد یا برعکس. همچنین ممکن است در تفسیر آیات قرآن، شأن نزول یا بافت تاریخی را نادیده بگیرد و توضیحی کاملاً خارج از چارچوب تفاسیر معتبر ارائه دهد. عدم درک عمیق زمینه‌های اعتقادی و ظرایف فقهی توسط AI می‌تواند به نتایج گمراه‌کننده بینجامد که برای یک محقق دینی بسیار خطرناک است.
  • فقدان روح اجتهاد و تحلیل کیفی: پژوهش دینی صرفاً جمع‌آوری اقوال نیست؛ بلکه فرایندی اجتهادی و تحلیلی است که در آن اجتهادگر (محقق) با بهره‌گیری از اصول استنباط و درنظرگرفتن مقاصد شریعت، به نتیجه می‌رسد. بدیهی است که هوش مصنوعی فعلی فاقد این توانایی فهم عمیق و استنباط خلاقانه است. اگر از AI پرسیده شود که مثلاً «حکم فلان مسئله مستحدثه چیست؟»، شاید بر اساس شباهت متن‌ها جوابی سرهم کند، ولی آن جواب فاقد اعتبار فقهی است؛ زیرا نه مستند به استدلال اجتهادی است و نه مسئولیتی متوجه گوینده (AI) است. این خطر وجود دارد که افراد ناآشنا با سازوکار AI، پاسخ‌های آن را مرجع تلقی کنند که خطایی بزرگ خواهد بود.

با توجه به این ملاحظات، پیشنهادهایی برای بهره‌گیری محتاطانه از AI در تحقیقات دینی مطرح شده است:

  • استفاده صرفاً به عنوان ابزار کمکی غیرمستقیم: توصیه اکثر متخصصان این است که از هوش مصنوعی در حوزه دین تنها در امور جنبی بهره گرفته شود، نه در اصل استنباط و تحلیل. برای مثال، AI می‌تواند در تنظیم و طبقه‌بندی داده‌ها کمک کند (مثلاً فهرست کردن احادیث یک باب، اگر احادیث را به آن بدهیم)، یا در ترجمه اولیه متون و تلخیص غیررسمی مباحث به زبان ساده‌تر برای پژوهشگر مفید باشد. اما نقل قول نهایی از متون دینی یا استخراج حکم شرعی نباید به آن واگذار شود. به بیان دیگر، AI می‌تواند نقش دستیار تحقیقاتی را داشته باشد که کارهای تکراری را انجام می‌دهد، اما نقش فقیه یا مفسر را هرگز.
  • تأیید تمام خروجی‌ها توسط متخصص دینی: اگر در فرایند پژوهش ناچار به استفاده از AI برای به‌دست‌آوردن اطلاعاتی درباره منابع دینی شدید (مثلاً پرسیدن معنی یک حدیث یا شأن نزول یک آیه)، حتماً خروجی آن را از لحاظ صحت توسط منابع اصلی یا مشورت با استادان خبره کنترل کنید. هیچ پاسخ AI را مستقیماً در مقاله یا پایان‌نامه خود وارد نکنید مگر آن‌که خودتان قبلاً آن را در کتاب‌های حدیث، تفسیر یا فقه دیده باشید و مطمئن باشید که عین حقیقت است. این نکته شامل ارجاعات نیز می‌شود؛ اگر مدل گفت این مطلب در «نهج‌البلاغه، خطبه ۲۰۰» آمده، حتماً خودتان به نهج‌البلاغه مراجعه کنید و تطبیق دهید تا مطمئن شوید خطبه و عبارت ذکرشده درست است.
  • استفاده از روش‌های ترکیبی با منابع معتبر (RAG): یک راه حل فنی برای کاهش خطا در این حوزه، استفاده از روش «بازیابی اطلاعات و تولید متن» یا Retrieval-Augmented Generation است. بدین صورت که ابتدا متن منابع اصیل (قرآن، تفاسیر، صحاح حدیث، کتب حدیث شیعه و آثار بزرگان) را در یک پایگاه داده‌ی قابل جستجو قرار دهیم، سپس هوش مصنوعی را طوری تنظیم کنیم که پاسخ‌های خود را فقط با جستجو و استخراج از میان آن منابع تولید کند. این کار نیازمند فراهم کردن آن منابع در قالب مناسب برای AI و شاید توسعه مدل‌های اختصاصی برای متون اسلامی است، اما نتیجه‌اش این خواهد بود که مدل به جای تکیه بر حافظه احتمالیش، همیشه مستقیماً از دل منابع معتبر جواب می‌دهد. مثلا اگر بپرسید «امام صادق (ع) درباره دانش چه فرمودند؟»، مدل به جای ساختن حدیث، واقعاً در دیتابیس احادیث امام صادق جست‌وجو می‌کند و نزدیک‌ترین حدیث ثبت‌شده را می‌آورد. البته پیاده‌سازی کامل چنین سیستمی هنوز در ابتدای راه است و نیاز به سرمایه‌گذاری و تحقیقات بیشتر دارد، ولی این مسیر آینده‌ی نسبتاً مطمئنی برای استفاده از AI در علوم اسلامی نشان می‌دهد.
  • آموزش و فرهنگ‌سازی در حوزه علمیه: نهایتاً، بسیار مهم است که هم اساتید و هم طلاب و پژوهشگران حوزوی نسبت به قابلیت‌ها و محدودیت‌های هوش مصنوعی آگاهی کامل پیدا کنند. همان‌طور که در آموزش روش تحقیق، به دانشجو می‌آموزیم چگونه از کتابخانه، نرم‌افزارهای حدیثی یا پایگاه‌های استنادی استفاده کند، باید آموزش دهیم که کاربرد درست و نادرست ابزارهای AI چیست. برای مثال، تأکید شود که ChatGPT یک ابزار تمرینی و کمک‌آموزشی می‌تواند باشد، اما هیچ‌گاه جای معلم و کتاب درسی معتبر را نمی‌گیرد. اگر این شناخت به‌درستی ایجاد نشود، ممکن است برخی با ساده‌انگاری دینی، پاسخ‌های AI را ملاک تصمیم و فتوا قرار دهند که خطرناک است. تدوین راهنماهای اخلاقی و پژوهشی در مراکز حوزوی برای استفاده از هوش مصنوعی، اقدامی ضروری به نظر می‌رسد تا استفاده از این فناوری در چارچوبی ایمن و سالم انجام گیرد.

ابزاری نیرومند و دوجانبه

هوش مصنوعی مولد، ابزاری نیرومند و دوجانبه است که می‌تواند هم نقش تسریع‌کننده پیشرفت علمی را داشته باشد و هم (در صورت بی‌احتیاطی) عامل انحراف و افت کیفیت پژوهش شود. بررسی‌های ما نشان داد که چالش‌هایی نظیر توهم اطلاعات، ارجاعات ساختگی و استدلال‌های نادرست، واقعیت‌های انکارناپذیری در خروجی مدل‌های کنونی هستند. از سوی دیگر، این مدل‌ها با توانایی پردازش حجم عظیمی از داده‌ها و تولید متن منسجم، قابلیت آن را دارند که دستیارانی کارآمد برای پژوهشگران باشند و مسیر دشوار تحقیق را هموارتر کنند. راه حل اساسی، اتخاذ یک رویکرد میانه‌رو و هوشمندانه است: نه شیفتگی افراطی و اعتماد مطلق به AI، و نه ترس و انکار کامل آن. بلکه باید اصول استفاده مسئولانه از این ابزارها را یاد بگیریم و به‌کار بندیم.

چند توصیه کلیدی در پایان عبارت‌اند از: نخست اینکه همواره نقش عامل انسانی پررنگ بماند – هوش مصنوعی را به عنوان دستیار در نظر بگیرید نه نویسنده اصلی. دوم، برای حفظ یکپارچگی علمی، هر کجا از AI بهره گرفته‌اید شفاف‌سازی و سپس صحت‌سنجی کنید. سوم، به‌طور ویژه در حوزه‌هایی مثل علوم انسانی، تاریخ و مطالعات دینی که دقت منابع حیاتی است، ده‌چندان بیشتر مراقب باشید و حتی‌المقدور از AI صرفاً برای کارهای جنبی استفاده کنید. چهارم، در جامعه پژوهشی ایران، خوب است که هم‌زمان با توسعه فناوری، مقررات و راهنماهای بومی برای کاربرد هوش مصنوعی تدوین گردد تا پژوهشگران بدانند در چه چارچوبی مجاز به استفاده از این ابزارها هستند و چگونه باید گزارش آن را در کار خود منعکس کنند.

در نهایت، آینده از آن کسانی خواهد بود که بتوانند توانایی‌های ممتاز انسان (خلاقیت، تفکر انتقادی، درک عمیق مفاهیم) را در کنار قدرت ماشین (سرعت، دقت در جزئیات، حافظه وسیع) قرار دهند و بهترین ترکیب را بسازند. پژوهشگری که اصول استفاده از هوش مصنوعی را بداند، ضمن حفظ استانداردهای آکادمیک، یک گام از دیگران جلوتر خواهد بود. اما پژوهشگری که چشم‌بسته به AI اعتماد کند، دیر یا زود با خطایی جبران‌ناپذیر مواجه می‌شود. پس بیایید به جای ترس یا افراط، با چشمانی باز و ذهنی سنجشگر به استقبال این دستیار نوظهور برویم و از آن به صورت حرفه‌ای و ایمن در مسیر تولید دانش استفاده کنیم.

برچسب ها:
درج دیدگاه