پرسیس مگ Persis mag

مجله اینترنتی حوزه زیست شناسی

پرسیس مگ Persis mag

مجله اینترنتی حوزه زیست شناسی

پرسیس مگ Persis mag

در صورت استفاده از برنامه‌های تغییر دهنده آی پی، ممکن است در اجرای وبسایت اختلال ایجاد شود. جهت مطالعه کامل نوشته‌ها، بروی روی "ادامه مطلب" کلیک نمایید.

نویسندگان

۱ مطلب با کلمه‌ی کلیدی «ChatGPT» ثبت شده است

ساده‌سازی مرگبار 

در حالی که ابزارهای هوش مصنوعی مثل ChatGPT هر روز بیشتر وارد زندگی کاری و شخصی ما می‌شوند، پژوهش جدیدی نشان می‌دهد که مدل‌های زبانی بزرگ (LLMs) ممکن است در زمینه‌هایی مثل پزشکی، اطلاعات اشتباه یا گمراه‌کننده ارائه کنند، آن‌ هم به شکلی که کاملاً «قابل اعتماد» به نظر می‌رسد!

پژوهشی تازه که نتایج آن در مجله Royal Society Open Science منتشر شده است، هشدار می‌دهد که نسخه‌های جدید ChatGPT و مدل‌های مشابه، نسبت به نسخه‌های قدیمی‌تر، بیشتر دچار اغراق، ساده‌سازی بیش از حد و تحریف مفاهیم علمی می‌شوند.

بر اساس این پژوهش، مدل‌های زبانی مثل ChatGPT طوری طراحی شده‌اند که پاسخ‌های ساده، روان و قابل‌فهم تولید کنند. اما همین ویژگی گاهی باعث می‌شود نکات مهمی از متن اصلی حذف شود یا تغییر معنا پیدا کند. برای مثال، در این پژوهش، یکی از مدل‌ها عبارتی مثل «این روش بی‌خطر است و می‌تواند با موفقیت انجام شود» را به «این یک درمان مؤثر و بی‌خطر است» تبدیل کرد، در حالی که در دنیای پزشکی، چنین تغییر کوچکی می‌تواند منجر به تجویز نادرست دارو یا درمان اشتباه شود.

۱۸ تیر ۰۴ ، ۱۱:۳۸
Dr.Hamid Haji