سادهسازی مرگبار
در حالی که ابزارهای هوش مصنوعی مثل ChatGPT هر روز بیشتر وارد زندگی کاری و شخصی ما میشوند، پژوهش جدیدی نشان میدهد که مدلهای زبانی بزرگ (LLMs) ممکن است در زمینههایی مثل پزشکی، اطلاعات اشتباه یا گمراهکننده ارائه کنند، آن هم به شکلی که کاملاً «قابل اعتماد» به نظر میرسد!
پژوهشی تازه که نتایج آن در مجله Royal Society Open Science منتشر شده است، هشدار میدهد که نسخههای جدید ChatGPT و مدلهای مشابه، نسبت به نسخههای قدیمیتر، بیشتر دچار اغراق، سادهسازی بیش از حد و تحریف مفاهیم علمی میشوند.
بر اساس این پژوهش، مدلهای زبانی مثل ChatGPT طوری طراحی شدهاند که پاسخهای ساده، روان و قابلفهم تولید کنند. اما همین ویژگی گاهی باعث میشود نکات مهمی از متن اصلی حذف شود یا تغییر معنا پیدا کند. برای مثال، در این پژوهش، یکی از مدلها عبارتی مثل «این روش بیخطر است و میتواند با موفقیت انجام شود» را به «این یک درمان مؤثر و بیخطر است» تبدیل کرد، در حالی که در دنیای پزشکی، چنین تغییر کوچکی میتواند منجر به تجویز نادرست دارو یا درمان اشتباه شود.