پژوهشگران دانشگاه سنتلوئیس از روشی جدید برای حمله به مدلهای زبانی بزرگ (LLM) پرده برداشتهاند که میتواند بدون جلب توجه، پاسخهای این مدلها را دستکاری کند.