اوپن اے آئی کی جانب سے جاری ایک نئی تحقیق میں انکشاف کیا گیا ہے کہ بڑے لینگویج ماڈلز، جیسے GPT-5 اور چیٹ جی پی ٹی، اکثر ہیلوسینیشنز کا شکار ہو جاتے ہیں۔
اوپن اے آئی کی تحقیقی رپورٹ کے مطابق بڑے لینگویج ماڈلز اکثر ایسے جملے اور معلومات فراہم کرتے ہیں جو بظاہر درست لگتے ہیں مگر حقیقت میں غلط یا فرضی ہوتے ہیں۔
رپورٹ کے مطابق یہ مسئلہ بنیادی طور پر پری ٹریننگ کے عمل اور موجودہ ایویلیوایشن سسٹمز کی خامیوں کے باعث پیدا ہوتا ہے، اسی وجہ سے بعض اوقات چیٹ بوٹس بار بار محققین کی ذاتی یا تعلیمی معلومات غلط بتاتے ہیں۔
تحقیقی رپورٹ کے مطابق موجودہ جانچ کا نظام صرف درست جوابات کے تناسب کو دیکھتے ہیں، لیکن یہ پرکھنے میں ناکام رہتے ہیں کہ ماڈل غیر یقینی صورتحال میں محتاط جواب دے رہا ہے یا نہیں۔
