امریکی تعلیمی ادارے اسٹینفورڈ یونیورسٹی کی تازہ تحقیق میں انکشاف ہوا ہے کہ مصنوعی ذہانت پر مبنی مشہور چیٹ بوٹ چیٹ جی پی ٹی سالوں کی اپ گریڈز اور تربیت کے باوجود اب بھی غلط یا فرضی معلومات فراہم کرتا ہے۔
تحقیق کے مطابق جب چیٹ بوٹ کسی سوال کا درست جواب نہیں جانتا تو یہ قیاس آرائی پر مبنی جواب دیتا ہے، جسے ماہرین خیالی معلومات کہتے ہیں۔
ماہرین کے مطابق اس مسئلے کی بنیادی وجہ چیٹ جی پی ٹی کے تربیتی نظام میں ہے، جہاں ماڈل کو ہر سوال کا جواب دینے پر مجبور کیا جاتا ہے، چاہے جواب مکمل طور پر درست نہ ہو۔
تحقیق میں مزید کہا کہ تربیتی مواد میں موجود نامکمل یا غیر مصدقہ معلومات اس رجحان کو بڑھاتی ہیں، جس سے مصنوعی ذہانت کے نظام کی درستگی پر سوال اٹھتا ہے۔
ماہرین نے تجویز دی ہے کہ مستقبل میں ایسے ماڈلز کو غلط جوابات دینے پر روک تھام اور نہ جاننے کی صورت میں اعتراف کرنے کی تربیت دی جائے، تاکہ مصنوعی ذہانت زیادہ ذمہ دار اور قابلِ اعتماد ہو سکے۔