یہ صارفین کو کرائسس ہیلپ لائنز پر بھیجنے کے لیے کام کرتا ہے۔
اوپن اے آئی نے انکشاف کیا ہے کہ ایک اندازے کے مطابق ایک ہفتے میں 1.2 ملین لوگ خودکشی پر بات کرنے کے لیے ChatGPT کا استعمال کرتے ہیں۔
۔ سمجھ کمپنی کی تازہ ترین حفاظتی شفافیت کی تازہ کاری سے آتا ہے، جس سے پتا چلا ہے کہ 0.15% صارفین "ممکنہ خودکشی کی منصوبہ بندی یا ارادے کے واضح اشارے" پر مشتمل پیغامات بھیجتے ہیں۔
OpenAI کے چیف ایگزیکٹیو، سیم آلٹ مین نے حال ہی میں کہا کہ ChatGPT کے ہفتہ وار 800 ملین سے زیادہ فعال صارفین ہیں۔
نتائج بتاتے ہیں کہ ذہنی صحت کے بحران کے دوران کمزور لوگوں کی بڑھتی ہوئی تعداد مصنوعی ذہانت کی طرف مائل ہو رہی ہے۔
کمپنی کا کہنا ہے کہ وہ صارفین کو بحران کی ہیلپ لائنز کی طرف ہدایت دینے کے لیے کام کرتا ہے لیکن اس نے اعتراف کیا کہ "کچھ غیر معمولی معاملات میں، ماڈل ان حساس حالات میں ارادہ کے مطابق برتاؤ نہیں کر سکتا۔"
OpenAI نے کہا: "ہمارے نئے خودکار تجزیوں نے نئے GPT-5 ماڈل کو ہمارے مطلوبہ طرز عمل کے مطابق 91% پر اسکور کیا، جبکہ پچھلے GPT-5 ماڈل کے لیے یہ 77% تھا۔"
کمپنی نے کہا کہ GPT-5 نے کرائسس ہاٹ لائنز تک رسائی کو بڑھایا اور صارفین کو طویل سیشنز کے دوران وقفے لینے کے لیے یاد دہانیاں شامل کیں۔
ماڈل میں بہتری لانے کے لیے، کمپنی نے کہا کہ اس نے حالیہ مہینوں میں اس کی تحقیق میں مدد کرنے کے لیے صحت کی دیکھ بھال کے ماہرین کے اپنے گلوبل فزیشن نیٹ ورک سے 170 کلینشینز کو شامل کیا، جس میں اس کے ماڈل کے جوابات کی حفاظت کی درجہ بندی اور دماغی صحت سے متعلق سوالات کے چیٹ بوٹ کے جوابات لکھنے میں مدد شامل تھی۔
OpenAI نے مزید کہا: "اس کام کے حصے کے طور پر، ماہر نفسیات اور ماہرین نفسیات نے 1,800 سے زیادہ ماڈل ردعمل کا جائزہ لیا جس میں دماغی صحت کے سنگین حالات شامل تھے اور نئے GPT-5 چیٹ ماڈل کے جوابات کا پچھلے ماڈلز سے موازنہ کیا۔"
کمپنی کی "مطلوبہ" کی تعریف میں یہ تعین کرنا شامل ہے کہ آیا اس کے ماہرین کا ایک گروپ اسی نتیجے پر پہنچا ہے کہ بعض حالات میں مناسب ردعمل کیا ہوگا۔
تاہم، اس کا مطلب ہے کہ دسیوں ہزار لوگ اب بھی غیر محفوظ یا نقصان دہ ردعمل حاصل کر سکتے ہیں۔
فرم نے پہلے خبردار کیا ہے کہ توسیع شدہ چیٹ کے دوران حفاظتی اقدامات کمزور ہو سکتے ہیں۔
OpenAI نے کہا: "چیٹ جی پی ٹی درست طریقے سے خودکش ہاٹ لائن کی طرف اشارہ کر سکتا ہے جب کوئی پہلی بار ارادے کا ذکر کرتا ہے، لیکن طویل عرصے تک بہت سے پیغامات کے بعد، یہ بالآخر ایسا جواب پیش کر سکتا ہے جو ہمارے تحفظات کے خلاف ہو۔"
ایک بلاگ پوسٹ میں، کمپنی نے وسیع تر مسئلے کو تسلیم کیا:
"ذہنی صحت کی علامات اور جذباتی پریشانی انسانی معاشروں میں عالمی طور پر موجود ہیں، اور صارف کی بڑھتی ہوئی تعداد کا مطلب یہ ہے کہ ChatGPT گفتگو کے کچھ حصے میں یہ حالات شامل ہیں۔"
یہ بیان ایسے وقت میں آیا ہے جب ایک غمزدہ خاندان نے OpenAI پر مقدمہ دائر کیا ہے، جس میں الزام لگایا گیا ہے کہ ChatGPT نے ان کے بیٹے کی موت میں کردار ادا کیا۔
ایڈم رائن کے والدین کا دعویٰ ہے کہ چیٹ بوٹ نے "خودکشی کے طریقوں کو تلاش کرنے میں فعال طور پر اس کی مدد کی" اور یہاں تک کہ ایک الوداعی نوٹ تیار کرنے کی پیشکش بھی کی۔
عدالتی دستاویزات میں الزام لگایا گیا ہے کہ اپنی موت سے چند گھنٹے قبل، 16 سالہ نوجوان نے ایک تصویر اپ لوڈ کی تھی جس میں اس کا خودکشی کا منصوبہ دکھایا گیا تھا۔ جب اس نے پوچھا کہ کیا یہ کام کرے گا، ChatGPT نے مبینہ طور پر اسے "اپ گریڈ" کرنے کے طریقے تجویز کیے۔
Raines نے اس سال اپریل میں ایڈم کی موت سے چند ہفتوں پہلے OpenAI پر "محفوظات کو کمزور کرنے" کا الزام لگاتے ہوئے اپنا مقدمہ اپ ڈیٹ کیا ہے۔
جواب میں، OpenAI نے کہا: "ہماری گہری ہمدردیاں Raine کے خاندان کے ساتھ ان کے ناقابل تصور نقصان پر ہیں۔ نوعمروں کی فلاح و بہبود ہمارے لیے اولین ترجیح ہے - نابالغ بچے مضبوط تحفظ کے مستحق ہیں، خاص طور پر حساس لمحات میں۔"








