آپریٹر مختلف کاموں کو خودکار کرنے کا وعدہ کرتا ہے۔
OpenAI کے سی ای او سیم آلٹ مین کے مطابق، 2025 AI ایجنٹوں کے لیے ایک تبدیلی کا سال ثابت ہو گا۔
سال کے آغاز میں ایک بلاگ پوسٹ میں، آلٹ مین نے ٹولز میں ایک بڑی چھلانگ کی پیش گوئی کی جو کاموں کو خودکار کر سکتے ہیں اور صارفین کی جانب سے آزادانہ طور پر کارروائیاں کر سکتے ہیں۔
اب، OpenAI نے اس وژن کو حقیقت میں بدلنے کی اپنی پہلی جرات مندانہ کوشش کی ہے۔
23 جنوری 2025 کو، OpenAI نے آپریٹر کے ایک تحقیقی پیش نظارہ کا اعلان کیا، جو کہ ایک عام مقصد کا AI ایجنٹ ہے جو ویب پر نیویگیٹ کرنے اور خود مختاری سے کام انجام دینے کے قابل ہے۔
ابتدائی طور پر ChatGPT کے $200 پرو سبسکرپشن پلان پر امریکی صارفین کے لیے دستیاب، آپریٹر کا مقصد مستقبل قریب میں OpenAI کے پلس، ٹیم، اور انٹرپرائز کے درجات تک توسیع کرنا ہے۔
Altman نے اشتراک کیا کہ آپریٹر جلد ہی دوسرے ممالک میں دستیاب ہوگا حالانکہ یورپ کے رول آؤٹ میں زیادہ وقت لگ سکتا ہے۔
یہ خصوصیت operator.chatgpt.com کے ذریعے قابل رسائی ہے، اور OpenAI اسے آخر کار تمام ChatGPT کلائنٹس میں ضم کرنے کا ارادہ رکھتا ہے۔
آپریٹر کیا کرسکتا ہے۔

آپریٹر سفری رہائش کی بکنگ سے لے کر ریستوراں کے تحفظات اور آن لائن خریداری تک مختلف کاموں کو خودکار کرنے کا وعدہ کرتا ہے۔
اس کے انٹرفیس میں کام کے زمرے شامل ہیں جیسے شاپنگ، ڈیلیوری، ڈائننگ، اور ٹریول، ہر ایک مختلف قسم کے آٹومیشن کے مطابق ہے۔
فعال ہونے پر، آپریٹر ایک پاپ اپ ونڈو کے اندر ایک وقف شدہ ویب براؤزر لانچ کرتا ہے، جس سے صارفین کو وہ مخصوص کارروائیاں دیکھنے کی اجازت ملتی ہے جو وہ حقیقی وقت میں کر رہا ہے۔
صارف کسی بھی وقت اقتدار سنبھال سکتے ہیں، کیونکہ آپریٹر صارف کے بنیادی براؤزر کے بجائے اپنے براؤزر کے ذریعے کام کرتا ہے۔
آپریٹر کے مرکز میں OpenAI کا کمپیوٹر استعمال کرنے والا ایجنٹ (CUA) ماڈل ہے، جو OpenAI کے GPT-4o ماڈل کی جدید استدلال کی صلاحیتوں کو کمپیوٹر ویژن کی صلاحیتوں کے ساتھ جوڑتا ہے۔
یہ CUA کو ویب سائٹس کے ساتھ بات چیت کرنے کے قابل بناتا ہے جیسا کہ کوئی انسان کرتا ہے — بٹنوں پر کلک کرنا، مینوز کو نیویگیٹ کرنا، اور فارم بھرنا — بغیر ڈویلپر کا سامنا کرنے والے APIs کی ضرورت کے۔
تحفظات اور حدود
اوپن اے آئی نے آپریٹر کو محفوظ طریقے سے اور ذمہ داری کے ساتھ کام کرنے کو یقینی بنانے کے لیے کئی احتیاطی تدابیر اختیار کی ہیں۔
مثال کے طور پر، CUA ماڈل کو بیرونی نتائج کے ساتھ کاموں کو حتمی شکل دینے سے پہلے صارف کی تصدیق طلب کرنے کے لیے ڈیزائن کیا گیا ہے، جیسے کہ آرڈر دینا یا ای میل بھیجنا۔
OpenAI نے DoorDash، eBay، Instacart، Priceline، StubHub، اور Uber جیسی کمپنیوں کے ساتھ بھی تعاون کیا ہے تاکہ یہ یقینی بنایا جا سکے کہ آپریٹر سروس کے معاہدوں کی شرائط کا احترام کرتا ہے۔
تاہم، آپریٹر اپنی حدود کے بغیر نہیں ہے۔
OpenAI تسلیم کرتا ہے کہ CUA ابھی تک پیچیدہ کاموں کو نہیں سنبھال سکتا، جیسے کہ تفصیلی سلائیڈ شو بنانا یا پیچیدہ کیلنڈر سسٹم کا انتظام کرنا۔
کچھ کارروائیاں، جیسے بینکنگ لین دین کے لیے، صارف کی فعال نگرانی کی ضرورت ہوتی ہے، اور آپریٹر حساس کاموں کو نہیں سنبھالے گا جیسے کہ کریڈٹ کارڈ کی تفصیلات داخل کرنا۔
مزید برآں، استعمال کی شرح کی حدود اور کچھ حفاظتی پابندیاں ہیں۔ مثال کے طور پر، آپریٹر اپنے موجودہ تکرار میں ای میلز نہیں بھیجے گا یا کیلنڈر کے واقعات کو حذف نہیں کرے گا۔
OpenAI نے نوٹ کیا:
"فی الحال، آپریٹر بہت سے پیچیدہ یا خصوصی کاموں کو قابل اعتماد طریقے سے نہیں سنبھال سکتا ہے۔"
اس نے مزید کہا کہ آپریٹر پیچیدہ انٹرفیس یا کیپچا چیکوں پر "پھنس" سکتا ہے، جو صارفین کو مداخلت کرنے پر اکساتا ہے۔
ان حدود کے باوجود، آپریٹر ایک خود مختار AI ایجنٹ بنانے کے لیے OpenAI کی اب تک کی سب سے جرات مندانہ کوشش کی نمائندگی کرتا ہے۔
اگر مشتبہ سرگرمی کا پتہ چل جاتا ہے تو اس پر عمل درآمد کا پتہ لگانے اور اسے روکنے کے لیے حفاظتی اقدامات موجود ہیں، اور OpenAI ان حفاظتی اقدامات کو مسلسل اپ ڈیٹ کرنے کے لیے خودکار اور انسانی نظرثانی شدہ دونوں پائپ لائنوں کو استعمال کرتا ہے۔
وسیع تر AI لینڈ سکیپ
آپریٹر کی ریلیز اس وقت ہوئی جب گوگل اور اینتھروپک سمیت دیگر ٹیک کمپنیاں بھی AI ایجنٹوں کے ساتھ تجربہ کر رہی ہیں۔
یہ ٹولز روایتی ورچوئل اسسٹنٹس جیسے سری یا الیکسا سے آگے جانے کا وعدہ کرتے ہیں نہ صرف معلومات پر کارروائی کرتے ہوئے بلکہ خود مختاری سے کارروائیاں بھی کرتے ہیں۔
تاہم، یہ بڑھتی ہوئی فعالیت حفاظتی خطرات بھی لاتی ہے، جیسے کہ فریب دہی کے گھوٹالوں یا خودکار DDoS حملوں کا امکان۔
اوپن اے آئی کا آپریٹر کا محتاط رول آؤٹ ٹیکنالوجی کے امکانات کو تلاش کرتے ہوئے ان خطرات کو کم کرنے پر اس کی توجہ کی عکاسی کرتا ہے۔
Altman کے منصوبے OpenAI سے آگے بڑھتے ہیں، ایسے منصوبوں کا نیٹ ورک بناتے ہیں جو اس AI-مرکزی مستقبل کی حمایت کرتے نظر آتے ہیں۔
ایسا ہی ایک منصوبہ ورلڈ ہے، جو آلٹ مین اور ایلکس بلینیا کے ٹولز فار ہیومینٹی کا ایک پروجیکٹ ہے۔
پہلے ورلڈ کوائن کے نام سے جانا جاتا تھا، ورلڈ کا مقصد انسانوں کو AI ایجنٹوں سے آن لائن ممتاز کرنے کے چیلنج سے نمٹنا ہے۔
کسی فرد کی آنکھ کے بال کو چاندی کے دھاتی ورب سے اسکین کرکے، ورلڈ ایک منفرد بلاک چین پر مبنی شناخت کنندہ فراہم کرتا ہے تاکہ اس بات کی تصدیق کی جاسکے کہ کوئی انسان ہے۔
یہ "انسانی ثبوت" ٹول حقیقی لوگوں کی جانب سے کام کرنے والے AI ایجنٹوں کی بھی تصدیق کر سکتا ہے۔
ٹولز فار ہیومینٹی کے چیف پروڈکٹ آفیسر ٹیاگو ساڈا نے کہا:
"اپنی 'شخصیت کا ثبوت' کسی ایجنٹ کو سونپنے اور اسے اپنی طرف سے کام کرنے دینے کا یہ خیال درحقیقت انتہائی اہم ہے۔"
دنیا کی آئی ڈی ٹیکنالوجی AI ایجنٹوں کو صارفین کی جانب سے کام کرنے کا لائسنس بھی دے سکتی ہے، جس سے کاروباروں کو ان کے پلیٹ فارم کی سیکیورٹی سے سمجھوتہ کیے بغیر تصدیق شدہ ایجنٹوں کے ساتھ بات چیت کرنے کے قابل بنایا جا سکتا ہے۔
AI کے ارد گرد بنایا ہوا مستقبل
Uber اور Instacart جیسے پلیٹ فارمز کے ساتھ OpenAI کی شراکت داری اس تبدیلی کا اشارہ دیتی ہے کہ کاروبار کس طرح صارفین کے ساتھ تعامل کرتے ہیں۔
جیسے جیسے AI ایجنٹس زیادہ قابل ہو جاتے ہیں، کمپنیوں کو ایسے مستقبل کے مطابق ڈھالنے کی ضرورت پڑ سکتی ہے جہاں بہت سے تعاملات افراد کی بجائے تصدیق شدہ ایجنٹوں کے ذریعے کیے جاتے ہیں۔
ان تعاملات میں اعتماد اور تحفظ کو یقینی بنانے میں دنیا کے "انسان کا ثبوت" سسٹم جیسے ٹولز اہم کردار ادا کر سکتے ہیں۔
Altman کے لیے، AI کے لیے یہ وژن ان کے دیگر منصوبوں کے ساتھ مطابقت رکھتا ہے، بشمول Helion Energy، ایک نیوکلیئر فیوژن اسٹارٹ اپ جو ایک دن OpenAI کے ڈیٹا سینٹرز کو طاقت دے سکتا ہے، اور Retro Biosciences، ایک لمبی عمر کا سائنس اسٹارٹ اپ جو پہلے ہی OpenAI کے ماڈلز کا فائدہ اٹھا رہا ہے۔
آپریٹر کے آغاز کے ساتھ، OpenAI خود مختار AI ایجنٹوں کی دنیا میں اپنا پہلا بڑا قدم اٹھا رہا ہے۔
جیسے جیسے ٹیکنالوجی پختہ ہو رہی ہے، یہ اس بات کی وضاحت کر سکتی ہے کہ ہم کس طرح انٹرنیٹ استعمال کرتے ہیں، صنعتوں کو نئی شکل دیتے ہیں اور نئے امکانات کو کھولتے ہیں۔
سال 2025 AI ایجنٹوں کے لیے بہت اچھا ہو سکتا ہے، اور OpenAI کا آپریٹر اس چارج کی قیادت کر رہا ہے۔