"تصاویر غربت کے بصری گرامر کو نقل کرتی ہیں"
انتہائی غربت اور جنسی تشدد سے بچ جانے والوں کی تصویر کشی کرنے والی AI سے تیار کردہ تصاویر اسٹاک فوٹو سائٹس پر تیزی سے نمودار ہو رہی ہیں اور صحت کی بڑی NGOs کے ذریعے استعمال کی جا رہی ہیں، جو ماہرین کو "غربت پورن" کی جدید شکل کے بارے میں متنبہ کرنے پر اکسا رہی ہیں۔
نوح آرنلڈ، کی فیئر پکچر، بتایا گارڈین:
"ہر جگہ، لوگ اسے استعمال کر رہے ہیں۔ کچھ فعال طور پر AI تصویروں کا استعمال کر رہے ہیں، اور دیگر، ہم جانتے ہیں کہ وہ کم از کم تجربہ کر رہے ہیں۔"
اینٹورپ میں انسٹی ٹیوٹ آف ٹراپیکل میڈیسن کے ایک محقق آرسینی الینچیف جو کہ عالمی صحت کی منظر کشی کا مطالعہ کرتے ہیں، نے کہا کہ یہ بصری غربت کی پہچان کی نقل کرتے ہیں۔
اس نے وضاحت کی: "تصاویر غربت کے بصری گرامر کو نقل کرتی ہیں - خالی پلیٹوں والے بچے، پھٹی ہوئی زمین، دقیانوسی تصورات۔"
Alenichev نے بھوک اور جنسی تشدد کے خلاف سوشل میڈیا مہم میں استعمال ہونے والی 100 سے زیادہ AI سے تیار کردہ تصاویر جمع کی ہیں۔
ان میں انتہائی مبالغہ آمیز مناظر شامل ہیں، جیسے کہ کیچڑ والے پانی میں پھنسے ہوئے بچے یا شادی کے لباس میں ایک افریقی لڑکی جس کے چہرے پر آنسو بہہ رہے ہیں۔
ایک تبصرہ کے ٹکڑے میں لانسیٹ گلوبل ہیلتھ، الینچیف نے اس رجحان کو "غربت پورن 2.0" کے طور پر بیان کیا۔
اگرچہ استعمال کے درست پیمانے کی پیمائش کرنا مشکل ہے، ماہرین کا کہنا ہے کہ یہ بڑھ رہا ہے۔ بجٹ کی رکاوٹوں اور حقیقی فوٹو گرافی کے لیے رضامندی حاصل کرنے کے خدشات کی وجہ سے اس رجحان کو تقویت ملی ہے۔
الینچیف نے کہا: "یہ بالکل واضح ہے کہ مختلف تنظیمیں حقیقی فوٹو گرافی کے بجائے مصنوعی تصاویر پر غور کرنا شروع کر رہی ہیں، کیونکہ یہ سستی ہے اور آپ کو رضامندی اور ہر چیز سے پریشان ہونے کی ضرورت نہیں ہے۔"
Adobe Stock اور Freepik کی پسندیں "غربت" جیسی تلاش کی اصطلاحات کے تحت متعدد AI سے تیار کردہ تصاویر کی میزبانی کرتی ہیں۔
بہت سے کیپشنز جیسے "پناہ گزین کیمپ میں تصویری حقیقت پسند بچہ"، "ایشیائی بچے فضلے سے بھرے دریا میں تیر رہے ہیں،" اور "کاکیشین سفید فام رضاکار افریقی گاؤں میں چھوٹے سیاہ فام بچوں کو طبی مشاورت فراہم کرتے ہیں۔"
الینچیف نے جاری رکھا: "وہ بہت نسل پرست ہیں۔ انہیں کبھی بھی ان کو شائع نہیں ہونے دینا چاہئے کیونکہ یہ افریقہ، یا ہندوستان کے بارے میں بدترین دقیانوسی تصورات کی طرح ہے، یا آپ اسے نام دیں۔"
Freepik کے CEO Joaquín Abela کے مطابق، تصاویر کے استعمال کے لیے پلیٹ فارم خود ذمہ دار نہیں ہیں۔ تصاویر پلیٹ فارم کے تعاون کنندگان کی عالمی برادری کے ذریعہ تیار کی گئی ہیں، جو اپنی تصاویر خریدنے پر لائسنسنگ فیس حاصل کرتے ہیں۔
انہوں نے مزید کہا کہ فری پک نے پیشہ ورانہ تصاویر میں تنوع کو فروغ دے کر اپنی لائبریری میں تعصب کو دور کرنے کی کوشش کی ہے، جیسے کہ وکلاء اور سی ای او، لیکن تسلیم کیا کہ گاہک کی مانگ زیادہ تر اس چیز کو چلاتی ہے جو تخلیق اور فروخت ہوتی ہے۔

AI سے تیار کردہ ویژول پہلے ہی این جی اوز استعمال کر چکے ہیں۔
2023 میں، پلان انٹرنیشنل کی ڈچ برانچ نے کالی آنکھ والی لڑکی، ایک بوڑھے آدمی، اور ایک حاملہ نوجوان کی AI سے تیار کردہ تصاویر کا استعمال کرتے ہوئے بچوں کی شادی کے خلاف ایک مہم کی ویڈیو جاری کی۔
اقوام متحدہ نے یوٹیوب پر ایک ویڈیو بھی پوسٹ کی جس میں تنازعات میں جنسی تشدد کے AI سے تیار کردہ "دوبارہ قانون سازی" کی نمائش کی گئی تھی، جس میں ایک برونڈیائی خاتون کی گواہی بھی شامل تھی جس میں 1993 میں تین مردوں کے ذریعہ اس کی عصمت دری کی گئی تھی۔ بعد میں ویڈیو کو ہٹا دیا گیا تھا۔
یو این پیس کیپنگ کے ترجمان نے کہا: " زیر بحث ویڈیو، جو ایک سال قبل ایک تیزی سے تیار ہوتے ہوئے ٹول کا استعمال کرتے ہوئے تیار کی گئی تھی، ہٹا دی گئی ہے، کیونکہ ہمارا خیال ہے کہ یہ AI کے غلط استعمال کو ظاہر کرتا ہے، اور معلومات کی سالمیت، حقیقی فوٹیج کی ملاوٹ اور مصنوعی طور پر تیار کردہ مواد کے حوالے سے خطرات لاحق ہو سکتا ہے۔
"اقوام متحدہ جدت اور تخلیقی وکالت سمیت تنازعات سے متعلقہ جنسی تشدد کے متاثرین کی حمایت کے اپنے عزم پر ثابت قدم ہے۔"
آرنلڈ نے کہا کہ AI منظر کشی کا پھیلاؤ عالمی صحت میں اخلاقی نمائندگی کے بارے میں دیرینہ بحثوں کی پیروی کرتا ہے:
"قیاس کیا جاتا ہے، بغیر رضامندی کے آنے والے ریڈی میڈ AI ویژول لینا آسان ہے، کیونکہ یہ حقیقی لوگ نہیں ہیں۔"
ایک این جی او کمیونیکیشن کنسلٹنٹ کیٹ کارڈول نے کہا کہ یہ تصاویر تشویشناک ہیں:
"یہ مجھے افسردہ کرتا ہے کہ غربت کا سامنا کرنے والے لوگوں کی زیادہ اخلاقی نمائندگی کی لڑائی اب غیر حقیقی تک پھیلی ہوئی ہے۔"
ماہرین نے خبردار کیا ہے کہ پیدا کرنے والا AI اکثر موجودہ کو دوبارہ پیدا کرتا ہے۔ سماجی تعصبات.
الینچیف نے نوٹ کیا کہ عالمی صحت کی مہموں میں اس طرح کی تصاویر کا وسیع پیمانے پر استعمال ان مسائل کو بڑھا سکتا ہے، کیونکہ انہیں مستقبل کے AI ٹریننگ ڈیٹا سیٹس میں شامل کیا جا سکتا ہے، جو تعصب کو بڑھاتا ہے۔
پلان انٹرنیشنل کے ایک ترجمان نے تصدیق کی کہ این جی او نے اب "انفرادی بچوں کی تصویر کشی کے لیے AI کے استعمال کے خلاف مشورہ دینے والی رہنمائی کو اپنایا" اور کہا کہ 2023 کی مہم نے "حقیقی لڑکیوں کی پرائیویسی اور وقار" کے تحفظ کے لیے AI کو استعمال کیا۔








