غلط معلومات اکثر جذباتی محرکات پر کھیلتی ہیں۔
تیزی سے ترقی کرنے والی ٹیکنالوجی کے دور میں، ڈیپ فیکس کا پتہ لگانا مشکل ہوتا جا رہا ہے۔
حقیقت پسندانہ لیکن من گھڑت تصاویر، ویڈیوز اور آڈیو، ڈیپ فیکس پرائیویسی، سیکورٹی اور ڈیجیٹل مواد میں اعتماد کے لیے بڑے خطرات کا باعث بنتے ہیں۔
وہ لوگوں کی ساکھ کے لیے بھی خطرہ ہیں۔ ڈیپ فیکس انٹرنیٹ کا ایک تاریک گوشہ بن چکے ہیں، جہاں ہزاروں کی تعداد میں لوگ مشہور شخصیات کی جنسی تعلقات کی جعلی ویڈیوز شیئر کرنے کے لیے جمع ہیں۔
نومبر 2023 میں، بھارت نے جہاں بالی ووڈ میں ڈیپ فیکس کا ایک سلسلہ دیکھا اداکارہ جرات مندانہ منظرناموں میں دکھایا گیا تھا۔
سب سے زیادہ قابل ذکر ایک ویڈیو تھی۔ راشمیکا مینڈنا کم کٹ والا یونٹارڈ پہننا۔
مصنوعی ذہانت کا ارتقاء جاری ہے اور اس کے نتیجے میں، اسی طرح قائل کرنے والے ڈیپ فیکس بنانے کے لیے استعمال ہونے والی تکنیکیں بھی۔
تاہم، اگرچہ یہ ڈیجیٹل جعلسازی انتہائی دھوکہ دہی کا باعث ہو سکتی ہیں، لیکن ان میں اکثر ایسی نشانیاں ہوتی ہیں جن کی درست معلومات کے ساتھ، شناخت کی جا سکتی ہے۔
ایک AI ماہر ڈیپ فیکس کو اسپاٹ کرنے کے لیے سرفہرست نکات اور حکمت عملیوں کا اشتراک کرتا ہے، ان لطیف لیکن اہم خامیوں کو اجاگر کرتا ہے جو ہیرا پھیری والے میڈیا کو ظاہر کر سکتی ہیں۔
ماخذ کی تصدیق کریں۔
X پر، جعلی خبریں جائز خبروں سے زیادہ تیزی سے پھیلتی ہیں۔
یہ اس حوالے سے ہے کہ برطانیہ میں تقریباً دو تہائی نوجوان سوشل میڈیا کو باقاعدہ خبر کے طور پر استعمال کرتے ہیں۔ ذرائع.
آپ جو مواد استعمال کرتے ہیں اس کے پیچھے موجود ذرائع کی ساکھ کو ہمیشہ دیکھیں۔
کیا یہ معلومات کسی معروف نیوز آؤٹ لیٹ یا تصدیق شدہ سرکاری اکاؤنٹ سے آتی ہے؟
اگر ذریعہ ناواقف ہے یا مشتبہ معلوم ہوتا ہے، تو قابل اعتماد نیوز آرگنائزیشنز یا گوگل فیکٹ چیک ٹولز جیسے حقائق کی جانچ کرنے والے پلیٹ فارمز کا استعمال کرتے ہوئے مواد کی صداقت کو کراس چیک کریں۔
غلط معلومات اکثر جذباتی محرکات پر چلتی ہیں جیسے خوف، غصہ، یا بادل کے فیصلے پر غصہ۔
شدید جذبات کو بھڑکانے والے مواد کا سامنا کرتے وقت، اس بات کو یقینی بنانے کے لیے کہ کسی کو کسی دوسرے کے کھیل میں پیادے کے طور پر استعمال نہیں کیا جا رہا ہے، توقف کرنا اور دوبارہ جائزہ لینا ضروری ہے۔
چہرے کے تاثرات دیکھیں
ڈیپ فیکس اکثر چہرے کے تاثرات اور قدرتی حرکات کی باریک پیچیدگیوں کو نقل کرنے کے لیے جدوجہد کرتے ہیں۔
جن اہم شعبوں پر توجہ مرکوز کرنا ہے ان میں آنکھوں اور منہ کے گرد مائیکرو ایکسپریشنز شامل ہیں۔
جھپکنے کے غیر فطری نمونوں، آنکھوں کی بے قاعدہ حرکت، یا سر کی اچانک حرکت پر نظر رکھیں، اور اندازہ لگائیں کہ کیا چہرے کے تاثرات بیان کیے جانے والے جذبات سے میل کھاتے ہیں۔
مزید برآں، دانتوں کی یکسانیت، بالوں کی ساخت، اور چہرے کی مجموعی ساخت جیسی تفصیلات ڈیپ فیکس کی شناخت میں مدد کر سکتی ہیں۔
مثال کے طور پر، کی ڈیپ فیک ویڈیو Ranveer سنگھ وزیر اعظم نریندر مودی کی تنقید وائرل ہوگئی۔
اگرچہ قائل کرنے کے باوجود، یہ ایک بڑا تحفہ ہے کہ ویڈیو ایک ڈیپ فیک ہے چہرے اور کانوں کی شکل ہے – ڈیپ فیکس میں اکثر ان علاقوں میں قدرے کم ہوتے ہیں، کانوں کو نقل کرنا خاص طور پر مشکل ہوتا ہے۔
ویڈیو کو موقوف کرنے اور چہرے کے خدوخال کا جائزہ لینے سے آپ کو ان بے قاعدگیوں کا پتہ لگانے میں مدد مل سکتی ہے۔
دیکھنے کے لئے ایک اور چیز جسمانی شکل ہے۔ عام طور پر، خواتین مشہور شخصیات کے چہرے دوسری خواتین کے جسموں پر لگائے جاتے ہیں اور ان کے لیے آن لائن شیئر کیے جاتے ہیں۔ لیو مقاصد.
ایک مثال دیکھی۔ کٹینہ کیفمیں تولیہ کی لڑائی کا منظر ٹائیگر 3۔ ڈاکٹری
ڈیپ فیک نے تولیے کی جگہ ایک ظاہر کرنے والے دو ٹکڑوں کو لے لیا۔
اس کے جسم کو بھی فوٹوشاپ کیا گیا تھا، جس میں اس کے منحنی خطوط نمایاں طور پر زیادہ کافی ہوتے جا رہے تھے۔
جعلی تصویر میں دکھایا گیا ہے کہ کترینہ کے ہاتھ ان پر زیادہ جنسی پوز کے لیے رکھے ہوئے ہیں۔
ریورس امیج سرچ استعمال کریں۔
بصری مواد کی اصلیت کا پتہ لگانے اور اس کی صداقت کا اندازہ لگانے کے لیے ریورس امیج اور ویڈیو سرچ ٹولز سے فائدہ اٹھائیں۔
تصاویر کے لیے، فائل کو گوگل ریورس امیج سرچ جیسے ٹولز پر اپ لوڈ کرنے سے یہ شناخت کرنے میں مدد مل سکتی ہے کہ آیا تصویر کو AI سے بنایا گیا ہے، ڈیجیٹل طور پر تبدیل کیا گیا ہے یا گمراہ کن سیاق و سباق میں استعمال کیا گیا ہے۔
آن لائن تصویر کی دیگر مثالیں تلاش کرکے، آپ اس بات کا تعین کر سکتے ہیں کہ یہ پہلی بار کہاں ظاہر ہوئی، اور آیا اس میں ہیرا پھیری ہوئی ہے یا غلط استعمال کیا گیا ہے۔
ویڈیوز کے لیے، مزید خصوصی ٹولز جیسے InVID یا WeVerify فوٹیج کا تجزیہ کرنے کے لیے مفید ہیں۔
یہ ٹولز آپ کو ویڈیوز کو فریموں میں تقسیم کرنے، انفرادی فریموں پر ریورس امیج سرچ کرنے، اور ترامیم، تبدیلیوں، یا فوٹیج کسی مختلف سیاق و سباق میں ظاہر ہونے کا پتہ لگانے کے لیے میٹا ڈیٹا کی جانچ کرنے کی اجازت دیتے ہیں۔
یہ تکنیک آپ کو تضادات کو کھولنے، صداقت کی تصدیق کرنے، اور چھیڑ چھاڑ یا دوبارہ استعمال کی علامات کو دیکھنے کے قابل بناتی ہیں۔
ایک ساتھ، یہ تلاشیں اس بات کو یقینی بنانے میں مدد کر سکتی ہیں کہ بصری مواد کو غلط طریقے سے یا بددیانتی سے تبدیل نہیں کیا جا رہا ہے۔
تضادات تلاش کریں۔
ڈیپ فیکس کی شناخت اکثر ٹھیک ٹھیک ڈیجیٹل خامیوں سے کی جا سکتی ہے جیسے دھندلا پن یا غیر فطری پکسلیشن، خاص طور پر چہروں یا اشیاء کے کناروں کے ارد گرد۔
روشنی، سائے اور عکاسی میں تضادات پر نظر رکھنا ضروری ہے، کیونکہ یہ ہیرا پھیری کے آثار ہو سکتے ہیں۔
یہاں تک کہ چھوٹی تفصیلات جیسے ایک اضافی انگلی یا غلط جگہ پر موجود خصوصیات کی نشاندہی ہو سکتی ہے کہ کچھ بند ہے۔
مزید برآں، بگاڑ یا بے ضابطگیوں کے پس منظر کا جائزہ لینے سے ہیرا پھیری کو ظاہر کرنے میں مدد مل سکتی ہے، کیونکہ یہ عناصر منظر کی مجموعی ہم آہنگی کو متاثر کر سکتے ہیں۔
کی جرات مندانہ deepfake الیا بھٹ مشورے دینے والے تاثرات اور گھورنے سے اس کے منہ کے گرد بگاڑ اور جلد کے رنگ میں تضاد جیسی بے ضابطگیاں دکھائی دیتی ہیں۔
AI سے تیار کردہ مواد کو پہچاننے میں آپ کی مدد کرنے کا ایک تفریحی طریقہ کھیلنا ہے۔ کون سا چہرہ اصلی ہے۔، واشنگٹن یونیورسٹی کے پروفیسرز کے ذریعہ تخلیق کردہ ایک گیم۔
سمعی و بصری ہم آہنگی۔
ڈیپ فیک کا نشان لگانا اکثر ہونٹوں کی حرکات کا قریب سے مشاہدہ کرنے پر منحصر ہوتا ہے، کیونکہ بعض حروف کا تلفظ کرتے وقت ہمارے منہ قدرتی طور پر الگ الگ شکلیں بناتے ہیں۔
AI نظام اکثر ان لطیف حرکات کو درستگی کے ساتھ نقل کرنے کے لیے جدوجہد کرتے ہیں، جس کی وجہ سے اس پر توجہ مرکوز کرنے کا ایک کلیدی شعبہ ہے۔
درحقیقت، ڈیپ فیک ویڈیوز کا تقریباً ایک تہائی ہونٹوں کی حرکت کو آوازوں کے ساتھ درست طریقے سے ہم آہنگ کرنے میں ناکام رہتا ہے، خاص طور پر "M"، "B" اور "P" جیسے حروف کے لیے، جن کے لیے ہونٹوں کی مخصوص شکلوں کی ضرورت ہوتی ہے۔
جب اسپیکر کے ہونٹ پیدا ہونے والی آوازوں سے میل نہیں کھاتے ہیں، یا اگر صوتی و بصری ہم آہنگی میں قابل توجہ تاخیر یا مماثلت نہیں ہے، تو اسے شک پیدا ہونا چاہیے۔
اس کے علاوہ، اسپیکر کے لہجے، پچ، یا تقریر کی تال میں کسی بھی بے ضابطگی پر توجہ دیں۔
یہ ایک ہیرا پھیری والی ویڈیو کے اشارے بھی ہو سکتے ہیں، کیوں کہ AI سے تیار کردہ آڈیو میں اکثر انسانی تقریر کی فطری موڑ اور رفتار کی کمی ہوتی ہے۔
کرسٹوف سی سیمپر، ایک AI ماہر اے آئی پی آر ایم، نے کہا کہ:
"ورلڈ اکنامک فورم نے 2024 کے لیے غلط معلومات کو سب سے زیادہ خطرہ قرار دیا ہے، جس میں ڈیپ فیکس AI کے سب سے خطرناک استعمال میں سے ایک کے طور پر ابھر رہے ہیں۔
"اگر آپ کو کوئی ممکنہ ڈیپ فیک نظر آتا ہے، تو بہترین عمل یہ ہے کہ اسے شیئر کرنے سے گریز کریں۔
"ڈیپ فیک کی طاقت اس کے پھیلنے کی صلاحیت میں مضمر ہے، اور اگر یہ وسیع پیمانے پر پھیلا نہیں تو اس کا اثر کم ہو جاتا ہے۔"
"اگر آپ کسی اور کو اس کا اشتراک کرتے ہوئے دیکھتے ہیں، تو انہیں شائستگی کے ساتھ مطلع کرنے کے لیے ایک لمحہ نکالیں اور انہیں حقائق کی جانچ کے قابل اعتماد وسائل کی طرف اشارہ کریں، خاص طور پر اگر جعلی کو ختم کر دیا گیا ہو۔
"اس کے علاوہ، سوشل میڈیا پلیٹ فارمز پر رپورٹنگ کی خصوصیات کا فائدہ اٹھائیں تاکہ اس کی رسائی کو محدود کیا جا سکے۔
"یہ بہت اہم ہے کہ ہم سب بیداری بڑھانے میں اپنا کردار ادا کریں - اپنے تجربے اور بصیرت کا اشتراک کریں کہ آپ نے ڈیپ فیکس کو کیسے پہچانا تاکہ دوسروں کو اسی طرح کے خطرات کا مقابلہ کرنے میں مدد ملے۔
"ہم جو مواد آن لائن استعمال کرتے ہیں اس کے بارے میں چوکنا رہ کر، ہم اجتماعی طور پر غلط معلومات سے لڑ سکتے ہیں اور اپنے ڈیجیٹل ماحول کی سالمیت کی حفاظت کر سکتے ہیں۔"
جیسے جیسے ڈیپ فیکس زیادہ نفیس ہوتے جاتے ہیں، ڈیجیٹل مواد پر اعتماد برقرار رکھنے کے لیے ان کی شناخت کرنے کی صلاحیت بہت ضروری ہے۔
اگرچہ AI سے تیار کردہ جعلسازی قائل معلوم ہوسکتی ہیں، لیکن وہ اکثر ٹھیک ٹھیک سراگ چھوڑ دیتے ہیں۔
ان اشارے کو سمجھ کر اور ریورس امیج سرچز اور ویڈیو تجزیہ جیسے ٹولز کو استعمال کرنے سے، ہم غلط معلومات اور ہیرا پھیری سے خود کو بہتر طریقے سے بچا سکتے ہیں۔