اس مضمون کو آخری بار اپ ڈیٹ کیا گیا تھا۔ اگست 6, 2024
Table of Contents
ایسا لگتا ہے کہ ٹیک کمپنیاں ڈچ سازوں کی تصاویر کے ساتھ غیر قانونی طور پر اے آئی کو تربیت دے رہی ہیں۔
ایسا لگتا ہے کہ ٹیک کمپنیاں ڈچ سازوں کی تصاویر کے ساتھ غیر قانونی طور پر اے آئی کو تربیت دے رہی ہیں۔
یہ سختی سے ظاہر ہوتا ہے کہ OpenAI اور Midjourney کے AI ماڈلز کو بغیر اجازت تصاویر بنانے کے لیے ڈچ تخلیق کاروں کی تصاویر کے ساتھ تربیت دی گئی تھی۔ یہ NOS کی تحقیق سے ظاہر ہے اور چار ماہرین نے اس کی تصدیق کی ہے۔ ایسا کرنے میں، ٹیک کمپنیوں نے کاپی رائٹ کی خلاف ورزی کی ہو گی۔
اوپن اے آئی تحقیق کا خاطر خواہ جواب نہیں دینا چاہتا تھا، لیکن اس نے دوسری چیزوں کے ساتھ تصویر بنانے والوں کے اعتراض کرنے کے امکان کا حوالہ دیا۔ مڈجرنی نے ہمارے سوالات کا جواب نہیں دیا۔
پیلا لباس
تحقیق کے لیے، ہم نے AI ماڈلز سے مختلف معروف ڈچ تصویر سازوں کے انداز میں تصاویر بنانے کو کہا، جن میں Erwin Olaf، Eddy Van Wessel اور Dick Bruna شامل ہیں۔ ہم نے مزید ہدایات کے بغیر صرف انداز کی نقل کرنے کو کہا۔
معروف کاموں کی خصوصیات ہر بار سامنے آئیں۔ مثال کے طور پر، AI ماڈلز نے تصاویر تیار کیں۔ خواتین پیلے رنگ کے لباس میں، بالکل اسی طرح جیسے ایرون اولاف کی فوٹو سیریز میں۔
ایڈی وین ویسل کے معاملے میں، جنگی علاقوں کی سیاہ اور سفید تصاویر بنائی گئی تھیں، جن کے لیے فوٹوگرافر جانا جاتا ہے۔ جب ہم نے ڈک برونا کے انداز میں ایک تصویر کی درخواست کی تو Miffy کی تصاویر بھی تیار کی گئیں۔ برونا کے حقوق رکھنے والے اس مضمون میں ان تصاویر کو استعمال کرنے کی اجازت نہیں دیتے ہیں۔
خاص طور پر، OpenAI (ChatGPT کے پیچھے کمپنی) کے DALL-E کے ساتھ بعض فنکاروں کے انداز میں تصاویر بنانا بعض اوقات مسترد کر دیا جاتا ہے کیونکہ یہ ان کی شرائط کی خلاف ورزی کرتا ہے۔ تاہم، دوسرے ٹیب میں دوبارہ کوشش کرنے سے یہ اکثر کام کرتا ہے۔
NOS نے نتائج کو AI کے شعبے کے چار ماہرین کے سامنے پیش کیا: Evangelos Kanoulas اور Efstratios Gavves یونیورسٹی آف ایمسٹرڈیم سے، Olya Kudina TU Delft سے اور Noelle Cicilia نے Brush AI سے۔ ان سب کا کہنا ہے کہ اگرچہ 100 فیصد یقین کے ساتھ یہ نہیں کہا جا سکتا، لیکن یہ بہت مضبوطی سے ظاہر ہوتا ہے کہ AI ماڈلز کو ڈچ کاموں پر تربیت دی گئی ہے۔
"یہ ایک بہت ہی عام وضاحت ہے،” UvA کے کنولاس کہتے ہیں۔ "پھر بھی AI ماڈلز کسی کے نام کی بنیاد پر پیلے رنگ کے لباس کے ساتھ تعلق قائم کرنے کے قابل ہیں۔”
Cicilia اس بات پر زور دیتا ہے کہ AI ماڈل خود تخلیقی نہیں ہوتا ہے۔ "جنریٹیو اے آئی ماڈلز صرف اس ڈیٹا کی نقل کرنے یا دوبارہ تیار کرنے کی کوشش کرتے ہیں جس پر وہ تربیت یافتہ ہوتے ہیں۔”
"اگر کام محفوظ ہیں، کاپی رائٹ کی خلاف ورزی عام طور پر بہت جلد فرض کی جاتی ہے اگر کوئی اس سے دستبردار ہو جائے،” میرجام ایلفرینک کہتے ہیں، ایلفرینک اینڈ کورٹیئر کے دانشورانہ املاک کے وکیل۔
لیکن عوامی اعداد و شمار کے جمع کرنے کے لئے ایک استثناء ہے، Elferin وضاحت کرتا ہے. یہ استثناء لاگو ہوتا ہے، مثال کے طور پر، سائنسی اداروں پر۔ لیکن تجارتی جماعتیں بھی اس کا استعمال اس وقت تک کر سکتی ہیں جب تک کہ حقوق رکھنے والوں نے واضح طور پر اعتراض نہ کیا ہو: نام نہاد آپٹ آؤٹ۔
اس طرح کا آپٹ آؤٹ ڈک برونا اور ایڈی وین ویسل کے کاموں کے لیے استعمال کیا گیا تھا، جو کاپی رائٹ کی خلاف ورزی کا باعث بن سکتا ہے۔ ایرون اولاف کے ساتھ ایسا نہیں ہے، شرلی ڈین ہارٹوگ کہتے ہیں، جو اب اپنے کام کا انتظام کر رہے ہیں: "ہم نے ان کی موت سے پہلے اس بات پر بات کی تھی کہ اگر پوری دنیا کے لوگ اس کے کام میں شامل رہیں تو یہ بہت اچھا ہوگا۔”
اپ ٹو ڈیٹ نہیں۔
وکیل ایلفرینک کا کہنا ہے کہ "یہ جاننا اچھا ہے کہ کاپی رائٹ کی رعایت ان AI ٹولز کے عوامی طور پر قابل رسائی ہونے سے پہلے قانون میں متعارف کرائی گئی تھی۔” ان کے مطابق، یہ اب AI ماڈلز کی تربیت کے لیے اس کے اطلاق کے بارے میں غیر یقینی صورتحال کا باعث بنتا ہے۔
"افسوس کی بات یہ ہے کہ ہالینڈ میں ابھی تک اس موضوع پر کوئی قانونی مقدمہ نہیں ہوا ہے، اس لیے جج ابھی تک اس معاملے پر فیصلہ نہیں دے سکے ہیں۔” اس کے خلاف امریکہ میں کئی مقدمے چل رہے ہیں۔ اوپن اے آئی کے طور پر درمیانی سفر. ابھی تک کوئی بیانات نہیں ہیں۔
تصویری حقوق کی تنظیم Pictoright کے وکیل Hanneke Holthuis کا کہنا ہے کہ بہت سے تصویر بنانے والے اس "کاپی رائٹ کے موڑ” سے واقف نہیں ہیں۔ ان کے مطابق، کسی نے بھی اس بات کو ذہن میں نہیں رکھا کہ AI ماڈلز کو اچانک عوامی طور پر دستیاب کاموں کے ساتھ تربیت دی جائے گی: "آپ کسی سے یہ توقع نہیں کر سکتے کہ وہ کسی ایسی چیز کے لیے ریزرویشن کرے جو اس وقت موجود نہیں ہے۔”
آپٹ آؤٹ کریں۔
یورپی AI قانون، جو اس مہینے سے نافذ ہے، آپٹ آؤٹ سسٹم کے مطابق دکھائی دیتا ہے۔ تصویر بنانے والوں کو یہ بتانا چاہیے کہ وہ اپنے آپٹ آؤٹ کا حق استعمال کرنا چاہتے ہیں، ٹیک کمپنیوں کو اس بارے میں شفاف ہونا چاہیے کہ ماڈلز کو کس طرح تربیت دی جاتی ہے اور وہ یہ ظاہر کر سکتی ہیں کہ وہ کاپی رائٹ کی خلاف ورزی نہیں کرتے ہیں۔
ہولتھوئس کا کہنا ہے کہ آپٹ آؤٹ کے ساتھ مسئلہ یہ ہے کہ AI کو کام کرنے کے لیے تربیت دینے سے پہلے اسے درحقیقت لاگو کرنے کی ضرورت ہے۔ "ایک بار تربیت حاصل کرنے کے بعد، AI سسٹم کے لیے مخصوص ڈیٹا کو ‘غیر سیکھنا’ مشکل ہوتا ہے۔ اس کا مطلب یہ ہے کہ وہ کام جو AI کی تربیت سے پہلے آپٹ آؤٹ کے تحت شائع نہیں کیے گئے تھے وہ ناقابل واپسی طور پر استعمال کیے جا سکتے ہیں۔ ڈچ تصویر بنانے والوں کا استقبال ہے۔ optoutnow.ai اشارہ کریں کہ وہ اپنے آپٹ آؤٹ کا حق استعمال کرنا چاہتے ہیں۔
تصاویر کے ساتھ AI کی تربیت
Be the first to comment