يستخدم الفنانون الأسلحة التقنية ضد مقلدي الذكاء الاصطناعي

ا ف ب - الامة برس
2023-12-24

يبحث فنانون مثل كارلا أورتيز في سان فرانسيسكو، كاليفورنيا، عن طرق تقنية وقانونية لحماية أساليبهم حيث

نيويوركالفنانون المحاصرون بواسطة الذكاء الاصطناعي الذي يدرس أعمالهم، ثم يكرر أساليبهم، تعاونوا مع باحثين جامعيين لإحباط مثل هذا النشاط المقلّد.

دخلت الرسامة الأمريكية بالوما ماكلين في وضع الدفاع بعد أن علمت أن العديد من نماذج الذكاء الاصطناعي قد "تم تدريبها" على استخدام فنها، دون أن تحصل على أي رصيد أو تعويض.

وقال ماكلين لوكالة فرانس برس: "لقد أزعجني ذلك".

"أعتقد أن التقدم التكنولوجي الهادف حقًا يتم بشكل أخلاقي ويرفع مستوى جميع الأشخاص بدلاً من العمل على حساب الآخرين."

تحول الفنان إلى برنامج مجاني يسمى Glaze أنشأه باحثون في جامعة شيكاغو.

يتفوق Glaze بشكل أساسي على نماذج الذكاء الاصطناعي عندما يتعلق الأمر بكيفية تدريبها، حيث يقوم بتعديل وحدات البكسل بطرق لا يمكن للمشاهدين البشريين تمييزها ولكنها تجعل القطعة الفنية الرقمية تبدو مختلفة تمامًا عن الذكاء الاصطناعي.

وقال أستاذ علوم الكمبيوتر بن تشاو من فريق Glaze: "نحن نقدم بشكل أساسي أدوات تقنية للمساعدة في حماية المبدعين من نماذج الذكاء الاصطناعي الغازية والمسيئة".

تم إنشاء Glaze في أربعة أشهر فقط، وهو عبارة عن تقنية تستخدم لتعطيل أنظمة التعرف على الوجه.

وقال تشاو عن التسرع في الدفاع عن الفنانين ضد مقلدي البرمجيات: "كنا نعمل بسرعة فائقة لأننا علمنا أن المشكلة خطيرة".

"كان الكثير من الناس يعانون من الألم."

لدى عمالقة الذكاء الاصطناعي التوليدي اتفاقيات لاستخدام البيانات للتدريب في بعض الحالات، ولكن في الغالب، إذا تم استخدام الصور الرقمية والصوت والنصوص لتشكيل الطريقة التي تفكر بها البرامج فائقة الذكاء، فقد تم انتزاعها من الإنترنت دون موافقة صريحة.

منذ إصداره في مارس 2023، تم تنزيل Glaze أكثر من 1.6 مليون مرة، وفقًا لتشاو.

ويعمل فريق تشاو على تحسين مادة Glaze تسمى Nightshade والتي تعمل على تحسين الدفاعات عن طريق إرباك الذكاء الاصطناعي، على سبيل المثال من خلال جعله يفسر الكلب على أنه قطة.

وقال ماكلين: "أعتقد أن Nightshade سيكون له تأثير ملحوظ إذا استخدمه عدد كاف من الفنانين ووضعوا ما يكفي من الصور المسمومة في البرية"، مما يعني أنه متاح بسهولة عبر الإنترنت.

"وفقًا لأبحاث Nightshade، لن يتم التقاط العديد من الصور المسمومة كما قد يعتقد المرء."

وقد تواصلت العديد من الشركات مع فريق تشاو التي ترغب في استخدام Nightshade، وفقًا للأكاديمي في شيكاغو.

وقال تشاو: "الهدف هو أن يتمكن الأشخاص من حماية المحتوى الخاص بهم، سواء كان ذلك لفنانين أفراد أو شركات تتمتع بقدر كبير من الملكية الفكرية".

 فيفا فوس 

قامت شركة Startup Spawning بتطوير برنامج Kudurru الذي يكتشف محاولات جمع أعداد كبيرة من الصور من مكان عبر الإنترنت.

يمكن للفنان بعد ذلك منع الوصول أو إرسال صور لا تتطابق مع ما هو مطلوب، مما يؤدي إلى تشويه مجموعة البيانات المستخدمة لتعليم الذكاء الاصطناعي، وفقًا لما ذكره جوردان ماير، أحد مؤسسي Spawning. 

لقد تم بالفعل دمج أكثر من ألف موقع ويب في شبكة Kudurru.

أطلقت Spawning أيضًا موقع hasibeentrained.com، وهو موقع ويب يتميز بأداة عبر الإنترنت لمعرفة ما إذا كانت الأعمال الرقمية قد تم إدخالها في نموذج الذكاء الاصطناعي وتسمح للفنانين بإلغاء الاشتراك في هذا الاستخدام في المستقبل.

مع تزايد الدفاعات عن الصور، قام باحثون في جامعة واشنطن بولاية ميسوري بتطوير برنامج AntiFake لإحباط نسخ الأصوات التي يستخدمها الذكاء الاصطناعي.

وقال زييوان يو، طالب الدكتوراه الذي يقف وراء المشروع، إن AntiFake يثري التسجيلات الرقمية للأشخاص الذين يتحدثون، ويضيف أصواتًا غير مسموعة للناس ولكنها تجعل "من المستحيل تركيب صوت بشري".

يهدف البرنامج إلى تجاوز مجرد إيقاف التدريب غير المصرح به للذكاء الاصطناعي إلى منع إنشاء "مقاطع صوتية مزيفة" - مقاطع صوتية أو مقاطع فيديو زائفة للمشاهير أو السياسيين أو الأقارب أو غيرهم تظهرهم وهم يفعلون أو يقولون شيئًا لم يفعلوه.

تواصل أحد البودكاست الشهير مؤخرًا مع فريق AntiFake للمساعدة في منع اختطاف منتجاته، وفقًا لـ Zhiyuan Yu.

وقال الباحث إن البرنامج المتاح مجانًا تم استخدامه حتى الآن لتسجيلات الأشخاص الذين يتحدثون، ولكن يمكن تطبيقه أيضًا على الأغاني.

وأكد ماير أن "الحل الأفضل هو عالم تخضع فيه جميع البيانات المستخدمة للذكاء الاصطناعي للموافقة والدفع".

"نأمل أن ندفع المطورين في هذا الاتجاه."

 








كاريكاتير

إستطلاعات الرأي