وأوضحت OpenAI أن نموذجها الجديد يتفوق بهذه الطريقة على العديد من منافسيه في مجال إنشاء الصور بتقنية الذكاء الاصطناعي، ومنهم Firefly 2 من شركة أدوبي، و Stable Diffusion من شركة Stability AI.
وتأتي تصريحات الشركة حول حواجز السلامة المنفذة بعد ظهور تقارير تفيد بأن حواجز الحماية المعلنة للتخفيف من الصور الضارة لم تكن ناحجة.
وأنشأ المستخدمون صورًا لمركز التجارة العالمي، كما أدت الحلول البسيطة الأخرى إلى نتائج مماثلة حتى بعد منع مايكروسوفت لبعض المطالبات.
وكتبت الشركة: “نستخدم نظام أمان ذا مستويات متعددة للحد من قدرة النموذج على إنشاء صور قد تكون ضارة، ومنها المحتوى العنيف أو المحتوى الذي يحض على الكراهية. نجري فحوصات الأمان عبر مطالبات المستخدم والصور الناتجة قبل ظهورها للمستخدمين”.
وأضافت: “عملنا أيضًا مع المستخدمين الأوائل والخبراء لتحديد الثغرات ومعالجتها في أنظمتنا للسلامة التي ظهرت مع إمكانات النموذج الجديد. ساعدتنا التعليقات في تحديد الحالات المتطورة لإنشاء المحتوى الرسومي، واختبار الإجهاد لقدرة النموذج على إنشاء الصور المضللة بشكل مقنع”.
وتركز الضمانات الأخرى على الحد من قدرة DALL-E 3 على إنشاء المحتوى بأسلوب الفنانين الأحياء وصور الشخصيات العامة، وبذلت الشركة جهودًا لتعزيز التمثيل الديموغرافي من خلال صور النموذج.
وأنشأت OpenAI موقعًا إلكترونيًا لتعزيز الشفافية يعرض الأبحاث التي أدت إلى إنشاء DALL-E 3، إلى جانب أداة تصنيف الصور التي يمكنها معرفة إذا ما كانت الصورة مولدة بأدواتها بدقة تتراوح بين نحو 95 في المئة و 99 في المئة.