(تصاویر) قیافه استادان رشته‌های گوناگون از نگاه هوش مصنوعی

آنچه خواهید دید، سوگیری‌های ذاتی مدل‌های هوش مصنوعیِ مولدِ تصویر مانند میدجرنی را به وضوح نشان می‌دهد. باید نگران شویم یا فقط ببینیم و بگذریم؟

شناسه خبر: ۳۶۲۵۶۸
(تصاویر) قیافه استادان رشته‌های گوناگون از نگاه هوش مصنوعی

خبرآنلاین نوشت؛ آنچه خواهید دید، سوگیری‌های ذاتی مدل‌های هوش مصنوعیِ مولدِ تصویر مانند میدجرنی را به وضوح نشان می‌دهد. باید نگران شویم یا فقط ببینیم و بگذریم؟

انتشار یک ویدیوی ۴۰ ثانیه‌ای باعنوان «چهره استادان بر اساس رشته‌هایشان» در ردیت، بحث جالبی را به راه انداخته است. به عقیده بعضی‌ها و بر اساس تجاربشان این تصاویر به شدت به واقعیت نزدیک هستند. برخی دیگر که نگاه متفاوت‌تری دارند می‌گویند بیشتر این تصاویر فقط مردان جاافتاده و سفیدپوست را در لباس اساتید نشان می‌دهد که در مورد اکثر مؤسسات دانشگاهی مدرن، صادق نیست.

مولدهای تصویر هوش مصنوعی می‌توانند در مدل‌های خود سوگیری داشته باشند، زیرا آن‌ها از داده‌هایی که بر رویشان آموزش دیده‌اند، یاد می‌گیرند. داده‌ها نیز اغلب سوگیری‌های موجود در دنیای واقعی را در دل خود جا داده‌اند. چنین سوگیری‌هایی بسته به مدل خاص و داده‌های مورد استفاده برای آموزش، می‌توانند به روش‌های مختلفی ظاهر شوند.

به عنوان مثال، اگر یک مولد تصویر هوش مصنوعی بر روی مجموعه داده‌ای از تصاویر آموزش دیده باشد که گروه‌های خاصی از افراد را به‌طور نامتناسب نشان می‌دهد، مانند افراد با پوست روشن‌تر، تصاویر تولیدشده نیز ممکن است این سوگیری را با تولید تصاویر کمتر از افراد با پوست تیره تر نشان دهند. اگر داده‌های آموزشی حاوی کلیشه‌ها یا سایر سوگیری‌ها باشد، مولد تصویر هوش مصنوعی ممکن است یاد بگیرد که آن سوگیری‌ها را در تصاویر تولیدشده خود بازتولید کند.

افزون‌براین اگر خود داده‌های آموزشی هم بی‌طرف باشند، مدل همچنان ممکن است بر اساس نحوه برچسب‌گذاری یا حاشیه‌نویسی داده‌ها، سوگیری‌ها را یاد بگیرد. به عنوان مثال، اگر مجموعه داده، اشیا یا افراد خاصی را به گونه‌ای برچسب‌گذاری کند که کلیشه‌ها یا فرضیات را تقویت کند، مولد تصویر هوش مصنوعی ممکن است یاد بگیرد که این سوگیری‌ها را در خروجی خود تداوم ببخشد.

به نظر محققان از آنجایی که سیستم‌های تبدیل متن به تصویر با قابلیت یادگیری ماشینی رو به افزایش هستند و به عنوان خدمات تجاری، پذیرش رو به رشدی را تجربه می‌کنند، اولین گام ضروری برای کاهش خطر نتایج تبعیض‌آمیز آن‌ها، مشخص کردن سوگیری‌های اجتماعی‌ است که از خود نشان می‌دهند.

محققان و توسعه‌دهندگان باید داده‌های آموزشی خود را به دقت تنظیم کنند و از تکنیک‌هایی مانند داده‌افزایی، مکانیزم طبقه‌بندی منصفانه و آموزش خصمانه استفاده کنند تا اطمینان حاصل شود که مدل‌های حاصل تا حد ممکن عاری از سوگیری هستند.

هوش مصنوعی

نظرات
پربازدیدترین خبرها