هوش مصنوعی و خواندن احساسات
/0 دیدگاه /در اخبار /توسط مدیر سایتفناوری تشخیص احساسات (ERT) در هوش مصنوعی :
فناوری تشخیص احساسات (ERT) در واقع یک صنعت رو به رشد چند میلیارد دلاری است. هدف استفاده از هوش مصنوعی برای تشخیص احساسات ناشی از حالات صورت است. با این حال ، علم پشت سیستم های تشخیص احساسات بسیار بحث برانگیز است.
تصور کنید در مصاحبه شغلی هستید ، همانطور که به سوالات استخدام کننده پاسخ می دهید ، یک سیستم هوش مصنوعی (AI) چهره شما را اسکن می کند . او شما را از نظر عصبی بودن ، مورد ارزیابی قرار می دهد. ممکن است شبیه داستان های علمی تخیلی به نظر برسد ، اما از این سیستم ها به طور فزاینده ای استفاده شده است . که اغلب بدون اطلاع یا رضایت مردم می باشند.

اهمیت فناوری تشخیص چهره در دنیای بازاریابی :
بسیاری از شرکت ها از ERT برای آزمایش واکنش مشتریان نسبت به محصولات خود، از خوراکی ها تا بازی های ویدئویی استفاده می کنند. اما هوش مصنوعی همچنین می تواند در مواردی با ریسک بسیار بالاتر، کاربرد داشته باشد. به طور مثال : استخدام توسط امنیت فرودگاه برای نشان دادن چهره ها به عنوان تقلب یا ترس، کنترل مرزها در مراکز پلیس برای شناسایی “افراد خطرناک” یا در آموزش برای نظارت بر مشارکت دانش آموزان.
افشاگری در مورد سوگیری الگوریتمی و مجموعه داده های تبعیض آمیز در فناوری تشخیص چهره باعث شده است که شرکت های بزرگ فناوری از جمله مایکروسافت ، آمازون و IBM فروش خود را متوقف کنند. در اتحادیه اروپا ، ائتلافی از بیش از 40 سازمان جامعه مدنی خواستار ممنوعیت کامل فناوری تشخیص چهره شده اند.
مانند سایر اشکال تشخیص چهره، ERT نیز سوالاتی در مورد جانبداری، حفظ حریم خصوصی و نظارت جمعی ایجاد می کند. اما ERT نگرانی دیگری را نیز مطرح می نماید: علم احساسات در پشت آن بحث برانگیز است. بیشتر ERT مبتنی بر نظریه “احساسات اساسی” است که معتقد است احساسات از نظر بیولوژیکی قوی هستند و توسط افراد در همه جا به یک شکل بیان می شوند.
اگر فناوری تشخیص چهره(ERT) آنطور که باید کار نکنند آیا ممکن است خطرناک باشند ؟
تحقیقات انسان شناسی نشان می دهد که احساسات در فرهنگ ها و جوامع متفاوت بیان می شود. در سال 2019 ، انجمن علوم روانشناسی با بازبینی شواهد، به این نتیجه رسید که هیچ فرضیه رایجی مبنی بر اینکه می توان به آسانی احساسات فرد را از حرکات صورت او استنباط کرد ، وجود ندارد. به طور خلاصه، برخی عقیده دارند که ERT بر روی زمینه های متزلزل علمی ساخته شده است.
سوگیری نژادی در فناوری تشخیص چهره(ERT):
ایرادات فناوری تشخیص چهره، ERT با سوگیری نژادی کدگذاری شده است. یک مطالعه نشان داده است که سیستم ها به طور مداوم چهره افراد سیاه پوست را عصبانی تر از چهره سفیدپوستان می خوانند . صرف نظر از بیان احساسات آن شخص. اگرچه مطالعه سوگیری نژادی در ERT کوچک است ، اما سوگیری نژادی در سایر اشکال تشخیص چهره به خوبی مستند شده است.
دبورا راجی ، محقق هوش مصنوعی در مصاحبه ای با MIT Technology Review می گوید: دو وضعیت وجود دارد که این فناوری می تواند به مردم آسیب برساند: “یکی زمانی است که فناوری درست کار نمی کند، یعنی به دلیل داشتن خطاهای بالاتر برای افراد رنگین پوست ، آنها را در معرض خطر بیشتری قرار می دهد. وضعیت دوم زمانی است که کاملا درست کار می کند، جایی که شما سیستم تشخیص چهره کامل دارید ، اما به راحتی می توان علیه جوامع سلاح ایجاد کرد تا آنها را مورد آزار و اذیت قرار داد. “
بنابراین حتی اگر فناوری تشخیص چهره برای همه افراد بی طرفانه و دقیق باشد ، باز هم ممکن است عادلانه یا منصفانه نباشد. وقتی از فناوری تشخیص چهره در پلیس و سیستم های قضایی استفاده می شود که قبلاً برای افراد رنگین پوست تبعیض آمیز بوده و مضر است ، این تأثیرات متفاوت را مشاهده می کنیم. وقتی فناوری ها آنطور که باید کار نکنند می توانند خطرناک باشند. و همچنین زمانی می توانند خطرناک باشند که در راستای هدفی غیرانسانی به طور کامل کار کنند.
چالش های ناشی از فناوری های تشخیص چهره – از جمله ERT – در حال حاضر پاسخهای آسان و روشنی ندارند.
وقتی صحبت از ERT می شود، باید به طور جمعی علم بحث برانگیز احساسات ساخته شده در سیستم ها را بررسی کنیم. ابتدا باید پتانسیل آنها را برای سوگیری نژادی تجزیه و تحلیل کنیم. ما باید از خود بپرسیم: حتی اگر ERT بتواند دقیقاً احساسات درونی همه را بخواند، آیا ما چنین نظارت عمیقی را در زندگی خود می خواهیم؟ اینها سولاتی هستند که نیاز به تأمل، نظر و اقدام همگان دارند.
ERT به طور بالقوه می تواند زندگی میلیون ها نفر را تحت تأثیر قرار دهد ، اما هنوز در مورد چرایی و چگونگی استفاده از آن بحث عمومی کمی انجام شده است.
برگرفته شده از: