اخباراینترنتتکنولوژیدسته‌بندی نشده

تکنولوژِی جدید محفاظت از چهره شما در مقابل نرم افزار های تشخیص چهره

ابزاری جدید برای محافظت از خود در برابر نرم افزار تشخیص چهره که توسط محققان دانشگاه شیکاگو طراحی شده است.

ظهور سریع سیستم های تشخیص چهره ، این فناوری را در بسیاری از جنبه های زندگی روزمره ما قرار داده است ، خواه آن را بدانیم یا نه. آنچه ممکن است بیهوده به نظر برسد هنگامی که فیس بوک دوست خود را در یک عکس آپلود شده شناسایی می کند در شرکت هایی مانند Clearview AI هوش مصنوعی در تشخیص چهره ، یک شرکت خصوصی که سیستم تشخیص چهره خود را بر روی میلیاردها تصویر آموزش داده شده بدون رضایت رسانه های اجتماعی و اینترنت آموزش داده است ، بدتر می شود.

اما تاکنون ، مردم از این استفاده از تصاویر خود محافظت ناچیزی داشته اند – جدا از اینکه اصلاً عکس ها را به طور عمومی به اشتراک نمی گذارند.

یک پروژه تحقیقاتی جدید از دانشکده علوم کامپیوتر دانشگاه شیکاگو مکانیسم محافظتی قدرتمند جدیدی را ارائه می دهد. به نام Fawkes ، ابزار نرم افزاری عکس هایی را برای “فریب دادن” مدل های رایانه در حال یادگیری عمیق که تشخیص چهره را قدرت می دهند ، فریب می بخشد ، بدون اینکه تغییرات چشمگیری در چشم انسان مشاهده شود. با مشاهده عکس های پنهان به اندازه کافی ، گردشگر رایانه قادر به شناسایی یک شخص حتی از یک تصویر غیرقابل تغییر نخواهد بود ، و از حریم شخصی در مقابل هجوم غیرمجاز و مخرب محافظت می کند. این ابزار استفاده غیر مجاز از تصاویر شخصی را هدف قرار می دهد و هیچ تاثیری در مدل های ساخته شده با استفاده از تصاویر به دست آمده مشروعیت ندارد ، مانند مدل های مورد استفاده توسط اجرای قانون.

امیلی ونگر ، دانشجوی دکتری سال سوم دبیرکل و مدیر پروژه با دانشجو سال اول دکترا شاون شان گفت: “این درمورد ارائه آژانس به افراد است.” وی اظهار داشت: “ما هیچگونه تعرضی نداریم كه این امر همه نقض حریم خصوصی را برطرف كند ، و احتمالاً راه حل های فنی و قانونی نیز وجود دارد كه می تواند به سوء استفاده از این فناوری كمك كند. اما هدف Fawkes این است که به افراد قدرت لازم برای مبارزه با خود را بدهد ، زیرا در حال حاضر ، چیزی شبیه به این وجود ندارد. “

هدف Fawkes این است که به افراد قدرت لازم برای مبارزه با خود را بدهد ، زیرا در حال حاضر ، چیزی شبیه به این وجود ندارد. “

دانشجوی محقق در این زمینه امیلی ونگر

این تکنیک این واقعیت را ایجاد می کند که ماشین ها تصاویر را “متفاوت” از انسان “می بینند”. برای یک مدل یادگیری ماشین ، تصاویر به راحتی عددهایی هستند که هر پیکسل را نشان می دهند ، و سیستم هایی که به عنوان شبکه های عصبی شناخته می شوند از نظر ریاضی ویژگی هایی را که از آنها استفاده می کنند برای تمایز بین اشیا یا افراد سازمان می دهند. هنگامی که از عکسهای مختلف شخص کافی تغذیه می کنید ، این مدلها می توانند از این ویژگیهای منحصر به فرد برای شناسایی فرد در عکسهای جدید ، تکنیکی که برای سیستمهای امنیتی ، تلفنهای هوشمند و بطور روزافزون استفاده می شود ، اجرای قانون ، تبلیغات و سایر برنامه های بحث برانگیز استفاده کنند.

با نام Fawkes for برای ماسک گای Fawkes که توسط انقلابیون در رمان گرافیکی V برای Vendetta —Wenger و Shan با همکاران جییون ژانگ ، Huiying لی و استادان UChicago استفاده می شود بن ژائو و هدر ژنگ از این تفاوت بین ادراک انسان و کامپیوتر برای محافظت از حریم شخصی سوء استفاده می کنند . با تغییر درصد کمی از پیکسل ها به طرز چشمگیری تغییر در درک فرد توسط “چشم” کامپیوتر ، رویکرد مدل تشخیص چهره را تضعیف می کند ، به گونه ای که عکس های واقعی کاربر را با هویت شخص دیگری برچسب می زند. اما برای یک ناظر انسانی تصویر بدون تغییر ظاهر می شود.

تصاویر پنهان برای مسدود کردن تشخیص چهره


عکس اصلی و پنهان از نویسندگان مطالعه نشان می دهد که چگونه تغییرات ارائه شده توسط Fawkes در بینندگان بشر در حالی که مختل نرم افزار تشخیص چهره است ، برای بینندگان انسان نامرئی است. اعتبار: از حسن نیت ارائه دهنده آزمایشگاه SAND در UChicago

محققان در مقاله ای که در سمپوزیوم امنیتی USENIX ماه آینده ارائه خواهد شد ، دریافتند که این روش تقریباً ۱۰۰ درصد در جلوگیری از تشخیص مدلهای برتر از آمازون ، مایکروسافت و سایر شرکت ها مؤثر است. نویسندگان گفتند ، گرچه نمی تواند مدلهای موجود را که قبلاً روی تصاویر بدون تغییر از اینترنت بارگیری شده اند ، مختل کند ، انتشار تصاویر پنهان می تواند “ردپای آنلاین” یک شخص را پاک کند ، و این باعث می شود مدلهای آینده نتوانند آن شخص را تشخیص دهند.

“در بسیاری از موارد ، ما همه تصاویر خودمان را به صورت آنلاین کنترل نمی کنیم. شان می گوید ، برخی از آنها می توانند از یک منبع عمومی ارسال شده یا توسط دوستان ما ارسال شوند. ” “در این سناریو ، Fawkes موفق می شود که تعداد تصاویر پنهان از تعداد تصاویر بدون پرده بیشتر باشد. بنابراین برای کاربرانی که از قبل تصاویر زیادی به صورت آنلاین دارند ، یکی از راه های بهبود محافظت از آنها ، انتشار تصاویر حتی بیشتر از خود ، همه پوشانده شده ، برای تعادل نسبت است. “

در اوایل ماه اوت ، فاوکس در نیویورک تایمز به نمایش درآمد . با این حال ، محققان چند نکته را از این قطعه روشن کردند. از ۳ آگوست ، این ابزار نزدیک به ۱۰۰،۰۰۰ بار جمع آوری کرده بود ، و تیم نرم افزار را به روز کرده بود تا از تحریف های مهم شرح داده شده توسط مقاله ، که بخشی از آن به دلیل برخی از نمونه های دور افتاده در یک مجموعه داده عمومی بود ، جلوگیری کند.

ژائو همچنین در پاسخ به ادعای مدیرعامل Clearview هوآن تن- این ادعا را با توجه به میلیاردها تصویر از شرکت قبلاً جمع آوری شده ، خیلی دیر برای چنین فناوری است و شرکت می تواند از Fawkes برای بهبود توانایی مدل خود در رمزگشایی تصاویر تغییر یافته استفاده کند.

ژائو گفت: “Fawkes مبتنی بر یک حمله مسمومیت است.” وی گفت: “آنچه مدیرعامل Clearview پیشنهاد كرده است ، مشابه تمرینات مخالف است كه علیه یك حمله مسمومیت مؤثر نیست. آموزش مدل خود بر روی تصاویر پنهان ، این مدل را خراب می کند ، زیرا مدل او نمی داند کدام عکس ها برای هر کاربر تنها پوشیده شده است ، و به مراتب کمتر از صدها میلیون هدفمند.

“در مورد میلیارد ها تصویر در حال حاضر آنلاین ، این عکس ها در میلیون ها کاربر پخش شده است. عکسهای افراد دیگر روی اثربخشی پالتو شما تأثیری ندارد ، بنابراین تعداد کل تصاویر بی ربط است. با گذشت زمان ، تصاویر پنهان شما بیشتر از تصاویر قدیمی تر خواهد بود و پنهان کاری اثر مورد نظر خود را خواهد داشت. “

برای استفاده از Fawkes ، کاربران قبل از ارسال آنها در یک سایت عمومی ، به سادگی نرم افزار cloaking را روی عکس ها اعمال می کنند. در حال حاضر این ابزار برای کاربران آشنا با استفاده از رابط خط فرمان در رایانه خود در وب سایت پروژه رایگان و در دسترس است . این تیم همچنین آن را به عنوان نرم افزاری برای سیستم عامل های Mac و PC در دسترس قرار داده است و امیدوار است که سیستم عامل های اشتراک عکس یا رسانه های اجتماعی ممکن است آن را به عنوان گزینه ای برای کاربران خود ارائه دهند.

“این اساساً نوار نظارت عمومی را مجدداً تنظیم می کند … زمین بازی را حتی کمی هموار می کند.”

rofProf. بن ژائو

“این اساساً نوار نظارت عمومی را به روزهای مدل شناخت چهره قبل از عمیق باز می گرداند. این بازی فقط کمی بازی می کند ، برای جلوگیری از این که شرکت های غنی از منابع مانند Clearview از ایجاد اختلال در امور جلوگیری کنند ، “گفت: ژائو ، استاد علوم کامپیوتر Neubauer و متخصص امنیت یادگیری ماشین. “اگر این امر در رسانه های اجتماعی گسترده تر یا اکوسیستم اینترنت یکپارچه شود ، واقعاً می تواند یک ابزار مؤثر برای شروع مقابله با این نوع الگوریتم های مزاحم باشد.”

با توجه به بازار بزرگ نرم افزارهای تشخیص چهره ، این تیم انتظار دارد که توسعه دهندگان مدل سعی کنند با حمایت های شبدر ارائه شده توسط Fawkes سازگار شوند. اما در درازمدت ، این استراتژی وعده را به عنوان یک مانع فنی فراهم می کند تا تشخیص چهره را دشوارتر و گران تر از آن کند که شرکت ها بتوانند بدون رضایت کاربر ، به طور موثر اجرا کنند ، و این انتخاب را برای مشارکت دوباره در دست عموم قرار می دهد.

ژائو گفت: “من فکر می کنم اقدامات متقابل کوتاه مدت وجود داشته باشد ، جایی که مردم چیزهای کمی برای شکستن این رویکرد به وجود می آورند.” “اما در دراز مدت ، من معتقدم که ابزارهای اصلاح تصویر مانند Fawkes همچنان نقش مهمی در محافظت از ما در برابر سیستمهای یادگیری ماشین به طور فزاینده ای دارند.”

منبع

https://scitechdaily.com/fawkes-a-new-software-tool-cloaks-your-images-to-trick-facial-recognition-algorithms/

نوشته های مشابه

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

همچنین ببینید
بستن
دکمه بازگشت به بالا
بستن
بستن