در حال حاضر شرکت‌های فعال در حوزه‌های مختلف، از یادگیری ماشین برای تحلیل داده‌های مربوط به علایق انسان‌ها استفاده می‌کنند تا بتوانند محصولات پر فروش‌تری را به بازار بفرستند یا تبلیغات مرتبط‌تری را به آن‌ها نمایش دهند. حال با پر رنگ‌ شدن تمایل شهروندان به حفظ حریم خصوصی، یک سوال بزرگ شکل گرفته است؛ آیا ماشین‌ها را می‌توان به فراموشی مجبور کرد؟

برای پیگیری این موضوع، یک حوزه مطالعاتی جدید در علوم کامپیوتر شکل گرفته که machine unlearning نام دارد. این حوزه جدید که ما برای آسانی کار به آن فراموشی ماشین خواهیم گفت، تلاشی برای حذف کردن تمام اطلاعات به دست آمده از یک فرد یا دیتای خاص از روی نرم‌افزارهای هوش مصنوعی به حساب می‌آید؛ البته بدون اینکه عملکرد دستگاه مختل شود.

اگر تحقیقات در این حوزه نوپا به پیشرفت‌هایی دست پیدا کنند، افراد خواهند توانست تا روی اطلاعات خود در جهان اینترنت کنترل بهتری داشته باشند و از ارزش‌هایی که دیتای مربوط به آن‌ها برای شرکت‌های ذی‌نفع ایجاد کرده، بیشتر از قبل مطلع شوند. هم‌اکنون ما چیز زیادی از الگوریتم‌های تحلیل داده شرکت‌هایی مانند گوگل نمی‌دانیم و چندان اطلاعی از روش‌های تحلیل توسعه داده شده به وسیله آن‌ها نداریم.

Machine-Unlearning1.jpg

با این حال، فراموشی ماشین نیاز به به وجود آمدن ایده‌های جدیدی در علوم کامپیوتر دارد و بدون سرمایه‌گذاری‌های بزرگ ممکن نیست. شرکت‌های فناوری سالانه میلیون‌ها دلار برای بهبود سیستم‌های یادگیری ماشین خود هزینه می‌کنند، زیرا این الگوریتم‌ها می‌توانند کار را با سرعتی چند برابر انسان‌ها به انجام برسانند. 

الگوریتمی که با میلیون‌ها یا میلیاردها داده مختلف تمرین داده شده را نمی‌توان به آسانی به حالت اولیه بازگرداند. در حال حاضر برای حذف تاثیر اطلاعات از یک سیستم، باید آن را از اول پایه‌ریزی کرد که این امر زمان و پول زیادی را طلب می‌کند.

کارهای تحقیقاتی حوزه فراموشی ماشین از همین نقطه آغاز می‌شوند؛ پیدا کردن راهی برای حذف اطلاعات و تاثیر آن‌ها بر روی یک الگوریتم یادگیری ماشین، بدون نیاز به بازگرداندن آن به نقطه اول. فراموشی ماشین بر اساس مشکلات ایجاد شده برای کاربران و شرکت‌ها در حوزه حفظ حریم خصوصی شکل گرفته است.

Machine-Unlearning2.jpg

در حال حاضر رگولاتورهای کشورهای اتحادیه اروپا و ایالات متحده به کاربران اجازه می‌دهند تا نظر خود در مورد اطلاعاتی که در اختیار شرکت‌های گذاشته‌اند را تغییر دهند و خواهان حذف آن‌ها شوند. همین مشکلات قانونی موجب شده تا کمپانی‌های بزرگ علاوه بر یادگیری ماشین، تمایل داشته باشند تا روی حوزه فراموشی ماشین نیز سرمایه‌گذاری کنند.

باید به این نکته اشاره کنیم که مهندسان و دانشمندان داده تاکنون برخی از چالش‌های عملی و ریاضیاتی مربوط به این حوزه را حل کرده‌اند و می‌توانند برخی اطلاعات مربوط به کاربران را تحت شرایطی خاص و بدون آسیب رساندن به یک الگوریتم، از آن پاک کنند. با این حال مانند هر فناوری نوپای دیگری، تکنیک‌های فراموشی ماشین در حال حاضر کارایی بالایی ندارند.

بر اساس یکی از این تکنیک‌ها که در سال 2019 توسط دانشگاه تورنتو ابداع شد، پروژ‌ه‌های جدید یادگیری ماشین به چندین بخش مجزا تقسیم می‌شوند تا در صورت نیاز به حذف کامل یک داده خاص از سیستم، تنها بخش کوچکی از اطلاعات برای همیشه از دست بروند و الگوریتم کلی، تا حد زیادی دست نخورده باقی بماند.

دانشگاه‌های استنفورد و واترلو نیز در همکاری با یکدیگر، در حال محاسبه میزان تاثیر واقعی فراموشی ماشین بر روی عملکرد نرم‌افزارهای هوش مصنوعی هستند. این تحقیقات به رگولاتورها کمک می‌کنند تا بفهمند یک الگوریتم یادگیری ماشین، واقعاً بخشی از داده‌ها را فراموش کرده است یا خیر.

در همین رابطه بخوانید:

هوش مصنوعی پنتاگون آینده را پیش‌بینی می‌کند
فناوری هوش مصنوعی اولین بازی ویدئویی خود را تولید کرد

در اخر باید بدانیم که همین دلایل رگولاتوری باعث شده تا شرکت‌هایی مانند گوگل، اپل و مایکروسافت روش جدیدی به Differential privacy را به کار گیرند که با ایجاد شرط‌ها و مرزهای ریاضی، امکان لو رفتن اطلاعات کاربران را تا حد زیادی محدود می‌کند.

البته بعضی از کارشناسان نیز به فراموشی ماشین باور ندارند و بیشتر آن را نمایشی می‌دانند که شرکت‌های بزرگ برای دادن حس امنیت به کاربران و رگولاتورها راه انداخته‌اند.

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0
نظر شما پس از تایید مدیر منتشر خواهد شد.
  • هیچ نظری یافت نشد

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید