در حال حاضر شرکتهای فعال در حوزههای مختلف، از یادگیری ماشین برای تحلیل دادههای مربوط به علایق انسانها استفاده میکنند تا بتوانند محصولات پر فروشتری را به بازار بفرستند یا تبلیغات مرتبطتری را به آنها نمایش دهند. حال با پر رنگ شدن تمایل شهروندان به حفظ حریم خصوصی، یک سوال بزرگ شکل گرفته است؛ آیا ماشینها را میتوان به فراموشی مجبور کرد؟
برای پیگیری این موضوع، یک حوزه مطالعاتی جدید در علوم کامپیوتر شکل گرفته که machine unlearning نام دارد. این حوزه جدید که ما برای آسانی کار به آن فراموشی ماشین خواهیم گفت، تلاشی برای حذف کردن تمام اطلاعات به دست آمده از یک فرد یا دیتای خاص از روی نرمافزارهای هوش مصنوعی به حساب میآید؛ البته بدون اینکه عملکرد دستگاه مختل شود.
اگر تحقیقات در این حوزه نوپا به پیشرفتهایی دست پیدا کنند، افراد خواهند توانست تا روی اطلاعات خود در جهان اینترنت کنترل بهتری داشته باشند و از ارزشهایی که دیتای مربوط به آنها برای شرکتهای ذینفع ایجاد کرده، بیشتر از قبل مطلع شوند. هماکنون ما چیز زیادی از الگوریتمهای تحلیل داده شرکتهایی مانند گوگل نمیدانیم و چندان اطلاعی از روشهای تحلیل توسعه داده شده به وسیله آنها نداریم.
با این حال، فراموشی ماشین نیاز به به وجود آمدن ایدههای جدیدی در علوم کامپیوتر دارد و بدون سرمایهگذاریهای بزرگ ممکن نیست. شرکتهای فناوری سالانه میلیونها دلار برای بهبود سیستمهای یادگیری ماشین خود هزینه میکنند، زیرا این الگوریتمها میتوانند کار را با سرعتی چند برابر انسانها به انجام برسانند.
الگوریتمی که با میلیونها یا میلیاردها داده مختلف تمرین داده شده را نمیتوان به آسانی به حالت اولیه بازگرداند. در حال حاضر برای حذف تاثیر اطلاعات از یک سیستم، باید آن را از اول پایهریزی کرد که این امر زمان و پول زیادی را طلب میکند.
کارهای تحقیقاتی حوزه فراموشی ماشین از همین نقطه آغاز میشوند؛ پیدا کردن راهی برای حذف اطلاعات و تاثیر آنها بر روی یک الگوریتم یادگیری ماشین، بدون نیاز به بازگرداندن آن به نقطه اول. فراموشی ماشین بر اساس مشکلات ایجاد شده برای کاربران و شرکتها در حوزه حفظ حریم خصوصی شکل گرفته است.
در حال حاضر رگولاتورهای کشورهای اتحادیه اروپا و ایالات متحده به کاربران اجازه میدهند تا نظر خود در مورد اطلاعاتی که در اختیار شرکتهای گذاشتهاند را تغییر دهند و خواهان حذف آنها شوند. همین مشکلات قانونی موجب شده تا کمپانیهای بزرگ علاوه بر یادگیری ماشین، تمایل داشته باشند تا روی حوزه فراموشی ماشین نیز سرمایهگذاری کنند.
باید به این نکته اشاره کنیم که مهندسان و دانشمندان داده تاکنون برخی از چالشهای عملی و ریاضیاتی مربوط به این حوزه را حل کردهاند و میتوانند برخی اطلاعات مربوط به کاربران را تحت شرایطی خاص و بدون آسیب رساندن به یک الگوریتم، از آن پاک کنند. با این حال مانند هر فناوری نوپای دیگری، تکنیکهای فراموشی ماشین در حال حاضر کارایی بالایی ندارند.
بر اساس یکی از این تکنیکها که در سال 2019 توسط دانشگاه تورنتو ابداع شد، پروژههای جدید یادگیری ماشین به چندین بخش مجزا تقسیم میشوند تا در صورت نیاز به حذف کامل یک داده خاص از سیستم، تنها بخش کوچکی از اطلاعات برای همیشه از دست بروند و الگوریتم کلی، تا حد زیادی دست نخورده باقی بماند.
دانشگاههای استنفورد و واترلو نیز در همکاری با یکدیگر، در حال محاسبه میزان تاثیر واقعی فراموشی ماشین بر روی عملکرد نرمافزارهای هوش مصنوعی هستند. این تحقیقات به رگولاتورها کمک میکنند تا بفهمند یک الگوریتم یادگیری ماشین، واقعاً بخشی از دادهها را فراموش کرده است یا خیر.
در همین رابطه بخوانید:
- هوش مصنوعی پنتاگون آینده را پیشبینی میکند
- فناوری هوش مصنوعی اولین بازی ویدئویی خود را تولید کرد
در اخر باید بدانیم که همین دلایل رگولاتوری باعث شده تا شرکتهایی مانند گوگل، اپل و مایکروسافت روش جدیدی به Differential privacy را به کار گیرند که با ایجاد شرطها و مرزهای ریاضی، امکان لو رفتن اطلاعات کاربران را تا حد زیادی محدود میکند.
البته بعضی از کارشناسان نیز به فراموشی ماشین باور ندارند و بیشتر آن را نمایشی میدانند که شرکتهای بزرگ برای دادن حس امنیت به کاربران و رگولاتورها راه انداختهاند.
نظر خود را اضافه کنید.
برای ارسال نظر وارد شوید
ارسال نظر بدون عضویت در سایت