شرکت ByteDance، غول فناوری چینی و خالق TikTok، از یک سیستم هوش مصنوعی جدید به نام OmniHuman-1 رونمایی کرده است که می‌تواند واقعی‌ترین ویدئوهای دیپ‌فیک را تا به امروز تولید کند.

تکنولوژی دیپ‌فیک به سطحی رسیده که تمایز میان واقعیت و جعل برای افراد عادی تقریباً غیرممکن شده است. سیستم جدید ByteDance قادر است تنها با استفاده از یک عکس و یک کلیپ صوتی، ویدئوهای کاملاً مصنوعی تولید کند که به طرز شگفت‌انگیزی واقعی به نظر می‌رسند. این مدل حتی می‌تواند حرکات بدن و ژست‌ها را در ویدئوهای از پیش ضبط‌شده تغییر دهد، به شکلی که کاملاً طبیعی به نظر برسند.

معرف هوش مصنوعی دیپ فیک OmniHuman-1

با وجود کیفیت فوق‌العاده این فناوری، OmniHuman-1 هنوز بی‌نقص نیست. برخی از حرکات دست و بدن در ویدئوهای تولیدشده کمی غیرطبیعی به نظر می‌رسند. برای مثال، در یکی از نمونه‌های منتشرشده، ژست دست هنگام نگه‌داشتن یک لیوان به‌درستی شبیه‌سازی نشده است. در ویدئویی دیگر، که یک سخنرانی شبیه‌سازی‌شده از آلبرت اینشتین را نشان می‌دهد، چهره او تقریباً بی‌نقص پردازش شده، اما حرکات دست‌هایش حالتی غیرعادی دارد.

با این حال، در مقایسه با تکنیک‌های پیشین، کیفیت خروجی این مدل بسیار پیشرفته‌تر به نظر می‌رسد و نشان‌دهنده گام بزرگی در دنیای دیپ‌فیک است.

OmniHuman-1 با استفاده از 18,700 ساعت داده ویدئویی و یک روش آموزشی جدید به نام "شرایط همه‌جانبه" (Omni-Conditions) آموزش دیده است. این رویکرد به مدل اجازه می‌دهد تا از منابع مختلفی مانند متن، صدا و حرکات بدن به‌طور هم‌زمان یاد بگیرد. محققان ByteDance ادعا می‌کنند که این روش باعث کاهش چشمگیر هدررفت داده در مقایسه با مدل‌های دیپ‌فیک قدیمی‌تر می‌شود.

هرچند پیشرفت‌های فناوری در حوزه هوش مصنوعی تحسین‌برانگیز است، اما پیامدهای آن نیز نگران‌کننده هستند. در سال‌های اخیر، ویدئوهای دیپ‌فیک به‌طور گسترده برای مقاصد مخرب مانند جعل هویت، کلاهبرداری‌های مالی و انتشار اطلاعات نادرست استفاده شده‌اند. در جریان انتخابات 2024، نمونه‌های متعددی از ویدئوهای دیپ‌فیک برای گمراه‌کردن رأی‌دهندگان منتشر شد. علاوه بر این، مجرمان سایبری از این فناوری برای کلاهبرداری‌های کلان مالی بهره برده‌اند؛ مانند موردی که در آن یک کلاهبردار با جعل هویت برد پیت، موفق شد 850 هزار دلار از یک قربانی اخاذی کند.

با توجه به این تهدیدات، صدها کارشناس اخلاق هوش مصنوعی سال گذشته خواستار وضع قوانین سخت‌گیرانه‌تر علیه دیپ‌فیک‌های مخرب شدند. در حال حاضر، برخی ایالت‌های آمریکا قوانینی برای مقابله با سوءاستفاده از این فناوری تصویب کرده‌اند، اما هنوز قانونی در سطح فدرال برای محدودکردن استفاده نادرست از دیپ‌فیک وجود ندارد. ایالت کالیفرنیا نیز در آستانه تصویب قانونی بود که می‌توانست به قضات اجازه دهد افراد را به حذف دیپ‌فیک‌های مخرب و پرداخت جریمه ملزم کنند، اما این طرح در مراحل قانون‌گذاری متوقف شد.

در همین رابطه بخوانید:

-  تکنولوژی دیپ فیک چیست؟ چطور DeepFake بسازیم؟

ByteDance هنوز OmniHuman-1 را به‌طور عمومی عرضه نکرده است، اما مقاله‌ای درباره این مدل منتشر کرده که جزئیات فنی آن را شرح می‌دهد. با توجه به قدرت بالای این سیستم، احتمالاً نگرانی‌های بیشتری درباره سوءاستفاده از دیپ‌فیک‌ها در آینده مطرح خواهد شد، مگر آنکه قوانین و مقررات سخت‌گیرانه‌تری برای کنترل این فناوری وضع شود.

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0
نظر شما پس از تایید مدیر منتشر خواهد شد.

نظرات (1)

  • مهمان - a+

    واقعا اینده نزدیک با فیکو هوش مصنوعی دیگه عملا خیلی راحت اخبارها و حرفهای دروغین از زبان خیلی افراد معروف دیگه امری عادی خواهد شد متاسفانه که همه به شک میندازه و هر روز بیشترو بیشتر مردم بی اعتمادتر میشن به همه چیز..

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید