فهرست مطالب:

تقلبی عمیق: Neuroset برای تولید جعلی صدا و ویدئو آموزش داده شد
تقلبی عمیق: Neuroset برای تولید جعلی صدا و ویدئو آموزش داده شد

تصویری: تقلبی عمیق: Neuroset برای تولید جعلی صدا و ویدئو آموزش داده شد

تصویری: تقلبی عمیق: Neuroset برای تولید جعلی صدا و ویدئو آموزش داده شد
تصویری: اگه علت آمدن مورچه ها در خانه رو بشنوین، حتما تعجب میکنین! - داستان شگفت انگیز مورچه ها | ISA TV 2024, ممکن است
Anonim

برای ایجاد یک تصویر خبری «انفرادی» برای هر یک از ما و جعل گزارش های رسانه ای انتخاب شده در آن، امروز تلاش یک برنامه نویس کافی است. متخصصان هوش مصنوعی و امنیت سایبری در این باره به ایزوستیا گفتند.

اخیراً، آنها برآورد کردند که این امر مستلزم کار چندین تیم است. چنین شتابی با توسعه فناوری‌هایی برای حملات به شبکه‌های عصبی و تولید جعلی‌های صوتی و تصویری با استفاده از برنامه‌هایی برای ایجاد «جعل عمیق» امکان‌پذیر شده است. روزنامه ایزوستیا اخیراً مورد حمله مشابهی قرار گرفت، زمانی که سه پورتال خبری لیبی بلافاصله پیامی را منتشر کردند که ظاهراً در یکی از شماره ها آمده است. به گفته کارشناسان، ظرف 3 تا 5 سال می توان انتظار تهاجم دستکاری های رباتیک را داشت که به طور خودکار قادر به ایجاد تعداد زیادی تقلبی هستند.

دنیای جدید شجاع

پروژه های بیشتری وجود دارد که تصویر اطلاعات را با درک کاربران خاص تنظیم می کند. یکی از نمونه های کار آنها، اقدام اخیر سه پورتال لیبیایی بود که اخباری را منتشر کردند که ظاهراً در شماره ایزوستیا در 20 نوامبر منتشر شده بود. سازندگان این جعلی صفحه اول روزنامه را اصلاح کردند و در آن پیامی درباره مذاکرات فیلد مارشال خلیفه حفتر و نخست وزیر دولت وفاق ملی (PNS) فایز سراج منتشر کردند. جعلی، با حروف الفبای ایزوستیا، با عکسی از این دو رهبر که در ماه می 2017 گرفته شده بود، همراه بود. برچسب با آرم نشریه از شماره واقعی منتشر شده 20 نوامبر و سایر متون موجود در صفحه از شماره 23 اکتبر بریده شده است.

از دیدگاه متخصصان، در آینده ای قابل پیش بینی، چنین جعل هایی می تواند به طور خودکار انجام شود.

نمایش ترومن - 2019: چگونه شبکه های عصبی به جعل تصویر اخبار آموزش دادند
نمایش ترومن - 2019: چگونه شبکه های عصبی به جعل تصویر اخبار آموزش دادند

یوری ویلسیتر، دکترای علوم فیزیکی و ریاضی، پروفسور آکادمی علوم روسیه، رئیس بخش FSUE "GosNIAS" گفت: "فناوری های هوش مصنوعی اکنون کاملاً باز هستند و دستگاه های دریافت و پردازش داده ها کوچک شده و ارزان تر می شوند." به ایزوستیا گفت. - بنابراین، به احتمال زیاد در آینده نزدیک، نه دولت و شرکت های بزرگ، بلکه صرفاً افراد خصوصی قادر به استراق سمع و جاسوسی از ما و همچنین دستکاری واقعیت خواهند بود. در سال های آینده، با تجزیه و تحلیل ترجیحات کاربر، می توان از طریق فیدهای خبری و جعلی های بسیار هوشمندانه بر او تأثیر گذاشت.

به گفته یوری ویلسیتر، فناوری هایی که می توان برای چنین مداخله ای در محیط ذهنی مورد استفاده قرار داد، از قبل وجود دارد. او گفت که از نظر تئوری، هجوم ربات های رباتیک را می توان در چند سال آینده انتظار داشت. یک نقطه محدود در اینجا ممکن است نیاز به جمع آوری پایگاه های داده بزرگ از نمونه هایی از پاسخ های واقعی افراد به محرک های مصنوعی با ردیابی پیامدهای بلند مدت باشد. چنین ردیابی احتمالاً به چندین سال تحقیق بیشتر نیاز دارد تا حملات هدفمند به طور مداوم به دست آیند.

حمله بینایی

الکسی پارفنتیف، رئیس بخش تجزیه و تحلیل SearchInform نیز با یوری ویلسیتر موافق است. به گفته وی، کارشناسان در حال حاضر حملات به شبکه های عصبی را پیش بینی می کنند، اگرچه اکنون عملاً چنین نمونه هایی وجود ندارد.

- محققان گارتنر بر این باورند که تا سال 2022، 30 درصد از تمام حملات سایبری با هدف خراب کردن داده‌هایی که شبکه عصبی بر روی آنها آموزش دیده‌اند و سرقت مدل‌های یادگیری ماشینی آماده انجام می‌شود. سپس، برای مثال، وسایل نقلیه بدون سرنشین می توانند ناگهان عابران پیاده را با اشیاء دیگر اشتباه بگیرند. این کارشناس معتقد است که ما در مورد ریسک مالی یا اعتباری صحبت نمی کنیم، بلکه در مورد زندگی و سلامت مردم عادی صحبت خواهیم کرد.

حملات به سیستم های بینایی کامپیوتری در حال حاضر به عنوان بخشی از تحقیقات انجام می شود. هدف از چنین حملاتی این است که شبکه عصبی چیزی را در تصویر تشخیص دهد که وجود ندارد. یا برعکس، نبینید چه برنامه ریزی شده است.

نمایش ترومن - 2019: چگونه شبکه های عصبی به جعل تصویر اخبار آموزش دادند
نمایش ترومن - 2019: چگونه شبکه های عصبی به جعل تصویر اخبار آموزش دادند

ولادیسلاو توشکنوف، تحلیلگر وب در آزمایشگاه کسپرسکی توضیح داد: «یکی از موضوعاتی که به طور فعال در حال توسعه در زمینه آموزش شبکه های عصبی است، حملات به اصطلاح خصمانه («حملات متخاصم.» - ایزوستیا) است. - در بیشتر موارد سیستم های بینایی کامپیوتری را هدف قرار می دهند. برای انجام چنین حمله ای در بیشتر موارد باید به شبکه عصبی (به اصطلاح حملات جعبه سفید) یا نتایج کار آن (حملات جعبه سیاه) دسترسی کامل داشته باشید. هیچ روشی وجود ندارد که بتواند هر سیستم بینایی کامپیوتری را در 100٪ موارد فریب دهد. علاوه بر این، ابزارهایی ساخته شده اند که به شما امکان می دهد شبکه های عصبی را برای مقاومت در برابر حملات متخاصم آزمایش کنید و مقاومت آنها را افزایش دهید.

در جریان چنین حمله ای، مهاجم سعی می کند به نحوی تصویر شناسایی شده را تغییر دهد تا شبکه عصبی کار نکند. اغلب، نویز بر روی عکس قرار می گیرد، مشابه آنچه که هنگام عکاسی در اتاقی با نور ضعیف رخ می دهد. یک فرد معمولاً چنین تداخلی را به خوبی متوجه نمی شود، اما شبکه عصبی شروع به خرابی می کند. اما برای انجام چنین حمله ای، مهاجم نیاز به دسترسی به الگوریتم دارد.

به گفته استانیسلاو آشمانوف، مدیر کل Neuroset Ashmanov، در حال حاضر هیچ روشی برای مقابله با این مشکل وجود ندارد. علاوه بر این، این فناوری برای همه در دسترس است: یک برنامه نویس معمولی می تواند با دانلود نرم افزار منبع باز لازم از سرویس Github از آن استفاده کند.

نمایش ترومن - 2019: چگونه شبکه های عصبی به جعل تصویر اخبار آموزش دادند
نمایش ترومن - 2019: چگونه شبکه های عصبی به جعل تصویر اخبار آموزش دادند

اشمانوف معتقد است: حمله به شبکه عصبی تکنیک و الگوریتم هایی برای فریب شبکه عصبی است که باعث می شود نتایج کاذب تولید کند و در واقع آن را مانند قفل در بشکند. - به عنوان مثال، اکنون بسیار آسان است که سیستم تشخیص چهره فکر کند که این شما نیستید، بلکه آرنولد شوارتزنگر در مقابل آن هستید - این کار با مخلوط کردن مواد افزودنی غیرقابل درک برای چشم انسان در داده هایی که به شبکه عصبی می رسد انجام می شود. حملات مشابهی برای سیستم های تشخیص و تحلیل گفتار امکان پذیر است.

کارشناس مطمئن است که فقط بدتر می شود - این فناوری ها به توده ها رفته اند ، کلاهبرداران از قبل از آنها استفاده می کنند و هیچ محافظتی در برابر آنها وجود ندارد. از آنجایی که هیچ حفاظتی در برابر ایجاد خودکار جعل های ویدیویی و صوتی وجود ندارد.

تقلبی های عمیق

فن آوری های Deepfake مبتنی بر یادگیری عمیق (فناوری های یادگیری عمیق شبکه های عصبی. - Izvestia) در حال حاضر یک تهدید واقعی است. تقلبی های ویدیویی یا صوتی با ویرایش یا پوشاندن چهره افراد مشهوری که ظاهراً متن لازم را تلفظ می کنند و نقش لازم را در طرح بازی می کنند ایجاد می شود.

Andrey Busargin، مدیر بخش حفاظت از برند نوآورانه و مالکیت معنوی در Group-IB می‌گوید: «Deepfake به شما امکان می‌دهد حرکات لب و گفتار انسان را با ویدیو جایگزین کنید، که احساس واقع‌گرایی را نسبت به آنچه اتفاق می‌افتد ایجاد می‌کند. - سلبریتی های قلابی به کاربران در شبکه های اجتماعی پیشنهاد شرکت در قرعه کشی جوایز ارزشمند (گوشی های هوشمند، ماشین، مبالغ پول) و غیره را می دهند. پیوندهای چنین نشریات ویدیویی اغلب به سایت‌های کلاهبرداری و فیشینگ منجر می‌شوند، جایی که از کاربران خواسته می‌شود اطلاعات شخصی، از جمله جزئیات کارت بانکی را وارد کنند. چنین طرح هایی هم برای کاربران عادی و هم برای شخصیت های عمومی که در آگهی های بازرگانی از آنها نام برده می شود، تهدیدی است. او می‌گوید این نوع کلاهبرداری تصاویر افراد مشهور را با کلاهبرداری یا کالاهای تبلیغاتی مرتبط می‌کند، و اینجاست که ما به برند شخصی آسیب می‌زنیم.

نمایش ترومن - 2019: چگونه شبکه های عصبی به جعل تصویر اخبار آموزش دادند
نمایش ترومن - 2019: چگونه شبکه های عصبی به جعل تصویر اخبار آموزش دادند

تهدید دیگر مربوط به استفاده از «رای جعلی» برای تقلب تلفنی است. به عنوان مثال، در آلمان، مجرمان سایبری با استفاده از دیپ فیک صدا، رئیس یک شرکت تابعه از بریتانیا را وادار به انتقال فوری 220000 یورو در یک مکالمه تلفنی کردند و خود را به عنوان مدیر شرکت معرفی کردند.به حساب یک تامین کننده مجارستانی. رئیس شرکت انگلیسی زمانی که "رئیس" او درخواست حواله دوم کرد، به ترفندی مشکوک شد، اما تماس از یک شماره اتریشی بود. در این زمان، اولین قسط قبلاً به حسابی در مجارستان منتقل شده بود و از آنجا پول به مکزیک برداشت می شد.

به نظر می رسد که فناوری های فعلی به شما امکان می دهد یک تصویر خبری فردی پر از اخبار جعلی ایجاد کنید. علاوه بر این، به زودی تشخیص تقلبی از ویدیو و صدای واقعی تنها با سخت افزار امکان پذیر خواهد بود. به گفته کارشناسان، اقدامات منع توسعه شبکه های عصبی بعید است موثر باشد. بنابراین، به زودی در دنیایی زندگی خواهیم کرد که در آن لازم است دائماً همه چیز را بررسی کنیم.

یوری ویلسیتر تاکید کرد: "ما باید برای این آماده شویم و این باید پذیرفته شود." - بشریت اولین بار نیست که از یک واقعیت به واقعیت دیگر می گذرد. جهان، شیوه زندگی و ارزش‌های ما با دنیایی که اجداد ما در 60000 سال پیش، 5000 سال پیش، 2000 سال پیش و حتی 200-100 سال پیش در آن زندگی می‌کردند، تفاوت اساسی دارد. در آینده نزدیک، شخص تا حد زیادی از حریم خصوصی محروم می شود و بنابراین مجبور می شود چیزی را پنهان کند و صادقانه عمل کند. در عین حال، هیچ چیز در واقعیت اطراف و در شخصیت خود را نمی توان به ایمان گرفت، همه چیز باید مورد سؤال قرار گیرد و دائماً بررسی شود. اما آیا این واقعیت آینده وخیم خواهد بود؟ خیر به سادگی کاملاً متفاوت خواهد بود.

توصیه شده: