فناوری که از جعل صدای شما جلوگیری میکند
تاریخ انتشار: ۸ آذر ۱۴۰۲ | کد خبر: ۳۹۱۸۹۱۸۳
یکی از تواناییهای سیستمهای هوش مصنوعی جعل عمیق توانایی شبیهسازی صدای افراد، حتی بر اساس یک فایل ضبط شده کوتاه از صدای اصلی است که میتواند برای مقاصد شرورانه مورد سواستفاده قرار بگیرد. با این حال، یک نرمافزار جدید به نام ضدجعل(AntiFake) میتواند به جلوگیری از وقوع آن کمک کند.
به گزارش ایران اکونومیست و به نقل از نیواطلس، در سایر قابلیتهای هوش مصنوعی، از نسخههای جعلی صدای افراد به همراه ویدیوهای جعلی میتوان به گونهای استفاده کرد که به نظر برسد گویی یک سیاستمدار یا شخصیت مشهور چیزی را گفته که هرگز در واقعیت نگفته است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
علاوه بر این مواردی وجود داشته که افراد تماسهای تلفنی دریافت کردهاند که در آن صدای جعلی یکی از دوستان یا اعضای خانواده را شنیدهاند که از آنها خواسته تا در اسرع وقت، به دلیل شرایط اضطراری، پولی برای شخص واریز کنند. علاوه بر این، از صداهای جعلی میتوان برای دور زدن سیستمهای امنیتی تشخیص صدا استفاده کرد.
اگرچه در حال حاضر فناوریهایی طراحی شدهاند که تشخیص دهند آیا صداهای ظاهرا قانونی جعل عمیق هستند یا خیر، طبق گزارشها، آنتیفیک یکی از اولین سیستمهایی است که از تولید چنین جعلهایی در وهله اول جلوگیری میکند.
به طور خلاصه، این نرمافزار کار را با سختتر کردن خواندن ویژگیهای صوتی خاص در فایل ضبط شده صدای افراد توسط سیستمهای هوش مصنوعی انجام میدهد.
نینگ ژانگ(Ning Zhang)، مخترع، استادیار علوم و مهندسی رایانه در دانشگاه واشنگتن در سنت لویی میگوید: این ابزار از روش هوش مصنوعی مخرب استفاده میکند که در ابتدا بخشی از نرمافزارهای مجرمان سایبری بود، اما اکنون ما از آن برای دفاع در برابر آنها استفاده میکنیم.
ما سیگنال صوتی ضبط شده را اندکی تخریب میکنیم به اندازهای که همچنان برای شنوندگان انسانی درست به نظر برسد اما برای هوش مصنوعی کاملا متفاوت باشد.
این بدان معنی است که حتی اگر یک جعل عمیق از روی یک فایل ضبط شده تغییر یافته با آنتیفیک ایجاد شود، نتیجه شبیه صدای واقعی گوینده نخواهد بود. آزمایشهای انجامشده تاکنون نشان دادهاند که این فناوری بیش از ۹۵ درصد در جلوگیری از ایجاد جعلهای عمیق مؤثر بوده است.
ژانگ میگوید: اگرچه من نمیدانم در آینده در حوزه فناوری تولید صدا با هوش مصنوعی چه اتفاقی رخ میدهد زیرا ابزارها و قابلیتهای جدید همیشه در حال توسعه هستند اما من فکر میکنم استراتژی ما برای استفاده از روشهای رقبا علیه آنها همچنان موثر خواهد بود.
منبع: خبرگزاری ایسنا
منبع: ایران اکونومیست
کلیدواژه: هوش مصنوعی ضبط شده
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت iraneconomist.com دریافت کردهاست، لذا منبع این خبر، وبسایت «ایران اکونومیست» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۱۸۹۱۸۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
مایکروسافت استفاده از ابزار هوش مصنوعی تشخیص چهره را برای پلیس آمریکا ممنوع کرد
ایتنا - مایکروسافت محدودیتهایی برای پلیس آمریکا در زمینه استفاده از فناوری تشخیص چهره از طریق ابزارهای هوش مصنوعی این شرکت ایجاد کرده است.
این غول فناوری آمریکایی با بهروزرسانی شرایط عمومی استفاده از خدمات «آژور اوپنایآی» Azure OpenAI Service که به متخصصان امکان دسترسی به مدلهای زبانی و نیز تعدیل محتوا و طراحی امن برنامههای کاربردی هوش مصنوعی را میدهد، به شکلی صریح استفاده از آن توسط پلیس آمریکا ممنوع کرده است.
مایکروسافت بهعنوان شریک مؤسسهٔ پژوهشی هوش مصنوعی آمریکایی «اوپنایآی» OpenAI، تمایلی ندارد که پلیس آمریکا از سرویس هوش مصنوعی این شرکت برای تشخیص چهره استفاده کند.
طبق گزارش وبسایت تخصصی TechCrunch، این شرکت تایید کرده که با بهروزرسانی شرایط عمومی استفاده از خدمات Azure OpenAI Service، دست به اعمال چنین ممنوعیتی زده است.
این سرویس به کسبوکارها و توسعهدهندگان امکان میدهد تا به مدلهای زبانی ارائه شده از سوی «اوپنایآی» مانند «جیپیتی۴» دسترسی داشته باشند.
در نسخه بهروزرسانی شده از شرایط عمومی استفاده از خدمات «آژور اوپنایآی» آمده است که نباید از این سرویس برای مقاصد تشخیص چهره توسط یا برای یک آژانس اجرای قانون در ایالات متحده استفاده شود.
ممنوعیت صریح
مایکروسافت همچنین به صراحت اعلام کرده است که مجریان قانون مجاز به استفاده از این ابزارهای جانبی برای «هیچیک از فناوریهای تشخیص چهره در زمان واقعی روی دوربینهای موبایل (...) با هدف تلاش برای شناسایی افراد در محیطهای کنترل نشده» نیستند.
به طور مشخص، افسران پلیس که مجهز به دوربینهایی با قابلیت تشخیص چهره هستند حین انجام گشتزنی نمیتوانند از خدمات «آژور اوپنایآی» در دوربینهای خود استفاده کنند.
این ممنوعیت بر اساس به روزرسانی جدید مایکروسافت برای دوربینهایی که روی داشبورد خودرو ماموران پلیس نصب میشوند نیز لحاظ شده است.
این به روزرسانی یک هفته پس از آن صورت میگیرد که «آکسون»، سازنده محصولات فناوری و تسلیحات برای مجریان قانون، از محصول جدیدی با استفاده از «جیپیتی۴»، یک مدل زبانی تحت هوش مصنوعی رونمایی کرد.
این محصول که «درافت وان» Draft One نام دارد، ابزاری مجهز به هوش مصنوعی است که میتواند به پلیس در تهیه و تولید گزارشهایی بر اساس محتوای دوربینهای نصب شده روی یونیفورم ماموران کمک کند.
آکسون پس از آنکه «اوپنایآی» در ژانویه گذشته شرایط عمومی استفاده از خدمات خود را به روز کرد و در آن طور صریح استفاده از مدل هوش مصنوعی برای مقاصد نظامی ممنوع اعلام نشده بود، توانست از فناوری این شرکت برای توسعه محصول خود استفاده کند.
تبعات ممنوعیت اعمال شده از سوی مایکروسافت برای دسترسی ماموران پلیس و مجریان قانون به ابزارهای هوش مصنوعی تشخیص چهره هنوز مشخص نیست.
باید دید که آیا پلیس ایالات متحده راههایی برای دور زدن این ممنوعیت پیدا میکند و اینکه آیا این اقدام مایکروسافت بر سایر شرکتهایی که فناوریهای مشابهی را ارائه میکنند تأثیر میگذارد یا خیر.