رفتن به محتوای اصلی

آیا باید نگران تماس‌های صوتی جعلی باشیم؟
03.03.2024 - 09:55
  • کریس والانس
  •  

اخیرا صدایی ضبط‌ شده در پیغامی به رأی‌دهندگان آمریکایی گفت: «مهم است که رأی خود را برای انتخابات ماه نوامبر ذخیره کنید.» این صدای ضبط‌‌شده، بسیار شبیه صدای جو بایدن بود.

اما رأی‌ها نیاز به ذخیره شدن ندارند و این صدا هم‌ صدای جو بایدن نبود. به‌ احتمال‌ زیاد یک‌ صدای شبیه‌سازی‌شده (کلون شده) با کیفیت قابل‌ قبول توسط هوش مصنوعی بود.

این اتفاق ترس و نگرانی‌ها در مورد قدرت هوش مصنوعی در تولید صدای تقلبی را به‌شدت بالا برد. وقتی برای تحقیق دراین‌باره به سراغ یک شرکت امنیت سایبری رفتم، فهمیدم این نوع فنّاوری هوش مصنوعی در حال پیشرفت و قوی‌تر شدن است.

قرار شد با تلفن صحبت کنیم. مکالمه ما چنین پیش رفت:

«سلام کریس، من رافا پیلینگ از شرکت سکیور ورکس هستم. بهت زنگ زدم چون برای انجام یک مصاحبه تماس گرفته بودی. حالت چطور است؟»

گفتم ممنون خوب هستم.

آقای پیلینگ گفت: «خیلی عالی کریس. ممنون که تماس گرفتی. تا جایی که فهمیده‌ام شما به تکنیک‌های شبیه‌سازی صوتی علاقه دارید. درست است؟»

جواب دادم بله همین‌طور است و نگران سو استفاده از این تکنولوژی هستم.

گفت: «قطعاً همین‌طور است کریس. من هم همین نگرانی‌ها را دارم. بیا وقت مناسبی برای مصاحبه هماهنگ کنیم.»

اما این آقای پیلینگ واقعی نبود. این نمونه آزمایشی‌ بود که شرکت سکور ورکس برای من به نمایش گذاشته بود تا قابلیت‌های سیستم هوش مصنوعی را نشانم بدهند. سیستمی که می‌تواند به من تلفن بزند و به حرف‌های من عکس‌العمل نشان بدهد. همچنین می‌توانست صدای آقای فیلیپس را تقلید کند.

میلیون‌ها تماس تلفنی

آقای پیلینگ واقعی بعد از شنیدن این تماس تلفنی آزمایشی می‌گوید: «صدایش کمی شبیه یک استرالیایی است که کمی هم مست باشد. با این وجود به نظرم تشابه خوبی دارد.» تشابه صدا کاملاً قانع‌کننده نبود. بعضی وقت‌ها مکث‌های غیرعادی در جواب به سؤال‌ها وجود داشت که می‌شد به‌راحتی فهمید یک ربات آن‌ طرف خط است.

این تماس تلفنی با استفاده از یک پلتفرم که به‌صورت مجانی قابل‌ دسترس است برقرار شد. این پلتفرم می‌تواند تا میلیون‌ها تماس تلفنی در طول روز برقرار کند و با کارمندان هوش مصنوعی خود که صدای انسانی دارند با میلیون‌ها نفر صحبت کند.

در تبلیغات این پلتفرم آمده است که کاربرد آن برای بازیابی، آمارگیری‌ها و نظرسنجی‌ها تلفنی است.

بن جیکوب، همکار آقای پیلینگ از این تکنولوژی به‌عنوان یک نمونه مثالی استفاده کرده بود. شرکت سازنده این پلتفرم به‌ هیچ‌ وجه متهم به کار خلافی نیست و کار خطایی نکرده است. اما خود همین نشان می‌دهد نسل جدید این تکنولوژی چه قابلیت‌هایی پیدا کرده است. نقطه قوت این تکنولوژی ایجاد مکالمه بود و تمرکز اصلی آن بر تقلید صدا نیست. اما آقای جیکوب محصول دیگری را هم به ما نشان می‌دهد که می‌تواند کپی قابل قبولی از یک‌صدای بخصوص تولید کند. تنها کافی است قطعه کوچکی از فایل صوتی یک نفر را از روی یوتیوب به این برنامه بدهید.

کلاه‌بردارهای تلفنی در حال حاضر ارتشی از نیروی کار ارزان را برای ایجاد یک مرکز تماس تلفنی استخدام می‌کنند. این افراد زمان زیادی را صرف تلفن زدن به افراد مختلف می‌کنند. هوش مصنوعی می‌تواند کار این کلاه‌بردارها را هم‌ تغییر بدهد.

اگر چنین شود، می‌توان تأثیر گسترده‌تری که هوش مصنوعی می‌تواند داشته باشد را هم دید.

اطلاعات جعلی

امسال سال انتخابات سراسری مهم در کشورهایی مانند بریتانیا، ایالات‌متحده آمریکا و هند است و هم‌زمان نگرانی‌های زیادی درباره گسترش صداهای دیپ فیک وجود دارد. دیپ فیک صوتی اصطلاحی است که برای نامیدن صداهایی که به‌ دقت باهوش مصنوعی تقلید شده‌اند به کار می‌رود. صداهایی که می‌توانند برای تولید و پراکندن اطلاعات جعلی برای دست‌کاری نتایج انتخابات دموکراتیک به‌ کاربرده شوند.

سیاستمداران تراز اول در بریتانیا هدف دیپ فیک صوتی قرارگرفته‌اند. سیاستمداران دیگری از اسلواکی و آرژانتین هم دچار آن شده‌اند. مرکز ملی امنیت سایبری در مورد خطری که دیپ فیک‌های تولید شده باهوش مصنوعی می‌توانند برای انتخابات بریتانیا ایجاد کنند، هشدار جدی داده است.

لورنا مارتینز در شرکت لاجیکالی فکت کار می‌کند که تلاش دارد با اطلاعات جعلی در اینترنت مقابله کند. او به بی‌بی‌سی می‌گوید دیپ فیک‌های صوتی نه‌ تنها در حال گسترش هستند، تشخیص واقعی یا جعلی بودنشان در مقایسه با دیپ فیک‌های تصویری پیچیده‌تر است.

او می‌گوید: «اگر کسی بخواهد دیپ فیک صوتی که ساخته را پنهان کند، راحت‌تر می‌تواند این کار را انجام دهد چون تکنولوژی و ابزارهای کم‌تری برای حقیقت‌یابی دیپ فیک صوتی در دسترس است.»

آقای پیلینگ می‌گوید تا شما بخواهید جعلی بودن صدا را افشا کنید، فایل صوتی همه‌ جا پخش‌شده است.

خانم مارتینز که تجربه‌هایی در توئیتر برای کشف اطلاعات جعلی داشته است، می‌گوید در یک سال آینده، وقتی نصف جمعیت جهان قرار است پای صندوق‌های رأی بروند، شرکت‌های رسانه‌های اجتماعی باید کارهای بسیار بیشتری برای مبارزه با اطلاعات جعلی انجام بدهند.

او از تولیدکنندگان تکنولوژی‌های هوش مصنوعی خواست «قبل از در دسترس قرار دادن ابزارهایشان به فکر راه‌هایی برای پیشگیری از سو استفاده از آن‌ها باشند نه اینکه بعد از در دسترس قرار گرفتن برنامه‌ها، سعی کنند سو استفاده‌های پیش‌ آمده را رفع‌ و رجوع کنند. این اتفاقی بود که در مورد چت بات‌ها افتاد.»

کمیته انتخابات که مسئول مراقبت از سلامت انتخابات در بریتانیا است می‌گوید «فراگیر شدن استفاده از هوش مصنوعی نگرانی‌های جدی در مورد اینکه رأی‌دهندگان در دوران انتخابات به کدام‌یک از اطلاعاتی که می‌بینند یا می‌شنوند می‌توانند اعتماد کنند و به کدام نمی‌توانند اعتماد کنند ایجاد کرده است.»

این کمیته می‌گوید با دیگر گروه‌های ناظر وارد همکاری شده است تا بتوانند فرصت‌ها و خطرهای ناشی از هوش مصنوعی را بهتر درک کنند.

اما سام جفرسون، مؤسس شرکت چه کسی مرا هدف قرار می‌دهد، که تبلیغات سیاسی را رصد می‌کند، معتقد است باید به خاطر داشته باشیم که چهارچوب و فرآیندهای دموکراتیک در بریتانیا بسیار محکم و مقاوم هستند.

او می‌گوید بهتر است با موج بدبینی افراطی که می‌خواهد القا کند دیپ فیک‌های می‌توانند ما را به هر نوع اطلاعاتی بی‌اعتماد کند، مقابله کنیم.

او می‌گوید: «باید مراقب باشیم آن‌قدر به مردم درباره هوش مصنوعی هشدار ندهیم که آن‌ها ایمان خود را به چیزهایی که می‌توانند به آن اعتماد کنند را از دست بدهند.»

دیدگاه‌ و نظرات ابراز شده در این مطلب، نظر نویسنده بوده و لزوما سیاست یا موضع ایرانگلوبال را منعکس نمی‌کند.

ایران گلوبال
برگرفته از:
بی بی سی

فیسبوک - تلگرامفیسبوک - تلگرامصفحه شما

توجه داشته باشید کامنت‌هایی که مربوط به موضوع مطلب نباشند، منتشر نخواهند شد! 

افزودن دیدگاه جدید

لطفا در صورتیکه درباره مقاله‌ای نظر می‌دهید، عنوان مقاله را در اینجا تایپ کنید

متن ساده

  • تگ‌های HTML مجاز نیستند.
  • خطوط و پاراگراف‌ها بطور خودکار اعمال می‌شوند.
  • Web page addresses and email addresses turn into links automatically.

لطفا نظر خودتان را فقط یک بار بفرستید. کامنتهای تکراری بطور اتوماتیک حذف می شوند و امکان انتشار آنها وجود ندارد.

CAPTCHA
لطفا حروف را با خط فارسی و بدون فاصله وارد کنید CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.