کلاهبرداری با صدای جعلی؛ تهدید تازه هوش مصنوعی
سیتنا: متخصصان علوم رایانهای بر این باورند که شبیهسازی جعلی صدا توسط هوش مصنوعی عملا کار دشواری نیست و ممکن است در آیندهای نزدیک، از این موضوع برای کلاهبرداری از افراد استفاده شود. متیو رایت، مدیر بخش علوم رایانهای موسسه فناوری روچستر تصریح کرد که این نرمافزارها برای یک جعل تمیز و بینقص، به در اختیار داشتن صداهای بسیاری از افراد نیاز ندارند. به گفته او، برای مثال شما میتوانید فقط با افراد تماس بگیرید و وانمود کنید فروشندهاید و با همین مکالمه، به اندازه کافی صدای فرد مقابل را ضبط کنید. کارشناسان هشدار میدهند که افراد باید مراقب تماسهای غیرمنتظره و فوری برای درخواست پول از طرف عزیزان یا محل کارشان باشند و پیش از هر اقدامی، با طرح سوالات شخصی، از صحت هویت افراد تماسگیرنده اطمینان حاصل کنند. از دیگر موارد سوءاستفاده از چنین صداهای جعل شدهای میتوان به پخش اطلاعات نادرست اشاره کرد. به عنوان مثال، این فناوری ممکن است کاری کند مردم باور کنند یک سیاستمدار اظهارات تکاندهندهای بیان کرده است.