ربع المشاركين في استطلاع أكدوا تعرضهم لمحاولة احتيال

حذّر أحد البنوك البريطانية من أن ملايين” الأشخاص حول العالم قد يقعون ضحايا لعمليات احتيال تستخدم الذكاء الاصطناعي لاستنساخ أصواتهم.

ووفق بيان، قال “ستارلينغ بنك”، وهو مقرض عبر الإنترنت فقط، إن المحتالين قادرون على استخدام الذكاء الاصطناعي لتقليد صوت الشخص من خلال ثلاث ثوانٍ فقط من الصوت الموجود، على سبيل المثال، في مقطع فيديو نشره الشخص عبر الإنترنت.

وقال انه يمكن للمحتالين بعد ذلك التعرف على أصدقاء الشخص وأفراد أسرته واستخدام الصوت المستنسخ من الذكاء الاصطناعي لإجراء مكالمة هاتفية لطلب المال. وأشار إلى أن هذه الأنواع من عمليات الاحتيال لديها القدرة على الاحتيال والنصب على ملايين الأشخاص.

ووفقًا لاستطلاع شمل أكثر من 3000 شخص بالغ أجراه البنك بالتعاون مع “مورتار ريسيرش” الشهر الماضي، قال أكثر من ربع المشاركين في الاستطلاع، إنهم تم استهدافهم من خلال عملية احتيال لاستنساخ الصوت باستخدام الذكاء الاصطناعي في الأشهر الـ 12 الماضية.

وأظهر الاستطلاع أيضًا أن 46% من المشاركين لم يكونوا على علم بوجود مثل هذه الاحتيالات، وأن 8% سيرسلون أكبر قدر من الأموال حسب طلب صديق أو أحد أفراد العائلة، حتى لو ظنوا أن المكالمة تبدو غريبة.

وقالت كبيرة مسؤولي أمن المعلومات في بنك ستارلينج، ليزا جراهام: “ينشر الأشخاص بانتظام محتوى عبر الإنترنت يحتوي على تسجيلات لأصواتهم، دون أن يتخيلوا أبدًا أن ذلك يجعلهم أكثر عرضة للمحتالين”.

ويشجع البنك الأشخاص على الاتفاق على “عبارة آمنة” مع عملائه – عبارة بسيطة وعشوائية يسهل تذكرها وتختلف عن كلمات المرور الأخرى الخاصة بهم – والتي يمكن استخدامها للتحقق من هويتهم عبر الهاتف.

وينصح المُقرض البريطاني بعدم مشاركة العبارة الآمنة عبر النص، مما قد يسهل على المحتالين اكتشاف ذلك، ولكن إذا تمت مشاركتها بهذه الطريقة، فيجب حذف الرسالة بمجرد أن يراها الشخص الآخر.

ومع تزايد مهارة الذكاء الاصطناعي في تقليد الأصوات البشرية، تتزايد المخاوف بشأن قدرته على إيذاء الناس، على سبيل المثال، من خلال مساعدة المجرمين على الوصول إلى حساباتهم المصرفية، ونشر المعلومات المضللة.

في وقت سابق من هذا العام، كشفت شركة “أوبن آول”، الشركة المصنعة لروبوت الدردشة “شات جي بي تي” الذي يعمل بالذكاء الاصطناعي، عن أداة النسخ الصوتي الخاصة بها “فويس إنجين” لكنها لم تجعلها متاحة للجمهور في تلك المرحلة، مشيرة إلى “احتمال إساءة استخدام الصوت الاصطناعي”.

المصدر: العربية

شاركها.

التعليقات مغلقة.

Exit mobile version