استخدام “التزييف العميق” لمايكل موسلي وهيلاري جونز للترويج لعمليات الاحتيال على وسائل التواصل الاجتماعي | أخبار المملكة المتحدة


كشف تحقيق أن مايكل موسلي هو من بين عدد من أطباء التلفزيون الذين وقعوا ضحية لـ “تزييف عميق” لأنفسهم يتم تداوله على وسائل التواصل الاجتماعي لبيع منتجات احتيالية.

يتم استخدام أسماء الأسماء الموثوقة، بما في ذلك هيلاري جونز ومايكل موسلي ورانجان تشاترجي، للترويج لمنتجات تدعي أنها تعالج ارتفاع ضغط الدم والسكري، ولبيع حلوى القنب، وفقًا للمجلة الطبية البريطانية.

يتم إنشاء Deepfakes باستخدام منظمة العفو الدولية لتعيين تشابه رقمي لشخص حقيقي على مقطع فيديو لجسد ليس جسده.

من الصعب أن نقول بالضبط مدى إقناع هذه المقاطع الملفقة، لكن إحدى الدراسات الحديثة تشير إلى أن ما يصل إلى نصف الأشخاص الذين يظهرون مقاطع فيديو مزيفة تتحدث عن مواضيع علمية لا يمكنهم تمييزها عن مقاطع الفيديو الأصلية.

يبدو أن مقطع فيديو للدكتور هيلاري جونز نُشر على فيسبوك يظهر فيه وهو يروج لـ “علاج” لارتفاع ضغط الدم في برنامج لورين – لكنه لم يكن هو.

وقال الدكتور جونز لمجلة BMJ إن هذا لم يكن المنتج الوحيد الذي يتم الترويج له باستخدام اسمه، حيث أن صورته مرتبطة أيضًا بما يسمى علاجات مرض السكري وعدد كبير من حلوى القنب.

في أحد مقاطع الفيديو المزيفة، الدكتور مايكل موسلي، الذي توفي الشهر الماضي، يظهر وهو يتحدث عن “علاج” لمرض السكري يلغي الحاجة إلى حقن الأنسولين.

ولم تحدد المجلة الطبية البريطانية عدد مقاطع الفيديو التي عثرت عليها في تحقيقها.

بالنسبة للدكتور جونز، المشكلة سيئة للغاية لدرجة أنه يقوم الآن بتعيين متخصص في وسائل التواصل الاجتماعي للبحث في الإنترنت عن مقاطع الفيديو المزيفة العميقة التي تحرف وجهات نظره ويحاول حذفها.

ولكن من الصعب أن تبقى على رأس.

وقال: “لقد ظهروا في اليوم التالي تحت اسم مختلف”.

اقرأ المزيد من سكاي نيوز:
يخشى أن يكون الرجال البريطانيون المفقودون في السويد قد قُتلوا
ما مدى سخونة الطقس في وجهات العطلات الشهيرة؟

skynews-gfxwhatsapppromo-gfxwhatsapp_6490206 استخدام "التزييف العميق" لمايكل موسلي وهيلاري جونز للترويج لعمليات الاحتيال على وسائل التواصل الاجتماعي |  أخبار المملكة المتحدة
تابعوا سكاي نيوز على الواتساب

تابع آخر الأخبار من المملكة المتحدة وحول العالم من خلال متابعة Sky News

أنقر هنا

وقال هنري أجدر، الخبير في تكنولوجيا التزييف العميق: “إن التحول الديمقراطي السريع لأدوات الذكاء الاصطناعي التي يمكن الوصول إليها لاستنساخ الصوت وإنشاء الصور الرمزية قد أدى إلى تحويل مشهد الاحتيال وانتحال الشخصية”.

وأضاف أن اكتشاف التزييف العميق قد يكون أمرًا صعبًا مع تحسن التكنولوجيا.

“من الصعب تحديد مدى فعالية هذا الشكل الجديد من الاحتيال العميق، ولكن الحجم المتزايد لمقاطع الفيديو المتداولة الآن يشير إلى أن الجهات الفاعلة السيئة تحقق بعض النجاح”.

تم العثور على العديد من مقاطع الفيديو على Facebook وInstagram المملوكتين لشركة Meta. وقال متحدث باسم BMJ إنه سيحقق في مقاطع الفيديو الموضحة في التقرير.

وقال المتحدث: “نحن لا نسمح بالمحتوى الذي يخدع الآخرين أو يسعى إلى الاحتيال عليهم عمدًا، ونعمل باستمرار على تحسين الكشف والإنفاذ”.

“نحن نشجع أي شخص يرى محتوى قد ينتهك سياساتنا على الإبلاغ عنه حتى نتمكن من التحقيق واتخاذ الإجراءات اللازمة.”

Share this content:

إرسال التعليق

تصفح المزيد