النصب باسم«الذكاء الاصطناعى».. «AI» يهدد بـ«تزييف كل شىء».. من الصوت والصورة إلى التوقيعات الرسمية
يشكل الذكاء الاصطناعى «Artificial Intelligence» فرصة لآلاف الأشخاص حول العالم، لتسهيل العديد من مهامهم اليومية، وتحسين جودة حياتهم، لكنه فى الوقت نفسه يمثل تحديًا كبيرًا، خاصة على أمن الأفراد الذى يعتبر أساس الأمن المجتمعى ككل.
فرغم الفوائد والمميزات التى يتيحها الذكاء الاصطناعى، فإن الجانب المظلم لتلك التكنولوجيا المتقدمة ظهر أسرع من المتوقع، وبدأ يشكل خطرًا على الأفراد والمجتمعات والمؤسسات، عبر تقنيات «التزييف العميق»، التى تمكّن المحتالين من إنتاج محتوى وهمى يُشبه الواقع، مثل الصور والفيديوهات والأصوات، واستخدامها فى عمليات النصب.
ونتجت عن إساءة استخدام تقنيات الذكاء الاصطناعى عمليات نصب واحتيال عديدة، عبر «تزييف» الفيديوهات أو التلاعب بالأصوات لابتزاز الأفراد، وسط مخاوف من أن تتطور تلك النوايا غير المحمودة لتنفيذ عمليات احتيالية واسعة النطاق، مثل تزوير التوقيعات والشهادات الرسمية.
ويتوقع خبراء التكنولوجيا تزايد هذه المشكلات فى المستقبل، خاصة مع تطور التقنيات وتوافرها بسهولة، تحديدًا فيما يتعلق بالأصوات الاصطناعية.
وشدد خبراء، فى هذا الإطار، على ضرورة توخى الحذر عند استخدام تقنيات التواصل الحديثة مثل الهواتف المحمولة وتطبيقات المحادثة، وعدم الاعتماد بشكل كامل على الأصوات المسموعة، ومحاولة التحقق من هوية المتحدث، خاصة فى المواقف الحساسة مثل العمليات المصرفية والمعاملات المالية، وغيرهما من الاحتياطات الأخرى التى نستعرضها فى السطور التالية.
قبل الكارثة «مايكروسوفت»: «المحتوى المزيف» أصبح مقلقًا.. وعلينا زيادة الحماية
قال براد سميث، رئيس شركة «مايكروسوفت»، إن أكبر مخاوفه بشأن الذكاء الاصطناعى هو تقنيات التزييف العميق والمحتوى المزيف، وذلك خلال خطاب دعا فيه إلى معالجة قضية أفضل السبل لتنظيم الذكاء الاصطناعى، نظرًا للانتشار الواسع لتقنيات «ChatGPT» من «OpenAI».
ودعا «سميث» لاتخاذ خطوات لضمان معرفة الأشخاص متى تكون الصورة، أو الفيديو، حقيقية ومتى تكون غير ذلك، أو أنه جرى إنشاؤها بواسطة الذكاء الاصطناعى ربما لأغراض خبيثة، موضحًا: «سيتعين علينا معالجة المشكلات المتعلقة بالتزييف العميق، ومعالجة ما يقلقنا على وجه الخصوص بشأن معظم عمليات التأثير السيبرانى الأجنبية، فنحن بحاجة إلى اتخاذ خطوات للحماية من تغيير المحتوى المشروع؛ بقصد خداع الأشخاص أو الاحتيال عليهم من خلال استخدام الذكاء الاصطناعى».
وأضاف: «يجب العمل على ترخيص تقنيات الذكاء الاصطناعى مع أهمية الالتزام بحماية الأمن، سواء المادى أو السيبرانى والأمن القومى». وتابع: «سنحتاج إلى جيل جديد من ضوابط التصدير، على الأقل تطور ضوابط التصدير الحالية، لضمان عدم سرقة هذه النماذج أو عدم استخدامها بطرق تنتهك متطلبات الرقابة على الصادرات فى البلاد».
شركات التكنولوجيا والاستخبارات: خطر على حياة البشر
سارعت شركات التكنولوجيا والاستخبارات إلى التحذير من تطور عمليات النصب والاحتيال عبر تقنيات الذكاء الاصطناعى، التى تتطور بوتيرة سريعة للغاية، وتنذر بفقدان السيطرة عليها فى أوقات لاحقة.
وشملت التحذيرات مخاطر تقنيات التزييف التى شاع استخدامها خلال الأشهر القليلة الماضية، والتى حال انتشارها دون ضوابط سوف تتسبب فى حالة فوضى فى كل أرجاء العالم، وتعرض حياة البشر إلى خطر لا يمكن صده.
«FBI»: ارتفاع معدلات تزييف «الصوت والصورة» للحصول على وظائف
حذر مكتب التحقيقات الفيدرالى الأمريكى «FBI» من ارتفاع معدل استخدام تقنية «التزييف»، باستخدام المعلومات الشخصية المسروقة للتقدم للوظائف، بما فى ذلك إجراء مقابلات الفيديو المزيفة، من أجل الحصول على الوظيفة المتاحة.
وأوضح «FBI»: «يجرى استخدام تقنيات الذكاء الاصطناعى لسرقة هويات الأشخاص ومن ثم التقديم على الوظائف، وذلك عبر انتحال الصوت، أو اللجوء للتزييف الصوتى أثناء المقابلات عبر الإنترنت للمتقدمين المحتملين».
وأكد أن المحتالين يسرقون الترخيص والاسم والعنوان والمعلومات المهمة لأى شخص، سواء بعملية اختراق أو تسريب لقاعدة البيانات، ومن ثم يمكن إنشاء صور جيدة للشخص، من أجل استخدامها فى تسجيل فيديو مزيف له وهو يتحدث.
وأوضح أن هذه ليست المرة الأولى التى يجرى فيها الإبلاغ عن هذا النوع من الاحتيال، متابعًا: «حكايات الموظفين المزيفين وزملاء العمل موجودة منذ سنوات، وبالطبع العمل بهوية مزيفة هو أحد أقدم الحيل، ولكن التطور هنا هو استخدام الصور التى تعمل بالذكاء الاصطناعى لتجاوز عملية المقابلة اللازمة للتوظيف».
وقائع نصب مكالمة فيديو تحاكى صوت وصورة صديق لطلب 622 ألف دولار
استخدم أحد المحتالين فى الصين تقنية «التزييف العميق» بالذكاء الاصطناعى لخداع شخص يُدعى «Guo»، والاستيلاء منه على ٦٢٢ ألف دولار، بدعوى أنه أحد أصدقائه، ولكن المثير هنا أن ذلك تم عبر مكالمة فيديو، أى الحديث بين المحتال والضحية كان بالصوت والصورة.
وأجرى المحتال مكالمة فيديو عبر تطبيق «We Chat» على أنه صديق الضحية، الذى يعمل ممثلًا قانونيًا لدى إحدى شركات التكنولوجيا، وطلب منه مساعدة مالية من أجل تدشين مشروع مهم فى مدينة أخرى، حسبما نشرت صحيفة «Daily china» الصينية.
وتمكن المحتال من خداع الضحية عبر استخدامه تقنية «محاكاة الوجه والصوت»، وانتحل شخصية أحد أصدقاء «Guo»، حيث يقول الأخير: «تحدث معى عبر مكالمة فيديو، وتأكدت أيضًا من وجهه وصوته، هذا هو السبب الذى جعلنى أتخلى عن حذرى بأنها قد تكون عملية نصب».
وتابع: «المحتال لم يطلب منى أن أقرضه نقودًا أثناء حديثنا عبر مكالمة الفيديو، لكننا اتفقنا على أننى سأحول الأموال إلى حساب شركته، وعندما قمت بتلك الخطوة اتصلت بصديقى لأخبره أننى أتممت الأمر، ليصدمنى بأنه لم يطلب منى شيئًا وأنه لم يجر تلك المحادثة معى من الأساس».
من جهتها، قالت الشرطة فى مدينة «باوتو» شمال الصين، إنها تمكنت من وقف تحويل جزء من المبلغ، مؤكدة أن العمل جارٍ لاستعادة الباقى.
وحذرت الشرطة الصينية، مواطنيها، من ذلك النوع الجديد من الاحتيال باستخدام الذكاء الاصطناعى، كما حثت الأشخاص على توخى الحذر بشأن مشاركة معلوماتهم الشخصية، مثل صور الوجه وبصمات الأصابع، أو الكشف عن الهوية والمعلومات المصرفية بسهولة بالغة.
ووقعت تلك الجريمة رغم التدقيق البالغ الذى تتبعه الصين فى التكنولوجيا والتطبيقات القادرة على التلاعب بالصوت وبيانات الوجه، حيث وضعت قواعد جديدة بدأ تنفيذها منذ شهر يناير الماضى، تحظر خلالها استخدام المحتوى الذى تم إنشاؤه بواسطة الذكاء الاصطناعى لنشر الأخبار المزيفة.
ونصت القواعد الصينية، أيضًا، على إلزام مستخدمى هذه التكنولوجيا بإيضاح أن الصور ومقاطع الفيديو والنصوص مصنوعة أو معدلة صناعيًا إذا كان من الممكن إساءة تفسيرها على كونها حقيقية.
استغاثة مفبركة من ابنة لأمها تطلب فيها دفع فدية لخاطفيها 50 ألف دولار
استغلت إحدى العصابات تقنيات الذكاء الاصطناعى لطلب فدية من أسرة بدعوى اختطاف ابنتها البالغة من العمر ١٥ عامًا، خلال تدربها على رياضة التزلق، حسبما نشرت شبكة «CNN» الأمريكية أواخر شهر أبريل الماضى.
وتلقت والدة «بريانا» مكالمة هاتفية استمعت خلالها إلى صراخ وبكاء طفلتها وهى تقول لها إنها تعرضت للخطف، حيث قالت الأم: «بدا الصوت تمامًا مثل صوت ابنتى، وسمعت رجلًا يقول استلقى وأعيدى رأسك للوراء، وهى تعليمات شائعة فى التزلج، لذلك بدأت أشعر بالذعر».
وأضافت: «كانت ابنتى تواصل الصراخ وتطلب المساعدة، وعندها تحدث إلى رجل وقال اسمعى، لدى ابنتك، إذا اتصلت بالشرطة أو بأى شخص سأؤذيها، وسأهرب بها إلى المكسيك ولن تريها مرة أخرى»، مشيرة إلى أن الخاطف طلب فدية مليون دولار.
وأضافت الأم أنها أبلغت الخاطفين أنها لا تملك هذا المبلغ، ومن ثم خفضوا الفدية إلى ٥٠ ألف دولار، وتحول النقاش إلى تعليمات عن كيفية تحويل الأموال، مع تهديد بقتل الابنة فى حال حاولت الاتصال بالشرطة للمساعدة.
من جهتها، تمكنت الشرطة الأمريكية من التوصل إلى بريانا، ووجدوا أنها لا تزال فى تدريبها الخاص بالتزلج، ومن ثم أبلغوا والديها أنها بخير، وأن المكالمة التى وصلتهما ليست إلا محاولة احتيال بهدف الاستيلاء على الأموال.
وقالت الأم: «بالفعل صدقتهم لأن صوت ابنتى كان حقيقيًا للغاية، وكان بكاؤها وكل شىء حقيقيًا»، مؤكدةً أنها استغرقت وقتًا حتى استوعبت الأمر، واطمأنت على ابنتها.
ووفق خبراء، فمن المحتمل أن المحتالين استخدموا تقنيات الذكاء الاصطناعى واستنسخوا صوت الفتاة بالاستعانة بمقاطع فيديو من حسابيها على «تيك توك» و«إنستجرام»، اللذين يحتويان على صور ومقاطع فيديو من أحداث سباقات التزلج الخاصة بها، ومن ثم تمكنوا من استنساخ صوتها.
روشتة إنقاذ «كلمة سر عائلية» وتعبيرات الوجه.. طرق الحماية من النصابين
فى ظل تلك التحذيرات والنظرات القاتمة لمستقبل عمليات النصب والاحتيال عبر إساءة استغلال تقنيات الذكاء الاصطناعى، بدأ الخبراء فى مجال التكنولوجيا بتوجيه نصائح وتوضيح الخطوات التى يمكن اتباعها لتفادى التعرض للنصب، أو تقليلها.
وشملت تلك النصائح ضرورة الانتباه للمكالمات غير المتوقعة والعاجلة، ممن يدعون أنهم أحد الأقارب أو الأصدقاء ويطلبون المال، مشددين على ضرورة طرح بعض الأسئلة الشخصية عليهم للتحقق من هويتهم، حسبما أذاعت قناة «euronews».
ونبهوا إلى ضرورة محاولة استخدام مصدر مختلف للاتصال، مثل خلق عذر ما لمعاودة الاتصال فى وقت لاحق، ومن ثم الاتصال بالشخص الذى يتحدث إليك عبر أرقامه التى لديك، فإذا كان المتصل غرضه النصب سيكتشف الأمر بالتواصل مع الشخص الحقيقى.
وشددت النصائح على ضرورة الهدوء والتفكير بمنطقية فيما يطلب منك المتصل لحين التأكد من هويته، مثلًا هل من المنطقى أن يطلب منك رئيسك شراء شهادات هدايا بقيمة ثمينة أم لا؟
وقدم هايوود تالكوف، الرئيس التنفيذى لمجموعة «LexisNexis Risk Solutions» الأمريكية لتحليل البيانات وخدمات التكنولوجيا، عدة نصائح للحماية من عمليات الاحتيال عبر الذكاء الاصطناعى، شملت الاتفاق على ما أشبه بـ«كلمة سر»، لا يتم تداولها خارج نطاق أفراد الأسرة، ولا تكون شائعة منعًا لتسهيل تخمينها من قبل المجرمين.
وقال «تالكوف»، لصحيفة «لوس أنجلوس» الأمريكية: «إذا اتصل شخص يدعى أنه ابنتك أو حفيدك أو قريبك، اطلب منه كلمة السر هذه، وبالتالى يمكنك من خلالها الكشف عن المقربين الحقيقيين عن المزيفين، لذا كل عائلة تحتاج الآن إلى كلمة سرية بينهم، واختر شيئًا بسيطًا يسهل تذكره ولا يحتاج إلى تدوينه، ولا يتم نشره على فيسبوك أو انستجرام»
وحول «تزييف» الفيديوهات، تضمنت النصائح أهمية التركيز على التعبيرات المعتادة للأشخاص الذين نتحدث معهم، هل حركة أعينهم معتادة، وملامح الوجه متطابقة، وكذلك لون البشرة؟ وإذا كان الشخص يرتدى نظارات، فيجب التحقق مما إذا كان الانعكاس الذى يقدمه واقعيًا، فغالبًا ما تفشل تقنية «التزييف العميق» عبر الذكاء الاصطناعى فى تمثيل الفيزياء الطبيعية للإضاءة بشكل كامل.
وحثت النصائح، أيضًا، الأشخاص على إجراء اختبارات بسيطة، مثل مطالبة الشخص الآخر فى مكالمة الفيديو بأن يدير رأسه ويضع يده أمام وجهه، وهى خطوة يمكن أن تكشف الأمر إن كان مزيفًا، نظرًا لأن تقنية التزييف العميق غالبًا لم يتم تدريبها- حتى الآن- على فعل ذلك الأمر كما يتم فى الواقع.
وبَينت أن الطريقة الأكثر قدرة على كشف زيف الصور والفيديو قد تكون الإصرار على وجود لقاء شخصى مع من يحدثك، وعدم الاعتماد على التكنولوجيا.