|| ||
Max Web Site - the best solution - ميني ماكس ويب سايت - الحل الأفضل

تهديد شديد الخطورة يختبئ في دهاليز الويب يتربص بالذكاء الاصطناعي

تهديد شديد الخطورة يختبئ في دهاليز الويب يتربص بالذكاء الاصطناعي AI Artificial intelligence

حذرت ورقة بحثية لمجموعة من خبراء الذكاء الاصطناعي من  تهديد شديد الخطور ة يختبئ في الويب، يهدد التعلم الآلي والتعلم العميق للذكاء الاصطناعي، أطلقوا عليه اسم data-poisoning attacks  – هجمات تسمم البيانات- التي يمكن أن تطال مجموعات البيانات المستخدمة على نطاق واسع  لتدريب نماذج التعلم العميق  في العديد من خِدْمَات الذكاء الاصطناعي.

تهديد شديد الْخَطَر يتربص بالذكاء الاصطناعي

تقنيات الذكاء الاصطناعي هي اليوم كما يقال The Big next thing ، فتتسابق شركات التكنولوجيا والشركات الناشئة لتسويق تقنيات وأدوات تعتمد الذكاء الاصطناعي. مع انتشار نماذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية كـChatGPT وإطلاق شركات تكنولوجيا الكبرى المنافسين له. وتعيين حكومة رومانيا برنامَج “إيون” كأول “مستشار” يعمل بتقنية الذكاء الاصطناعي لممارسة مهام حكومية. وكثير من المؤسسات وأيضا الإدارات الحكومية تعمل على تدريب برامج ذكاء اصطناعي للمساعدة في تحليل البيانات لاتخاذ قرارات دقيقة.

كل ما سبق يطرح أسئلة عدة من ناحية بيانات تعليم هذه الأدوات، ليأتي تحذير من مجموعة من خبراء الذكاء الاصطناعي والتعلم الآلي machine Learning من مخاطر أطلقوا عليها اسم data-poisoning attacks  – هجمات تسمم البيانات- التي يمكن أن تطال مجموعات البيانات المستخدمة على نطاق واسع  لتدريب نماذج التعلم العميق deep Learning في العديد من خِدْمَات الذكاء الاصطناعي.

يحدث تسمم البيانات هذا أو  data-poisoning عندما يعبث المهاجمون ببيانات التدريب المستخدمة لإنشاء نماذج التعلم العميق. ما يعني أنه من الممكن التأثير على القرارات التي يتخذها الذكاء الاصطناعي بطريقة يصعب تتبعها.

فمن خلال التغيير غير المرئي لمعلومات المصدر المستخدمة لتدريب خوارزميات التعلم الآلي، من المحتمل أن تكون هجمات تسمم البيانات قوية، لأن الذكاء الاصطناعي سيتعلم من البيانات غير الصحيحة ويمكن أن يتخذ قرارات “خاطئة” لها عواقب وخيمة.

نظرا لأن مثل هذه الأنظمة تتعلم مما تراه، إذا حدث ورأت معلومات خاطئة، فليس بإمكانها معرفة ذلك، ويمكنها دمجها في مجموعة القواعد الخاصة بها. على سبيل المثال، نظام ذكاء اصطناعي مدرب على التعرف على الأنماط الموجودة في صورة الثدي الشعاعية كأورام سرطانية. سيتم تدريب هذه الأنظمة من خلال عرض العديد من الأمثلة على الأورام الحقيقية التي تم جمعها في أثناء تصوير الثدي بالأشعة السينية.

لكن ماذا يحدث إذا أدخل احدهم  صورا في مجموعة البيانات تظهر أوراما سرطانية، ولكن تم تصنيفها على أنها غير سرطانية؟ في حال تعليم الذكاء الاصطناعي برؤية هذه الأورام على أنها غير سرطانية. سيبدأ النظام في تصنيف هذه الأورام على أنها غير سرطانية.

أظهر فريق البحث أن شيئا مشابها يمكن أن يحدث مع أنظمة الذكاء الاصطناعي التي  يتم تدريبها باستخدام البيانات المتاحة للجمهور على الإنترنت دون رقابة أو تمييز.

لا يوجد حاليًا أي دليل على وقوع هجمات data-poisoning attacks

 لا يوجد حاليًا أي دليل على وقوع هجمات data-poisoning attacks على الويب. غير أن مجموعة من الباحثين في مجال الذكاء الاصطناعي والتعلم الآلي من غوغل و من ETH Zurich المعاهد الفيدرالية السويسرية للتكنولوجيا، NVIDIA وRobust Intelligence ، أظهروا إمكانية حدوث هجمات تسمم يمكن ان تطال مجموعات البيانات التي تستخدم لتدريب نماذج التعلم الآلي الأكثر شيوعا.والمتوفرة على الويب. تكفي لإدخال أخطاء مُستهدفِة في سلوك نموذج الذكاء الاصطناعي.

فقد ابتكر الباحثون تقنيات تستغل الطريقة المستخدمة لجمع البيانات من الويب، و تمكنوا من تسميم 0.01٪ من مجموعات بيانات التعلم العميق بجهد ضئيل وبتكلفة منخفضة؛ وحذر الباحثون ربما نسبة 0.01٪ لا تمثل إلا جزءا ضئيلا جدا من مجموعات البيانات، لكنها  “كافية لتسميم النموذج الذكاء الاصطناعي “مع احتمال التأثير سلبًا على الخوارزمية بِرُمَّتها.يعرف هذا الهجوم باسم ‘split-view poisoning’ أي  تسمم الرؤية المنقسمة .

 كيف يمكن القيام بهذا الهجوم؟

إحدى طرق المهاجمين تتمثل بشراء أسماء نطاقات الإنترنت منتهية الصلاحية. مما يتيح لذوي النوايا السيئة، من خلال امتلاك اسم نطاق إنترنت، التمكن من نشر وتسميم البيانات التي تصف الصور والتي تُجمع لتدريب الذكاء الاصطناعي.

إضافة إلى ذلك، وصف الباحثون نوعًا ثانيًا من الهجوم يسمونه “التسمم الأول”. في هذه الحالة، لا يتمتع المهاجم بالتحكم الكامل في مجموعة البيانات المحددة، ولكنه قادرعلى التنبؤ بدقة بموعد وصول المدربين إلى مورد الويب لجمع البيانات لتدريب نموذج الذكاء الاصطناعي، ما يتيح للمهاجم تضمين البيانات المضللة لتسميم مجموعة البيانات قبل جمع المعلومات مباشرة.

وقدم الباحثون مثالا موسوعة ويكيبيديا التي تعد واحدة من أكثر الموارد استخدامًا للعثور على بيانات التدريب للتعلم الآلي.

تستخدم ويكيبيديا بروتوكولًا موثقًا لجمع البيانات لتدريب نماذج الذكاء الاصطناعي، ما يعني أنه من الممكن التنبؤ بدقة كبيرة بأوقات جمع البيانات من مقالة معينة.  يعتقد الباحثون أنه من الممكن استغلال هذا البروتوكول لتسميم صفحات ويكيبيديا بنسبة نجاح تصل إلى 6.5٪.

فطبيعة عمل ويكيبيديا تعني أنه يمكن لأي شخص تعديلها ويمكن للمهاجم “تسميم مجموعة تدريب من ويكيبيديا عن طريق إجراء تعديلات خبيثة” وإجبار النموذج على جمع البيانات غير الدقيقة، التي سيتم تخزينها في مجموعة البيانات بشكل دائم.

نبه الباحثون ويكيبيديا بالهجمات والوسائل المحتملة للدفاع. كما أعلنوا أن الغرض من نشر الورقة البحثية، هو تشجيع الآخرين في المجال الأمني على إجراء أبحاثهم الخاصة حول كيفية الدفاع عن أنظمة الذكاء الاصطناعي والتعلم الآلي من الهجمات الخبيثة.

نايلة الصليبي

مونت كارلو الدولية

شاهد أيضاً

مخطط نموذج العمل Business Model Canvas

لنفهم كيف تحقق الشركات الأرباح 1: تحليل نموذج العمل

سمير العيطة samir_al_aita

«طوفان» يبحث عن إجابات

لبنان، جمانة حداد، مونت كارلو الدولية، Joumana Haddad

جمانة حداد: “ماذنب هؤلاء؟”