الذكاء الصنعيمقالات ومحاور تقنية

الذكاء الصنعي يحتاج لمراقبة ضمان الجودة

يُعتبر ضمان وجود خطة صارمة للمراقبة والإشراف أحد المجالات الرئيسية لأي نشاط أو تطبيق من تطبيقات الذكاء الصنعي (AI).

وفي عام 2017، كان هنالك تقارير حول دعوة رواد صناعة الروبوتات والذكاء الصنعي في العالم الأمم المتحدة إلى حظر تطوير واستخدام الروبوتات القاتلة والأسلحة مثل الطائرات بدون طيار والدبابات والبنادق الآلية.

وكانت مجموعة مؤلفة من 116 متخصصاً من 26 دولة على الأقل بقيادة  Elon Musk من تيسلا و Mustafa Suleyman من  Alphabet قد طالبوا بفرض حظر على الأسلحة المستقلة. وهذا يثبت أنه حتى العمالقة في الحوسبة يشعرون بالقلق من كون الروبوتات قد تخرج عن السيطرة في ميدان الحرب!

وقبل عام تقريباً، تخلى فيسبوك عن تجربة مثيرة بعد أن لاحظ تفاعل برنامجين للذكاء مع بعضهما البعض بلغة غريبة لم يفهمها أحد. فقد تؤثر هذه الاختراعات بشكلٍ وثيق على التعايش الروتيني والسلمي المنتظم. ومن ثم إن حدث أي شيء خاطئ، فمن المحتمل أن يعرض ذلك حياة الناس أو رفاهيتنا بطريقة ما للخطر.

وبالرغم مما سبق يمكن تطبيق الذكاء الصنعي في مختلف المجالات التشغيلية – فمن الممكن أن يساعد الذكاء الصنعي وتقنية التعرف على الوجه قوات الأمن في التعرف على المشتبهين بهم، بينما في مجال الرعاية الصحية يمكن أن يستفيد مصورو الأشعة من الذكاء الصنعي لفحص الصور الإشعاعية بفعالية وسرعة كبيرة.

ويمكن استخدام الذكاء الصنعي  لأنشطة الحفاظ على الأنواع الحيوانية مثل تتبع الأنواع المهددة بالانقراض في البرية، ورصد الأنهار الجليدية النائية، وأكثر من ذلك بكثير. يمكن أن يحدث كل هذا إذا تم اختبار الجهاز والتطبيق بشكل جيد وتهيئته لأي حالة غير متوقعة.

ما الخطأ الذي يمكن أن يحصل مع الذكاء الصنعي ؟

يقول جون دافيد لوفلوك، نائب رئيس الأبحاث في شركة غارتنر، “يعد الذكاء الصنعي بأن يكون أكثر أقسام التكنولوجيا المثيرة للتشويش أو الارباك خلال السنوات العشر القادمة بسبب التقدم في الطاقة الحسابية، والحجم، والسرعة، وتنوع البيانات، فضلاً عن التقدم في الشبكات العصبونية العميقة ( Deep Neural Networks: DNNs ).”

ويذكر كذلك: “في السنوات الأولى من الذكاء الصنعي، تُعتبر تجربة العملاء (CX: Cuatomer Experience ) المصدر الأساسي لقيمة الأعمال المشتقة، إذ ترى قيمة المنظمات في استخدام تقنيات الذكاء الصنعي لتحسين تفاعل كل عميل، بهدف زيادة نمو العملاء والاحتفاظ بهم. وتتابعت تجربة العملاء CX بشكل وثيق بتخفيض التكلفة، إذ تبحث المنظمات عن طرق لاستخدام الذكاء الصنعي لزيادة عملية الكفاءة لتحسين عملية اتخاذ القرار وأتمتة المزيد من المهام. “

ويتم ربط الذكاء الصنعي بشكل لا يقبل الجدل مع الفرص والإمكانيات. وما إذا كان سيقوم بالتنفيذ كما هو متوقع، وهي مرحلة لم نرى أو نؤمن بها بعد. ولنأخذ الطريق الآخر، من المنطقي إثبات ما يمكن أن يحدث مع الذكاء الصنعي ومن ثم تقدير كيفية إنقاذ أي موقف من هذا القبيل.

البيانات – في الذكاء الصنعي

أي تقنية جديدة ستعمل حسب البيانات المقدمة. سواء كان ذلك مساعد افتراضي أو جهاز منزلي ذكي، فسيعمل على أساس المعلومات التي يصدرها من بيئته الافتراضية أو أي مصدر خارجي. وبالتالي أي تسرب أو خلل في البيانات يمكن أن يؤدي إلى تعطيل أو اختراق داخل النظام. لذا فمن الأهمية بمكان ما ضمان جودة البيانات واختبار التطبيق جنباً إلى جنب مع مصادر البيانات. إذ يمكن أن تؤثر البيانات الخاطئة على جودة أداء التطبيق الخاص بك، وخاصةً دقته.

ووفقا لاستطلاع أجرته شركة Forrester، فإن 17 بالمائة فقط من المشاركين قالوا إن التحدي الأكبر الذي يواجههم هو أنهم “لم يكن لديهم مجموعة منظمة من البيانات لتدريب نظام الذكاء الصنعي”.

وعلى سبيل المثال، مع الذكاء الصنعي للتعرف على الوجوه، تعتمد دقة التطبيق على طريقة تغذية الجزء الخاص بالبيانات وعلى كيفية تدريب التطبيق. ويمكن أن يؤدي هذا حتى إلى بعض الانحياز، حيث يُمكن التعرف على رجل بطريقة ما وامرأة بطريقة أخرى، مما قد يؤدي إلى عدم الدقة، مع وجود فرص للتحيز العرقي كذلك. وبالتالي من المهم اختبار وتأكيد البيانات التي يتم استخدامها لتدريب التطبيقات والأجهزة الخاصة بالعمليات المعنية.

عندما يتم بناء برامج/تطبيقات الذكاء الصنعي، يجب تحليل البيانات والخوارزميات واختبارها بما يتماشى مع مبادئ وأهداف وقيم المنظمة. قد يحتاج الاختبار الفعال للذكاء الصنعي إلى مراجعة داخلية وخارجية  للجهاز أو النظام بموضوعية ومشاركة الحكم. وهذا يبقى مجال جديد و ناشئ. وما زالت المنظمات تحاول معرفة أفضل الممارسات .

البيئة والأمان يحددان السلوك المستقر

هل يمكنك الوثوق بجهاز أو تطبيق للذكاء الصنعي مع أنشطة حاسمة على المستوى الوطني مثل الانتخابات الرئاسية؟ في السيناريو الحالي، بالتأكيد لا! فلا تزال هنالك شكوك حول قدرة التكنولوجيا على القيام بنشاط لا تشوبه شائبة، خاصة دون أي إشراف. وهنالك حاجة إلى التوافق مع مجموعة البروتوكولات، ونقاط البيانات، وتكوينات النظام، ومصادر المعلومات لضمان أن تطبيق الذكاء الصنعي يقدم نتائج متناسقة. ويمكن تحقيق الامتثال من خلال الاختبار الدقيق والتحقق المستمر.

يجب ضمان الامتثال عبر شروط مختلفة، إذ لا يمكن أن يوجد بيئة ثابتة للتطبيق طوال التنفيذ والتسليم. وعلى سبيل المثال، إذا استخدمت شركة تأمين مقرها في الغرب الأوسط بياناتها التاريخية لتدريب أنظمة الذكاء الصنعي، ثم توسعت إلى ولاية فلوريدا، فلن يكون النظام مفيداً للتنبؤ بخطر الأعاصير.

توجد حاجة إلى التوافق مع التغييرات البيئية والامتثال للبروتوكولات المحلية، والتي يمكن أن تضمن دقة وكفاءة الخدمة. هذا يمكن أن يجنب مخاطر العمل مع البيانات المزيفة أو الخاطئة كذلك، وبالتالي سيطور النظام قدرات للمواءمة والتعلم الذاتي.

بالإضافة إلى ذلك، يعد اختبار الأمان أمراً حاسماً لضمان بقاء البيانات دون مساس، ويمكن للنظام محاربة أي محاولات من قِبل المتسللين. تعتبر حماية البيانات واحدة من الاهتمامات المتزايدة لجميع المنظمات التي تعتزم تبني الذكاء الصنعي أو التي قد بدأت بتبنيه بالفعل.

وأخيراً هل يمكن للذكاء الصنعي أن يسحق العنصر البشري، أم سيحتاج لمتابعة مستمرة؟ هذا سؤال يجب الإجابة عليه. ويمكن لجهود ضمان الجودة والاختبار أن تساعد في تبسيط الجهود التي تبذلها المنظمات والخبراء لتطوير أنظمة وتطبيقات الذكاء الصنعي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى