الجمعة، 21 أكتوبر 2016

تجنب ثورة الروبوت: كيف يمكننا التأكدأنّ لدينا ذكاء اصطناعى آمن


مع تحسن الذكاء الاصطناعي، سيتم قريبا تجهيز الآلات بالقدرات الفكرية والعملية التي تفوق أذكى البشر. ولكن لن تكون آلات فقط أكثر قدرة من الناس، بل سوف تكون قادرة على جعل أنفسها أفضل ايضا. وهذه الآلات ستفهم التصميم الخاص بها وكيفية تحسينه - أو أنها يمكن أن تصنع آلات جديدة كليا تكون أكثر قدرة. يجب أن يكون المبدعين البشر قادرين على الثقة بهذه الآلات بأن تبقى آمنة ومفيدة حتى عندما تحسّن ذاتها وتتكيّف مع الواقع.

تحسين الذات المستمر

وتسمى هذه الفكرة من إجراء الآلة تعديلات أفضل للتعليمات البرمجية الخاصة بها  على نحو متزايد وبشكل مستقل تحسين الذات المستمر. من خلال تحسين الذات المستمر، يمكن للآلة أن تتكيف مع الظروف الجديدة وتتعلم كيفية التعامل مع الأوضاع الجديدة.
إلى حد معين، العقل البشري يقوم بهذا أيضا. عندما يطور الشخص ويكرر عادات جديدة، يمكن أن تغيير التشابكات بين خلايا أدمغتهم. التشابكات تنمو أقوى وأكثر فعالية مع مرور الوقت، مما يجعل من أداء العادات الجديدة أسهل (مثل: تغيير النظام الغذائي أو تعلّم لغة جديدة). إلّا أنّ هذه القدرة على تحسين الذات في الآلات تعدّ أكثر صعوبة بكثير.
عميل الذكاء الاصطناعي يمكنه معالجة المعلومات بشكل أسرع بكثير من الإنسان، وإذا كان لا يفهم بشكل صحيح كيفية تأثير أفعاله على الناس، قد تتسبب تعديلاته الذاتية للخروج بسرعة عن خط القيم الإنسانية.
بالنسبة لباس ستونبرينك، الباحث في مختبر الذكاء الاصطناعي السويسري IDSIA، يعتبر حل هذه المشكلة هو خطوة حاسمة نحو تحقيق ذكاء اصطناعي آمن ومفيد.

بناء الذكاء الاصطناعي في عالم معقد

لأن العالم هو على درجة من التعقيد، يبدأ العديد من الباحثين مشاريع الذكاء الاصطناعي من خلال تطوير الذكاء الاصطناعي في بيئات تخضع لسيطرة و لمراقبة دقيقة. ثم يخلقون البراهين الرياضية التي يمكن أن تؤكد لهم أن الذكاء الاصطناعي سوف يحقق النجاح في هذا المجال المحدد.
لكن ستونبرينك قلق من أن هذا النهج يضع مسؤولية كبيرة جدا على المصممين والكثير من الثقة في وسائل الإثبات، وخاصة عند التعامل مع الآلات التي يمكن أن تتعلم من خلال تحسين الذات المستمر. و يفسّر ذلك بقوله: "نحن لا يمكن أن نصف البيئة بكل دقة بسبب تعقيداتها، فلا يمكننا التنبؤ بالبيئات التي سوف يجد عميل الذكاء  الاصطناعي نفسه فيها في المستقبل؛ ولن يجد لديه ما يكفي من الموارد (الطاقة والوقت والمدخلات) لفعل الشيء الأمثل ".
اذا واجهت الآلة ظرفا غير متوقع، فإن ذلك دليل على أنّ ما اعتمد عليه المصمم في بيئة المسيطر عليها قد لا ينطبق على هذه الحالة. يقول ستونبرينك، "ليس لدينا تأكيدات حول السلوك الآمن لل[الذكاء الاصطناعي]."

  الذكاء الاصطناعي المستند إلى الخبرة

بدلا من ذلك، يستخدم ستونبرينك نهج يسمى EXPAI اي:(experience-based artificial intelligence) (الذكاء الاصطناعي القائم على الخبرة). EXPAI هي "نظم تحسين الذات التي تجعل تعديلاته الأولية، والمضافة، التي يمكن عكسها، وتكون صغيرة جداً، دون التفكير الذاتي المسبق (البرمجة المسبقة). بدلا من ذلك، يتم اختبار تعديلاته الذاتية على مر الزمن مقابل الأدلة التجريبية وببطء فيتم تدريجيها واستخدامها إذا نجحت، أو رفضها عندما تفشل ".
بدلا من الثقة فقط بالبرهان الرياضي، يمكن للباحثين التأكد من أن الذكاء الاصطناعي يطوّر السلوكيات الآمنة والخيرة من خلال تعليم واختبار الآلات في بيئات غير متوقعة و معقدة، تتحدى وظائفها وأهدافها.
مع EXPAI، آلات الذكاء الاصطناعي سوف تتعلم من تجربة تفاعلية، وبالتالي رصد فترة نموها أمر بالغ الأهمية. كما يفترض ستونبرينك، ينتقل التركيز من السؤال: "ما هو سلوك عميل ذكي جدا وقادر على التعديل الذاتي، وكيف يمكننا السيطرة عليه؟" لللسؤال:"كيف لنا تنمية عميل من بدايات الطفل بحيث يكتسب كل من الفهم القوي والقيم المناسبة؟"
انظر في كيفية تنمية الأطفال، وتعلمهم كيفية التنقل في العالم بشكل مستقل. إذا تم توفير طفولة مستقرة وصحية، يتعلم الأطفال تبني القيم وفهم علاقاتهم مع العالم الخارجي من خلال التجربة والخطأ، والأمثلة. الطفولة هي فترة النمو والتعلم، من الوقوع في الخطأ، و البناء على النجاح - كل ذلك للمساعدة في إعداد الطفل لينمو ليصبح بالغ كفوء يستطيع التنقل في ظروف غير متوقعة مسبقاً.
ويعتقد ستونبرينك أن الباحثين يمكن أن تضمنوا ذكاء اصطناعي آمن من خلال عملية تدريجية مماثلة من التعلم القائم على الخبرة. في مخطط معماري وضعه ستونبرينك وزملاؤه، يتم إنشاء الذكاء الاصطناعى "بدءا من كمية صغيرة فقط من التعليمات البرمجية الخاصة بالمصمم - بذرة. مثل الطفل، بدايات الآلة تكون أقل كفاءة وأقل ذكاء، ولكنها سوف تحسن ذاتها مع مرور الوقت، فيما تتعلم من المعلمين و التجربة في العالم الحقيقي.
كما يركز نهج ستونبرينك على فترة نمو عميل مستقل، المعلمين، وليس المبرمجين، هم الأكثر مسؤولية عن خلق ذكاء اصطناعي قوي وخيّر. وفي الوقت نفسه، المرحلة التنموية تعطي الباحثين الوقت لمراقبة وتصحيح سلوك الذكاء الإصطناعي في وضع السيطرة حيث لا تزال المخاطر منخفضة.

 مستقبل EXPAI

ستونبرينك وزملاؤه يصنعون حاليا ما يصفه ب "التربية لتحديد أي نوع من الأشياء تعلّم لعملاء الذكاء الاصطناعي وبأي ترتيب، وكيفية اختبار ما فهم العملاء مما يتم تدريسه لهم، واعتماداً على نتائج هذه الاختبارات، أن نقرر ما إذا كنا نستطيع المضي قدما إلى الخطوات التالية من التعليم أو إذا كان ينبغي لنا اعادة تعليمهم من جديد أو العودة إلى لوحة الرسم و اعادة تصميم الماكنة".
ثمة مسألة رئيسية تواجه ستونبرينك هي أن طريقته في التعلم القائم على الخبرة يحيد عن الأساليب الأكثر شعبية لتحسين الذكاء الاصطناعي. بدلا من القيام بالعمل الفكري لصياغة خوارزمية التعلم الأمثل المدعومة بالاثبات على الكمبيوتر، يتطلب EXPAI العمل شخصياً و بكثافة مع الآلة لتعلّيمها وكأنها طفل.
صنع ذكاء اصطناعي آمن قد يثبت أنه عملية تعليم ونمو أكثر منه كوظيفة إنشاء البرهان الرياضي المثالي.وفي حين أن هذا التحول في المسؤولية قد يكون أكثر استهلاكا للوقت، يمكن أن يساعد أيضا في تأسيس فهم أكثر شمولا للذكاء الاصطناعي قبل إطلاقه في العالم الحقيقي.
ستونبرينك يفسر: "لا يزال هناك الكثير من العمل لتجاوز مستوى تنفيذ عميل ذكاء اصطناعي، نحو تطوير التعليم واختبار المنهجيات التي تمكننا من تنمية فهم الآلة للقيم الأخلاقية، وللتأكد من أن عميل الذكاء الاصطناعي ملتزم بحماية واتباع هذه المبادئ".
و يعترف بأنّ العمليّة شاقّة، "ولكنها ليست شاقة مثل عواقب الحصول على خطأ بسلامة الذكاء الاصطناعي."

0 التعليقات :

إرسال تعليق