هل يمكن أن تتم برمجة أجهزة الروبوت على الأخلاق؟

مزاج الاثنين ١٦/أكتوبر/٢٠١٧ ١٢:٥٥ م
هل يمكن أن تتم برمجة أجهزة الروبوت على الأخلاق؟

مسقط - ش
ساد جدل كبير بين أوساط البريطانيين في الأيام الفائتة عقب الإعلان عن الاعتماد بشكل كامل علي سيارات الأجرة الكهربائية ذاتية القيادة خلال 10 سنوات من الآن، وهو ما يعني إمكانية الاستغناء عن العنصر البشري في القيادة والاعتماد بشكل كامل على أجهزة الروبوب، والإشكالية هنا أن هذه الأجهزة تمت برمجتها بشكل آلي وتقوم بوظيفتها بطريقة روتينية وحسب احتمالات كثيرة، ولكن ليس بالضرورة أن يكون التصرف الصحيح أخلاقياً، وهو ما سيجعل دائماً لا مقارنة بين الآلة والبشر.
وبحسب تقرير نشره اليوم موقع "بي بي سي"، فإن كثيراً من البريطانيين ساد بينهم نقاش حول حادث افتراضي لسيارة يقودها روبوت، فبينما منحت إشارة المرور الإذن للسيارة بالسير فجأة ظهر شخص مسرع، غالباً لو كان السائق من البشر سيحاول بقدر الإمكان تفادي الاصطدام به، ولكن الروبوت سيكون هناك تداخلات بين برامجه، فإما الخروج من الحارة المخصصة له والسير عكس الاتجاه واحتمال تعريض سيارة بجانبه للخطر، أو محاولته عدم التصادم بهذا الشخص، وستزداد المشكلة إذا كان الروبوت متحكماً في قطار سريع مثلاً.
وتؤكد الدكتورة إيمي ريمر الأستاذة في جامعة كامبريدج، وهي مهندسة تعمل مستشارة بمشاريع السيارات الكهربائية ذاتية الحكم بشركتي جاكوار ولاند روفر، أن أجهزة الاستشعار بالسيارة التي يقودها روبوت متقدمة للغاية، ولكن قرار استخدام الفرامل بشكل مفاجئ ما زال يحتاج للكثير من المراجعة، والأمر ينطبق على إشكاليات أخرى متعلقة بمشاعر البشر وسلوكياتهم والتي لا يمكن وضعها في إطار الخطأ والصواب بشكل مطلق، فمثلا هناك روبوت تم تطويره ليصبح "جليساً" لكبار السن، وبالطبع تمت برمجته على الحقائق المطلقة، ولكن مواجهة رجل مسن مثلاً بحقيقة مرضه الخطير أو القول لسيدة عجوز إن التجاعيد منتشرة على وجهها لربما سببت صدمة رغم أنها حقيقة، فأجهزة الروبوت مصممة بحيث لا تؤذي البشر بشكل مادي.. ولكنها يمكن أن تؤذيهم عاطفياً.
ويرى كثيرون أن الروبوتات المستقبلية يجب أن تتمتع بصفات وأخلاق إنسانية، لا أن تكون مجرد آلات بلا مشاعر، ولهذا يعمل العديد من الخبراء على حقل جديد يهتم بأخلاق الروبوتات، ويتطلب هذا المجال تعاون علماء الحاسبات مع أخصائيين بمجالات الفلسفة وعلم النفس وحقوق الإنسان لوضع ضوابط خاصة تجعل الروبوتات قادرة على اتخاذ قرارات سليمة في المواقف الحرجة، فمثلاً يقع على عاتق الروبوتات العسكرية المستقبلية مسئولية اتخاذ قرار إطلاق النار من عدمه في مواقف كثيرة، ورغم أنه غالباً تتم برمجتها حسب قوانين الحرب الدولية، ولكنها توجه ضرباتها إلى أحد الأعداء عبر التعرف عليه من ملابسه، فماذا لو كانت ملابس الجيشين متشابهة؟ وماذا لو كان جريحا، أو موجودا بالقرب من مستشفى أو مدرسة؟! كما أن برامج الروبوتات تقوم على حقائق مطلقة.. بينما البشر مختلفون في ثقافاتهم وعاداتهم وأديانهم وظروفهم الاجتماعية والاقتصادية ولذلك تتحكم في قراراتهم وسلوكياتهم أمور كثيرة.
جدير بالذكر أن شركة مايكروسوفت أطلقت حساباً خاصاً بالدردشة في تويتر اسمه تاي @TayandYou و كان خلفه برنامج ذكاء صناعي اسمه "بوت" يغرد ويتفاعل مع المتابعين ويتعلم منهم بسرعة هائلة، ولكن بعد ساعات أوقفت مايكروسوفت الحساب بسبب تغريدات كراهية وعنصرية بدأ الحساب يكتبها من تلقاء نفسه، ولم يكن السبب أنه تمت برمجته بشكل سيء، ولكن بسبب خاصية التعلم الآلي اكتسب من البيئة أشياء سيئة جعلته يعيد استخدامها بدون تمييز أخلاقي بسبب افتقاره لمبادئ ومفاهيم تحكم استخدامه لهذه المعرفة.