ينبغي ألا نحاول صنع برمجيات واعية: حتى يحين الوقت المناسب
الروبوتات أو تقنيات الذكاء الاصطناعي المتقدمة التي "تستيقظ" وتصبح واعيةً هي موضوع ثابت في التجارب الفكرية وأدب الخيال العلمي، ولا تزال إمكانية صنعها في الواقع محل جدال محتدم، وكل هذا القدر من عدم اليقين يضعنا في موقفٍ مؤسف: نحن لا نعرف طريقة صنع الآلات الواعية، ولن نعرف إذا ما كنَّا قد صنعنا آلةً واعيةً بالفعل (نظرًا إلى أساليب القياس المتوافرة حاليًّا)، وفي الوقت نفسه، هذه المسألة بالغة الأهمية؛ لأن وجود آلات واعية سيكون له تبعات أخلاقية ضخمة.
لا يمكننا رصد الوعي مباشرةً في الحواسيب والبرمجيات المُشغّلة عليها، ومن المنطلق نفسه، لا يمكننا رصده لدى الضفادع أو الحشرات، ولكن هذه المعضلة قابلة للحل؛ إذ يمكننا رصد الضوء الذي لا نراه بالعين المجردة باستخدام أدوات تقيس الأشكال غير المرئية من الضوء، مثل الأشعة السينية، هذه الطريقة فعالة لأن لدينا نظريةً عن المغناطيسية الكهربية نطمئن إليها، ولدينا أدوات تعطينا قياساتٍ نثق بأنها تشير إلى وجود ما لا ندركه بالحواس، وبالمثل، يمكن وضع نظرية متماسكة عن الوعي من أجل اشتقاق أسلوب قياس يحدد إذا ما كان الشيء الذي لا ينطق واعيًا أم لا، استنادًا إلى طريقة عمله والمكوّنات التي صُنع منها.
للأسف، لا توجد نظرية مُتفقٌ عليها عن الوعي؛ فقد أظهر استطلاعٌ حديث لآراء الباحثين في مجال الوعي أن 58% فقط منهم يرون أن النظرية الأكثر انتشارًا في المجال نظريةٌ واعدةٌ، وهي نظرية مساحة العمل العالمية (التي تقول بأن الأفكار الواعية لدى الإنسان هي تلك الموزعة على نطاقٍ واسع على عمليات الدماغ غير الواعية الأخرى)، ناهيك بأن النظريات الثلاث الأبرز والأكثر انتشارًا عن الوعي، ومن بينها مساحة العمل العالمية، يخالف بعضها بعضًا بشكل جوهري حول إمكانية أن يكون الحاسوب واعيًا، وشروط تحقُّق ذلك، ولعل غياب الإجماع مشكلة كبيرة بالأخص؛ لأن كل قياسٍ للوعي في الآلات أو لدى الحيوانات غير البشرية يستند إلى نظريةٍ أو أخرى، فلا توجد طريقة مستقلة لاختبار وعي كيانٍ ما دون الاتفاق على نظريةٍ منها.
وإذا احترمنا عدم اليقين الذي نلاحظه عبر أوساط خبراء هذا المجال، فلعل أسلوب التفكير العقلاني في الموقف الحالي هو بالوصول إلى أننا نجهل الكثير والكثير عن إمكانية أن تكون الحواسيب واعية، وحتى إن كان ذلك ممكنًا، فإننا لا نعرف كيفية تحقيقه، وبناءً على النظرية (ربما لا تزال فرضيةً حتى تاريخه) التي ستتضح صحتها فيما بعد، فهناك ثلاثة احتمالات: الحواسيب لن تكتسب الوعي أبدًا، أو ستكتسب الوعي يومًا ما، أو اكتسب بعضها الوعي فعلًا.
وحتى ذلك الحين، لا يحاول سوى عدد قليل جدًّا من الباحثين عن قصد صنع آلات أو تطوير برمجيات واعية، والسبب في ذلك أن مجال الذكاء الاصطناعي يحاول عمومًا صنع أدواتٍ مفيدة، وحتى الآن لا يزال الغموض يكتنف تمامًا مسألة كيفية إسهام الوعي في أداء أي مهماتٍ إدراكية سنرغب في أن يؤديها الحاسوب.
وعلى غرار مجال الوعي، يحفل مجال الأخلاقيات بعدم اليقين أيضًا، ويفتقر إلى الإجماع على الكثير من القضايا الأساسية، حتى بعد العمل لآلاف الأعوام على موضوعاته، لكن من الأفكار الشائعة (وليست الجامعة الشاملة) أن الوعي وثيق الصلة بالأخلاقيات، وعلى وجه التحديد، يذهب أكثر العلماء، بغض النظر عن النظرية الأخلاقية التي يؤمنون بها، إلى أن القدرة على المرور بحالاتٍ واعيةٍ من السرور والضيق هي من أبرز الخصائص الرئيسية التي تجعل كيانًا ما جديرًا بالاعتبار من منظورٍ أخلاقي، وهذا ما يجعل رَكل كلبٍ أمرًا مذمومًا، وليس رَكل كرسيٍّ على سبيل المثال، وإذا صنعنا حواسيب يمكنها المرور بحالاتٍ واعية إيجابية وسلبية، فماذا ستكون الالتزامات الأخلاقية علينا تجاهها إذًا؟ سيتوجب علينا حينها معاملة الحاسوب أو البرنامج، الذي يمكنه الشعور بالفرح أو بالمعاناة، وفقًا لاعتبارات أخلاقية.
نحن نصنع الروبوتات وتقنيات الذكاء الاصطناعي الأخرى لتؤدي أعمالًا لا نستطيع أداءها، ولكي تؤدي أيضًا الأعمال التي لا نرغب في أدائها، وهذه الروبوتات ستستحق التقدير الأخلاقي المكافئ بالقدر الذي تتشابه به عقولها مع عقولنا الواعية، وبطبيعة الحال، لا يستتبع وعي الذكاء الاصطناعي بالضرورة أن تفضيلاته ستكون مماثلةً لتفضيلاتنا، أو أنه سيجد الأنشطة نفسها مسببةً للضيق، لكن بغض النظر عن تفضيلاته، يجب دراسة هذه التفضيلات على نحوٍ وافٍ عند توظيف الذكاء الاصطناعي؛ فإجبار آلة واعية على أداء عمل يسبب لها البؤس أمرٌ مُشكِلٌ أخلاقيًّا، وهذه مسألة واضحة بما فيه الكفاية، ولكن هناك إشكاليات أكثر عمقًا.
هبْ أن الذكاء الاصطناعي له ثلاثة مستويات: فهناك الحاسوب أو الروبوت -الجهاز المُشَغَّل عليه البرنامج، والمستوى التالي هو الكود المثبَّت على الجهاز، وأخيرًا، في كل مرة يُنفَّذ فيها الكود، يشغِّل الحاسوب "حدثًا" من هذا الكود، نحو أي مستوىً من تلك المستويات نحمل التزاماتنا الأخلاقية؟ ربما يكون مستويا الجهاز المادي والكود غير مهمين، والعنصر الواعي هو الحدث المُشَغَّل، فإن امتلك المرء حاسوبًا يشغِّل حدثًا برمجيًّا واعيًا، فهل سيكون حينها مُلزمًا أخلاقيًّا بإبقاء الحدث مشغَّلًا إلى الأبد؟
بالإضافة إلى ذلك، على اعتبار أن عملية إنشاء أي برنامج هي في معظمها عملية تصحيح للأخطاء البرمجية، أي تشغيل أحداث من البرنامج مرارًا وتكرارًا وإصلاح المشكلات وتشغيل الكود بكفاءة، فماذا إذا كان الشخص ملزمًا أخلاقيًّا بتشغيل كل حدثٍ من أحداث البرنامج الواعي حتى في أثناء عملية التطوير؟ قد تكون هذه معضلةً لا فرار منها؛ فالنمذجة الحاسوبية وسيلة قيِّمة لاستكشاف النظريات في علم النفس واختبارها، والتطرق إلى البرمجيات الواعية بمنهج أخلاقي سرعان ما سيصبح عبئًا ضخمًا على الموارد الحاسوبية وموارد الطاقة دون غايةٍ واضحة.
بناءً على ما سبق، نستخلص أننا على الأرجح ينبغي ألا نصنع آلاتٍ واعية إن كنا نستطيع تجنُّب ذلك.
والآن سأنتقل إلى الحجة المقابلة، إن كانت الآلات تمر بتجارب واعية إيجابية، إذًا يمكن القول في مجال الأخلاق بأنها تتمتع بمستوى من "الرفاه"، ويمكن الزعم بأن تشغيل مثل هذه الآلات ينتج الرفاه، وفي الواقع، قد تتمكن الآلات من إنتاج الرفاه -أي السعادة أو المتعة- بكفاءة أكبر من الكائنات البيولوجية في نهاية المطاف، وعلى ذلك، عند ثبوت كمية الموارد، يمكن إنتاج قدرٍ من السعادة أو المتعة ضمن نظام اصطناعي أكثر من ذاك لدى أي كائن حي.
فعلى سبيل المثال، هبْ أن تكنولوجيا مستقبلية ستتيح لنا صنع حاسوبٍ صغير يمكن أن تفوق سعادته الإنسان في حالة الحُبور والسُرور، وأن هذا الحاسوب يتطلب القدر ذاته من الطاقة الذي يُشغِّل مصباحًا كهربائيًّا صغيرًا، في هذه الحالة، ووفق بعض المواقف الأخلاقية، سيكون المسار الأفضل للإنسانية هو صنع أكبر قدر ممكن من الرفاه الاصطناعي -سواء في صورة حيوانات أو بشرٍ أو حواسيب، وقد يستهدف البشر في المستقبل تحويل كل المواد الممكن الوصول إليها في الكون إلى آلات تنتج الرفاه بكفاءة ربما تبلغ 10 آلاف أمثالها لدى أي كائن حي، وهذا المستقبل الممكن الغريب قد يكون المستقبل الذي يبلغ ذروة السعادة.