"وعي الآلة" بين الإذلال الكبير والأزمة الأخلاقيّة!


جراسا -

فجأة تقرر آلات الذكاء الاصطناعي أن البشر خطر على الكوكب، ومن ثم ينبغي التخلص منهم. ربما يكون هذا السيناريو أفظع الكوابيس في الجدل الدائر على أشده حالياً بشأن الذكاء الاصطناعي، في وسائل الإعلام والأوساط العلمية والدينية والسياسية والاقتصادية، بين المتشككين والمستقبليين الحالمين، في محاولة لإيجاد أرضية مشتركة. يرى المتشككون أن بحوث الذكاء الاصطناعي والروبوتات تبرز معها مخاطر حرجة على المجتمع. تصبّ شركات مليارات الدولارات في تلك البحوث؛ ومن ثمّ فإن هذه الجهود يجب أن تصحبها آليات للحماية من الآثار الجانبية المحتمَلة لهذه التقنيات. إلى الآن لم يتوصل الطرفان لاتفاق، يبدو أنه لا يزال بعيداً، والجدل محتدم!

أبرز المخاطر
لعل أبرز المخاطر المحتملة للآلات والروبوتات التي تعمل بشكل أفضل من البشر، في المستقبل، أن تطور لنفسها وعياً ذاتياً؛ يخرجها عن سيطرة البشر أو ألا تتوافق مصالحها مع مصالحهم. اللافت أن السينما الأميركية كانت سباقة في تناول احتمال كهذا، في طيف واسع من الأفلام التي حظيت باهتمام عالمي، ولفتت الأنظار بغزارة إلى وقائع مماثلة وكأنها وقائع حقيقية لا مجرد خيال سينمائي جامح. وبالفعل اعترف مبتكرو "الروبوتات الحية" التي أشرت إليها في مقالة سابقة باحتمال وجود ارتدادات أخلاقية لأعمالهم، وقالوا إن الأمر متروك للمجتمع وصانعي السياسات لتقرير ماهيتها.

قال توماس دوغلاس، عالم الأخلاق الطبية، لصحيفة "الغارديان": "أعتقد أن الأزمة الأخلاقية ستبدأ فقط إذا اشتملت تلك التركيبات (الآلات أو الروبوتات) على نسيج عصبي يمكنه في وقت ما تطوير نوع من الحياة العاقلة، مثل القدرة على الشعور بالألم. وقد تنشأ أسئلة صعبة عما إذا كان ينبغي تصنيف هذه الروبوتات ككائنات حية أم آلات".

إذاً من أين يأتي القلق مِن "وعي الآلة"؟ يبدو أن مصدره تركيز عامة الناس ووسائل الإعلام والدراما، على التهديدات الوجودية المحتملة للذكاء الاصطناعي، والخوف من إمكانية أن تطوِّر هذه التكنولوجيا وعياً ذاتياً، يدفعها لاقتراف جرائم ضد البشر. يذكر نِكْ بوستروم، الباحث بجامعة أكسفورد، في كتابه "الذكاء الفائق"، أمثلة كثيرة على إمكانية أن يكون الذكاء الاصطناعي خطراً، أحدها: آلة ذكية، طموحها صُنع الكثير من ملاقط الأوراق. فبوجود ذكاء متطور فيها من دون قِيَم أخرى، يمكن أن تجنح إلى السيطرة على موارد العالم؛ سعياً وراء هدفها، دون اكتراث بما سوف يحدث للبشر، أو تقوم بمحوهم من الوجود، بوصفهم تهديداً للحياة على الأرض. إنّ هذه الآلات غير المسيطَر عليها خطيرة؛ ليس لأنها واعية، بل لأنها مصنوعة بدون أخلاقيات محددة. إن مَنْع الذكاء الاصطناعي من تطوير وَعْي شيء، ومَنْعه من تطوير قدرة على إحداث أذى شيء آخر.

الإذلال الكبير
إن الطريقة التي نحكم بها على شيء ما بأنه واع، أو غير واع، يمكن أن تقوم على تفاعلاتنا معه. بل إن الآلات فائقة الذكاء الواعية يمكن أن تكون أقل خطراً من الآلات الذكية غير الواعية؛ لأن العملية التي تكبح السلوك غير الأخلاقي ـ لدى البشر على الأقل ـ هي "التعاطف الوجداني" الذي يجعل المرء يشعر بأن شخصاً آخر يشعر به. بل ربما يهتم الذكاء الاصطناعي الواعي بنا أكثر مما يمكن لذكاء اصطناعي غير واع أن يفعل. وفي الحالتين، ينبغي أن نتذكر أن الآلة يمكن أن تكون ذكية بقدر كاف، لتمثل تهديداً حقيقياً، من دون أن تكون واعية. يزخر عالَمنا بأمثلة من الظواهر الخطيرة غير الواعية؛ فالفيروسات لا تمتلك وعياً أو ذكاء لكنها تقتل البشر بشكل ممنهج، مثل كورونا وأشباهها.

من أجل ذلك؛ علينا بذل أكبر جهد في سبيل أهداف البرمجة والقيم الأخلاقية، بدلاً من الانشغال بوعي الآلة. السباق العالمي محتدم لتطوير الذكاء الاصطناعي، وهناك إمكانية لأن تكون "الآلة فائقة الذكاء الأولى" هي الآلة الوحيدة التي يمكن صُنْعها على الإطلاق، لأنها عندما تظهر إلى الوجود، سواء أكانت واعية، أم لا؛ فإنها ستستطيع تحسين نفسها؛ وتبدأ في تغيير العالَم، وفقاً لقِيَمها الخاصة. أشارت مجلة "ذي إيكونوميست" إلى أن "تداعيات إدخال جنس ذكي ثان إلى الأرض، تستحق منا التفكير الجاد". من قبل عبَّر رائد الحاسوب ألان تورينغ عن القلق من أن نجعل شيئاً أذكى منا، وأثار في عام 1951 إمكانية أن يتعرض جنسنا، في أحسن الأحوال، إلى "إذلال كبير" بسبب الذكاء الاصطناعي، لكنّه أوضح أن تهدئة هذا القلق بعرقلة تقدُّم الذكاء الاصطناعي غير ممكنة ولا مُستحسَنة.

عالج ماكس تِغمارك الفيزيائي بمعهد "مستقبل الحياة" في كامبريدج، ماساتشوستس، في كتاب "الحياة 3.0"، إشكالية تطور الذكاء الاصطناعي "الضاغطة"؛ مبيناً أن مخاطره تتطلب التفكير بجدية، إذا كنا لا نريد أن نفقد "منحتنا الكونية" دون أن ندري، أو حتى استعباد البشر، أو انقراضهم. يضيف تِغمارك: "ليس من الواضح كيف نجعل للذكاء الفائق هدفاً نهائياً ليس مجهولاً، ولا يؤدي إلى القضاء على البشرية". قد يكون من الخير إخضاع التسابق المحموم في البحث العلمي والإنجاز التكنولوجي لقيود صارمة.

شكوك قوية
الشكوك قوية بشأن إمكان تنفيذ ذلك؛ انطلق مارد التقدم التكنولوجي ولن تفلح أي جهود لكبح سرعته. أحد الإجراءات الوقائية تجاه الأمر هو تمويل مشروع يهدف لضمان أن تكون أول آلة فائقة الذكاء ودودةً، مع إمكانية القضاء على أي آلة ذكية خبيثة.

وأحسب أن هذه الإشكالية التكنولوجية تتطلب حشد الموارد الفكرية والأخلاقية والعلمية والمالية وإعمال التفكير النقدي في الخوارزميات التي ترسم ملامح حياتنا ومجتمعاتنا، فقد يحالفنا الحظ في صنع ذكاء اصطناعي بقيم بشرية، خصوصاً أن مجتمع الذكاء الاصطناعي غير مرحب بصُنْع آلات يمكن (أن تختار) قتْل البشر.

في ثمانينيات القرن الماضي، عُلِّقت لوحة معدنية في مركز جونسون للفضاء التابع لوكالة ناسا، تقول: "بالله وحده، والبيانات نثق". حوّرت هيلغا نوفوتني، الرئيسة السابقة لمجلس البحوث الأوروبي، هذه الكلمات وجعلتها عنواناً لكتابها "بالذكاء الاصطناعي نثق"، طرحت فيه أسئلة: إلى أين تنتهي بنا الحال إذا وظَّفنا تقنيات الذكاء الاصطناعي في حياتنا دون التحقق من فعاليتها؟ وما العمل إذا كان تصميمها والعوامل التي تؤثر فيه ينبعان من التحيزات البشرية؟ تُذكِّرنا نوفوتني بأن جميع التقنيات "ترتبط بتحيزات البشر، تعكس أشكالَ عدم المساواة والممارسات التمييزية في أي مجتمع". وتدافع نوفوتني عن علوم الإنسانيات الرقمية؛ قائلة: "ينبغي أن تكون القيم والرؤى الإنسانية نقطة الانطلاق التي يبدأ من عندها تصميم أي نظام رقمي، يدّعي مطوِّروه أنه يخدم الإنسانية".

يقولون إن المتفائل اخترع الطائرة والمتشائم ابتكر الباراشوت، أحياناً المخاوف تكون مفيدة وأحياناً غير ذلك، فمن الذي يقيّم أخطار تطبيقات الذكاء الاصطناعي؟ وماذا يقيّم؟ وما العمل بعد التقويم؟!



تعليقات القراء

لا يوجد تعليقات


أكتب تعليقا

تنويه :
تتم مراجعة كافة التعليقات ،وتنشر في حال الموافقة عليها فقط.
ويحتفظ موقع وكالة جراسا الاخبارية بحق حذف أي تعليق في أي وقت ،ولأي سبب كان،ولن ينشر أي تعليق يتضمن اساءة أوخروجا عن الموضوع المطروح ،او ان يتضمن اسماء اية شخصيات او يتناول اثارة للنعرات الطائفية والمذهبية او العنصرية آملين التقيد بمستوى راقي بالتعليقات حيث انها تعبر عن مدى تقدم وثقافة زوار موقع وكالة جراسا الاخبارية علما ان التعليقات تعبر عن أصحابها فقط ولا تعبر عن رأي الموقع والقائمين عليه.

- يمكنك تسجيل اسمك المستعار الخاص بك لإستخدامه في تعليقاتك داخل الموقع
الاسم :
البريد الالكتروني :
اظهار البريد الالكتروني
التعليق :
رمز التحقق : تحديث الرمز
أكتب الرمز :

إقرأ أيضاً

رياضة وشباب

محليات