تكنولوجيا

الأخطر بدأ.. أمراً وطاعة أيها الروبوت

في البدء لم يكن الأمر سوى من نسج خيال علمي واحلام بعيدة المنال، إلّا أن الذكاء الاصطناعي تخطّى عتبة الأفلام ليطأ عالمنا الحقيقي محدثاً جدلاً كبيراً حول ما يحمله المستقبل من تحديات جديّة للإنسان. فبعد أن جلنا سينمائياً في عالم حكمته الآلة وسيطرت عليه، ورأينا البشر محكومين ومقيدين بما تصدره الروبوتات من أوامر، أصبح من الواجب التوقف عند قدرة هذا الذكاء ومخاطره على الانسان في القريب العاجل، وسط التطور التكنولوجي الهائل والسريع الذي نشهده والذي يرفع منسوب القلق من تحوّل خطير في تاريخ البشريّة.


دخول الآلة الى حياة الإنسان فرض نفسه منذ القدم، حيث استقدمت الالات لتنفيذ بعض الوظائف المحدودة ومساعدة اليد العاملة في مجالات الزراعة والبناء؛ لكن هل يستبدل الانسان بالروبوتات والأخطر هل تتحق أبشع كوابيسنا ونقع تحت سيطرتها التامة: “أمراً وطاعة أيها الروبوت”؟!
 
التهديد جدّي.. ما لا تعرفون عن الـ”AGI”
يقول رامز القرا، خبير التحوّل الرقمي في حديثه لـ”لبنان 24″ إن استبدال الإنسان بالالة ليس بالجديد، وهذا الموضوع يحدث منذ عشرات ومئات السنين وان كان على مستوى مختلف في البناء والزراعة والصيد وغيرها، حيث تقوم آلات ومكنات بمهمات كانت توكل للإنسان”، مؤكداً أنه “هذا أمر طبيعي”.

 
الخوف والتهديد الجدي الذي يمثّله الذكاء الاصطناعي هو أنه لأول مرة يستبدل الابداع لدى الانسان، بحسب القرا الذي يشير الى اننا “كنا دوماً نقول أن الانسان بخير لأن الآلة لا تستطيع الابداع وهي فقط مقلّد غبي. لكن اليوم مع تطور الذكاء الاصطناعي والطفرة المحدثة وما يسمى بـ”شات جي بي تي” والـ”language model”، اصبح هناك جدية في إمكانية استبدال أعمال كثيرة اضافية وهذا الأمر بدأ مع “القيادة الذاتية” أو ما يعرف بالـ”AI driving”.
 
بدوره، يوضح خبير في الأمن السيبراني والتحول الرقمي، رولان أبي نجم لـ”لبنان 24″ أن كل الذكاء الاصطناعي الحالي يندرج ضمن اطار الذكاء التوليدي الذي يُنتج من المعلومات والصور والفيديوهات الموجودة صوراً وفيديوهات وموسيقى آخرى، لافتاً الى أن لهذا الذكاء حدودا او قيود.
ويضيف: “من أخطر ما يحدث هو بدء الذكاء الاصطناعي بأخذ القرارات وهو ما يسمى بالـ”artificial general intelligence” أو الذكاء الاصطناعي العام وهو يختلف عن التوليدي بقدرته على التفكير والتحليل واتخاذ القرار كأي شخص طبيعي. وهنا تمكن الخطورة من اخلاقيات الذكاء الاصطناعي وكيفية اتخاذه للقرارات ووفقاً لأي أساسات ومعايير. فهو يتخذ قراره بالاستناد الى الأشخاص الذين يقومون بتدريبه وتطويره وبرمجته. فمثلا في حال القيادة الذاتية، ان فاجأك شخص مارّ بوسط الطريق قد تمنعك السيارة من الانعطاف وتجبرك على الاصطدام به وفقاً لمعاييرها المرورية”، مشيراً الى أنه “في مرحلة معينة ستصبح الطائرات بعد السيارات من يتخذ القرار بدلاً من الفرد”.
 

متى يتفوّق الذكاء الاصطناعي على البشر؟
الذكاء الاصطناعي أصبح مبدعاً بأعمال محددة وفقاً للقرا، الذي يذكر أن “هناك توقعات بالوصول لمرحلة “التفرّد” بالقرار أو الـ”singularity” في الـ2050 وبعدها تحدي الولوج الى العالم الحقيقي من خلال الروبوتات وهذا ما سيشكّل خطراً بشكل جدي على التأثير على القرار واستبال القرار البشري.
ويفسّر القرا لـ”لبنان 24″ أن “هناك ارتباطا وثيقا بين الروبوتات والذكاء الاصطناعي، فمن غير هذا الذكاء ليست الروبوتات سوى الات تتحرك ضمن أوامر. لكن إضفاء الذكاء الاصطناعي يمنح الروبوتات استقلالية معيّنة”. ويكمل: “الانسان عندما يدرّب الذكاء الاصطناعي لا يستطيع التنبؤ 100% بالنتائج فهي تختلف عمّا هو تقليدي، حيث توجد قواعد واضحة تتصرّف الآلة على أساسها. فبالذكاء الاصطناعي نعتمد أكثر على تعليم وتدريب الـ”ai” وتركه يستنبط قراراته مما يحصل عليه من معلومات.
 
هذا ويؤكّد القرا أن مجالات استخدام الذكاء الاصطناعي ستساعد الانسان على الحفاظ على دوره وسترفع مستوى الرفاهية لديه، مشيراً الى أنه “يجدر بالإنسان التركيز على أمور تطلب الابداع لان الذكاء الاصطناعي لا يزال يعتمد في ابداعه عما يتعلّمه من الـ”data” البشرية، لذا فإن قدرة الانسان في الابداع هي ما سيحدد التفوق البشري من عدمه في المستقبل”.
 
ماذا عن تزوير التاريخ والأحداث؟
من الآن، لا تصدقوا كل ما تسمعونه وترونه! في الآونة الأخيرة، بدأنا نلحظ انتشار صور واخبار مفبركة، مقابلات لأشخاص لم يجرونها في الحقيقة وبثّا مباشراً “live” لأشخاص من دون أن يكونوا موجودين في البث أصلاً! من منكم لم يعلم بتزوير صوت الرئيس الأميركي جو بايدن وما أحدثه هذا العمل من جدل في الولايات المتحدة والعالم؟

لحسن الحظ، يمكن استخدام الذكاء الاصطناعي في مواجهة الذكاء الاصطناعي. وبحسب القرا، هناك نوع من الذكاءات الاصطناعية تستطيع اكتشاف التزييف أو الـ”deep fake” لان انتاجه وتصنيعه يعتمد على طرق معينة يمكن للذكاء الاصطناعي ان يكتشفها.
أمّا بشأن تغيير التاريخ وتزويره، فيقول أبي نجم إننا “لا نستطيع الاتفاق على ما نعيشه ونشهده صوتاً وصورة، فكيف نتفق على ما يرويه الذكاء الاصطناعي؟”. ويشرح الخبير السيبراني أن “الذكاء الاصطناعي هو 5000 برنامج تعود لـ5000 شركة مختلفة، لذا يختلف الجواب على نفس السؤال من برنامج الى آخر بحسب المعلومات التي أدخلت الى البرنامج”، مؤكداً أنه “لا يمكننا القول ان الذكاء الاصطناعي غير منحاز ولا مشاعر له، فهو لتزويدنا بالمعلومات قام أحد الأشخاص بشحنه بها”.
 
أسوأ سيناريو.. هل “تنقلب” الروبوتات علينا؟
مؤتمر أوّل تاريخي، أطلت الروبوتات من خلاله مؤكدة حبّها لصانعها الانسان ومطمئنة من عدم إقدامها على إيذائه؛ لكن من برمج هذه الآلات على قول ما صرّحت به أمام الملايين، يستطيع إعطاءها أوامر معاكسة وأن يطلب منها القيام بما هو مغاير. هذا ما يلفت إليه أبي نجم في حديثه الى “لبنان 24″، موضحاً أن “زرّ الإيقاف الأحمر” غير موجود في الحقيقة.  
لذا، عند التطرق الى انقلاب الروبوتات على الانسان، استشهد أبي نجم بجواب لسام ألتمان، مؤسس شركة “أوبن إيه آي” ومطلق منصة الذكاء الاصطناعي التوليدي “شات جي بي تي” لدى سؤاله هذا الأمر، وقال إن “هناك من يعتقد بوجود زر وقف التشغيل الأحمر وهذا امر خاطئ فالروبوتات تستمد الطاقة من حيث تريد وهي موصولة بشبكة الانترنت ولا يمكن فصلها كما يظن البعض”. وتابع أبي نجم: “اذا شعرت هذه الآلات ان الانسان قد يشكل خطراً عليها يمكن ان تنقلب عليه”.

ماذا حصل لها بعد تمرّدها على العادات والتقاليد وكسر المألوف؟
BRAINBERRIES

وعن أسوأ سيناريو، يقول أبي نجم: “يحكى عن تصنيع أكثر من مليار روبوت بعد مدةّ والناس ستعتبر هذه الآلات “قربية” منها، وبدل المربية ستلجا الأسر الى الروبوتات”، مشيرا الى ان معظم المنازل أصبحت “ذكية” تعتمد على الآلة وان لم تكن على شكل روبوت. ويضيف: “ان طلبنا من الذكاء الاصطناعي حمايتنا ونشب حريق في المبنى الذي نسكن فيه، قد يمنعنا هذا “الذكاء” من مغادرة المنزل ظنا منه انه يحمينا في الوقت الذي قد يتسبب به بقتلنا خنقاً داخل المنزل! في هذه الحالة من يستطيع برمجته؟ وقد يكون أقوى من الأنسان لتعطيله”.
 
كذلك، يشير أبي نجم الى أنه “أصبح لدينا أسلحة قادرة على اتخاذ قرارات ذاتية من دون ان يتمّ التحكم بها، مثلما حصل في الحرب بين روسيا وأوكرانيا حيث نفّذت مسيرة “ذكية” مهمتها بالرغم من فقدان الاتصال بها بسبب التشويش”. الأمر الذي استدعى اجتماعاً طارئاً لمجلس الامن الدولي لمناقشة مخاطر الذكاء الاصطناعي ومن ضمنها استخدام الذكاء الاصطناعي بالأسلحة والحروب وترك اتخاذ القرار لهذه الأسلحة الذكية في ساحة المعركة.
 
جموح الـ”AI” من يكبحه؟
ان أعطي الخيار لكم بقتل 10 أشخاص لإنقاذ مليون شخص، ماذا تقررون؟ الجواب يختلف من شخص لآخر، تبعاً لما لديه من معطيات ومن خلفيته وأخلاقياته. هذا هو الحال مع الروبوتات أيضاً! ستتخذ القرار وفقاً للـ”data” التي برمجت على أساسها. فمن يحدّد الضوابط والقوانين؟
 
 
 

يرى الخبير الرقمي، القرا، أن “أسوأ مخاطر الذكاء الاصطناعي يكمن في القوننة لها وكيفية استخدامها، خصوصا ان إعطاء السلطة لهذا الذكاء يسمح له باتخاذ القرارات بشكل مستقلّ”، مشدداً على أن “عدم وجود تشريعات تمنع من تعليم الذكاء الاصطناعي على العنصرية مثلاَ يشكل خطراً”.
 
وفي هذا السياق، يقول أبي نجم أن “ايلون ماسك، مالك منصة “اكس” والمؤسس المشارك والرئيس التنفيذي في شركة “تسلا”، وقّع مع 600 مستثمر عريضة لوقف تطوير الذكاء الاصطناعي لمدة 6 أشهر من أجل وضع قوانين وضوابط”، لافتاً الى ان “هؤلاء ومن بينهم ماسك أسسوا شركاتهم وطوروا الذكاء الاصطناعي بلا ضوابط”.
ويكمل أبي نجم أن “الاستثمار بهذا القطاع يستقطب العديدين لكسب الأموال، لذا للأسف لا يمكن القيام بأي شيء لحماية الانسان من هذا التطور فهو يدار من شركات كبرى ودول، بلا ضوابط”، مشيراً الى أنه “لا يمكن وضعها لأن في الفضاء العالمي لا حدود جغرافية للضوابط، بمعنى انه يمكن للشركات ان تفتح فروعاً في بلدان كفيتنام وماليزيا لا تخضع للقوانين الدولية”.
 
من جهته، يعتبر القرا ان “التحدي الأكبر هو بإلزام الشركات باتباع القوانين لدى وضعها، لأن التطور في هذا المجال ممكن أن يحصل في مرآب او غرفة طالب جامعي”، مضيفاً أن “الجهات التي ستضع أي تشريع عليها أن تتأكد بشكل أساسي أن أي طفرة وأي تطوّر تكنولوجي معيّن لن يكون لديه تأثير سلبي على البشرية وان يكون استخدام القدرات العالية للذكاء الاصطناعي بالطريقة والمكان الصح”. لذا، هذه التشريعات، وفقاً للقرا، يجب أن تكون على مستوى تجمّع للشركات الضخمة ومن أهمها التأكد من أن عمليات التدريب تتم بطريقة محايدة غير منحازة.

مقالات ذات صلة

زر الذهاب إلى الأعلى