جنون الذكاء الاصطناعي

أ : سعود البلوي
في الآونة الأخيرة، بدأت وسائل الإعلام والتواصل الاجتماعي، تتحفنا بحالات تشبه الجنون، أبطالها برامج وروبوتات الذكاء الاصطناعي، ومن ذلك أنَّ أحد الروبوتات في بريطانيا أُصيب بالجنون أثناء ردِّه على عميل يسأل عن سبب تأخُّر شحنته، فشتم الروبوت شركة الشحن المشغِّلة له، ووصفها بأنَّها أسوأ شركة في العالم، ولا يمكن الوثوق بها!
وفي الصين أظهر فيديو شخصين يبرمجان روبوتًا مزوَّدًا بتقنيات الذكاء الاصطناعيِّ، فأُصيب الروبوت بحالة تشبه الجنون، وحاول بحركات يديه المنفلتة الاعتداء على أحد مبرمجيه، إلَّا أنَّه استطاع إيقافه في اللحظة الأخيرة!
المختصُّون في التقنيات والذكاء الاصطناعيِّ، يعزُون ما حصل في هاتين الحادثتين إلى اختلاف في الأوامر والبرمجة، وليس تمرُّدًا.
وبصرف النظر عن ذلك، لا تخلو الآلات المعتمدِة على الذكاء الاصطناعي من مخاطر تشغيليَّة، سواء أكانت الأوامر المُعطاة لها مقصودةً، أم شابتها بعض الأخطاء؛ ولهذا تبقى الخطورة في مجملها خطورة أخلاقيَّة.
فالذكاء الاصطناعي عالمٌ خصبٌ، وتتسارع فيه المشروعات بقوَّة هائلة توحي بمستقبل مزدهر للبشريَّة، لكن هنالك جانبٌ مظلمٌ بدأ يتسلَّل بخفَّةٍ إلى ضمائر البشر، ألا وهو استخدام الذكاء الاصطناعيِّ كأداةٍ للشرِّ والهدمِ، لا للخيرِ والبناءِ، وأقلُّ مكامن الخطورة في ذلك، تتمثَّل في القدرة على تزييف الحقائق والمعلومات، وتسطيحها بشكل قد يبدو بريئًا، لكنَّه يحمل في باطنه تهديدًا معرفيًّا وأخلاقيًّا خطيرًا، إذ تعتمد نماذج الذكاء الاصطناعيِّ المستخدَمة في توليد النصوص، وتحليل المحتوى، على كميَّات هائلة من البيانات المجمَّعة من الإنترنت، لكنَّها تبقى عُرضةً للتَّزييف والانحياز، رغم أنَّها تُقدَّم بأسلوب مقنع، قد يكون ضحيته من اليافعين غالبًا.
فربما يحمل المحتوى المزيَّف معلوماتٍ مفبركةً بصيغٍ مختلفة، كنصٍّ مقروءٍ، أو مسموعٍ، وصورًا ثابتةً (فوتوغرافيَّة) ومتحرِّكة (فيديو)، وهذه أكثر صيغ المحتوى التي يتداولها الشَّباب في تطبيقات ومواقع التواصل الاجتماعيِّ، والهدف من ذلك تغييب الحقيقة، أو تسطيحها، فيغيب معها وعي المتلقِّي تمامًا عن التفكير الناقد الفاحص للمحتوى، فيسلِّم بالمعلومة الاستهلاكيَّة المزيَّفة -أيًّا كانت صيغتها- باعتبارها حقيقةً.
وبما أنَّ لدينا في المملكة أنظمة وقوانين رائعة في مختلف المجالات، ومن ذلك -على سبيل المثال لا الحصر- «نظام مكافحة جرائم المعلوماتيَّة» الذي من خلاله تبرز الحاجة المُلحَّة -اليوم- إلى تقنين استخدامات الذكاء الاصطناعي، من خلال سن نظام متكامل ودقيق، يعزز الجانب الأخلاقي والاستخدام الآمن في إنتاج وتصنيع البرامج والآلات المعتمدة على الذكاء الاصطناعي.
وفي ظنِّي أنَّ مجلس الشورى الموقَّر -كجهة تشريعيَّة واستشاريَّة- هو أقرب الجهات التي تستطيع اقتراح مشروع نظام كهذا، لما يحويه المجلس من خبرات متعدِّدة لأعضائه في مختلف المجالات، وهم بذلك يستطيعُون دراسة النظام من جميع جوانبه، القانونيَّة والتقنيَّة والاجتماعيَّة، بالتنسيق مع الجهات الأُخْرى ذات العلاقة، بما يحافظ على الأمن الاجتماعيِّ وحماية الأفراد من المخاطر المحتملة لجنون الذكاء الاصطناعيِّ.
@suodalblwi1
اكتشاف المزيد من صحيفة جواثا الإلكترونية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.