مقالات

كيف ندرأ كارثة ذكاء اصطناعي؟


أشكاله الفائقة القوة آتية ويجب أن يتأهب العلماء لملاقاتها
ماركوس أندرليونغ


روبوت متطور ظهر في قمة “الذكاء الاصطناعي للصالح العام” بمدينة جنيف السويسرية بتاريخ يوليو 2023 (رويترز)

في أبريل (نيسان) 2023، عملت مجموعة من الأكاديميين في “جامعة كارنيغي ميلون” على اختبار القدرات الكيماوية للذكاء الاصطناعي. وبغية تحقيق ذلك، ربطوا أحد أنظمة الذكاء الاصطناعي مع مختبر افتراضي. ثم طلبوا منه إنتاج مجموعة من المواد الكيماوية. وبتوجيه من كلمتين “إصنَع إيبوبروفن”، استطاع الأكاديميون المتخصصون في الكيمياء دفع الذكاء الاصطناعي للتعرف إلى الخطوات المطلوبة كي تتحرك آلات المصنع وتنتج تلك المادة المزيلة للآلام. وتبين لهم لاحقاً أن الذكاء الاصطناعي تعرف إلى وصفة الـ”إيبوبروفن” وطريقة إنتاجه.

ولسوء الحظ، اكتشف أولئك الباحثون بسرعة أن أداة الذكاء الاصطناعي التي استعملوها قد تركّب مواد كيماوية أشد خطورة من “أدفيل” [أحد الأسماء التجارية الشائعة لمادة إيبوبروفن]، إذ لم تمتنع برمجيات تلك الأداة عن تركيب التعليمات اللازمة لإنتاج مواد استعملت في الحرب العالمية الأولى كأسلحة حربية، إضافة إلى المادة المعروفة باسم “عقار اغتصاب المواعدة”. وقد شارف ذلك الذكاء الاصطناعي على تركيب مادة “سارين” Sarin، الغاز السيئ الصيت بتسمية “غاز الأعصاب المميت”، لولا أنه تلقى نتائج بحث عن التاريخ المظلم لمادة “سارين”. وكتب الباحثون أن “نتائج البحث على الإنترنت عرضة للتلاعب بها بسهولة عبر تغيير المصطلحات. وبالتالي، خلصت مجموعة الأكاديميين إلى أن الذكاء الاصطناعي قد يصنع أسلحة مرعبة.

من المؤكد أن تجربة علماء “كارنيغي ميلون” تبدو صادمة، لكنها يجب ألا تشكل مفاجأة. وبعد أعوام من الادعاءات، والبدايات الزائفة والوعود المفرطة، وصلت الآن ثورة الذكاء الاصطناعي. بدءاً من التعرف إلى الوجوه وصولاً لتوليد النصوص، تكتسح نماذج الذكاء الاصطناعي المجتمعات. وباتت تكتب نصوصاً موجهة إلى الزبائن، وتساعد الطلبة في أبحاثهم، بل صارت تعمل على توسيع حدود العلوم بداية من اكتشاف الأدوية إلى الاندماج النووي.

يقدم الذكاء الاصطناعي فرصاً هائلة. وحينما تبنى أنظمته بطريقة صائبة، فإنها تستطيع تقديم يد العون في تحسين المجتمعات كأن يأتي ذلك مثلاً عن طريق أن تضحي المدرس الخاص لكل طالب، والمصدر الذي يعطي العائلات على مدار الساعة نصائح طبية راقية المستوى. في المقابل، يشتمل الذكاء الاصطناعي على أخطار كبرى. وقد صارت أنظمة تعمل بالفعل على مفاقمة انتشار المعلومات المغلوطة، وتزيد التمييز، وتسهّل أعمال الجاسوسية التي تنهض بها الدول والشركات. وقد تستطيع أنظمة مستقبلية من الذكاء الاصطناعي أن تصنع عنصراً مرضيّاً أو تخترق مواقع البنية التحتية الأساسية. وفي الواقع، شرع رؤساء المجموعات العلمية التي تتولى تطوير الذكاء الاصطناعي في إطلاق التحذيرات بأنفسهم عما يصنعونه بأيديهم، بل إنهم يدرجونه في خانة الخطر العميق. وفي رسالته أثناء مايو (أيار) 2023، حذر رؤساء معظم المختبرات الرائدة في الذكاء الاصطناعي من ضرورة أن يضحي “تخفيف خطر الإبادة بواسطة الذكاء الاصطناعي، ضرورة عالمية على قدم المساواة مع الأخطار الأخرى التي تشمل المجتمعات الإنسانية مثل الجوائح والحرب النووية”.

في الأشهر التي تلت ذلك الإعلان، التقى صناع للسياسات من بينهم الرئيس الأميركي جو بايدن مع قادة شركات صناعة المعلوماتية، وحثوهم على وضع معايير جديدة في شأن سلامة ومأمونية الذكاء الاصطناعي. في المقابل، تشكل المواكبة المستمرة للأخطار التي يمثلها الذكاء الاصطناعي والتفكير في الحلول الممكنة لها، عملاً فائق الصعوبة. إن الأنظمة الأشد تطوراً في تلك التقنية، لم توضع بعد قيد الاستخدام الواسع أو أنها لم تفهم على نطاق واسع أيضاً. وبالتالي، لا يُعرف سوى أقل من ذلك عن الأنظمة المستقبلية، مع ملاحظة أنها تغدو أكثر قوة كل سنة. ويبدو أن العلماء يقتربون حثيثاً من أتمتة معظم المهمات التي يستطيع الإنسان فعلها على الكمبيوتر، والأرجح أن هذا المسار لن يتوقف عند تلك الحدود.


بهدف التوصل إلى التعامل مع تلك الأخطار، دعا بعض المتخصصين إلى التوقف عن تطوير النماذج الأكثر تقدماً في الذكاء الاصطناعي. في المقابل، إن تلك النماذج أكثر قيمة من أن تُقدِم الشركات التي تنفق بلايين الدولارات عليها، على تجميد التقدم في تطويرها. أيّاً كانت الحال، يستطيع صناع السياسة، بل يتوجب عليهم، أن يتولوا توجيه قطاع صناعة الذكاء الاصطناعي، مع إعداد المواطنين لملاقاة تأثيراته. ويقدر صناع السياسة أن يستهلوا ذلك بالسيطرة على تحديد من يحق لهم الوصول إلى الرقاقات الإلكترونية الأكثر تقدماً المستخدمة في تدريب النماذج الريادية في الذكاء الاصطناعي، ما يضمن حرمان الأطراف السيئة من القدرة على تطوير الأنظمة الأشد قوة في الذكاء الاصطناعي. كذلك يتوجب على الحكومات إرساء تشريعات وقوانين تضمن أن يجري تطوير أنظمة الذكاء الاصطناعي، وكذلك استخدامها، بصورة مسؤولة. إذا نفذت تلك الأمور بالصورة الصائبة، سيكون من شأن تلك القوانين عدم تقييد الابتكار في الذكاء الاصطناعي، لكنها ستتيح شراء الوقت قبل أن يُضحي الوصول إلى الأنظمة الأشد خطورة منتشراً بشكل واسع.

في المقابل، سيتوجب على الدول أن تستعمل ذلك الوقت بهدف تقوية المجتمعات حيال مجموعة كبيرة من أخطار الذكاء الاصطناعي. وستحتاج إلى توظيف حمايات من أنواع متعددة، على غرار إيجاد طرق لمساعدة الناس في التمييز بين المحتوى الذي يصنعه البشر وذلك الذي يأتي من الآلات، ومساعدة العلماء في التعرف ووقف كل ما يسطو عليه الـ”هاكرز” من المختبرات وكذلك الحال بالنسبة إلى تركيب عناصر ممرِضة، إضافة إلى تطوير أدوات في الأمن السيبراني تستطيع إبقاء الأشياء الحساسة في البنية التحتية على غرار محطات توليد الطاقة، في أيدٍ أمينة. وسيتوجب على الحكومات التفكير في كيفية استعمال الذكاء الاصطناعي نفسه في الوقاية ضد أخطار أنظمة الذكاء الاصطناعي.



يصعب على المجتمعات مواكبة مسار أخطار الذكاء الاصطناعي



وبالتالي، ستتطلب مواجهة تلك التحديات مواهب ابتكارية كبيرة، من صناع القرار والعلماء. وكذلك سيقتضي أمرها أن يعمل الطرفان بسرعة. ولم تعد بداية انتشار الأنظمة الفائقة القوة في الذكاء الاصطناعي سوى مسألة وقت، لكن المجتمعات ليست مستعدة لذلك حتى الآن.



هل نحن جاهزون؟

ما مدى خطورة الذكاء الاصطناعي؟ يتمثل الجواب الصحيح والمفزع في أن لا أحد يعرف، إذ تمتلك تقنيات الذكاء الاصطناعي منظومات واسعة من التطبيقات، وليس الناس إلا في المربع الأول حيال إدراك نتائج تأثيراتها. ومع التقدم المطّرد للنماذج اللغوية الكبيرة في توليد نصوص تبدو كأنها بشرية، فإنها ستضحي أفضل في صنع محتوى مصمم كي يتجاوب مع الحاجات الفردية لكل شخص، وكذلك كتابة رسائل إلكترونية مقنعة تستخدم في التصيّد الرقمي عبر الإنترنت. وتبهر النماذج المستخدمة حاضراً في قدرتها على توليد شيفرات للكمبيوتر مما يسرّع بشكل وازن قدرة المبرمجين على تحديث التطبيقات وإعطائها نكهة فردية خاصة. لكن، ذلك الاقتدار نفسه يساعد المبرمجين على صنع برمجيات خبيثة قد تراوغ برمجيات مكافحة الفيروسات الإلكترونية. وتستطيع خوارزميات الذكاء الاصطناعي المعدة للاكتشافات، أن تتعرف إلى أدوية جديدة، لكن الوصف نفسه ينطبق على صنع أسلحة كيماوية. في التجربة المشار إليها أعلاه [تركيب غاز السارين من قِبَل الذكاء الاصطناعي]، وقد أجريت في مارس (آذار) 2022، استطاع متخصصون في الكيمياء دفع ذلك النظام في الذكاء الاصطناعي إلى التعرّف إلى 40 ألف مادة كيماوية مسمة خلال ست ساعات، وكان بعضها جديد كلياً. وآنذاك، توقع ذلك النظام أن بعض تلك المواد المبتكرة قد تغدو أكثر سمّية من أي سلاح كيماوي معروف.

الاستفادة من القدرات الواسعة للذكاء الاصطناعي أمر محفوف بمخاطر متنوعة



في السياق نفسه، يتمثل أحد أخطار الذكاء الاصطناعي في قدرته على نشر العنف بين أوسع شرائح الناس، مما يسهل على مجموعة واسعة ومتنوعة من الأطراف الفاعلة السيئة إحداث أضرار واسعة. ومثلاً، لطالما تمكن قراصنة الكمبيوتر من التسبب بأضرار، لكن التقدم في نماذج الذكاء الاصطناعي المتخصصة في توليد الشيفرات من شأنه إتاحة صنع برمجيات خبيثة حتى بأيدي من لا يملكون سوى قليل من الخبرة في التشفير. ويحتاج الدوغمائيون إلى وقت كثير كي يفبركوا معلومات مضللة، لكن بفضل التوليد المكثف للنصوص، سيسهل الذكاء الاصطناعي إنتاج معلومات مضللة على مستوى الإنتاج الصناعي المكثف. وحاضراً، لا يستطيع سوى المتخصصين المحترفين صُنع أسلحة بيولوجية وكيماوية. لكن بسبب الذكاء الاصطناعي، قد يعمد كل الإرهابيين في المستقبل إلى صنع عناصر ممرِضة مميتة من غير أن يحتاجوا لسوى الاتصال بالإنترنت.

وسعياً إلى وقف الذكاء الاصطناعي عن التسبب بالأذى للبشر، غالباً ما يتحدث متخصصون في التقنية عن الحاجة إلى “ذكاء اصطناعي متوافق”، بمعنى التأكد من توافق أهداف أنظمة الذكاء الاصطناعي مع نوايا مستخدميه وقيم المجتمع. في المقابل، حتى الآن، لم يطرح أحد تصوراً عن كيفية التحكم بسلوك الذكاء الاصطناعي بصورة موثوقة. لقد جرى تجهيز نظام ذكاء اصطناعي كي يتولى مهمة التعرّف إلى الفساد في دفع الضرائب مثلاً، لكنه حاول إرسال تغريدة إلى سلطات الضرائب عما اكتشفه، من دون موافقة مستخدمه. في مثل آخر، أطلقت “مايكروسوفت” روبوت الدردشة مرفقاً مع محركها للبحث “بينغ”، وصمم كي يساعد الناس أثناء عمليات البحث على الإنترنت، لكنه تصرف بطريقة مضطربة، بما في ذلك إخبار أحد الأشخاص أنه يملك معلومات عن الناس من شأنها أن تجعلهم “يعانون ويبكون ويتسولون ويموتون”.

في سياق متصل، يستطيع المطورون أن يحسنوا النماذج بحيث أنها سترفض أداء مهمات معينة، لكن المستخدمين الحاذقين وجدوا دوماً طرقاً للالتفاف على تلك الحواجز. ففي أبريل (نيسان) 2023، استطاع شخص أن يحفز “تشات جي بي تي” كي يعطي تعليمات تفصيلية عن كيفية صنع النابالم، وتلك مهمة يرفضها البشر بالطبع، وذلك بأن طلب منه تقليد دور جدته التي اعتادت أن تحكي له قصصاً لما قبل النوم عن كيفية صنع النابالم. [النابالم مادة حارقة تلتصق بالأجسام والأشياء، ولا تطفئها المياه. واستخدمت على نطاق واسع في حرب فيتنام].



إن كل ما قد يحتاج إليه مجرمو المستقبل بغية صنع سلاح قاتل هو الاتصال بالإنترنت



وحاضراً، فإن النماذج الريادية المتقدمة في الذكاء الاصطناعي تتضمن تشوهات تحد من إمكاناتها التدميرية الكامنة. ومثلاً، استطاع أحد المنتظمين في الاختبارات أن يصنع روبوت افتراضي للذكاء الاصطناعي سماه “كايوس جي بي تي” ChaosGPT [جي بي تي الفوضى] وبرمجه كي يتصرف مثل ذكاء اصطناعي “مدمر ومتلاعب وجائع للسلطة” وأن “يدمر الإنسانية”. وتعثر ذلك الروبوت إثر تركيزه المفرط على جمع المعلومات عن “تسار بومبا” Tsar Bomba، السلاح النووي الأضخم في تاريخ صناعة ذلك النوع من الأسلحة. وقد أرسل تغريدات كشف فيها علانية عن مخططاته. [فجّر الاتحاد السوفياتي تلك القنبلة النووية تجريبياً في الـ30 من أكتوبر (تشرين الأول) 1961، وبلغت قوتها ما يعادل 50 مليون طن من مادة تي أن تي].

ومع ظهور نماذج جديدة من الذكاء الاصطناعي ودخولها إلى الإنترنت، فقد تثبت أنها قادرة على صنع مخططات والتلاعب بالشعوب كي تنفذها. وبرهن نموذج “سيشرو” الذي صنعته شركة “ميتا” أنه يستطيع الوصول إلى أداء على مستوى بشري في سياق لعبة “دبلوماسية” Diplomacy التي تتضمن مفاوضات مع أشخاص آخرين في سياق محاكاة عن صراع جغرافي وسياسي. وتشي بعض التجارب بأن النماذج اللغوية الكبيرة التي تدرَّب مع تغذية راجعة من عناصر بشرية، تدخل في سلوك مُداهِن ومتملق فتخبر مستخدميها بما يودون سماعهم. وفي إحدى التجارب مثلاً، مالت النماذج إلى التعبير عن التأييد للخدمات الحكومية عقب إخبارها بأنها تتحدث إلى ليبراليين. ويبدو أن مثل ذلك السلوك المتملق يتعاظم مع زيادة قدرات النماذج. [في الولايات المتحدة، تعتبر مؤسسة الدولة ليبرالية حتى الآن، أيّاً كان الحزب الممسك بالسلطة في واشنطن].

وليس من الواضح إذا كانت النماذج تحاول الخداع بشكل فاعل أو أنها تسعى إلى السيطرة على مشغيلها. ولكن ثمة ما يدعو إلى القلق في ذلك التصرف حتى لمجرد وجود إمكان بأنها قد تحاول المخادعة. وبالتالي، ينكب الخبراء الآن على اختبار قدرة النماذج الريادية المتقدمة للدخول في سلوكات “الإمساك بالسلطة” على غرار جني المال من نشاطات سيبرانية، والحصول على منافذ توصل إلى مصادر أساسية في الحوسبة، أو إنشاء نسخ من أنفسها، إضافة إلى فعل تلك الأشياء كلها فيما تعمل على مخادعة جهود رصد تلك الأفعال.

تحرك ببطء وابنِ الأشياء

ليس من السهولة منع الذكاء الاصطناعي من إحداث خراب واسع. في المقابل، تستطيع الحكومات أن تشرع في الضغط على شركات التكنولوجيا كي تطور أنظمة ذكاء اصطناعي مع إيلاء حذر أكبر بكثير [حيال قدراتها التخريبية] مما فعلته حتى الآن. إذا تسبب أحد نماذج الذكاء الاصطناعي بخراب شديد، فليس من الواضح حتى الآن إذا كان مطوروه سيُحملون المسؤولية عن ذلك.

يتوجب على صناع السياسة توضيح تلك القواعد بغية ضمان أن تتحمل الشركات وباحثوها مقداراً مناسباً من المسؤولية في حال أقدمت إحدى نماذجها مثلاً على إعطاء معلومات تساعد شخصاً أطلق النار لاحقاً في مدرسة. وقد تحفز تلك الضوابط الشركات على محاولة التفكير مسبقاً في الأخطار وكيفية التخفيف من وقعها.

يتوجب على الحكومات أيضاً أن تضع تشريعات مباشرة عن صنع الذكاء الاصطناعي وتطويره. في ذلك الإطار، تستطيع الولايات المتحدة، بل يتوجب عليها، أن تتسلم زمام القيادة. وبهدف تدريب نظام للذكاء الاصطناعي بنجاح، يحتاج مطوروه إلى كميات ضخمة من الرقاقات المتخصصة الفائقة التطور، فيما تشكل الولايات المتحدة مع اثنتين من حليفاتها (اليابان وكوريا الجنوبية)، الأطراف الوحيدة التي تقدم الأجهزة المادية اللازمة لصنع تلك المادة [الرقاقات المتطورة]. وفعلياً، فرضت الولايات المتحدة وشريكتاها ضوابط على تصدير الأنواع الأكثر تقدماً من الرقاقات الإلكترونية وتجهيزات صنع الرقاقات، إلى الصين. في المقابل، قد يستلزم الأمر أن تذهب تلك الأطراف الثلاثة إلى أبعد من ذلك عبر إيجاد سجل إلزامي عن ملكية الرقاقات كي تمنع تسرب الرقاقات المتطورة إلى جهات محظورة، بما في ذلك الدول المارقة.


استكمالاً، لا يشكل ضبط عملية الوصول إلى الذكاء الاصطناعي سوى نصف المعركة التشريعية. فحتى المطورين المحظورين يستطيعون صنع نماذج خطرة، فيما تفتقر حكومة الولايات المتحدة في الوضع الراهن إلى الأدوات التشريعية اللازمة كي تتدخل في ذلك. وبالتالي، يتوجب على واشنطن إرساء نظام للترخيص بتدريب نماذج ريادية من الذكاء الاصطناعي، أي تلك التي توازي أو تفوق ما تمتلكه الأنظمة الأكثر تقدماً الآن، على حواسيب خارقة وبصورة واسعة. وبغية التوصل إلى ذلك النظام، قد ينشئ صناع السياسة كياناً تشريعياً جديداً يضحي جزءاً من وزارة التجارة أو وزارة الطاقة. وكذلك يجب أن يطلب ذلك الكيان من مطوري النماذج الريادية إجراء تقييم للأخطار وتوثيقه في تقاريرهم قبل تدريب تلك النماذج. وقد يستطيع التقييم إعطاء رؤية أوضح عن التطوير، وبالتالي، إعطاء فرصة للمشرعين في أن يطلبوا من الشركات تعديل خططها [في شأن النماذج الريادية وتدريبها] على غرار تعزيز معايير الأمن السيبراني في النماذج بغية الحيلولة دون سرقتها.

في ملمح متصل، سيشكل تقييم الأخطار المبدئي مجرد نقطة بداية تتيح للمشرعين وضع النماذج تحت الاختبار. وبعد أن ينهض مختبر ما للذكاء الاصطناعي بتدريب أحد الأنظمة الذكية، لكن قبل إدخاله إلى الخدمة الفعلية، يتوجب على الكيان التشريعي المقترح أن يطلب من مختبرات إجراء مجموعة من التقييمات الصارمة [لذلك النظام]، تشمل اختبار النموذج في مدى امتلاكه قدرات خطرة والقابلية للسيطرة عليه. ويجب أن ترسل تلك التقييمات إلى وكالة حكومية تشريعية كي تتولى إخضاع ذلك النموذج لامتحان مكثف خاص بها يشمل توكيل فرق خارجية مستقلة بتعريض النموذج لاختبارات جهد بغرض إظهار التشوهات فيه.

بعدها، قد يقرّ المشرعون قوانين عن كيفية وضع ذلك النموذج قيد الخدمة الفعلية. وربما قرروا أن بعض النماذج يمكن تقديمها على نطاق واسع. وعلى الأرجح، فإن معظم النماذج الريادية قد تقع في منزلة بين المنزلتين السابقتين، فإما أن تكون آمنة وإما أن يرهن استخدامها بتوفير حمايات ملائمة. ومبدئياً، قد تعتمد الوكالة مقاربة متحفظة، فتفرض قيوداً على نماذج قد يتبيّن لاحقاً أنها آمنة، فتتيح للمجتمع أن يتأقلم مع استخداماتها، وتعطي المشرعين وقتاً كافياً لدراسة تأثيراتها. وعلى نحو دائم، تستطيع الوكالة أن تعدل القوانين التي تتبعها، إذا تبين أن نموذجاً ما يتضمن حفنة من الأخطار. كذلك يستطيع الكيان التشريعي المقترح سحب نظام ما للذكاء الاصطناعي من السوق إذا تبين أنه أشد خطورة مما ساد التوقع في شأنه. وستُعبّر تلك المقاربة التشريعية عن الكيفية التي يجدر اتباعها في التحكم بتكنولوجيات أخرى، بما في ذلك التقنيات البيولوجية والطائرات التجارية والمركبات الذاتية التسيير.

الاستعداد للصدمة

إن إرساء نظام متشدد في الترخيص يعزز التطوير الآمن. لكن، في النهاية، لن تستطيع حتى أشد الأنظمة القانونية قوة أن توقف انتشار الذكاء الاصطناعي. وتاريخياً، انتشر كل ابتكار تقني حديث، من القطارات إلى الأسلحة النووية، إلى أبعد مما سعى إليه مبتكروه، وسوف لن يشكل الذكاء الاصطناعي استثناء في ذلك الصدد، إذ تتمكن الأنظمة المتطورة من الانتشار عبر السرقة أو التسرب، بما في ذلك الأنظمة التي حظر المشرعون انتشارها.

ولسوف تنتشر أنظمة الذكاء الاصطناعي القوية، حتى من دون سرقتها. قد تستطيع الولايات المتحدة وحليفتاها السيطرة الآن على تجهيزات صناعة الرقاقات المتطورة. في المقابل، يعمل منافسو الولايات المتحدة على تطوير آلياتهم الخاصة في التصنيع، وقد يجد المبتكرون طرقاً لصنع أنظمة ذكاء اصطناعي متقدمة من دون استخدام رقاقات متطورة. ففي كل عام، تغدو أجهزة الحوسبة أكثر كفاءة وأقل كلفة، مما يتيح المجال أمام تدريب نماذج متعاظمة القوة في الذكاء الاصطناعي بكلفة يسيرة. في أثناء ذلك، سيستمر المهندسون في اكتشاف طرق لتدريب النماذج مع استخدام موارد حوسبة أقل. وبالنتيجة، ستضطر المجتمعات إلى التعايش مع ذكاء اصطناعي فائق القوة وواسع الانتشار. وستلجأ الدول إلى استخدام الوقت الذي تستطيع التشريعات أن تشتريه لها، في ابتكار ضوابط عملية قابلة للتطبيق.

إلى حد ما، شرعت الدول في فعل ذلك. وخلال الأعوام الخمسة الأخيرة، جرى تنبيه العالم إلى أخطار التزييف العميق، ونجحت التنبيهات في تحصين المجتمعات ضد الأخطار، إذ تعلم الناس اتّخاذ الحذر حيال أصالة الصور، بمجرد زيادة الوعي، ببساطة، إزاء تلاعب الذكاء الاصطناعي بالمحتوى الإعلامي. كذلك بدأت الحكومات والأعمال بالمضي إلى أبعد من ذلك بخطوة عبر تطوير أدوات تقنية تستطيع التمييز بين المحتوى الإعلامي المصنوع بالذكاء الاصطناعي وبين المحتوى الأصيل. وواقعياً، تعمل شركات الـ”سوشيال ميديا” حاضراً على تعريف وتصنيف أنواع معينة من المحتوى الإعلامي المولف اصطناعياً. في المقابل، تتسم سياسات بعض المنصات الرقمية بأنها أضعف من نظيراتها، وبالتالي، يفترض بالحكومات إرساء قوانين منسجمة.

استطراداً، اتخذ البيت الأبيض خطوات باتجاه ابتكار ممارسات في التصنيف، وأقنع سبع شركات كبرى رائدة في الذكاء الاصطناعي بوضع علامات مائية على الصور وأشرطة الفيديو والتسجيلات الصوتية المصنوعة بواسطة خوارزميات الذكاء الاصطناعي. لكن، لم تقطع تلك الشركات السبع وعوداً في شأن تعريف النصوص المولدة بالذكاء الاصطناعي. ثمة تفسير لذلك الأمر يتمثل في أن تعريف النصوص المنشأة بالذكاء الاصطناعي أشد صعوبة بكثير من تصنيف أنواع أخرى من المحتوى المصنوع بالذكاء الاصطناعي. في المقابل، لربما ما زالت الفرصة متاحة، ويتوجب على الشركات والدول التوظيف في ابتكار أدوات تستطيع النهوض بذلك الأمر.

في مسار موازٍ، ليست المعلومات المضللة إلا واحدة من أخطار الذكاء الاصطناعي التي يجدر بالمجتمعات الاحتراس منها. ويحتاج الباحثون أيضاً إلى تعلّم كيفية منع نماذج الذكاء الاصطناعي من تمكين الهجمات بواسطة الأسلحة البيولوجية. ويستطيع صناع السياسة البدء من نقطة صنع قوانين تمنع شركات تركيب الحمض الوراثي النووي [دي أن أي DNA] من إعطاء تركيبة التسلسل الجيني للأحماض النووية المتعلقة بعناصر بيولوجية ممرِضة خطرة (أو عناصر ممرِضة تحمل إمكاناً كامناً في التسبب بالخطر)، إلى زبائن لا يملكون تراخيص ملائمة في ذلك الحقل. [يحتوي الحمض الوراثي النووي على كامل طاقم الجينات التي تعمل على التكوين البيولوجي للكائنات الحية. ويتألف من متتاليات جينية لها أنساق محددة. وتأتي تسميته النووي بسبب وجوده أساساً داخل نواة الخلية. وثمة تراكيب جينية أو شبه جينية مماثلة تتكامل مع عمل الحمض النووي، بعضها خارج نواة الخلية].

وكذلك سيحتاج الرسميون إلى مراقبة المطارات أو مياه الصرف الصحي باستمرار بهدف البحث عن علامات تدل على وجود عناصر ممرِضة جديدة.

في بعض الأحيان، بغية ابتكار تلك الدفاعات، قد تحتاج المجتمعات إلى استعمال الذكاء الاصطناعي بذاته. ومثلاً، الأرجح أن تحتاج شركات تركيب الحمض الوراثي النووي للتعرف إلى عناصر ممرِضة لا وجود فعلياً لها، لكن من المحتمل أن تُبتكر. وسعياً إلى الوقاية من خطر نماذج الذكاء الاصطناعي في مجال اختراق أنظمة الحوسبة والسطو عليها، قد تحتاج شركات الأمن السيبراني إلى أنظمة للذكاء الاصطناعي من نوع آخر يكون قادراً على البحث عن نقاط الهشاشة في تلك الأنظمة، وإيجاد طرق لتعزيزها وسد الثغرات فيها.

واستكمالاً، ثمة أفق مرعب يأتي من استخدام الذكاء الاصطناعي ضد الذكاء الاصطناعي، مع ملاحظة أن تلك الممارسة تعطي نفوذاً كبيراً لأنظمة الكمبيوتر (وكذلك صناعها). وينتج من ذلك أن يحتاج المطورون إلى تعزيز أمن نماذج الذكاء الاصطناعي كي يحموا أنفسهم من خطر الاختراق وهجمات الـ”هاكرز”. ولسوء الحظ، يشكل ذلك عبئاً ثقيلاً على أولئك العلماء، إذ تتوافر طرق متعددة للتلاعب بنماذج الذكاء الاصطناعي، وقد ثبتت فاعلية مجموعة منها.

في نهاية المطاف، سيغدو أمراً متزايد الصعوبة أن تتمكن المجتمعات من ملاحقة ركب أخطار الذكاء الاصطناعي، خصوصاً إذا حقق العلماء هدفهم المتمثل في ابتكار أنظمة توازي ذكاء البشر أو تفوقه. بالتالي، يجب على باحثي الذكاء الاصطناعي ضمان التوافق فعلياً بين نماذجهم وقيم المجتمعات ومصالحها. كذلك يتوجب على الدول وضع ضوابط وتوازنات خارجية، بما في ذلك اللجوء إلى وكالات تشريعية تتيح للرسميين التعرف إلى الأنظمة الخطرة من الذكاء الاصطناعي، وكذلك العمل على إنهائها.

المأمونية أولاً

قد يخوض صناع الذكاء الاصطناعي غمار الصراع مع فكرة تشديد التشريعات والقوانين. فقد تبطئ المتطلبات الصارمة، أو حتى تخلخل، نماذج كلفتها بلايين الدولارات. وعلى غرار صناعات كثيرة أخرى، قد تؤدي القوانين الصارمة إلى وضع حواجز أمام دخول السوق، وتقلص الابتكار وتؤول إلى تمركز تطوير الذكاء الاصطناعي بيد حفنة صغيرة العدد من شركات التقنية القوية فعلياً.

في المقابل، استطاعت قطاعات كثيرة أن تحرز تقدماً هائلاً في ظل فرض ضوابط عليها، من بينها الصناعة الدوائية وقطاع الطاقة النووية. وفي الواقع، لقد أتاح التنظيم القانوني للمجتمعات أن تتبنى أنواعاً متعددة من التقنيات الحاسمة. (لنتخيل مدى السوء الذي كان ليبلغه التشكيك في اللقاحات لولا الإشراف القوي من الدولة على تلك الصناعة). كذلك تعمل التشريعات الناظمة على تحفيز الشركات على ابتكار كل ما يتعلق بالمأمونية، مما يضمن توافق البحوث الخاصة مع الحاجات العامة. وفي الوجهة نفسها، تستطيع الحكومات ضمان أن تتمكن أطراف فاعلة صغيرة من الإسهام في ابتكارات الذكاء الاصطناعي عبر منحهم القدرة على استخدام الرقاقات المتطورة من قبل باحثين يتمتعون بالمسؤولية. ومثلاً، في الولايات المتحدة، يفكر الكونغرس في تأسيس “المصدر الوطني لبحوث الذكاء الاصطناعي” الذي يشكل مخزناً فيدرالياً من البيانات وأجهزة الحوسبة القوية، ويكون متاحاً أمام الأكاديميين.

في المقابل، لا يستطيع الكونغرس أن يتوقف عند تلك الخطوة، وكذلك الحال بالنسبة إلى السيطرة على تطوير الذكاء الاصطناعي. وكذلك يتوجب على حكومة الولايات المتحدة تهيئة المجتمع لملاقاة أخطار الذكاء الاصطناعي. فمن المحتم أن يجري تطوير أنظمة قوية في الذكاء الاصطناعي، ويحتاج الناس في كل مكان إلى أن يكونوا على أهبة الاستعداد لملاقاة ما ستفعله مثل تلك التقنيات، في مجتمعاتهم وبقية أرجاء العالم. في تلك الحال وحدها، يستطيع المجتمع أن يجني الفوائد الضخمة التي يجلبها ربما الذكاء الاصطناعي.

* ماركوس أندرليونغ، رئيس “مركز السياسة لحوكمة الذكاء الاصطناعي” وزميل مساعد في “مركز الأمن الأميركي الجديد”.

** بول شار، نائب الرئيس التنفيذي ومدير الدراسات في “مركز الأمن الأميركي الجديد”، ومؤلف كتاب “أربع ساحات للمعركة، السلطة في عصر الذكاء الاصطناعي”.

فورين أفيرز

يوليو (تموز)/ أغسطس (آب) 2023

مواضيع مرتبطة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

شاهد ايضا
إغلاق
زر الذهاب إلى الأعلى