+A
-A
الغد برس/ متابعة
في قاعات مجالس إدارة وادي السيليكون، تباشر مجموعة صغيرة من المديرين التنفيذيين في هدوء اتخاذ قرارات ستُشكّل مسار حياة المليارات من البشر. ومعظمنا لن يعرف ما هي تلك القرارات إلا بعد فوات الأوان لتغييرها.
خطة أميركية للذكاء الاصطناعي
نشر البيت الأبيض، في يوليو (تموز) الماضي، «خطة عمل الذكاء الاصطناعي الأميركية»، وهي وثيقة من 28 صفحة تبدو أشبه بسياسة صناعية لسباق تسلح جديد.
يكمن في الركيزة الأولى سطر يُخبرك بالضبط إلى أين تتجه سياسة الولايات المتحدة: «مراجعة إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتقنية (NIST) لإزالة الإشارات إلى المعلومات المضللة، والتنوع، والمساواة، والشمول، وتغيرات المناخ».
عندما تبدأ الحكومات في شطب هذه الكلمات عن قصد، من الإنصاف أن نتساءل: مَن الذي يضع شروط مستقبلنا التكنولوجي - ولمن تكون الفائدة؟تخفيف الرقابة... وسباق جيوسياسي
هذا أكثر من مجرد كلام. تتباهى الخطة نفسها بإلغاء أمر الإدارة الأميركية السابقة بشأن الذكاء الاصطناعي، وتخفيف الرقابة، وتسريع وتيرة البنية التحتية والطاقة لمراكز البيانات. إنها تُعيد صياغة الذكاء الاصطناعي بصورة أساسية بوصفه سباقاً جيوسياسياً «للغلبة والفوز»، وليس بوصفه نظاماً مجتمعياً تنبغي إدارته. إنه منظور أقل تركيزاً حول الإشراف وأكثر توجهاً صوب إبرام الصفقات، وهو أسلوب حوكمة يُعامل السياسة العامة معاملة وثيقة الشروط. هذا التأطير مهم: فعندما يكون الهدف السياسي هو السرعة والهيمنة، تصبح المساءلة مجرد «شيء جميل مُضاف».
المسار الأوروبي
اختارت أوروبا مساراً مختلفاً تماماً: فرض القيود أولاً، ثم التوسع. دخل قانون الاتحاد الأوروبي للذكاء الاصطناعي حيز التنفيذ في أغسطس (آب) من عام 2024، ويفرض التزامات تدريجية حتى عام 2026، مع تصميم إنفاذ القانون بناءً على المخاطر. فهل هو منقوص؟ بكل تأكيد. لكن الرسالة لا لبس فيها: يتعين على المؤسسات الديمقراطية - وليس فقط على إدارات العلاقات العامة للشركات - تحديد الاستخدامات، والإفصاحات، والمسؤوليات المقبولة قبل أن تنتشر التكنولوجيا في كل مكان.
الشركات تتحكم بالذكاء الاصطناعي
في الآونة ذاتها، يتركز ثقل الذكاء الاصطناعي في قبضة عدد قليل من الشركات التي تتحكم في قدرات الحوسبة، والنماذج، والتوزيع. لنتحدث عن الحوسبة مثالاً - أي سعة الحوسبة القائمة على الأدوات المسرعة (التي تسرّع وقت وحدة معالجة الرسوميات/وحدة المعالجة المركزية المسرّعة) اللازمة لتدريب وتشغيل الذكاء الاصطناعي الحديث - بالإضافة إلى النماذج والتوزيع.
لا يزال المحللون يُقدِّرون حصة شركة «إنفيديا» الأميركية من مسرعات الذكاء الاصطناعي بنحو 90 في المائة، وتستحوذ شركات الحوسبة السحابية الكبرى على السعة لسنوات مقدماً. وهذه الندرة تُشكل مَن يستطيع التجربة، ومَن لا يستطيعها، ومن يدفع لمن مقابل الوصول إليها. وعندما يتعامل رئيس الدولة مع السياسة التكنولوجية مثل مصرفي استثماري، فإن تلك المفاوضات لا تدور حول المصلحة العامة؛ وإنما حول تعظيم الصفقة، غالباً لمصلحة خزينة الدولة، وأحياناً لتحقيق مكاسب سياسية.
غموض وتعقيد
وما يزيد الغموض والتعقيد، التفاف الشركات وانعدام شفافيتها، إذ يرفض التقرير التقني الخاص ببرنامج «تشات جي بي تي 4» الخاص بشركة «أوبن إيه آي» الكشف عن بيانات التدريب، أو حجم النموذج، أو قدرات الحوسبة المستخدمة، مستشهدا صراحة بالمنافسة والسلامة.
وبغض النظر عن رأيك في هذا المنطق، فإن ذلك يعني أن الشركات تطلب من المجتمع قبول أنظمة ذات تبعات كبيرة بينما يبقى المجتمع إلى حد كبير جاهلاً بما يدخل في تكوينها. إن عبارة «ثقوا بنا» ليست أسلوباً للحوكمة الحكيمة.
سلطة مُركزة
إذا كنت تريد مثالاً صغيراً ولكنه واضح عن كيفية تأثير الخيارات الخاصة على الحياة العامة، فانظر إلى ما حدث عندما أطلقت شركة «أوبن إيه آي» صوتاً جذاباً يُدعى «سكاي - Sky» اعتقد الكثيرون أنه يشبه صوت الممثلة سكارليت جوهانسون. بعد رد فعل عنيف من الجمهور، أوقفت الشركة هذا الصوت مؤقتاً.
وهنا نلاحظ أنه لم تُرسم حدود ثقافية من قِبل جهة تنظيمية أو محكمة، بل من قِبل فريق منتجات، وقرار شركة. وهذا يمثل قدراً كبيراً للغاية من السلطة لمجموعة صغيرة للغاية من الناس.
أضرار بيئية
تظهر السلطة أيضاً في فواتير الخدمات. يربط أحدث تقرير بيئي لشركة «غوغل» زيادة بنسبة 48 في المائة في انبعاثات الغازات الدفيئة منذ عام 2019 بنمو مراكز البيانات للذكاء الاصطناعي، ويوثق استخدام 6.1 مليار غالون من المياه في عام 2023 لأغراض التبريد - وهي أرقام سترتفع مع التوسع. يذهب تحليل دورة حياة «ميسترال - Mistral» إلى أبعد من ذلك، حيث يُقدّر استهلاك الطاقة والمياه لكل استعلام «prompt» لنماذجها. كل «استعلام للنموذج» له بصمة؛ إذا تضاعفت هذه الأرقام بالمليارات، فلن تتمكن من التظاهر بأنها مجانية، مهما كنتَ مُنكراً للتغيرات المناخية.
إذن، أجل، الولايات المتحدة «تفوز بالسباق». إلا أن تركيز القرارات التي تؤثر على حرية التعبير، والتوظيف، والتعليم، والبيئة في دائرة صغيرة للغاية من قاعات مجالس الإدارة. والنتيجة هي عجز ديمقراطي. فهنا يُختزل الجمهور إلى مجرد متفرجين، يتفاعلون مع الحقائق المفروضة بدلاً من وضع القواعد.بدائل وخيارات
ماذا لو عكسنا الوضع؟ نبدأ بمعاملة الذكاء الاصطناعي بصفته بنيةً تحتية تتطلب قدرات عامة، وليس فقط نفقات رأسمالية خاصة. تعكس مبادرة «المورد الوطني لأبحاث الذكاء الاصطناعي» التجريبية «National AI Research Resource pilot» التوجه الصحيح:
* أستاذ في جامعة آي إي، مدريد. مجلة «طفاست كومباني» - خدمات «تريبيون ميديا»• أولاً - امنح الباحثين والشركات الناشئة وصولاً مشتركاً إلى قدرات الحوسبة والبيانات والأدوات؛ حتى لا تكون الأبحاث مقيدة بعقود مع شركات الحوسبة السحابية الكبرى. اجعل الوصول مستمراً، وممولاً جيداً، ومستقلاً؛ لأن العلم المفتوح يموت عندما يصبح الوصول إليه مرهوناً باتفاقيات عدم الإفصاح.
• ثانياً - اربط الأموال والمشتريات العامة بشروط. إذا كانت الوكالات والمدارس ستشتري الذكاء الاصطناعي، فيجب أن تطلب إفصاحات أساسية: ما هي البيانات التي استُخدمت للتدريب؛ ما هي الضوابط التي تحكم المخرجات؛ ما هي الاختبارات المستقلة التي اجتازها النموذج؛ وسجل للطاقة والمياه مرتبط بالزمان والمكان، وليس بالمعدلات السنوية. إذا لم يستطع البائع تلبية هذه الشروط، فإنه لا يحصل على العقود. هذا ليس «معاداة للابتكار»، بل هو انضباط السوق الذي يتسق مع القيم العامة.
• ثالثاً - افصل الطبقات لكبح الاحتكار. لا ينبغي لمقدمي الخدمات السحابية أن يكونوا قادرين على فرض استخدام نموذجهم لرقائقهم لتشغيل خدماتهم كخيار افتراضي. إن قابلية التشغيل البيني ونقل البيانات ليستا مثاليات رومانسية؛ بل هما السبيل للحفاظ على قطاع تنافسي عندما تتحكم ثلاث شركات في البنية بأكملها.
أهمية الشفافية
• رابعاً - يجب أن تعني الشفافية أكثر من مجرد «بطاقات النماذج» التي يكتبها البائع. بالنسبة للأنظمة التي تتجاوز حجماً معيناً، يجب أن نطلب إفصاحات قابلة للتدقيق لأطراف ثالثة مؤهلة - حول مصدر بيانات التدريب، ومجموعات التقييم، وأداء ما بعد النشر. إذا كان هذا يبدو مرهقاً؛ فذلك لأن العواقب على نطاق واسع مرهقة كذلك. لقد تعلمنا هذا في كل بنية تحتية حيوية أخرى.
• خامساً - اجعل السرد البيئي يتواءم مع الواقع. يجب أن تكون إفصاحات المياه والطاقة فورية، وخاصة بالمنشأة، وموثقة.
إن «توفير المياه بحلول عام 2030» لا يساعد بلدة ما تُستنزف طبقة المياه الجوفية لديها في هذا العقد. إذا كانت الشركات تريد أن تكون سبّاقة في طرح النماذج الرائدة، فيجب أن تكون أيضاً الأولى في تطبيق شراء الطاقة الخالية من الكربون على مدار الساعة، وتحديد ميزانيات مياه صارمة ذات صلة بالعلوم المحلية لحركة وتوزيع وإدارة المياه.
خطر أعمق
هناك خطر أعمق عندما تُدار الاستراتيجية التكنولوجية الوطنية مثلما تدار محفظة الأعمال: إذ تصبح الكفاءة والإيرادات هي المقاييس الأساسية؛ ما يطغى على احتياجات المواطنين التي يصعب قياسها كمياً.
في القطاع الخاص، يمكن تبرير التضحية بالأخلاق أو الشفافية أو الاستقرار على المدى الطويل من أجل صفقة مربحة بأنها تهدف إلى زيادة قيمة المساهمين. أما في الحكومة، فتؤدي هذه المقايضة نفسها إلى تآكل الديمقراطية ذاتها؛ ما يركز القرارات في أيدي أقل، ويجعل منظور «الربح أولاً» طبيعياً في مسائل يجب أن تركز على الحقوق، والضمانات، وثقة الجمهور.
ليس الهدف هو إبطاء الذكاء الاصطناعي. وإنما أن نقرر، علناً، أي نوع من الذكاء الاصطناعي نريده وبأي شروط.
إن الولايات المتحدة قادرة على الجمع بين الطموح وضبط النفس في آن واحد؛ لقد فعلنا ذلك في مجالات الطيران، والطب، والتمويل. يجب ألا يكون الذكاء الاصطناعي مختلفاً عن ذلك. إذا تركنا الخيارات الكبرى لعدد قليل من الشركات وعدد قليل من المُعينين السياسيين، فسوف نحصل على مستقبل صُنع لأجلنا، وليس بواسطتنا. وسوف يكون ثمن إعادة كتابته لاحقاً أعلى مما يعترف به أي إنسان اليوم.* أستاذ في جامعة آي إي، مدريد. مجلة «طفاست كومباني» - خدمات «تريبيون ميديا»
كلمات مفتاحية :