هل الذكاء الاصطناعي خطير على البشرية؟ يدعو إيلون ماسك ومئات العلماء إلى وقفة في البحث. يدعو القادة والخبراء في قطاع الذكاء الاصطناعي في رسالة مفتوحة إلى توقف البحث لمدة ستة أشهر. السبب: “مخاطر عميقة على المجتمع والإنسانية” التي قد تشكلها هذه الأنظمة.
سريع جدًا وخطير جدًا على الإنسانية: إليكم رسالة غير متوقعة نُشرت يوم الأربعاء ، 29 مارس ، موقعة من آلاف الأشخاص بمن فيهم قادة عالم التكنولوجيا والذكاء الاصطناعي (AI) مثل Elon Musk وخبراء الصناعة. جميعهم يطالبون بوقف مؤقت لمدة ستة أشهر ، وقفة مفيدة للإنسانية ، ويحثون جميع مراكز البحث في العالم على التوقف الفوري عن عملهم على هذه الأنظمة المتقدمة. وكتبوا في الديباجة: “نطلب من جميع مختبرات الذكاء الاصطناعي أن توقف على الفور ، لمدة ستة أشهر على الأقل ، تدريب أنظمة ذكاء اصطناعي أقوى من GPT-4”.
هل الذكاء الاصطناعي خطير على البشرية
وأضافوا في الرسالة التي نشرتها منظمة Future of Life Institute غير الربحية: “يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط بمجرد التأكد من أن آثارها ستكون إيجابية وأن مخاطرها يمكن التحكم فيها”. في يوم الأربعاء ، 29 مارس ، في بداية فترة ما بعد الظهر ، وقع 1123 شخصًا ، بما في ذلك شخصيات التكنولوجيا والذكاء الاصطناعي مثل Tesla و Twitter رئيس Elon Musk ، والمؤسس المشارك لشركة Apple ستيف وزنياك ، وباحثين من DeepMind ، المملوكة لشركة Alphabet – الشركة الأم من Google أو شخصيات الذكاء الاصطناعي مثل Yoshua Bengio أو Stuart Russell أو Gary Marcus. يطالب هؤلاء الأشخاص بوضع بروتوكولات آمنة وأخلاقية وشفافة وتنفيذها والتحقق منها من قبل خبراء مستقلين ، قبل استئناف أي تطوير.
“هل يجب علينا أتمتة جميع الوظائف ، بما في ذلك الوظائف المجزية؟ »
من بين المخاطر التي تم التذرع بها ، الرسالة ، بنبرة تنذر بالخطر ، تسلط الضوء على “فقدان السيطرة على حضارتنا”. في الأشهر الأخيرة ، أقفلت مختبرات الذكاء الاصطناعي نفسها في سباق خارج عن السيطرة لتطوير ونشر عقول رقمية أكثر قوة ، والتي لا يمكن لأحد – ولا حتى منشئوها – فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق ، اكتب مؤلفيها. وهم يدعون جميع المجموعات البحثية العاملة في هذا الموضوع للعمل جنبًا إلى جنب مع السلطات التنظيمية.
الرسالة حريصة أيضًا على ذكر العواقب الملموسة التي يمكن أن تترتب على الذكاء الاصطناعي على مجتمعنا ، متسائلة: “هل يجب أن ندع الآلات تغمر قنواتنا الإعلامية بالدعاية والأكاذيب؟ هل يجب علينا أتمتة جميع الوظائف ، بما في ذلك الوظائف المجزية ، مثل تلك التي تمنحنا إحساسًا بالإنجاز؟ شيء يردد صدى سؤال بسيط ، طرحه قبل عدة أسابيع سوزي أليغري ، مؤلفة بريطانية ضحية الانتحال: “لماذا لا نستخدم الذكاء الاصطناعي فقط لاستبدال الأشياء التي لا نحب القيام بها؟ »
هل ستتبع الرسالة آثار؟
قال البروفيسور جاري ماركوس ، أحد الموقعين على الرسالة ، لزملائنا في رويترز: “الرسالة ليست مثالية ، لكن الروح صحيحة: نحن بحاجة إلى الإبطاء حتى نفهم تداعيات الذكاء الاصطناعي بشكل أفضل”. هذا الأربعاء ، 29 مارس. هل سيتم متابعة هذه الرسالة؟ هل ستخاطر الشركات المنخرطة حاليًا في سباق حقيقي للذكاء الاصطناعي بأن يتم تجاوزها خلال فترة الإغلاق التي استمرت ستة أشهر؟ على أي حال ، تطلب الرسالة أن يكون هذا الاستراحة “علنيًا ويمكن التحقق منه”. وإذا لم يكن بالإمكان تنفيذ مثل هذا الوقف بسرعة ، فيجب على الحكومات التدخل وإقرار الوقف الاختياري ، كما هو مكتوب.
تنضم الرسالة إلى العديد من المكالمات الأخرى ، التي لم تنجح حتى الآن ، لقياس هذه الأنظمة وانعكاسها والتحكم فيها. حذرت شرطة الاتحاد الأوروبي ، الإنتربول ، يوم الأربعاء ، من احتمال إساءة استخدام ChatGPT في محاولات التصيد والتضليل والجرائم الإلكترونية. يمكن لكل هذه المكالمات ، بمرور الوقت ، إضعاف الوضع الحالي لغالبية الشركات العاملة في قطاع الذكاء الاصطناعي – وهو الموقف الذي وصفته The Verge بأنه “شحنه الآن وإصلاحه لاحقًا”. يمكن ترجمته على أنه “نبدأ الآن ، وسنقوم بالإصلاح (إذا لزم الأمر لاحقًا) “. المشكلة: مع الذكاء الاصطناعي ، قد لا يكون هذا “الإصلاح” ممكنًا.