جيفري هينتون ، رائد الذكاء الاصطناعي ، يستقيل من Google للتنبيه على تهديدات هذه التكنولوجيا

جيفري هينتون ، أحد رواد أبحاث الذكاء الاصطناعي (AI) ، استقال مؤخرًا من Google للتحذير من التهديدات المحتملة من هذه التكنولوجيا.

في 75سنة ، لعب هذا الباحث الكندي البريطاني دورًا رئيسيًا في تطوير الذكاء الاصطناعي باستخدام الشبكات العصبية ، مما يدل على تفوقها في عام 2012 من خلال عمله في جامعة تورنتو. في عام 2019 ، حصل حتى على جائزة تورينج المرموقة لمساهماته في هذا المجال.

جيفري هينتون

ومع ذلك ، وبعد الإعلان عن استقالته من Google ، أعرب جيفري هينتون عن مخاوفه بشأن مستقبل الذكاء الاصطناعي وعواقبه الكارثية المحتملة على البشرية. في مقابلة مع صحيفة نيويورك تايمز ، قال إن “الإصدارات المستقبلية من هذه التكنولوجيا يمكن أن تشكل خطرًا على البشرية” ، مضيفًا أن مخاوفه تشمل إنشاء مقاطع فيديو وصور ومقالات مزيفة على الإنترنت ، والتي يمكن أن تضلل الناس و يسبب الارتباك.

لكن ليس هذا ، كما أشار العالم ، على بي بي سي ، إلى أن الآفاق المستقبلية للذكاء الاصطناعي “مخيفة إلى حد ما” للبشر. “في الوقت الحالي ، هم ليسوا أذكى منا ، على حد علمي. لكنني أعتقد أنهم سيكونون قادرين على ذلك قريبًا.

توقعًا لسيناريوهات “الكابوس” إذا تمكنت قوة قاهرة مثل روسيا بقيادة فلاديمير بوتين من الوصول إلى إصدارات محسنة من التقنيات الحالية ، يشعر جيفري هينتون بالقلق بشأن كمال هذه التقنيات ويخشى أنها ستقع في الأيدي الخطأ ، لا سيما فيما يتعلق باستخدام الأسلحة المستقلة ، مثل الروبوتات القاتلة.

تنضم مخاوفه إلى مخاوف متخصصي الذكاء الاصطناعي الآخرين ، الذين طلبوا مؤخرًا توقفًا لمدة ستة أشهر في البحث الجاري لتطوير اللوائح الخاصة بهذا البرنامج ، الذي يُعتبر “خطيرًا على الإنسانية”.

على الرغم من انتقاداته ، لا يلقي هينتون اللوم على صاحب عمله السابق ، Google ، الذي وصفه بأنه “مسؤول للغاية” في مقابلة مع بي بي سي. قال إنه ترك الشركة حتى يتمكن من التحدث بحرية عن مخاطر الذكاء الاصطناعي دون خوف من التأثير سلبًا على Google.

كانت حالة الضمير لجيفري هينتون مدفوعة بالمنافسة المتزايدة في صناعة الذكاء الاصطناعي في الأشهر الأخيرة ، مدفوعة بالاستثمارات الضخمة من Microsoft و Google وعمالقة رقمية أخرى ، مثل Meta. في مواجهة هذه التحديات ، دعا جيفري هينتون إلى تنظيم أكثر صرامة لهذه التكنولوجيا لمنعها من أن تصبح تهديدًا للبشرية.