GPT-4 الذكاء الصناعي , تستعد مايكروسوفت و OpenAI للكشف عن GPT-4 ، وهو تحديث مهم يجب أن يحدث ثورة في طريقة عمل ChatGPT. نحن نقوم بتقييم المعلومات المتاحة في الوقت الحالي.
يعتمد ChatGPT ، روبوت الدردشة الأساسي OpenAI ، على نموذج لغوي يسمى GPT (محول مسبق التدريب التوليدي). يستخدم هذا النموذج التعلم العميق لإنشاء نص استجابة لاستعلام المتصل. حاليًا ، يعمل روبوت المحادثة GPT-3.5 ، وهو إصدار متوسط من نموذج اللغة.
تم الإعلان عن هذا التكرار في مارس 2022 ، قبل بضعة أشهر من زيادة ChatGPT.
GPT-4 الذكاء الصناعي
الذكاء الصناعي ChatGPT تحديث كبير من مايكروسوفت
من الواضح أن التحديث الرئيسي التالي للذكاء الاصطناعي ، GPT-4 ، ينتظره بفارغ الصبر المستخدمين والخبراء ، الذين اندهشوا بالفعل من أداء ChatGPT، و يشاع أن هذا التطور أقوى بكثير من الإصدار الحالي.
حذرًا ومدروسًا ، حاول سام التمان ، الرئيس التنفيذي ومؤسس OpenAI ، حتى الآن تخفيف توقعات مستخدمي الإنترنت، وفقًا له ، لن يكون GPT-4 سوى تطور خجول لـ GPT-3.
في كانون الثاني (يناير) الماضي ، أكد حتى أن OpenAi لم يكن في عجلة من أمره لنشر GPT-4. يفضل ألتمان أن تأخذ شركته كل الوقت الذي تحتاجه للقيام بالأمور بشكل صحيح، وحدد أن شركة أوبن إيه آي ستطلق “تقنياتها بشكل أبطأ بكثير مما يريده الناس”.
عرض تقديمي في 16 مارس 2023
ومع ذلك ، اتضح أخيرًا أنه سيتم تحديد موعد عرض GPT-4 في الأيام القادمة. بعد سؤاله من قبل Heise Online خلال حدث KI im Fokus ، صرح أندرياس براون ، المدير الفني لشركة مايكروسوفت ألمانيا، بدهشة الجميع:
“سنقدم GPT-4 الأسبوع المقبل”.
لا يذكر إطار العمل أكثر من ذلك ، لكن هذا الكشف يشير إلى أن مايكروسوفت و OpenAI قد خططتا للكشف عن الإصدار الجديد من نموذج اللغة في وقت مبكر من يوم الخميس ، 16 مارس 2023. في ذلك اليوم ، تستضيف مايكروسوفت بالفعل مؤتمرًا عبر الإنترنت يركز على المصطنعة المخابرات بعنوان “مستقبل العمل مع الذكاء الاصطناعي”. العرض مخصص لاستخدام الذكاء الاصطناعي في العالم المهني. سيبدأ في الساعة 5 مساءً بتوقيت باريس.
في هذا الوقت ، يعد هذا هو الاتصال الرسمي الوحيد حول الإعلان عن GPT-4. ليس من المستحيل أن يكشف المسؤول التنفيذي الألماني عن معلومات دون موافقة التسلسل الهرمي.
ما الجديد في GPT-4؟
يضيف مدير مايكروسوفت أن GPT-4 سيضمّن “نماذج متعددة الوسائط تقدم إمكانيات مختلفة تمامًا”. نموذج متعدد الوسائط قادر على الجمع بين مصادر البيانات المتعددة ومعالجتها ، مثل النص أو الصوت أو الصور لتحسين نتائجه.
من بين الاحتمالات التي توفرها GPT-4 ، يستشهد أندرياس براون بمقاطع الفيديو. بشكل ملموس ، سيكون الذكاء الاصطناعي قادرًا على إنشاء مقاطع فيديو ، بنفس طريقة Make-A-Video ، الذكاء الاصطناعي الذي طورته Meta. سيكون كافيًا إدخال بضع كلمات للخوارزميات لإنشاء تسلسل. من شأن هذا التطور في GPT أن يدعم الذكاء الاصطناعي المستقبلي لـ OpenAI المصمم لإنتاج الفيديو. سبق أن ذكرها سام التمان بنصف كلمات خلال مؤتمر في يناير.
الآن متعدد الوسائط ، سيكون الإصدار الرابع من GPT قادرًا نظريًا على فهم طلب صوتي ورسم نتيجة في شكل نص أو صور. وبالمثل ، يمكن للذكاء الاصطناعي إنشاء نص أو فيديو أو مونتاج من خلال “النظر إلى” صورة. مع تعدد الوسائط ، تهدف مايكروسوفت إلى “جعل النماذج أكثر اكتمالاً” ، كما يلخص أندرياس براون.
يأتي هذا الإعلان بعد أيام من كشف باحثو مايكروسوفت النقاب عن Kosmos-1 ، وهو نموذج شامل متعدد الوسائط لحل الألغاز المرئية وتحليل محتوى الصورة. وفقًا لمبدعي Kosmos-1 ، يعد النهج متعدد الوسائط أحد الخطوات الكبيرة نحو إنشاء ذكاء اصطناعي عام ، والذي يمكن أن يعمل مثل الدماغ البشري. هذا هو الهدف الطويل المدى لشركة OpenAI.
لاحظ أنه لا يوجد ما يشير إلى أن العرض التقديمي سيأتي مع تحديث ChatGPT ونشر GPT-4 ، إما من خلال واجهة عامة أو واجهة برمجة تطبيقات. قد تكتفي مايكروسوفت و OpenAI بتقديم التغييرات الكبيرة في نموذج اللغة ، حتى لو لم يكن جاهزًا تمامًا بعد.
المصدر: Heise Online