مقالاتشركاتمن CUDA إلى AI: أسرار نجاح NVIDIA

من CUDA إلى AI: أسرار نجاح NVIDIA

-

NVIDIA هي الشركة الأولى في تاريخ صناعة الرقائق ، التي تجاوزت رسملتها تريليون دولار. ما سر النجاح؟

أنا متأكد من أن الكثيرين منكم قد سمعوا عن شركة NVIDIA ، ويربطها معظمكم بمعالجات الرسومات ، لأن الجميع تقريبًا قد سمعوا عبارة "NVIDIA GeForce".

NVIDIA

حققت NVIDIA مؤخرًا تاريخًا ماليًا في صناعة تكنولوجيا المعلومات. إنها أول شركة دوائر متكاملة تجاوزت قيمتها السوقية تريليون دولار. كما أنها خامس شركة ذات صلة بالتكنولوجيا في التاريخ تحقق مثل هذا النجاح الكبير (من خلال القيمة السوقية). في السابق ، كان بإمكان الناس فقط التباهي بهذا التصنيف العالي Appleو Microsoft و Alphabet (مالك Google) و Amazon. هذا هو السبب في أن الممولين يطلقون عليه أحيانًا اسم "نادي الأربعة" ، والذي يضم الآن NVIDIA.

بالإضافة إلى ذلك ، من حيث القيمة السوقية ، فهي متأخرة كثيرًا عن AMD و Intel و Qualcomm وشركات التكنولوجيا الأخرى. لم يكن هذا ممكناً لولا السياسة الحكيمة للشركة ، التي تم تقديمها قبل عقد من الزمن.

اقرأ أيضا: هل هناك مستقبل لـ TruthGPT لإيلون ماسك؟

طلب لا يصدق على NVIDIA H100 Tensor Core

ما سر هذه الزيادة في الرسملة؟ بادئ ذي بدء ، هذا هو رد فعل البورصة على نجاح شريحة NVIDIA H100 Tensor Core ، والتي يزداد الطلب عليها بين كبار مزودي البنية التحتية السحابية والخدمات عبر الإنترنت. يتم شراء هذه الرقائق بواسطة Amazon و Meta و Microsoft (لاحتياجاتهم الخاصة واحتياجات شريكهم - شركة OpenAI). فهي موفرة للطاقة بشكل خاص في تسريع العمليات الحسابية النموذجية للذكاء الاصطناعي التوليدي ، مثل ChatGPT أو Dall-E. هذه قفزة هائلة من حيث الحجم للحوسبة المتسارعة. نحصل على أداء غير مسبوق وقابلية للتطوير وأمان لأي حمل عمل باستخدام وحدة معالجة الرسومات NVIDIA H100 Tensor Core.

نفيديا-H100-موتر النواة

مع تبديل NVIDIA NVLink ، يمكن توصيل ما يصل إلى 256 وحدة معالجة رسومات H100 لتسريع أعباء العمل على نطاق exa. تتضمن وحدة معالجة الرسومات أيضًا محولًا خاصًا Engine لحل نماذج اللغة التي تحتوي على تريليونات من المعلمات. يمكن للابتكارات التكنولوجية المدمجة في H100 تسريع نماذج اللغة الكبيرة (LLMs) بمعدل لا يصدق 30 مرة مقارنة بالجيل السابق ، مما يوفر ذكاءً اصطناعيًا محادثة رائدًا في الصناعة. يعتبر المطورون أنه مثالي تقريبًا للتعلم الآلي.

ومع ذلك ، لم تظهر H100 من العدم. ولكي أقول الحقيقة ، فهي ليست ثورية بشكل خاص. استثمرت NVIDIA ، مثلها مثل أي شركة أخرى ، موارد ضخمة في الذكاء الاصطناعي لسنوات عديدة. نتيجة لذلك ، يمكن لشركة مرتبطة بشكل أساسي بعلامة بطاقة الرسومات GeForce التعامل مع السوق الاستهلاكية كأنها هواية تقريبًا. يؤدي هذا إلى بناء قوة حقيقية في سوق عمالقة تكنولوجيا المعلومات ، لأن NVIDIA يمكنها بالفعل التحدث إليهم على قدم المساواة.

مثير للاهتمام أيضًا: ما هي شبكات 6G ولماذا هناك حاجة إليها؟

هل الذكاء الاصطناعي هو المستقبل؟

اليوم ، الجميع مقتنعون بهذا ، حتى الخبراء المتشككين في هذا المجال. الآن هو تقريبا بديهية ، بديهية. على الرغم من علم NViDIA بذلك منذ 20 عامًا. هل فاجأتك؟

من الناحية الفنية ، حدث أول اتصال وثيق بين NVIDIA والذكاء الاصطناعي في عام 1999 ، عندما ظهر معالج GeForce 256 في السوق ، وهو قادر على تسريع حسابات التعلم الآلي. ومع ذلك ، بدأت NVIDIA في الاستثمار بجدية في الذكاء الاصطناعي فقط في عام 2006 ، عندما قدمت بنية CUDA ، والتي سمحت باستخدام إمكانات المعالجة المتوازية لمعالجات الرسومات للتدريب والبحث.

NVIDIA CUDA-

ما هو كودا؟ من الأفضل تعريفه على أنه منصة الحوسبة المتوازية وواجهة برمجة التطبيقات (API) التي تسمح للبرنامج باستخدام وحدات معالجة الرسومات للأغراض العامة (GPGPUs). يُطلق على هذا النهج اسم الحوسبة ذات الأغراض العامة على وحدات معالجة الرسومات. بالإضافة إلى ذلك ، CUDA عبارة عن طبقة برمجية توفر وصولاً مباشرًا إلى مجموعة التعليمات الافتراضية وعناصر الحوسبة المتوازية لمعالج الرسومات. إنه مصمم للعمل مع لغات البرمجة مثل C و C ++ و Fortran.

إن إمكانية الوصول هذه هي التي تسهل على المطورين المتوازيين استخدام موارد GPU ، على عكس واجهات برمجة التطبيقات السابقة مثل Direct3D و OpenGL ، والتي تتطلب مهارات برمجة رسومات متقدمة.

NVIDIA CUDA-

كان الإنجاز المهم هو توفير NVIDIA لقوة الحوسبة لشبكة AlexNet العصبية الرائدة. إنها شبكة عصبية تلافيفية (CNN) ، طورها الأوكراني Alex Kryzhevskyi بالتعاون مع Ilya Sutzkever و Jeffrey Ginton.

لطالما كانت الشبكات العصبية التلافيفية (CNN) هي النموذج المفضل للتعرف على الأشياء - فهي نماذج قوية يسهل التحكم فيها ويسهل تدريبها. لا يعانون من فرط التخصيص إلى أي حد ينذر بالخطر عند استخدامها على ملايين الصور. أداؤهم مطابق تقريبًا للشبكات العصبية القياسية للتغذية الأمامية من نفس الحجم. المشكلة الوحيدة هي أنه من الصعب تطبيقها على الصور عالية الدقة. تطلب حجم ImageNet ابتكارات يمكن تحسينها لوحدات معالجة الرسومات وتقليل وقت التدريب مع تحسين الأداء.

AlexNet

في 30 سبتمبر 2012 ، شاركت AlexNet في تحدي التعرف المرئي على نطاق واسع على ImageNetengه. حققت الشبكة درجة 15,3٪ في اختبار الأخطاء الخمسة الأولى ، أي أقل بنسبة تزيد عن 10,8٪ من درجة المركز الثاني.

كان الاستنتاج الرئيسي من العمل الأصلي هو أن تعقيد النموذج كان بسبب أدائه العالي ، والذي كان أيضًا مكلفًا للغاية من الناحية الحسابية ، ولكنه أصبح ممكنًا باستخدام وحدات معالجة الرسومات (GPUs) أثناء عملية التدريب.

تتكون الشبكة العصبية التلافيفية AlexNet نفسها من ثماني طبقات ؛ الخمسة الأولى عبارة عن طبقات تلافيفية ، يسبق بعضها طبقات متقاربة إلى أقصى حد ، والأخيرة عبارة عن طبقات متصلة بالكامل. تنقسم الشبكة ، باستثناء الطبقة الأخيرة ، إلى نسختين ، تعمل كل منهما على وحدة معالجة رسومات واحدة.

هذا ، بفضل NVIDIA ، لا يزال معظم الخبراء والعلماء يعتقدون أن AlexNet هو نموذج قوي بشكل لا يصدق قادر على تحقيق دقة عالية في مجموعات البيانات المعقدة للغاية. AlexNet هي الهندسة المعمارية الرائدة لأي مهمة للكشف عن الكائنات ويمكن أن يكون لها تطبيقات واسعة جدًا في قطاع رؤية الكمبيوتر لمشاكل الذكاء الاصطناعي. في المستقبل ، يمكن استخدام AlexNet أكثر من CNN في مجال التصوير.

مثير للاهتمام أيضًا: ظاهرة البلوز: ما نوع الخدمة وهل هي لفترة طويلة؟

الذكاء الاصطناعي ليس فقط في المختبرات ومراكز البيانات

رأت NVIDIA آفاقًا كبيرة للذكاء الاصطناعي أيضًا في تقنيات الأجهزة الاستهلاكية وإنترنت الأشياء. بينما بدأ المنافسون للتو في التفكير في استثمار أكثر شمولاً في نوع جديد من الدوائر المتكاملة ، تعمل NVIDIA بالفعل على تصغيرها. ربما تكون شريحة Tegra K1 ، التي تم تطويرها بالتعاون مع Tesla وشركات سيارات أخرى ، ذات أهمية خاصة.

نفيديا- Tegra-K1

يعد معالج Tegra K1 أحد معالجات NVIDIA الأولى المصممة خصيصًا لتطبيقات الذكاء الاصطناعي في الأجهزة المحمولة والأجهزة المدمجة. يستخدم Tegra K1 نفس بنية وحدة معالجة الرسومات مثل سلسلة NVIDIA GeForce و Quadro و Tesla لبطاقات الرسوم والأنظمة ، والتي توفر أداءً عاليًا وتوافقًا مع معايير الرسومات والحوسبة مثل OpenGL 4.4 و DirectX 11.2 و CUDA 6.5 و OpenCL 1.2. بفضل هذا ، يمكن لمعالج Tegra K1 دعم خوارزميات الذكاء الاصطناعي المتقدمة مثل الشبكات العصبية العميقة والتعلم المعزز والتعرف على الصور والكلام وتحليل البيانات. يحتوي Tegra K1 على 192 نواة CUDA.

في عام 2016 ، أصدرت NVIDIA سلسلة من معالجات Pascal المحسّنة لدعم الشبكات العصبية العميقة ونماذج الذكاء الاصطناعي الأخرى. في غضون عام ، ظهرت سلسلة من معالجات Volta في السوق للتطبيقات المتعلقة بالذكاء الاصطناعي ، والتي تعد أكثر كفاءة وموفرة للطاقة. في عام 2019 ، استحوذت NVIDIA على Mellanox Technologies ، الشركة المصنعة لشبكات الكمبيوتر عالية الأداء لمراكز البيانات وأجهزة الكمبيوتر العملاقة.

NVIDIA

نتيجة لذلك ، يستخدمون جميعًا معالجات NVIDIA. في السوق الاستهلاكية ، على سبيل المثال ، يستخدم اللاعبون خوارزمية DLSS الثورية لإعادة بناء الصورة ، والتي تتيح لهم الاستمتاع برسومات أكثر وضوحًا في الألعاب دون إنفاق الكثير من المال على بطاقة الرسومات. في سوق الأعمال ، من المسلم به أن رقائق NVIDIA تتعدى في نواح كثيرة ما تقدمه المنافسة. على الرغم من أن كل من Intel و AMD قد ناموا تمامًا خلال الثورة الفكرية.

مثير للاهتمام أيضًا: أفضل الأدوات المعتمدة على الذكاء الاصطناعي

Intel و AMD في مجال الذكاء الاصطناعي

دعنا نتحدث عن المنافسين المباشرين لـ NVIDIA في هذا الجزء من السوق. تعمل Intel و AMD هنا بنشاط متزايد ، ولكن مع تأخير طويل.

استحوذت إنتل على العديد من شركات الذكاء الاصطناعي مثل Nervana Systems و Movidius و Mobileye و Habana Labs لتعزيز محفظتها من تقنيات وحلول الذكاء الاصطناعي. تقدم إنتل أيضًا أنظمة أساسية للأجهزة والبرامج للذكاء الاصطناعي ، مثل معالجات Xeon و FPGAs وشرائح NNP ومكتبات التحسين. تعمل إنتل أيضًا مع شركاء من القطاعين العام والخاص لتعزيز الابتكار والتعليم في مجال الذكاء الاصطناعي.

إنتل وأيه إم دي

طورت AMD سلسلة من معالجات Epyc وبطاقات رسومات Radeon Instinct التي تم تحسينها لتطبيقات الذكاء الاصطناعي والتعلم العميق. دخلت AMD أيضًا في شراكة مع شركات مثل Google و Microsoft و IBM و Amazon لتوفير حلول الذكاء الاصطناعي المستندة إلى السحابة. كما تسعى AMD جاهدة للمشاركة في أبحاث وتطوير الذكاء الاصطناعي من خلال شراكات مع المؤسسات الأكاديمية والمنظمات الصناعية. كل هذا جيد للغاية ، على الرغم من أن NVIDIA تتقدم عليهم بالفعل ، ونجاحها في مجال تطوير ودعم خوارزميات الذكاء الاصطناعي أكبر بما لا يقاس.

مثير للاهتمام أيضًا: ملخص Google I / O 2023: Android 14 و Pixel والكثير من الذكاء الاصطناعي

ارتبط NVIDIA بألعاب الفيديو لعقود

لا ينبغي نسيان هذا أيضًا. لا تقدم NVIDIA تفصيلًا دقيقًا لإيراداتها بين أسواق المستهلكين وأسواق الأعمال ، ولكن يمكن تقديرها بناءً على قطاعات التشغيل التي تفصح عنها الشركة في بياناتها المالية. تميز NVIDIA أربعة قطاعات تشغيل: الألعاب والتصور الاحترافي ومراكز البيانات والسيارات.

NVIDIA

يمكن افتراض أن قطاع الألعاب يركز بشكل أساسي على السوق الاستهلاكية ، حيث يشمل بيع بطاقات الفيديو GeForce وشرائح Tegra لوحدات التحكم في الألعاب. يركز قطاع التصور الاحترافي بشكل أساسي على سوق الأعمال ، حيث يشمل بيع بطاقات الفيديو Quadro وشرائح RTX لمحطات العمل والتطبيقات الاحترافية. يركز قسم مركز البيانات أيضًا بشكل أساسي على سوق الأعمال ، حيث يشمل بيع وحدات معالجة الرسومات ووحدات المعالجة العصبية (أي رقائق الجيل التالي - لم تعد وحدات معالجة الرسومات ، ولكنها مصممة حصريًا للذكاء الاصطناعي) للخوادم والخدمات السحابية. يستهدف قطاع السيارات كلاً من أسواق المستهلكين والأعمال ، حيث يشمل مبيعات أنظمة Tegra و Drive للإعلام والترفيه والقيادة الذاتية.

NVIDIA

بناءً على هذه الافتراضات ، من الممكن تقدير حصة الإيرادات من أسواق المستهلك والأعمال في إجمالي إيرادات NVIDIA. وفقًا لآخر تقرير مالي لعام 2022 ، كانت إيرادات NVIDIA حسب قطاعات التشغيل على النحو التالي:

  • الألعاب: 12,9 مليار دولار
  • التصور الاحترافي: 1,3 مليار دولار
  • مراكز البيانات: 9,7 مليار دولار
  • السيارات: 0,8 مليار دولار
  • جميع القطاعات الأخرى: 8,7 مليار دولار

بلغ إجمالي إيرادات NVIDIA 33,4 مليار دولار أمريكي ، وبافتراض أن قطاع السيارات مقسم بالتساوي تقريبًا بين أسواق المستهلكين وأسواق الأعمال ، فيمكن حساب النسب التالية:

  • الدخل من السوق الاستهلاكية: (12,9 + 0,4) / 33,4 = 0,4 (40٪)
  • الدخل من سوق الأعمال: (1,3 + 9,7 + 0,4 + 8,7) / 33,4 = 0,6 (60٪)

هذا يعني أن حوالي 40٪ من إيرادات NVIDIA تأتي من السوق الاستهلاكية ، وحوالي 60٪ من سوق الأعمال. وهذا يعني أن الاتجاه الرئيسي هو قطاع الأعمال. لكن صناعة الألعاب تجلب أيضًا دخلاً جيدًا. أهم شيء أنها تنمو كل عام.

مثير للاهتمام أيضًا: يوميات رجل عجوز غاضب: Bing vs Google

ماذا سيجلب لنا المستقبل؟

من الواضح أن NVIDIA لديها بالفعل خطة للمشاركة في تطوير خوارزميات الذكاء الاصطناعي. وهي أوسع بكثير وأكثر واعدة من أي من منافسيها المباشرين.

في الشهر الماضي فقط ، أعلنت NVIDIA عن العديد من الاستثمارات الجديدة في الذكاء الاصطناعي. إحداها هي آلية GET3D ، القادرة على إنشاء نماذج ثلاثية الأبعاد معقدة لكائنات وشخصيات مختلفة تعكس الواقع بدقة. يمكن لـ GET3D إنشاء حوالي 20 عنصرًا في الثانية باستخدام شريحة رسومات واحدة.

يجب أيضًا ذكر مشروع أكثر إثارة للاهتمام. Israel-1 هو كمبيوتر عملاق لتطبيقات الذكاء الاصطناعي التي تقوم NVIDIA بإنشائها بالتعاون مع وزارة العلوم والتكنولوجيا الإسرائيلية و Mellanox. من المتوقع أن يحتوي الجهاز على أكثر من 7 بيتافلوبات من قوة الحوسبة واستخدام أكثر من 1000 وحدة معالجة رسومات NVIDIA A100 Tensor Core. سيتم استخدام Israel-1 للبحث والتطوير في مجالات مثل الطب وعلم الأحياء والكيمياء والفيزياء والأمن السيبراني. وهذه بالفعل استثمارات رأسمالية واعدة للغاية ، بالنظر إلى الآفاق طويلة الأجل.

NVIDIA

أيضًا ، يوجد بالفعل مشروع آخر - NVIDIA ACE. إنها تقنية جديدة تم إعدادها لإحداث ثورة في صناعة الألعاب من خلال السماح للاعب بالتفاعل مع شخصية غير لاعب (NPC) بطريقة طبيعية وواقعية. ستكون هذه الشخصيات قادرة على إجراء حوار مفتوح مع اللاعب ، والتفاعل مع مشاعره وإيماءاته ، وحتى التعبير عن مشاعرهم وأفكارهم. تستخدم NVIDIA ACE نماذج لغة متقدمة ومولدات صور تعتمد على الذكاء الاصطناعي.

أول تريليون دولار من NVIDIA. يبدو أنه سيكون هناك المزيد قريبًا. بالتأكيد سنتابع نجاح الشركة ونخبرك.

اقرأ أيضا:

Yuri Svitlyk
Yuri Svitlyk
ابن جبال الكاربات ، عبقري رياضي غير معترف به ، "محامي" Microsoft ، مؤثر عملي ، يساري
مقالات أخرى
اشتراك
يخطر حول
ضيف

0 التعليقات
المراجعات المضمنة
عرض كل التعليقات
شائع الآن