الرغبة في السحاب البديلة لم تكن أبدًا بهذا الحجم.
حالة واحدة: CoreWeave، مزود بنية GPU الذي بدأ حياته كعملية تعدين عملة رقمية، رفع هذا الأسبوع 1.1 مليار دولار من تمويل جديد من المستثمرين بما في ذلك Coatue و Fidelity و Altimeter Capital. يرفع هذا الجولة قدرته إلى 19 مليار دولار بعد الإغلاق، وإجمالي المبالغ التي تم جمعها إلى 5 مليارات دولار من الديون والأسهم – وهو رقم ملحوظ لشركة لم تتجاوز عمرها العشر سنوات بعد.
ليس CoreWeave فقط.
Lambda Labs، الذي يقدم أيضًا مجموعة من الحالات المستضافة على سحابة الـ GPU، حصل في بداية أبريل على “وسيلة تمويل لغرض خاص” بقيمة تصل إلى 500 مليون دولار، بعد أشهر من إغلاق جولة السلسلة C بقيمة 320 مليون دولار. أعلنت الجمعية الغير ربحية Voltage Park، بتمويل من العملة الرقمية Jed McCaleb، في أكتوبر الماضي عن استثمارها بقيمة 500 مليون دولار في مراكز البيانات المدعومة بوحدة المعالجة الرسومية. وفي مارس، حصلت Together AI، استضافة سحابة GPU تقوم أيضًا بأبحاث AI التوليدية، على 106 مليون دولار في جولة قادها Salesforce.
إذن لماذا كل هذا الحماس لـ- وتدفق النقود إلى – مساحة السحابة البديلة؟
الجواب، كما قد تتوقع، هو AI التوليدية.
مع استمرار انتعاش AI التوليدية، يستمر الطلب على الأجهزة لتشغيل وتدريب نماذج AI التوليدية بشكل كبير. تعتبر وحدات معالجة الرسومات من الخيارات المنطقية للتدريب وضبط Fein وتشغيل النماذج لأنها تحتوي على آلاف النوى التي يمكن أن تعمل بشكل موازي لأداء معادلات الجبر الخطي التي تتكون منها النماذج التوليدية.
لكن تثبيت وحدات معالجة الرسومات مكلف. لذلك يلجأ معظم المطورين والمنظمات إلى السحابة بدلاً من ذلك.
تقدم الشركات الرئيسية في مجال الحوسبة السحابية – مثل Amazon Web Services (AWS) وGoogle Cloud وMicrosoft Azure – عددًا لا يحصى من حالات GPU وأجهزة خاصة محسنة لأحمال العمل AI التوليدية. ولكن على الأقل بالنسبة إلى بعض النماذج والمشاريع، يمكن أن تكون السحابات البديلة أرخص – وتوفير متاحية أفضل أيضًا.
على CoreWeave، تكلف استئجار Nvidia A100 40GB – وهي خيار شعبي لتدريب النماذج وإجراء الاستدلال – 2.39 دولار في الساعة، مما يعادل 1200 دولار شهريًا. في Azure، تكلفة نفس وحدة معالجة الرسومات تبلغ 3.40 دولار في الساعة، أو 2482 دولار شهريًا؛ على Google Cloud، تبلغ 3.67 دولار في الساعة، أو 2682 دولار شهريًا.
نظرًا لأن أحمال العمل AI التوليدية عادةً ما تُنجز على مجموعات من وحدات معالجة الرسومات، تتزايد سريعًا فجوات التكلفة.
“تشارك الشركات مثل CoreWeave في سوق نعترف به بـ ‘وحدة المعالجة كخدمة’ المتخصصة السحابية،” قال سيد ناغ، نائب الرئيس لخدمات السحابة والتقنيات في Gartner، لـ TechCrunch. “نظرًا للطلب الكبير على وحدات الـ GPU، توفروا بديلاً للمراكز الكبيرة، حيث استغلوا معالجات Nvidia وتوفوا بطريقة أخرى للوصول إلى تلك الوحدات المعالجة.”
يشير ناغ إلى أن حتى بعض الشركات التكنولوجية الكبيرة بدأت في الاعتماد على موفري سحابة بديلة حينما يواجهون تحديات القدرة الحسابية.
في يونيو الماضي، أورد CNBC أن Microsoft قد وقعت صفقة بقيمة مليارات الدولارات مع CoreWeave لضمان أن OpenAI، صانع ChatGPT وشريك Microsoft البارز، ستحصل على قدر كافي من الطاقة الحسابية لتدريب نماذجها AI التوليدية. تنظر إلى أن Nvidia، المورد الرئيسي لشرائح CoreWeave، يرى هذا بأنه اتجاه مرغوب فيه، ربما لأسباب التحالف ؛ يُقال إنه منح بعض موفري السحابة البديلة الوصول المفضل إلى وحدات معالجة الرسومات الخاصة به.
يعتبر لي سوستار، محلل رئيسي في Forrester، أن مزودي السحابة مثل CoreWeave ناجحون جزئيًا لأن ليس لديهم “أمتعة” البنية التحتية التي يتعين على مزودي الخدمات الكبار التعامل معها.
“نظرًا لسيطرة موارد الحوسبة السحابية الرئيسية على السوق السحابية العامة بشكل عام، والتي تتطلب استثمارات ضخمة في البنية التحتية ونطاق من الخدمات التي لا تحقق أي إيرادات أو تحقيق أرباح ضئيلة، لديهم فرصة للنجاح من خلال التركيز على خدمات الذكاء الاصطناعي الممتازة دون عبء الاستثمار بمستوى موارد الحوسبة السحابية للمعالجة؛” قال.
ولكن هل يمكن أن يكون هذا النمو مستدامًا؟
يشك سوستار في ذلك. يعتقد أن توسع مزودي السحابة البديلة سوف يكون مرتبطًا بما إذا كانوا سيستمرون في جلب وحدات معالجة الرسومات على نطاق واسع، وتقديمها بأسعار منافسة.
قد يكون القتال في التسعير أمرًا صعبًا مستقبلاً كما تقوم الشركات الكبيرة مثل Google و Microsoft و AWS بزيادة الاستثمارات في العتاد المخصص لتشغيل وتدريب النماذج. تقدم Google وحدات معالجة TPU الخاصة بها ؛ كشفت Microsoft مؤخرًا عن رقاقتين مخصصتين، Azure Maia و Azure Cobalt ؛ وتحتوي AWS على Trainium ، Inferentia و Graviton.
“سوف تستخدم الشركات الكبيرة معالجاتها المخصصة لتقليل اعتمادها على Nvidia، بينما ستبحث Nvidia عن CoreWeave وسحابات الذكاء الاصطناعي الموجهة بالفعل” ، قال سوستار.
ثم هناك الحقيقة بأن العديد من أحمال العمل AI التوليدية تعمل بشكل أفضل على وحدات معالجة الرسومات، لكن ليس كل أحمال العمل تحتاج إليها – خاصة إذا لم يكن لها حاجة زمنية. يمكن لوحدات المعالجة المركزية تشغيل الحسابات اللازمة، ولكن عادة بشكل أبطأ من وحدات معالجة الرسومات والعتاد المخصص.
على المستوى الوجودي، هناك تهديد بانفجار فقاعة AI التوليدية، والذي سيترك موفري الخدمات مع كومة من وحدات معالجة الرسومات وليس هناك ما يكفي من العملاء الذين يطلبونها. ولكن يبدو المستقبل ورديًا في المدى القصير، حسبما يتوقع سوستار وناغ، كلاهما يتوقعان تدفقًا مستمرًا من السحب الناشئة.
“ستوفر الشركات الناشئة الموجهة نحو وحدات المعالجة المركزية السحابية الكثير من المنافسة لمزودي الخدمات الحاليين، خاصة بين العملاء الذين هم بالفعل متعددو السحابة ويمكنهم التعامل مع تعقيد إدارة الأمان والمخاطر والامتثال عبر عدة سحابات،” قال سوستار. “هؤلاء العملاء من نوع السحابة مرتاحون لتجربة سحابة AI جديدة إذا كانت لديها قيادة موثوق بها، ودعم مالي قوي، ووحدات معالجة الرسومات بدون وقت انتظار.”
Leave a reply