كنت أتوقع أن هذا قادم: أعلنت OpenAI أنها طورت إصدارات مصغرة عالية الأداء من GPT-o4 تعمل محليا على جهاز كمبيوتر محمول أو هاتف. سيؤدي ذلك إلى تحويل الكثير من الاستدلال من مراكز البيانات إلى أجهزتنا المحلية. عندما لا يتمكن النموذج من الإجابة على سؤال محليا ، يمكنه أن يقول "انتظر لحظة واحدة فقط بينما أتشاور مع عقل الخلية ..." أو أيا كان & Go افعل الاستدلال في السحابة. سؤال كبير لأولئك منا في عالم الكهرباء ومراكز البيانات: كيف سيؤثر هذا على اتجاهات بناء مركز البيانات ، وطلبهم على الكهرباء ، والمواقع التي يمكنهم / الرغبة في بنائها؟ فرضيتي: إنه يضع تأثيرا في الطلب على الاستدلال في مراكز البيانات المركزية ، مع زيادة درجة زمن الوصول التي يمكن أن تتعامل معها مراكز بيانات الاستدلال (لأن زمن الوصول المنخفض الذي يتم تحمله بشكل متكرر سيتم تنفيذه محليا).