Я очікував, що це станеться: OpenAI оголосила, що розробила високопродуктивну міні-версію GPT-o4, яка працюватиме локально на ноутбуці чи телефоні. Це перенесе багато висновків з центрів обробки даних на наші локальні машини. Коли модель не може відповісти на запитання локально, вона може сказати: «Зачекайте лише одну мить, поки я пораджуся з розумом вулика...» або що завгодно робити висновки в хмарі. Велике питання для тих з нас, хто працює у світі електроенергетики та центрів обробки даних: як це вплине на тенденції будівництва центрів обробки даних, їхній попит на електроенергію та місця, які вони можуть/хочуть будувати? Моя гіпотеза: це знижує попит на висновок у централізованих центрах обробки даних, а також збільшує ступінь затримки, з якою центри обробки даних з висновками можуть мати справу (оскільки часто необхідні завдання з низькою затримкою будуть виконуватися локально).