Spodziewałem się, że to nastąpi: OpenAI ogłosiło, że opracowali wysoko wydajne mini wersje GPT-4, które będą działać lokalnie na laptopie lub telefonie. To przeniesie wiele obliczeń z centrów danych na nasze lokalne maszyny. Kiedy model nie będzie w stanie odpowiedzieć na pytanie lokalnie, może powiedzieć: „czekaj chwilę, podczas gdy skonsultuję się z umysłem hives…” lub coś w tym stylu i przeprowadzić obliczenia w chmurze. Wielkie pytanie dla nas, którzy zajmujemy się elektrycznością i światem centrów danych: jak to wpłynie na trendy budowy centrów danych, ich zapotrzebowanie na elektryczność oraz lokalizacje, w których mogą/chcą budować? Moja hipoteza: to wpłynie na zmniejszenie zapotrzebowania na obliczenia w scentralizowanych centrach danych, jednocześnie zwiększając stopień opóźnienia, z którym centra danych mogą sobie radzić (ponieważ zadania wymagające niskiego opóźnienia będą realizowane lokalnie).