Powszechna adopcja AI jest ograniczona przez rozwój jądra, specjalistyczne, niskopoziomowe rutyny, które wykonują obliczenia na GPU i akceleratorach (Źródło: Szczyt Utrzymania Jądra). Dlatego prowadzymy rundę finansowania @Standard_Kernel, gdy budują infrastrukturę natywną dla AI, aby zautomatyzować optymalizację jądra. Każda nowa architektura modelu może wymagać miesięcy specjalistycznego inżynierii, aby zoptymalizować te krytyczne dla wydajności bloki kodu. Wraz z eksplozją obciążeń AI i niedoborem inżynierów jądra, firmy marnują drogie zasoby obliczeniowe na suboptymalny kod, czekając na ręczne optymalizacje. Standard Kernel wykorzystuje LLM i systemy agentów do automatycznego generowania, testowania i optymalizacji jąder, przekształcając miesiące inżynierii w procesy w czasie rzeczywistym, które dostosowują się do nowego sprzętu i architektur. Wierzymy, że współzałożyciele @anneouyang i @ChrisRinard mają znakomitą wiedzę. Spotkali się jako asystenci naukowi w kursie Inżynieria Wydajności Systemów Oprogramowania na MIT. Anne jest autorką KernelBench, otwartego benchmarku Stanford dla jąder GPU generowanych przez LLM, który Nvidia. Chris wnosi głębokie doświadczenie systemowe i udowodnione przywództwo techniczne. Witamy w rodzinie GC!