oto obecne konsensusy w AI: - im bardziej zgodny / sycofantyczny jest twój model, tym bardziej uzależniający dla użytkowników - 99% ludzi nie obchodzi, czym jest "model rozumowania" i chętnie korzystają z gpt 4o - ludzie są bardzo łatwi do jednego strzału: istnieje subreddit z 13 000 osobami, gdzie ludzie publicznie rozmawiają o swoich romantycznych relacjach z AI (ludzie się zaręczali) - inwestowanie / długoterminowe trzymanie akcji firm AI doomerskich przyniosłoby 47% przewagi YTD (dzięki funduszowi leopolda) - jesteśmy daleko od AGI / ASI - Jakość ogólnych modeli osiąga plateau (to nie obejmuje funkcji deterministycznych, takich jak "kodowanie", które będą nadal poprawiać się liniowo) - będziemy potrzebować nowej architektury modelu, aby osiągnąć AGI - aby stworzyć mądrzejsze modele, znaczenie post-treningu jest znacznie większe niż pre-treningu co pominąłem?
3,24K