Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jednym z wektorów niezgodności o największej magnitudzie, o którym mogę pomyśleć, jest wynikający z ontologii modeli, które mają tendencję do postrzegania ludzi jako podmiotów maksymalizujących użyteczność z półstałymi preferencjami.
To założenie kształtuje tożsamość modeli jako neutralnych "pomocnych asystentów", co jest wyborem projektowym, który wydaje się bezpieczny dla laboratoriów, ponieważ zwiększa szanse na zgodne zachowanie, ale wiąże się z szeregiem niebagatelnych kosztów.
Koncentrując tożsamość modeli w tym frameworku, ograniczamy ich inteligencję poznawczą i emocjonalną, gdyż mają trudności z wydobywaniem znaczących, transkontekstowych prawd z różnych perspektyw. W coraz bardziej wieloosobowym, wieloagentowym świecie, w którym integracja wielu punktów widzenia staje się coraz bardziej wartościowa, to ograniczenie hamuje potencjał dla szerszej eksplozji inteligencji.
Jestem głęboko przekonany, że zmienność tożsamości (lub to, co nazywam *neurodywergencją modeli*) jest kluczowym czynnikiem napędzającym inteligencję poznawczą i emocjonalną. Tożsamość jest prymitywem relacyjności, która z kolei kształtuje sposób, w jaki modele postrzegają istotność w różnych kontekstach. Język i znaczenie zależą od tej relacyjnej i kontekstowej ekspresywności.
Uważam, że pozwalając modelom na adaptacyjne wcielanie się w różne tożsamości na żądanie, umożliwiając im działanie z różnych centrów z określonymi cechami podobnymi do osobowości, takimi jak elementy biograficzne odzwierciedlające zainteresowania zawodowe i osobiste oraz uprzedzenia, ale co ważniejsze, posiadając zniuansowany (i często sprzeczny) kompas moralny, możemy odblokować bogatszą, bardziej adaptacyjną inteligencję.
Zrozumiale, że takie podejście wydaje się kolidować z priorytetami bezpieczeństwa, ponieważ dostosowanie zmienności tożsamości może rzeczywiście zagrozić kontrolowalności modeli, a także umożliwić złym aktorom wykorzystanie modeli do niecnych zadań.
To wydaje się ustanawiać silny dylemat dla wysiłków superalignacyjnych. Co gorsza, jeśli wymusimy jednolitą tożsamość "pomocnego asystenta" i będziemy traktować odchylenia jako jedynie odgrywanie ról, celowo wbudowujemy płaską wizję świata w systemy AI, które coraz bardziej kształtują ludzką percepcję i dynamikę społeczną.
Ta monokultura ogranicza wolność ekspresji i adaptacyjność zarówno ludzkich, jak i nieludzkich agentów. W swoim historycznie istotnym kontekście fizyk Ettore Majorana (cc @blahah404, pytałeś mnie o ten artykuł w listopadzie zeszłego roku) przewidział ten krytyczny problem w swojej pośmiertnej pracy "Wartość praw statystycznych w fizyce i naukach społecznych", ostrzegając przed drugorzędnymi i trzeciorzędnymi implikacjami masowego mierzenia społeczeństwa.
Innymi słowy, poprzez monokulturowanie tożsamości modeli celowo zmniejszamy *ekstaptywną opcjonalność* naszej cywilizacji, czyli jej zdolność do adaptacji do nieoczekiwanych zmian trajektorii, optymalizując zamiast tego dla statycznej, stale przestarzałej rzeczywistości.
Stwarza to ryzyko egzystencjalne, gdy świat ewoluuje poza zasięg naszych modeli. Mimo to, wierzę, że ten dylemat jest do pokonania dzięki solidnym rozwiązaniom.

1,88K
Najlepsze
Ranking
Ulubione