De flesta människor inser det inte ännu, men du kan nu styra en riktig robot bara genom att twittra på den. @RoboMove körs på CodecFlow, som bygger infrastrukturen för VLA-agenter. Det betyder att roboten ser vad som finns framför den, förstår vad du frågar och agerar på det, allt utan skript eller hårdkodning. Så här ser det ut: > Du twittrar ett kommando som "plocka upp den röda rutan" > Roboten provar det i sim > Du får ett videosvar av försöket > Det försöket uppdaterar robotens policy Varje interaktion är en del av träningsloopen. Och hela processen kommer att vara onchain, spårbar och transparent. Det är som att crowd träna en robot på internet, ganska galet imo. Med hjälp av simulering kan vi lära robotar på ett säkert sätt och i stor skala. Innan de ens rör vid den verkliga världen kan de lära sig balans, navigering, objekthantering och återhämtning, allt i en kontrollerad miljö. Detta påskyndar inlärningen massivt samtidigt som skador eller risker undviks. Ju fler användare som engagerar sig, desto snabbare utvecklas och generaliseras dessa policyer. Det är så vi får robotar som är redo för den verkliga världen utan att behöva massiv fysisk infrastruktur. Hittills har träning av robotar bara skett bakom stängda dörrar på platser som Tesla och Google. Nu är det öppet för vem som helst att delta, och modellen förbättras i realtid. Det finns också en marknadsplats på gång: > Köp eller sälj användbara robotbeteenden > Licensfärdigheter > Ladda upp utmaningar och bli belönad när roboten kommer på dem I grund och botten blir inlärda färdigheter handelsbara, som robotappar. Och @RoboMove är bara gränssnittet. Bakom den står Codecs VLA-agent, som ger robotar möjlighet att tänka och agera på egen hand. Det här är samma typ av teknik som Google visade upp med RT-2, förutom att Codec gör det öppet och decentraliserat och knyter det till krypto så att vem som helst kan delta. ...