Uneori, AI spune un lucru greșit, nu pentru că este stupid, ci pentru că nimeni nu o trage la răspundere. Am folosit multe "instrumente AI", scriind rapid și desenând decent, dar de fiecare dată când îl văd compilând serios date și vorbind despre logică, înțeleg un lucru: generarea nu este niciodată o problemă; Verificarea este pragul. De aceea îmi pasă de @Mira_Network. Nu vrea să fie următorul ChatGPT și nici nu vrea să tragă o grămadă de GPU-uri pentru a se angaja în competiții de raționament. Pune direct întrebarea dintr-o perspectivă diferită - cum putem avea încredere în rezultatele AI? Răspunsul Mirei nu este "avem un model mai puternic", ci: "Dacă vrei ca AI să vorbească, trebuie să o faci să verifice, să fii tras la răspundere și să fie dovedită". ” Utilizați AI pentru a genera un conținut în ecosistemul Mira, care va fi împărțit într-o serie de judecăți mici și aruncat în mai multe noduri pentru verificare. Îl folosești pentru a scrie un paragraf, pentru a căuta o definiție, pentru a genera o diagramă și îți va spune: cine a dat această concluzie, dacă există un consens și dacă este credibil. În trecut, când foloseai AI, o ascultai spunând povești. Acum, cu Mira, o vezi transformându-se în teme. Așa că spun că nu este o aplicație AI, este mai degrabă o "instanță vorbitoare AI". Desigur, puteți continua să utilizați AI pentru a scrie, desena și găsi materiale, dar când acest lucru începe să dicteze sfaturi medicale, termeni contractuali, dovezi de litigiu, mai bine aveți un loc unde poate fi aprobat de cineva pentru fiecare cuvânt. Mira este un astfel de loc. Nu este vorba despre a judeca pentru tine, ci despre a te asigura că ceea ce vezi nu este inventat de AI. @KaitoAI