Às vezes, a IA diz a coisa errada, não porque seja estúpida, mas porque ninguém a responsabiliza. Usei muitas "ferramentas de IA", escrevendo rapidamente e desenhando decentemente, mas toda vez que vejo isso compilando dados seriamente e falando sobre lógica, entendo uma coisa: geração nunca é um problema; A verificação é o limite. É por isso que me preocupo com @Mira_Network. Ele não quer ser o próximo ChatGPT, nem quer puxar um monte de GPUs para se envolver em competições de raciocínio. Ele faz a pergunta diretamente de uma perspectiva diferente - como podemos confiar na saída da IA? A resposta de Mira não é "temos um modelo mais forte", mas: "Se você quer que a IA fale, você tem que fazer com que ela seja verificada, responsabilizada e comprovada". ” Você usa IA para gerar um conteúdo no ecossistema Mira, que será dividido em uma série de pequenos julgamentos e lançado em vários nós para verificação. Você o usa para escrever um parágrafo, procurar uma definição, gerar um diagrama e ele lhe dirá: quem deu essa conclusão, se há um consenso e se é confiável. No passado, quando você usava IA, você a ouvia contar histórias. Agora, com Mira, você vê isso virar o dever de casa. Então eu digo que não é um aplicativo de IA, é mais como um "tribunal falante de IA". Claro, você pode continuar a usar a IA para escrever, desenhar e encontrar materiais, mas quando essa coisa começa a ditar conselhos médicos, termos de contrato, evidências de litígio, é melhor você ter um lugar onde possa ser endossado por alguém para cada palavra. Mira é um desses lugares. Não se trata de julgar por você, mas de garantir que o que você vê não seja inventado pela IA. @KaitoAI
13,06K